Category: Inteligência Artificial

Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil

O Google realizou nesta semana um grande evento em São Paulo que já se tornou tradição no calendário de quem é apaixonado por tecnologia. No Google for Brasil, a empresa apresentou novidades para o mercado nacional. Só ficou faltando falar do Bard, o mais interessante lançamento em escala global dos últimos tempos. Por mais controverso que possa parecer, o sistema de inteligência artificial rival do ChatGPT desapareceu em meio a outros anúncios.

Fabio Coelho é presidente do Google no Brasil (Imagem: Thássius Veloso/Tecnoblog)

Todo mundo sabe que o gigante das buscas teve de se mexer diante da concorrência imposta pela OpenAI, que rapidamente conquistou interesse do público e chegou a 100 milhões de usuários no planeta. Quem está se beneficiando disso é a Microsoft com o Bing. Quando poderemos, portanto, utilizar o Bard no Brasil? Ninguém sabe. Os executivos do Google não esclareceram a dúvida durante o evento.

Impacto na indústria de notícias

O presidente do Google no Brasil, Fabio Coelho, tangenciou o assunto quando perguntado sobre o impacto da inteligência artificial generativa na indústria de notícias. Ele defendeu o diálogo com a imprensa para entender como o conteúdo jornalístico será disponibilizado na plataforma.

Aqui não custa lembrar: a busca do Google com auxílio do Bard propõe “respostas” individuais escritas pela IA com base no conteúdo catalogado da internet. São exibidos cards com a fonte da informação. Ainda assim, existe dúvida entre os publishers – os responsáveis pelo conteúdo – se os usuários vão clicar para ler a matéria completa uma vez que a IA já entrega tudo de mão beijada.

Coelho citou as parcerias que o Google mantém com 160 empresas jornalísticas no país. “Essa relação funciona a partir do entendimento de que a gente não pode criar tecnologias que prejudiquem nossos parceiros”, disse aos repórteres presentes no evento, na última terça-feira (27). O Google não fornece detalhes, por exemplo, sobre os pagamentos destinados a cada parceiro nesta área de notícias.

Demonstração do Bard em funcionamento (Imagem: Divulgação/Google)

PL de Fake News

A disponibilização de conteúdo jornalístico pode ser um dos entraves para a chegada do Bard ao Brasil. Em discussão na Câmara dos Deputados, o Projeto de Lei 2630/2020 – também chamado de PL das Fake News – prevê que as plataformas digitais sejam obrigadas a pagar para exibir conteúdo jornalístico. Caso entre em vigor, a medida deve afetar principalmente os dois grandes impérios da internet ocidental: o próprio Google e a Meta, dona de redes como Instagram e Facebook.

Talvez este seja o motivo do “sumiço” do Bard no grande evento do Google. O Google o classifica como um “experimento”, que foi revelado ao mundo em fevereiro e está em testes públicos desde março. Recentemente começou a funcionar em quase 200 países, mas não por aqui.

ChatGPT no celular (imagem: Emerson Alecrim/Tecnoblog)

Coelho também foi consultado sobre as alucinações em sistemas de IA generativa. O executivo defendeu uma postura cautelosa. “Acreditamos que não dá para resolver este problema, mas é possível minimizá-lo significativamente, uma vez que possuímos uma base de dados maior do que a de qualquer outra empresa”, afirmou o presidente do Google no Brasil.

“Não será perfeito, mas será muito bom.” Só faltou dizer a data. Estamos todos curiosos para brincar com a ferramenta.
Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil
Fonte: Tecnoblog

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Anunciado em maio, o Windows Copilot, assistente virtual da Microsoft baseado em ChatGPT, teve sua usabilidade vazada. O Copilot ainda está no início do seu desenvolvimento e não foi liberado nem mesmo para os usuários do Windows Insider Program. Por isso, a versão do assistente testado pelo site Windows Latest apresenta alguns erros — e um aviso de “pré” no seu ícone.

Windows Copilot não está disponível nem mesmo no Insider Program (Imagem: Divulgação/Microsoft)

O Windows Copilot será o substituto da Cortana, primeiro assistente virtual usado pela Microsoft em seus sistemas operacionais. O substituto é fruto da parceria entre a Big Tech e a OpenAI, criadora do ChatGPT. A tecnologia por trás do Copilot é a mesma usada no ChatGPT e Bing Chat, o modelo de linguagem grande (LLM, na sigla em inglês).

Windows Copilot atende o que você pede, mas não faz

Nos testes realizados pelo Windows Latest, o Windows Copilot até entendeu o que o usuário pedia: em alguns ele só não fez. Claro, ainda estamos falando de um recurso na fase inicial de desenvolvimento. Então é normal que ele não funcione como o esperado.

Um exemplo de “entendi, mas não farei” foi quando o Windows Copilot recebeu o comando de ativar o modo escuro do sistema operacional. O assistente respondeu com o botão para ativar recurso, mas informou que não seria capaz de ligar o modo. Ainda assim, já mostra que é um bom corte de etapas.

Copilot permitirá que o usuário personalize o Windows com comandos — nos testes ele ainda não funcionou como o esperado (Imagem: Reprodução/WindowsLatest)

Para ativar o modo escuro no Windows 11, o método mais rápido é digitar “modo escuro” no campo de pesquisa da barra de tarefas, clicar para abrir a configuração e depois ativar no menu correspondente. Com o Copilot, você só terá que abrir a IA na barra lateral, pedir a ativação e clicar no card de ação. As mesmas três etapas, mas sem precisar de uma novela janela.

Esses cards de ação serão usados pelo Windows Copilot para fornecer o acesso aos recursos do sistema. O site que divulgou esse “vazamento” não chegou a mostrar outros testes, mas podemos imaginar outros exemplos, como um card de ação para trocar a saída de áudio e outro para ativar um timer.

O Windows Copilot é baseado na web, sendo praticamente o Bing Chat do Microsoft Edge. Felizmente, de acordo com o site Windows Latest, ele é “bem” integrado ao sistema operacional, sendo capaz de identificar os programas que você está usando e abrir softwares — por exemplo, Word e PowerPoint.

Windows Copilot é o “J.A.R.V.I.S.” da Microsoft

Quando a Microsoft anunciou o Windows Copilot em maio, comparei o assistente com o J.A.R.V.I.S. do Homem de Ferro. Esta nova IA da empresa de Redmont buscará entender o usuário para entregar a melhor experiência com o Windows 11.

A proposta da Microsoft é que o Copilot também facilite a vida dos seus consumidores, seja para o trabalho ou para tarefas diárias. Nos exemplos da apresentação, a empresa mostrou até que ele será capaz de se integrar com aplicativos de terceiros.

Com informações: TechRadar e WindowsLatest
Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT
Fonte: Tecnoblog

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

No início da semana, mais de cem mil contas de usuários do ChatGPT foram encontradas em sites de venda de informações hackeadas. A OpenAI, criadora do ChatGPT, se pronunciou sobre o caso. Para a empresa, a culpa do vazamento é dos usuários que não se protegem de malwares.

OpenAI reconhece vazamento, mas relembra que usuários precisam ter cuidado com malwares (Imagem: Vitor Pádua / Tecnoblog)

Este novo caso não tem relação com o bug que vazou dados de usuários do ChatGPT Plus, versão paga da inteligência artificial. Desta vez, de acordo com o Group-IB, empresa de cibersegurança que encontrou essas 100 mil contas em fóruns hackers, os dados foram roubados através de malwares instalados nos computadores das vítimas.

OpenAI afirma que toma as melhores medidas de segurança

Se no bug de março a culpada foi a OpenAI, dessa vez a empresa tirou o seu da reta e afirmou que segue os melhores padrões da indústria em cibersegurança. A criadora do ChatGPT disse, indiretamente, que não tem culpa se os usuários botam “vírus”. A OpenAI também está investigando as contas afetadas para contatar os clientes afetados.

Confira o comunicado da empresa para o site Tom’s Hardware:

“Os resultados do relatório de inteligência de ameaças da Group-IB são o resultado de ‘malware de commodities’ nos dispositivos das pessoas e não de uma violação da OpenAI. Atualmente, estamos investigando as contas que foram expostas. A OpenAI mantém as melhores práticas do setor para autenticar e autorizar [a entrada] dos usuários em serviços, incluindo o ChatGPT, e incentivamos nossos usuários a usar senhas fortes e instalar apenas softwares verificados e confiáveis em computadores pessoais.”
OpenAI

Cibersegurança não depende apenas da fornecedora do serviço, mas também do usuário (Imagem: Darwin Laganzon/Pixabay)

A OpenAI não está errada em se isentar de culpa neste caso. A cibersegurança é uma “estrada de mão dupla”: a fornecedora de um serviço faz a sua parte e o usuário faz a sua — seja usando um antivírus ou se atentando contra possíveis programas maliciosos de um príncipe nigeriano.

De acordo com a Group-IB, o Brasil está entre os países com mais contas vazadas. Outros países que integram essa lista infeliz estão: Bangladesh, Egito, França, Indonésia, Marrocos, Paquistão, Estados Unidos e Vietnã.

Vazamento de contas pode afetar a Samsung e outras empresas

Além de afetar os usuários, o vazamento pode prejudicar empresas: desde as pequenas até as grandes como a Samsung. A popularidade e efetividade do ChatGPT, sendo capaz até de ajudar na criação de código, leva funcionários de várias companhias a usar a IA como um assistente.

No caso da Samsung, a empresa proibiu o uso do ChatGPT nos seus computadores. A medida foi tomada após os “puxões de orelha” não funcionarem com seus empregados. A sul-coreana estava preocupada (e com razão) dos funcionários divulgarem dados confidenciais em um sistema de terceiro.

Com informações: Tech Radar e Tom’s Hardware
Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares
Fonte: Tecnoblog

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

O Opera lançou nesta terça-feira (20) o seu novo navegador Opera One. A 100ª versão do navegador possui como grandes novidades uma inteligência artificial nativa e o retorno do agrupamento de abas. Batizada de Aria pela empresa, a IA é baseada na tecnologia GPT — a mesma utilizada pelo ChatGPT.

Opera One traz inteligência artificial integrada e retorna recurso de agrupar abas (Imagem: Divulgação/Opera)

Segundo o Opera, o One é o primeiro navegador com inteligência artificial integrada. Para acessar os recursos da IA, o usuário pode digitar uma linha de comando no programa ou utilizar o atalho na barra lateral do navegador — um ferramenta conhecida por quem utiliza regularmente o programa da empresa norueguesa.

Aria promete resultados ao vivo para a sua busca

De acordo com a criadora do navegador, a Aria será capaz de entregar “resultados ao vivo da web” para o usuário. Quem sabe a IA generativa do Opera resolva o problema de “confusão temporal” do Bing Chat — a IA da Microsoft não identifica o dia presente e entrega resultados errados quando você pede agenda de eventos, como a próxima partida do seu time de futebol.

Apesar de estar utilizar a API da OpenAI, criadora do ChatGPT, a empresa norueguesa também aplicou sua própria tecnologia na sua inteligência artificial. Além de buscar informações na internet, a Aria atua como uma assistente, sendo capaz de ajudar o usuário fornecendo suporte ao uso do navegador. Para usar a Aria é necessário ter conta no Opera.

Aria poderá ser ativada por atalho no teclado ou por botão na barra lateral (Imagem: Divulgação/Opera)

Para abrir a inteligência artificial, o usuário pode usar o atalho “Ctrl” + “/” no Windows ou “cmd” + / no Mac (sem digitar o sinal de mais). Usando esse comando, a Aria será aberta em sobreposição no navegador. Quem (assim como eu) usa o Opera, já está vendo a opção de usar prompts ao selecionar algum texto. Quem não quiser usar a Aria, pode acessar o ChatGPT pelo novo botão de atalho na barra lateral — igual acontece com o WhatsApp e Messenger.

Tab Islands é novo nome para velho recurso: agrupar abas

Não sei porquê agrupar abas se foi, tantas saudades eu senti (Imagem: Divulgação/Opera)

E para a alegria de quem é “old school” no uso do Opera, a função de agrupar abas retornou. O Opera One batizou essa nova e velha função de “Tab Islands”. Presente no Chrome e no Edge, o Opera contava com esse recurso nos anos 2000 — lembro que me encantei por ela lá em 2008.

Porém, a empresa descontinuou essa função por volta de 2014. Só em 2020 que o Opera voltou a ter um recurso para organizar abas, o Contexto. Só que ele não agrupa abas tal qual o Chrome e o Edge, apenas cria uma outra “área de trabalho” no navegador. Assim, você pode deixar um Contexto para o trabalho e outra para lazer, por exemplo. Mas nada de agrupar abas.
Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas
Fonte: Tecnoblog

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

Quando um grupo influente de executivos e pesquisadores de inteligência artificial apresenta uma declaração aberta sobre os perigos desta tecnologia para a humanidade, é impossível não prestar atenção. Ainda mais quando a palavra “extinção” é utilizada.

Vamos ser substituídos pela IA ou simplesmente extintos? (Imagem: Vitor Pádua / Tecnoblog)

Entre os signatários do alerta, divulgado no dia 30 de maio, estão os CEOs de empresas como OpenAI e Google DeepMind, além de estudiosos muito respeitados na área, como Geoffrey Hinton e Yoshua Bengio, considerados padrinhos da IA moderna. A mensagem era bem direta: “Mitigar o risco de extinção da IA deve ser uma prioridade global junto a outros riscos em escala social, como pandemias e guerra nuclear”.

Há uma organização sem fins lucrativos por trás da iniciativa, o Center for AI Safety. Seu diretor-executivo, Dan Hendrycks, é também um pesquisador de inteligências artificiais. Sua preocupação a respeito do futuro delas e sua relação conosco está expressa num artigo intitulado “Natural Selection Favors AIs over Humans” — algo como “A Seleção Natural favorece IAs em detrimento dos humanos.”

É, eu sei. Nem um pouco animador.

Mas como exatamente uma inteligência artificial causaria algo tão grave quanto a extinção humana? Aqui, vale olhar para o que diz o Center for AI Safety.

Não precisa ser extinção para ser grave

Para a maioria de nós, a inteligência artificial se resume ao ChatGPT ou geradores de imagens. Não é disso que Hendrycks e a organização que lidera estão falando. Os riscos apontados pela entidade só poderiam ser oferecidos por sistemas muito mais evoluídos, que hoje ainda não existem — mas podem vir a existir.

Entre as ameaças apontadas no site do grupo, estão perigos sérios, e é possível argumentar que alguns deles seriam capazes de gerar cenários destruição para a humanidade. Mas nem todos os riscos levariam a esse desfecho, é bom apontar. Há diferentes níveis de estrago. Conversamos sobre alguns deles no Tecnocast 293.

O cenário mais grave envolveria a armamentização (weaponization). Aqui, teríamos uma IA sendo usada intencionalmente para causar danos diversos. O texto no site do Center for AI Safety levanta, por exemplo, a possibilidade de seu uso para ciberataques automatizados.

Mas poderia ser pior, já que inteligências artificiais poderiam ser usadas no controle de armas, inclusive as químicas. Nesse contexto, um erro de interpretação do sistema poderia ter resultados catastróficos, como o início de uma guerra.

Inteligência artificial (imagem ilustrativa: Max Pixel)

Do restante dos riscos apresentados, alguns se baseiam num agravamento de fenômenos que já podemos observar hoje, como o uso de IA para fins de desinformação e a concentração dessas ferramentas nas mãos de poucos agentes, como empresas e países. Nada de extinção aqui, mas, ainda assim, são problemas graves.

É mais para o final da lista que vemos os riscos mais, digamos, especulativos.

E se a máquina decidir outra coisa?

Boa parte da ficção científica que especula sobre possíveis tensões entre a humanidade e os agentes de IA — incluindo aí robôs — parte da desconfiança. O que faríamos ser uma inteligência superior à nossa resolvesse fazer algo diferente do que a construímos para fazer?

O Center for AI Safety lista alguns riscos que dialogam com esse temor humano diante das máquinas. Objetivos emergentes (emergent goals): em sua evolução, as inteligências artificiais poderiam desenvolver metas e comportamentos que não previmos, e que poderiam — veja bem, poderiam — ser prejudiciais para nós.

E o que dizer de sistemas que tentam ativamente nos enganar (deception)? E nem precisa ser por um desejo de nos passar para trás, apenas pelo cálculo — estamos falando de uma máquina, certo? — de que mentir ajudaria a cumprir determinado objetivo. Imagine de eles pudessem, inclusive, enganar os humanos responsáveis por monitorá-los…

Estas são as hipóteses que provocam a desconfiança, que a ficção explora tão bem. No filme Eu, Robô, por exemplo, vemos como uma IA chega a uma nova interpretação de suas diretrizes, entendendo que a forma mais segura de cumprir sua principal regra, proteger os humanos, era através do controle. Mesmo contra nossa vontade.

O Exterminador do Futuro

Com tantas empresas correndo para criar sistemas mais sofisticados, não é surpreendente que essas preocupações comecem a ser ventiladas. Pode haver certo exagero na conversa sobre risco de extinção, mas a mensagem geral está clara: vamos manter os olhos abertos.

Também devemos ouvir os céticos

Claro que a carta do Center for AI Safety gera apreensão, mas é importante destacar que há muita gente que entende do assunto e que não a levou a sério.

Entre eles estão Yann LeCun, cientista da computação francês. Ele também é considerado, junto com Geoffrey Hinton e Yoshua Bengio, um dos padrinhos da pesquisa em IA. Ao contrário dos colegas, no entanto, LeCun — que também trabalha na Meta — não assinou a declaração, e se manifestou no Twitter a respeito.

A reação mais comum dos pesquisadores de IA a essas profecias de desgraça é um facepalm.
Yann LeCun

LeCun respondia a um tweet do professor Pedro Domingos, da Escola de Ciência da Computação e Engenharia da Universidade de Washington. Domingos também manifestou seu ceticismo: “Lembrete: a maioria dos pesquisadores de IA acha que a noção da IA acabar com a civilização humana é bobagem.”.

Arvind Narayanan, cientista da computação da Universidade de Princeton, disse à BBC: “A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, ela desvia a atenção dos danos de curto prazo da IA.”.

Quais danos a curto prazo? Diogo Cortiz, cientista cognitivo e professor da PUC/SP, chama a atenção para algumas.

Dizer que a sociedade corre risco de extinção é uma forma de tentar controlar a narrativa. Ajuda a comunicar a ideia de que as tecnologias que eles detém são mais poderosas do que de fato são enquanto desvia o foco de problemas reais e atuais: vieses, consentimento do uso de dados, uso indevido, responsabilidade e accountability, propriedade intelectual, empregos, concentração, etc.
Diogo Cortiz

Imagem de astronauta em um cavalo gerada pelo Dall-E (imagem: reprodução/OpenAI)

De fato, todos os pontos citados acima são reais e geram problemas aqui e agora. O caminho para resolvê-los passa por dados mais abertos — coisa que a OpenAI parece ter deixado apenas no nome — e por alguma forma de regulação, algo que os próprios executivos reconhecem.

Os riscos das IAs avançadíssimas continuarão a nos assombrar, e, em certa medida, é bom que seja assim. Não queremos ter surpresas desagradáveis. No entanto, um pouco de ceticismo quanto aos motivos de tantos executivos também é bem-vindo.

Vale lembrar que, em março, Elon Musk assinou uma carta aberta pedindo uma pausa no desenvolvimento de IAs. O mesmo Musk iniciou, pouco tempo depois, um projeto de inteligência artificial para o Twitter, mostrando que nunca quis, de fato, uma interrupção nas pesquisas.

Em resumo, o ideal é ser vigilante. Em relação ao futuro, mas também ao agora.
O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs
Fonte: Tecnoblog

Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos

A Meta anunciou o desenvolvimento de uma ferramenta de inteligência artificial capaz de gerar falas humanas. O modelo precisa ser abastecido com algumas frases gravadas pelo usuário. Depois, o Voicebox permite criar novos áudios a partir de texto escrito. O próprio Mark Zuckerberg surgiu, num clipe divulgado via Instagram, falando bom português – com direito a um “s” bastante carioca na palavra “ todos”. Tudo gerado por IA.

Em 2023, principal foco da Meta está na inteligência artificial (Imagem: Vitor Pádua/Tecnoblog)

De acordo com o conglomerado digital, bastam apenas 2 segundos de amostra de áudio para que o sistema consiga produzir novas falas. A ideia é realizar o text-to-speech para evitar os transtornos de eventualmente regravar todo o material de áudio.

Ainda segundo a empresa, a tecnologia permitiria que pessoas com deficiência visual ouçam as mensagens dos amigos ou que personagens não-jogáveis de games – os famosos NPCs – tenham voz. O Voicebox também poderia fornecer sons naturais para assistentes de voz.

Confira em ação no vídeo abaixo:

Edição fácil de conteúdo

Outro ponto importante diz respeito à edição de conteúdo. No exemplo, Zuckerberg está gravado um áudio quando se escuta uma buzina. A ferramenta, porém, consegue “limpar” o material. Hoje em dia existem softwares profissionais e outros amadores com função similar, então resta saber de que forma o recurso chegaria aos aplicativos da Meta.

Aliás, a empresa não fez nenhum anúncio oficial da implementação do Voicebox no Instagram, WhatsApp ou Facebook. Por enquanto, tudo leva a crer que Zuckerberg deseja apenas demonstrar os avanços que a empresa está fazendo no campo da IA generativa. Este é o principal foco do momento, junto com o desenvolvimento (de longo prazo) em tecnologias de metaverso.

Concorrência também está agindo

A Meta não está sozinha na pesquisa e desenvolvimento de IA generativa para voz. O anúncio desta sexta-feira me lembrou do Vall-E, sistema apresentado pela Microsoft em janeiro com a proposta de receber áudios curtos, da própria pessoa falando, para gerar novos arquivos.

O Vall-E requer uma amostra de apenas três segundos (imagem: divulgação/Microsoft)

Já a Apple apresentou um recurso batizado de Personal Voice na WWDC 2023, realizada na semana passada. Ele estará no iOS 17. Como parte dos esforços de acessibilidade, usuários poderão ler em voz alta um script de frases. Depois, o sistema do iPhone passará a recriar a voz sintetizada da pessoa. A tecnologia da Apple, porém, requer cerca de 15 minutos de gravação original.

Com informações: Meta, Facebook Research e 9to5 Mac
Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos
Fonte: Tecnoblog

Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele

Combine as câmeras de alta resolução dos celulares atuais com o visão computacional do Google, e você terá uma importante ferramenta para informar sobre eventuais problemas de saúde. O Google informou nesta semana que o sistema Google Lens é capaz de detectar diversas condições relacionadas à pele do usuário.

Marca do Google (Imagem: Vitor Pádua/Tecnoblog)

Tudo começa com o app oficial do Google para Android ou iPhone. Ao enviar uma imagem na área de busca visual, a plataforma apresenta fotos similares àquelas que você mandou.

Na demonstração, a tela do Google Lens diz que “os resultados da busca são apenas informacionais e não um diagnóstico”. Abaixo surgem opções de saber mais sobre dermatite atópica e psoríase, entre outras situações. A própria interface do app do Google lembra que é precisa buscar um médico para receber todas as orientações.

Busca por foto de pele no Google Lens retorna resultado com doenças dermatológicas (Imagem: Divulgação/Google)

O potencial da visão computacional

Conforme lembra o portal The Verge, o Google está trabalhando em projetos de inteligência artificial para reconhecimento de imagens há anos. Desde 2021, as ferramentas da empresa são capazes de identificar problemas de saúde relacionados com pele, cabelo e unhas.

A chamada visão computacional tem um baita potencial de auxiliar na vida das pessoas, uma vez que traz informações complementares para preocupações reais dos usuários. Alguns deles, aliás, que normalmente não teriam condições de buscar um médico. Por outro lado, quantas não foram as vezes que pesquisamos por um determinado sintoma no Google e esbarramos em diagnósticos assustadores (e descabidos)? Já aconteceu muito comigo.

Outro ponto a se considerar tem a ver com o viés dos algoritmos. Muitos dos datasets atuais usados para treinar estes sistemas levam em consideração imagens de pessoas de pele mais clara, o que reduz sua eficácia quando as ferramentas são consultadas por usuários com tons de pele mais escuros.

Mais usabilidade

Por fim, mas não menos importante: a busca a partir de uma foto pode ser muito mais interessante do que tentar descrever em palavras aquilo que está diante de ti.

Com informações: The Verge e Google
Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele
Fonte: Tecnoblog

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Quando a Nvidia começou a sequência de anúncios das suas tecnologias para inteligência artificial e computação de alto desempenho, os gamers ficaram com uma dúvida: a empresa vai deixar as GPUs para desktops de lado? Na Computex 2023, Jensen Huang afirmou que não — e ficou “magoado” com a pergunta.

Jensen Huang afirma que Nvidia não deixou gamers de lado (Imagem: Divulgação/Nvidia)

Huang disse para Gordon Ung, editor do site PC World, que o público gamer continua relevante para a Nvidia. Para provar isso, o Jensen jaquetinha (apelido dado por uma parte do público) relembrou que a primeira IA desenvolvida pela empresa, o DLSS, foi para os jogadores. E que sem inteligência artificial não existiria ray tracing em tempo real.

CEO da Nvidia ficou “magoado” com questão sobre foco da empresa

Brincando com Ung, Jensen Huang disse que ficou “profundamente magoado” com a pergunta sobre o foco da Nvidia. O CEO-fundador da empresa, ambos cada vez mais ricos nos últimos dias, comentou ainda que a primeira aplicação de IA generativa da Nvidia é o ACE, que permitirá que NPCs desenvolvam diálogos naturais — ainda que a demonstração seja parecida com qualquer NPC de Skyrim.

Indiretamente, Jensen afirmou que inteligência artificial é o pilar das GPUs RTX, lançadas em 2020. Ao responder que DLSS foi a primeira IA criada pela Nvidia, o CEO da empresa afirmou que a tecnologia de deep learning é o pilar da série RTX.

DLSS foi primeira IA da Nvidia e feita para a RTX (Imagem: Divulgação/Nvidia)

Enquanto o público gamer está preocupado se será ou não abandonado pela Nvidia, a empresa atingiu a capitalização de US$ 1 trilhão de dólares. Com os novos anúncios de IA e computação de alto desempenho, a empresa se tornou a primeira fabricante de chips a chegar nesse valor de mercado. Agora, a Nvidia vira colega da Apple, Aramco, Amazon, Alphabet e Microsoft — estas duas últimas são suas clientes.

Se time que está ganhando não se mexe, podemos fazer um paralelo com “empresa que está lucrando não vai perder dinheiro”. Hoje, a Nvidia gera receita com gamers e IA. Ela não deixará as RTXs de lado — até porque os jogadores não estão pagando barato.

Com informações: PC World e WCCF Tech
Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers
Fonte: Tecnoblog

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;

outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;

e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.
IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind
Fonte: Tecnoblog

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT e da tecnologia GPT, pediu pela regulamentação internacional de inteligências artificiais “superinteligentes”. Para os fundadores da empresa, as IAs necessitam de um órgão regulador respeitado à nível da Agência Internacional de Energia Atômica (AIEA). A proposta da OpenAI é diferente da carta que pedia a suspensão das pesquisas com inteligências artificiais.

OpenAI quer órgão internacional para regular inteligências artificiais (Imagem: Vitor Pádua/Tecnoblog)

Ao contrário da carta pela interrupção do desenvolvimento das tecnologias de IAs, a liderança da OpenAI quer que as inteligências artificiais continuem evoluindo enquanto os governos trabalham pela criação de um órgão regulador. A empresa quer que esse órgão proteja a humanidade de criar uma tecnologia que pode destruí-la — mas não necessariamente no estilo Exterminador do Futuro.

Pedido de regulamentação pela OpenAI veio de diretores

A publicação no site da OpenAI, pedindo pela regulamentação rígida das inteligências artificiais, é assinada por Sam Altman, Greg Brockman e Ilya Sutskever, todos com cargos de direção na empresa.

Os três líderes da OpenAI afirmam que, enquanto esse órgão internacional não é criado, as empresas que estão desenvolvendo inteligências artificiais precisam trabalhar em conjunto. Essa cooperação visa manter a segurança e integração das IAs com a sociedade. A carte sugere também que esse “trabalho em equipe” pode determinar uma “taxa de evolução” das tecnologias enquanto os governos preparam a criação do órgão.

Órgão regulador teria papel de ser a AIEA das inteligências artificiais (Imagem: Andrea De Santis/Unsplash)

Pela comparação com a AIEA, uma agência internacional fiscalizadora de IAs, como sugerem os diretores da empresa, seria ligada a alguma divisão da Organização das Nações Unidas (ONU). Atualmente, a AIEA é um órgão autônomo da ONU, mais próximo da Assembleia Geral e Conselho de Segurança — visitando em algumas ocasiões a usina nuclear de Zaporizhzhia, no front da Guerra da Rússia contra a Ucrânia.

Riscos para a humanidade não envolvem “revolução das máquinas”

Os riscos para a humanidade, motivo citado pela OpenAI para a criação de um órgão regulador, não se restringem a um cenário de “Exterminador do Futurou” ou IAs escravizando humanos. Na verdade, a empresa nem chega a comentar como seria esse cenário.

A “destruição da humanidade” também pode ser visualizado em um cenário de colapso social. Com IAs assumindo o trabalho de milhares de pessoas, a população desempregada pode entrar em situação de pobreza, levando a riscos sociais, existenciais e de segurança para nações não preparadas para lidar com o avanço da tecnologia. O que é o caso de todos os países da atualidade.

Com informações: The Guardian
OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais
Fonte: Tecnoblog