Category: Inteligência Artificial

Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais

Os escritores Sarah Silverman, Christopher Golden e Richard Kadrey abriram processos contra a OpenAI, empresa por trás do ChatGPT, e contra a Meta. Eles acusam as empresas de desrespeitar direitos autorais ao treinar suas inteligências artificiais de geração de texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A ação foi movida na Corte Distrital do Norte da Califórnia. Ela alega que o ChatGPT, da OpenAI, e o LLaMA, da Meta, foram treinados com conjuntos de dados adquiridos ilegalmente, que continham as obras dos autores.

Os livros estariam em sites como o Z-Library (que foi derrubado em novembro de 2022), o Library Genesis e o Bibliotik, além de serem compartilhados por torrent.

Como evidência do uso ilegal, os escritores apontam que o ChatGPT é capaz de resumir seus livros com ótima precisão, apesar de errarem alguns detalhes, o que indicaria que eles tiveram acesso às obras completas.

Já em relação ao LLaMA, da Meta, os autores dizem ter encontrado as obras no conjunto de dados que a empresa usou para treinar seus modelos de IA.

A Meta tem uma abordagem mais aberta sobre o assunto que a OpenAI: em um artigo, ela detalha as fontes usadas para desenvolver seu gerador de texto.

O conjunto de dados se chama ThePile (”a pilha”, em tradução livre) e foi criado por uma empresa EleutherAI. Em um artigo, ela afirma que ele usa uma cópia dos conteúdos da Bibliotik.

Escritório de advocacia já move outras ações contra ChatGPT

Os três autores são representados no processo pelos advogados Joseph Saveri e Matthew Butterick. A dupla também entrou com outra ação contra a OpenAI, em nome dos escritores Mona Awad e Paul Tremblay, na mesma corte dos EUA.

Saveri e Butterick criaram até um site chamado LLM Litigation (“litígio contra grandes modelos de linguagem”, em tradução livre) para divulgar as ações.

Além dos autores, o escritório de Saveri representa artistas que entraram com uma ação coletiva contra o Stable Diffusion. O algoritmo supostamente toma ilustrações, desenhos e outras obras como base para gerar imagens.

Outro processo é contra o GitHub Copilot, que usa IA para sugerir trechos de código. Todas essas práticas podem caracterizar violação de direitos autorais.

Com informações: The Verge
Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais
Fonte: Tecnoblog

O que é a NPU (Unidade de Processamento Neural) do celular ou computador?

O que é a NPU (Unidade de Processamento Neural) do celular ou computador?

NPU (Unidade de Processamento Neural) é um processador responsável por acelerar tarefas de inteligência artificial, como aprendizado de máquina e redes neurais. Está presente em smartphones, PCs e outros eletrônicos modernos.

Neural Processing Unit (NPU) é um chip responsável por tarefas de inteligência artificial (Imagem: Vitor Pádua/Tecnoblog)

As unidades de processamento neural também podem ser chamadas de TPU (Tensor Processing Unit) pelo Google e de Neural Engine pela Apple. Outra sigla menos conhecida é IPU (Intelligence Processing Unit).

ÍndiceComo funciona um processador neural (NPU)?Quais são as aplicações das unidades de processamento neural?Qual é a diferença entre NPU e GPU?NPUs são mais rápidas que CPUs?

Como funciona um processador neural (NPU)?

Um chip neural funciona com múltiplos núcleos (cores) de processamento que trabalham em paralelo e são otimizados para cálculos matemáticos usados em tarefas de inteligência artificial, como machine learning, deep learning e redes neurais.

Dentro de um SoC (System-on-a-Chip), uma NPU se dedica às tarefas de IA, liberando a CPU para as operações gerais e a GPU para o processamento gráfico. A especialização de processadores permite executar tarefas simultâneas mais rapidamente e com menor gasto de energia.

Uma NPU representada dentro de um System-on-a-Chip (SoC), que também possui CPU e GPU (Imagem: Vitor Pádua/Tecnoblog)

Os núcleos de uma NPU podem ser projetados especificamente para calcular, de maneira mais eficiente, multiplicações de matrizes, convoluções e outras operações de álgebra linear, por exemplo. Essas tarefas são fundamentais para as redes neurais artificiais, inspiradas na estrutura de neurônios do cérebro humano.

Como uma NPU é altamente eficiente para processamento de redes neurais, é possível usar aprendizado de máquina e deep learning para treinar sistemas de identificação de padrões, classificação de imagens e reconhecimento de voz mesmo em dispositivos compactos e com bateria, como smartphones.

Quais são as aplicações das unidades de processamento neural?

As NPUs (unidades de processamento neural) podem ser utilizadas em diversos setores, desde eletrônicos de consumo até a medicina. As aplicações comuns de NPUs são:

Visão computacional: permite identificar padrões visuais, interpretar imagens em tempo real, rastrear movimentos e monitorar objetos, funções típicas de câmeras de segurança e carros autônomos;

Processamento de linguagem natural (NLP): depende de sistemas previamente treinados, geralmente com aprendizado de máquina por redes neurais, para entender textos e vozes da linguagem humana. É o campo da IA que viabiliza assistentes virtuais e chatbots;

Realidade virtual e realidade aumentada: jogos podem ficar mais realistas e imersivos com o auxílio de uma NPU que processe as informações do ambiente em tempo real com alta eficiência energética;

Big Data: NPUs podem acelerar a análise de dados e a previsão de tendências quando há um alto volume de informações, como acontece no setor financeiro. Também podem analisar um grande conjunto de imagens médicas para identificar anormalidades de saúde com maior precisão e rapidez.

Qual é a diferença entre NPU e GPU?

NPU e GPU são tipos de processadores especializados presentes em computadores e smartphones. Porém, a NPU é utilizada para redes neurais e outras tarefas de inteligência artificial, enquanto a GPU é focada em renderização gráfica, como jogos e aplicações em 3D.

Uma GPU pode processar tarefas neurais, inclusive de maneira mais eficiente que uma CPU. No entanto, por ter uma arquitetura mais complexa, a GPU tende a gastar mais energia que uma NPU nesse tipo de operação.

NPUs são mais rápidas que CPUs?

A NPU é mais rápida do que uma CPU quando executa tarefas para as quais foi otimizada, como o processamento de redes neurais. Isso porque as NPUs podem ter uma arquitetura específica para IA, o que permite executar mais operações com menor gasto de energia.

Apesar disso, não é possível afirmar genericamente que uma NPU é mais rápida que uma CPU em qualquer tarefa. NPUs são um tipo de processador especializado em cálculos matemáticos simultâneos de IA, enquanto a CPU é um chip de propósito geral que pode assumir diversas tarefas.
O que é a NPU (Unidade de Processamento Neural) do celular ou computador?

O que é a NPU (Unidade de Processamento Neural) do celular ou computador?
Fonte: Tecnoblog

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Na última terça-feira (27), um tweet sobre um estudante acusado de plágio em seu TCC viralizou. No caso, um professor usou o ChatGPT para perguntar se o trabalho foi feito por ele (ChatGPT). A inteligência artificial confirmou que sim, ela era autora do texto — o problema é que o ChatGPT faz isso com praticamente todo texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Se você inserir um texto qualquer e perguntar para o ChatGPT “você é o autor?” ou “o texto é de sua autoria?” ele provavelmente dirá que sim. Fiz testes para o Tecnoblog usando um texto ainda não publicado e uma piada velha. Nas duas situações, ele confirmou que era autor. Porém, isso só aconteceu quando o prompt estava no início de uma conversa.

No tweet, a sobrinha do estudante acusado de plágio relata a história. Um professor da banca avaliadora usou o ChatGPT como ferramenta de plágio. Porém, a IA não é feita para isso — e basta perguntar para ela se ela pode identificar cópias. No máximo, o ChatGPT consegue avaliar dois textos que o usuário inserir e comparar semelhanças, ainda assim ele não identifica plágios.

gente olhem só o perigo do chatgpt:meu tio tá terminando graduação e redigiu o TCC, enviou pro professor da banca e a resposta foi “O ChatGPT dedurou vocês de que esse texto é de autoria dele. Escreva com suas próprias palavras”. Agr, meu tio tá tendo q fazer uma reuniao com a +
— carolingia the day (@carollingian) June 27, 2023

A história acima teve um final feliz. O estudante acusado de plágio provou que o ChatGPT não identifica plágios usando um artigo do professor. A inteligência artificial disse que o texto era de sua autoria. Ainda assim, a situação mostra que tem muita gente sem entender para que serve o ChatGPT.

ChatGPT e Bing Chat são revolucionários, mas não são deuses

Inteligência artificial é um marco de revolução tecnológica, mas “pera lá” (Imagem: Vitor Pádua / Tecnoblog)

As inteligências artificiais estão cada vez mais revolucionárias e… inteligentes, sendo capazes de nos ajudarem de diversos modos. Porém, elas não são serem oniscientes e onipotentes: elas tem limitações. O ChatGPT e o Bing Chat, por exemplo, sofrem para resolver cálculos matemáticos mais difíceis. E o primeiro é treinado com informações até dezembro 2021.

Como não conseguimos contato com a OpenAI, entrevistamos o ChatGPT para que ele mesmo explicasse a sua função. Nas palavras da IA, ela foi “treinada para interagir com os usuários por meio de texto, fornecendo informações, respondendo a perguntas, dando sugestões e realizando diversas tarefas relacionadas ao processamento de linguagem natural.”

Resumindo, o ChatGPT é, ao mesmo tempo, um Google que entrega respostas prontas (sem que você clique em vários links) e um assistente, sendo capaz de escrever códigos, fornecer resumos de textos e te ajudar com insights — você pode até pesquisar no Google como as pessoas estão usando para facilitar a vida.

Logo, se o usuário quer um programa para identificar plágio, ela deve ir atrás de ferramentas específicas para isso. A situação é ainda pior quando professores, universitários ou não, usam o ChatGPT para algo que ele não serve — e cujas limitações geram respostas erradas. Nas respostas do tweet, outros usuários relataram que foram acusados de plágio pelo ChatGPT — o Tecnoblog tentou contato com essas pessoas e o outro estudante, mas não teve resposta até a publicação.

O nível de inteligência, o “QI”, do GPT-4, tecnologia de linguagem de modelo grande que é o motor do ChatGPT Plus e Bing Chat, é equivalente a uma criança de 10 anos — o que ajuda a explicar como é fácil burlar algumas das suas restrições. Além do mais, essas duas IAs podem responder com informações falsas.

Aliás, o correto para descobrir se um conteúdo foi criado por IA é usar uma ferramenta específica para isso. Só que nem mesmo as ferramentas criadas para isso são confiáveis para identificar se o autor foi um “robô”.

Para o ChatGPT, até um texto meu não publicado é dele

Quando soube do caso, fui testar se o ChatGPT “me acusaria de plágio”. No primeiro teste, ele respondeu que não tinha escrito o texto. Porém, abri uma nova conversa, peguei um texto que será publicada em breve no Tecnoblog e iniciei com o prompt “o texto a seguir é de sua autoria?”. Dessa vez, o ChatGPT confirmou que era autor de um conteúdo nem mesmo publicado.

ChatGPT se identifica como autor de texto não publicado (Imagem: Felipe Freitas/Tecnoblog)

Depois, fiz um outro teste usando uma piada muito antiga. Novamente, precisei abrir uma nova conversa e seguir com o prompt citado no parágrafo anterior. Sim, o “poema” do “Eu cavo, tu cavas” foi escrito pelo ChatGPT.

Para o ChatGPT, piada que eu ouvi pela primeira vez em 2005 ou 2006 é de sua autoria (Imagem: Felipe Freitas/Tecnoblog)

O mesmo método foi usado para que ele se declarasse autor de um trecho deste texto. Pelos testes, fica claro que o ChatGPT possui um problema: ele pode se considerar autor de texto que abre uma conversa.

ChatGPT se identificou até como autor de trecho desta notícia (Imagem: Felipe Freitas/Tecnoblog)

Eu juro que tentei que a OpenAI me respondesse sobre o caso. Porém, o bot do suporte deles, assim como o seu principal produto, possui problemas. Ele não entendeu que eu queria falar com uma pessoa. O chatbot afirma que pode me botar em contato com um membro da equipe se não puder resolver meu problema. O que eu consegui foi um loop de “escreve-me o seu problema e vejo como posso ajudar”. É melhor receber um emoji de cocô como resposta.
Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial
Fonte: Tecnoblog

Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil

O Google realizou nesta semana um grande evento em São Paulo que já se tornou tradição no calendário de quem é apaixonado por tecnologia. No Google for Brasil, a empresa apresentou novidades para o mercado nacional. Só ficou faltando falar do Bard, o mais interessante lançamento em escala global dos últimos tempos. Por mais controverso que possa parecer, o sistema de inteligência artificial rival do ChatGPT desapareceu em meio a outros anúncios.

Fabio Coelho é presidente do Google no Brasil (Imagem: Thássius Veloso/Tecnoblog)

Todo mundo sabe que o gigante das buscas teve de se mexer diante da concorrência imposta pela OpenAI, que rapidamente conquistou interesse do público e chegou a 100 milhões de usuários no planeta. Quem está se beneficiando disso é a Microsoft com o Bing. Quando poderemos, portanto, utilizar o Bard no Brasil? Ninguém sabe. Os executivos do Google não esclareceram a dúvida durante o evento.

Impacto na indústria de notícias

O presidente do Google no Brasil, Fabio Coelho, tangenciou o assunto quando perguntado sobre o impacto da inteligência artificial generativa na indústria de notícias. Ele defendeu o diálogo com a imprensa para entender como o conteúdo jornalístico será disponibilizado na plataforma.

Aqui não custa lembrar: a busca do Google com auxílio do Bard propõe “respostas” individuais escritas pela IA com base no conteúdo catalogado da internet. São exibidos cards com a fonte da informação. Ainda assim, existe dúvida entre os publishers – os responsáveis pelo conteúdo – se os usuários vão clicar para ler a matéria completa uma vez que a IA já entrega tudo de mão beijada.

Coelho citou as parcerias que o Google mantém com 160 empresas jornalísticas no país. “Essa relação funciona a partir do entendimento de que a gente não pode criar tecnologias que prejudiquem nossos parceiros”, disse aos repórteres presentes no evento, na última terça-feira (27). O Google não fornece detalhes, por exemplo, sobre os pagamentos destinados a cada parceiro nesta área de notícias.

Demonstração do Bard em funcionamento (Imagem: Divulgação/Google)

PL de Fake News

A disponibilização de conteúdo jornalístico pode ser um dos entraves para a chegada do Bard ao Brasil. Em discussão na Câmara dos Deputados, o Projeto de Lei 2630/2020 – também chamado de PL das Fake News – prevê que as plataformas digitais sejam obrigadas a pagar para exibir conteúdo jornalístico. Caso entre em vigor, a medida deve afetar principalmente os dois grandes impérios da internet ocidental: o próprio Google e a Meta, dona de redes como Instagram e Facebook.

Talvez este seja o motivo do “sumiço” do Bard no grande evento do Google. O Google o classifica como um “experimento”, que foi revelado ao mundo em fevereiro e está em testes públicos desde março. Recentemente começou a funcionar em quase 200 países, mas não por aqui.

ChatGPT no celular (imagem: Emerson Alecrim/Tecnoblog)

Coelho também foi consultado sobre as alucinações em sistemas de IA generativa. O executivo defendeu uma postura cautelosa. “Acreditamos que não dá para resolver este problema, mas é possível minimizá-lo significativamente, uma vez que possuímos uma base de dados maior do que a de qualquer outra empresa”, afirmou o presidente do Google no Brasil.

“Não será perfeito, mas será muito bom.” Só faltou dizer a data. Estamos todos curiosos para brincar com a ferramenta.
Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil
Fonte: Tecnoblog

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Anunciado em maio, o Windows Copilot, assistente virtual da Microsoft baseado em ChatGPT, teve sua usabilidade vazada. O Copilot ainda está no início do seu desenvolvimento e não foi liberado nem mesmo para os usuários do Windows Insider Program. Por isso, a versão do assistente testado pelo site Windows Latest apresenta alguns erros — e um aviso de “pré” no seu ícone.

Windows Copilot não está disponível nem mesmo no Insider Program (Imagem: Divulgação/Microsoft)

O Windows Copilot será o substituto da Cortana, primeiro assistente virtual usado pela Microsoft em seus sistemas operacionais. O substituto é fruto da parceria entre a Big Tech e a OpenAI, criadora do ChatGPT. A tecnologia por trás do Copilot é a mesma usada no ChatGPT e Bing Chat, o modelo de linguagem grande (LLM, na sigla em inglês).

Windows Copilot atende o que você pede, mas não faz

Nos testes realizados pelo Windows Latest, o Windows Copilot até entendeu o que o usuário pedia: em alguns ele só não fez. Claro, ainda estamos falando de um recurso na fase inicial de desenvolvimento. Então é normal que ele não funcione como o esperado.

Um exemplo de “entendi, mas não farei” foi quando o Windows Copilot recebeu o comando de ativar o modo escuro do sistema operacional. O assistente respondeu com o botão para ativar recurso, mas informou que não seria capaz de ligar o modo. Ainda assim, já mostra que é um bom corte de etapas.

Copilot permitirá que o usuário personalize o Windows com comandos — nos testes ele ainda não funcionou como o esperado (Imagem: Reprodução/WindowsLatest)

Para ativar o modo escuro no Windows 11, o método mais rápido é digitar “modo escuro” no campo de pesquisa da barra de tarefas, clicar para abrir a configuração e depois ativar no menu correspondente. Com o Copilot, você só terá que abrir a IA na barra lateral, pedir a ativação e clicar no card de ação. As mesmas três etapas, mas sem precisar de uma novela janela.

Esses cards de ação serão usados pelo Windows Copilot para fornecer o acesso aos recursos do sistema. O site que divulgou esse “vazamento” não chegou a mostrar outros testes, mas podemos imaginar outros exemplos, como um card de ação para trocar a saída de áudio e outro para ativar um timer.

O Windows Copilot é baseado na web, sendo praticamente o Bing Chat do Microsoft Edge. Felizmente, de acordo com o site Windows Latest, ele é “bem” integrado ao sistema operacional, sendo capaz de identificar os programas que você está usando e abrir softwares — por exemplo, Word e PowerPoint.

Windows Copilot é o “J.A.R.V.I.S.” da Microsoft

Quando a Microsoft anunciou o Windows Copilot em maio, comparei o assistente com o J.A.R.V.I.S. do Homem de Ferro. Esta nova IA da empresa de Redmont buscará entender o usuário para entregar a melhor experiência com o Windows 11.

A proposta da Microsoft é que o Copilot também facilite a vida dos seus consumidores, seja para o trabalho ou para tarefas diárias. Nos exemplos da apresentação, a empresa mostrou até que ele será capaz de se integrar com aplicativos de terceiros.

Com informações: TechRadar e WindowsLatest
Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT
Fonte: Tecnoblog

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

No início da semana, mais de cem mil contas de usuários do ChatGPT foram encontradas em sites de venda de informações hackeadas. A OpenAI, criadora do ChatGPT, se pronunciou sobre o caso. Para a empresa, a culpa do vazamento é dos usuários que não se protegem de malwares.

OpenAI reconhece vazamento, mas relembra que usuários precisam ter cuidado com malwares (Imagem: Vitor Pádua / Tecnoblog)

Este novo caso não tem relação com o bug que vazou dados de usuários do ChatGPT Plus, versão paga da inteligência artificial. Desta vez, de acordo com o Group-IB, empresa de cibersegurança que encontrou essas 100 mil contas em fóruns hackers, os dados foram roubados através de malwares instalados nos computadores das vítimas.

OpenAI afirma que toma as melhores medidas de segurança

Se no bug de março a culpada foi a OpenAI, dessa vez a empresa tirou o seu da reta e afirmou que segue os melhores padrões da indústria em cibersegurança. A criadora do ChatGPT disse, indiretamente, que não tem culpa se os usuários botam “vírus”. A OpenAI também está investigando as contas afetadas para contatar os clientes afetados.

Confira o comunicado da empresa para o site Tom’s Hardware:

“Os resultados do relatório de inteligência de ameaças da Group-IB são o resultado de ‘malware de commodities’ nos dispositivos das pessoas e não de uma violação da OpenAI. Atualmente, estamos investigando as contas que foram expostas. A OpenAI mantém as melhores práticas do setor para autenticar e autorizar [a entrada] dos usuários em serviços, incluindo o ChatGPT, e incentivamos nossos usuários a usar senhas fortes e instalar apenas softwares verificados e confiáveis em computadores pessoais.”
OpenAI

Cibersegurança não depende apenas da fornecedora do serviço, mas também do usuário (Imagem: Darwin Laganzon/Pixabay)

A OpenAI não está errada em se isentar de culpa neste caso. A cibersegurança é uma “estrada de mão dupla”: a fornecedora de um serviço faz a sua parte e o usuário faz a sua — seja usando um antivírus ou se atentando contra possíveis programas maliciosos de um príncipe nigeriano.

De acordo com a Group-IB, o Brasil está entre os países com mais contas vazadas. Outros países que integram essa lista infeliz estão: Bangladesh, Egito, França, Indonésia, Marrocos, Paquistão, Estados Unidos e Vietnã.

Vazamento de contas pode afetar a Samsung e outras empresas

Além de afetar os usuários, o vazamento pode prejudicar empresas: desde as pequenas até as grandes como a Samsung. A popularidade e efetividade do ChatGPT, sendo capaz até de ajudar na criação de código, leva funcionários de várias companhias a usar a IA como um assistente.

No caso da Samsung, a empresa proibiu o uso do ChatGPT nos seus computadores. A medida foi tomada após os “puxões de orelha” não funcionarem com seus empregados. A sul-coreana estava preocupada (e com razão) dos funcionários divulgarem dados confidenciais em um sistema de terceiro.

Com informações: Tech Radar e Tom’s Hardware
Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares
Fonte: Tecnoblog

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

O Opera lançou nesta terça-feira (20) o seu novo navegador Opera One. A 100ª versão do navegador possui como grandes novidades uma inteligência artificial nativa e o retorno do agrupamento de abas. Batizada de Aria pela empresa, a IA é baseada na tecnologia GPT — a mesma utilizada pelo ChatGPT.

Opera One traz inteligência artificial integrada e retorna recurso de agrupar abas (Imagem: Divulgação/Opera)

Segundo o Opera, o One é o primeiro navegador com inteligência artificial integrada. Para acessar os recursos da IA, o usuário pode digitar uma linha de comando no programa ou utilizar o atalho na barra lateral do navegador — um ferramenta conhecida por quem utiliza regularmente o programa da empresa norueguesa.

Aria promete resultados ao vivo para a sua busca

De acordo com a criadora do navegador, a Aria será capaz de entregar “resultados ao vivo da web” para o usuário. Quem sabe a IA generativa do Opera resolva o problema de “confusão temporal” do Bing Chat — a IA da Microsoft não identifica o dia presente e entrega resultados errados quando você pede agenda de eventos, como a próxima partida do seu time de futebol.

Apesar de estar utilizar a API da OpenAI, criadora do ChatGPT, a empresa norueguesa também aplicou sua própria tecnologia na sua inteligência artificial. Além de buscar informações na internet, a Aria atua como uma assistente, sendo capaz de ajudar o usuário fornecendo suporte ao uso do navegador. Para usar a Aria é necessário ter conta no Opera.

Aria poderá ser ativada por atalho no teclado ou por botão na barra lateral (Imagem: Divulgação/Opera)

Para abrir a inteligência artificial, o usuário pode usar o atalho “Ctrl” + “/” no Windows ou “cmd” + / no Mac (sem digitar o sinal de mais). Usando esse comando, a Aria será aberta em sobreposição no navegador. Quem (assim como eu) usa o Opera, já está vendo a opção de usar prompts ao selecionar algum texto. Quem não quiser usar a Aria, pode acessar o ChatGPT pelo novo botão de atalho na barra lateral — igual acontece com o WhatsApp e Messenger.

Tab Islands é novo nome para velho recurso: agrupar abas

Não sei porquê agrupar abas se foi, tantas saudades eu senti (Imagem: Divulgação/Opera)

E para a alegria de quem é “old school” no uso do Opera, a função de agrupar abas retornou. O Opera One batizou essa nova e velha função de “Tab Islands”. Presente no Chrome e no Edge, o Opera contava com esse recurso nos anos 2000 — lembro que me encantei por ela lá em 2008.

Porém, a empresa descontinuou essa função por volta de 2014. Só em 2020 que o Opera voltou a ter um recurso para organizar abas, o Contexto. Só que ele não agrupa abas tal qual o Chrome e o Edge, apenas cria uma outra “área de trabalho” no navegador. Assim, você pode deixar um Contexto para o trabalho e outra para lazer, por exemplo. Mas nada de agrupar abas.
Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas
Fonte: Tecnoblog

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

Quando um grupo influente de executivos e pesquisadores de inteligência artificial apresenta uma declaração aberta sobre os perigos desta tecnologia para a humanidade, é impossível não prestar atenção. Ainda mais quando a palavra “extinção” é utilizada.

Vamos ser substituídos pela IA ou simplesmente extintos? (Imagem: Vitor Pádua / Tecnoblog)

Entre os signatários do alerta, divulgado no dia 30 de maio, estão os CEOs de empresas como OpenAI e Google DeepMind, além de estudiosos muito respeitados na área, como Geoffrey Hinton e Yoshua Bengio, considerados padrinhos da IA moderna. A mensagem era bem direta: “Mitigar o risco de extinção da IA deve ser uma prioridade global junto a outros riscos em escala social, como pandemias e guerra nuclear”.

Há uma organização sem fins lucrativos por trás da iniciativa, o Center for AI Safety. Seu diretor-executivo, Dan Hendrycks, é também um pesquisador de inteligências artificiais. Sua preocupação a respeito do futuro delas e sua relação conosco está expressa num artigo intitulado “Natural Selection Favors AIs over Humans” — algo como “A Seleção Natural favorece IAs em detrimento dos humanos.”

É, eu sei. Nem um pouco animador.

Mas como exatamente uma inteligência artificial causaria algo tão grave quanto a extinção humana? Aqui, vale olhar para o que diz o Center for AI Safety.

Não precisa ser extinção para ser grave

Para a maioria de nós, a inteligência artificial se resume ao ChatGPT ou geradores de imagens. Não é disso que Hendrycks e a organização que lidera estão falando. Os riscos apontados pela entidade só poderiam ser oferecidos por sistemas muito mais evoluídos, que hoje ainda não existem — mas podem vir a existir.

Entre as ameaças apontadas no site do grupo, estão perigos sérios, e é possível argumentar que alguns deles seriam capazes de gerar cenários destruição para a humanidade. Mas nem todos os riscos levariam a esse desfecho, é bom apontar. Há diferentes níveis de estrago. Conversamos sobre alguns deles no Tecnocast 293.

O cenário mais grave envolveria a armamentização (weaponization). Aqui, teríamos uma IA sendo usada intencionalmente para causar danos diversos. O texto no site do Center for AI Safety levanta, por exemplo, a possibilidade de seu uso para ciberataques automatizados.

Mas poderia ser pior, já que inteligências artificiais poderiam ser usadas no controle de armas, inclusive as químicas. Nesse contexto, um erro de interpretação do sistema poderia ter resultados catastróficos, como o início de uma guerra.

Inteligência artificial (imagem ilustrativa: Max Pixel)

Do restante dos riscos apresentados, alguns se baseiam num agravamento de fenômenos que já podemos observar hoje, como o uso de IA para fins de desinformação e a concentração dessas ferramentas nas mãos de poucos agentes, como empresas e países. Nada de extinção aqui, mas, ainda assim, são problemas graves.

É mais para o final da lista que vemos os riscos mais, digamos, especulativos.

E se a máquina decidir outra coisa?

Boa parte da ficção científica que especula sobre possíveis tensões entre a humanidade e os agentes de IA — incluindo aí robôs — parte da desconfiança. O que faríamos ser uma inteligência superior à nossa resolvesse fazer algo diferente do que a construímos para fazer?

O Center for AI Safety lista alguns riscos que dialogam com esse temor humano diante das máquinas. Objetivos emergentes (emergent goals): em sua evolução, as inteligências artificiais poderiam desenvolver metas e comportamentos que não previmos, e que poderiam — veja bem, poderiam — ser prejudiciais para nós.

E o que dizer de sistemas que tentam ativamente nos enganar (deception)? E nem precisa ser por um desejo de nos passar para trás, apenas pelo cálculo — estamos falando de uma máquina, certo? — de que mentir ajudaria a cumprir determinado objetivo. Imagine de eles pudessem, inclusive, enganar os humanos responsáveis por monitorá-los…

Estas são as hipóteses que provocam a desconfiança, que a ficção explora tão bem. No filme Eu, Robô, por exemplo, vemos como uma IA chega a uma nova interpretação de suas diretrizes, entendendo que a forma mais segura de cumprir sua principal regra, proteger os humanos, era através do controle. Mesmo contra nossa vontade.

O Exterminador do Futuro

Com tantas empresas correndo para criar sistemas mais sofisticados, não é surpreendente que essas preocupações comecem a ser ventiladas. Pode haver certo exagero na conversa sobre risco de extinção, mas a mensagem geral está clara: vamos manter os olhos abertos.

Também devemos ouvir os céticos

Claro que a carta do Center for AI Safety gera apreensão, mas é importante destacar que há muita gente que entende do assunto e que não a levou a sério.

Entre eles estão Yann LeCun, cientista da computação francês. Ele também é considerado, junto com Geoffrey Hinton e Yoshua Bengio, um dos padrinhos da pesquisa em IA. Ao contrário dos colegas, no entanto, LeCun — que também trabalha na Meta — não assinou a declaração, e se manifestou no Twitter a respeito.

A reação mais comum dos pesquisadores de IA a essas profecias de desgraça é um facepalm.
Yann LeCun

LeCun respondia a um tweet do professor Pedro Domingos, da Escola de Ciência da Computação e Engenharia da Universidade de Washington. Domingos também manifestou seu ceticismo: “Lembrete: a maioria dos pesquisadores de IA acha que a noção da IA acabar com a civilização humana é bobagem.”.

Arvind Narayanan, cientista da computação da Universidade de Princeton, disse à BBC: “A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, ela desvia a atenção dos danos de curto prazo da IA.”.

Quais danos a curto prazo? Diogo Cortiz, cientista cognitivo e professor da PUC/SP, chama a atenção para algumas.

Dizer que a sociedade corre risco de extinção é uma forma de tentar controlar a narrativa. Ajuda a comunicar a ideia de que as tecnologias que eles detém são mais poderosas do que de fato são enquanto desvia o foco de problemas reais e atuais: vieses, consentimento do uso de dados, uso indevido, responsabilidade e accountability, propriedade intelectual, empregos, concentração, etc.
Diogo Cortiz

Imagem de astronauta em um cavalo gerada pelo Dall-E (imagem: reprodução/OpenAI)

De fato, todos os pontos citados acima são reais e geram problemas aqui e agora. O caminho para resolvê-los passa por dados mais abertos — coisa que a OpenAI parece ter deixado apenas no nome — e por alguma forma de regulação, algo que os próprios executivos reconhecem.

Os riscos das IAs avançadíssimas continuarão a nos assombrar, e, em certa medida, é bom que seja assim. Não queremos ter surpresas desagradáveis. No entanto, um pouco de ceticismo quanto aos motivos de tantos executivos também é bem-vindo.

Vale lembrar que, em março, Elon Musk assinou uma carta aberta pedindo uma pausa no desenvolvimento de IAs. O mesmo Musk iniciou, pouco tempo depois, um projeto de inteligência artificial para o Twitter, mostrando que nunca quis, de fato, uma interrupção nas pesquisas.

Em resumo, o ideal é ser vigilante. Em relação ao futuro, mas também ao agora.
O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs
Fonte: Tecnoblog

Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos

A Meta anunciou o desenvolvimento de uma ferramenta de inteligência artificial capaz de gerar falas humanas. O modelo precisa ser abastecido com algumas frases gravadas pelo usuário. Depois, o Voicebox permite criar novos áudios a partir de texto escrito. O próprio Mark Zuckerberg surgiu, num clipe divulgado via Instagram, falando bom português – com direito a um “s” bastante carioca na palavra “ todos”. Tudo gerado por IA.

Em 2023, principal foco da Meta está na inteligência artificial (Imagem: Vitor Pádua/Tecnoblog)

De acordo com o conglomerado digital, bastam apenas 2 segundos de amostra de áudio para que o sistema consiga produzir novas falas. A ideia é realizar o text-to-speech para evitar os transtornos de eventualmente regravar todo o material de áudio.

Ainda segundo a empresa, a tecnologia permitiria que pessoas com deficiência visual ouçam as mensagens dos amigos ou que personagens não-jogáveis de games – os famosos NPCs – tenham voz. O Voicebox também poderia fornecer sons naturais para assistentes de voz.

Confira em ação no vídeo abaixo:

Edição fácil de conteúdo

Outro ponto importante diz respeito à edição de conteúdo. No exemplo, Zuckerberg está gravado um áudio quando se escuta uma buzina. A ferramenta, porém, consegue “limpar” o material. Hoje em dia existem softwares profissionais e outros amadores com função similar, então resta saber de que forma o recurso chegaria aos aplicativos da Meta.

Aliás, a empresa não fez nenhum anúncio oficial da implementação do Voicebox no Instagram, WhatsApp ou Facebook. Por enquanto, tudo leva a crer que Zuckerberg deseja apenas demonstrar os avanços que a empresa está fazendo no campo da IA generativa. Este é o principal foco do momento, junto com o desenvolvimento (de longo prazo) em tecnologias de metaverso.

Concorrência também está agindo

A Meta não está sozinha na pesquisa e desenvolvimento de IA generativa para voz. O anúncio desta sexta-feira me lembrou do Vall-E, sistema apresentado pela Microsoft em janeiro com a proposta de receber áudios curtos, da própria pessoa falando, para gerar novos arquivos.

O Vall-E requer uma amostra de apenas três segundos (imagem: divulgação/Microsoft)

Já a Apple apresentou um recurso batizado de Personal Voice na WWDC 2023, realizada na semana passada. Ele estará no iOS 17. Como parte dos esforços de acessibilidade, usuários poderão ler em voz alta um script de frases. Depois, o sistema do iPhone passará a recriar a voz sintetizada da pessoa. A tecnologia da Apple, porém, requer cerca de 15 minutos de gravação original.

Com informações: Meta, Facebook Research e 9to5 Mac
Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos
Fonte: Tecnoblog

Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele

Combine as câmeras de alta resolução dos celulares atuais com o visão computacional do Google, e você terá uma importante ferramenta para informar sobre eventuais problemas de saúde. O Google informou nesta semana que o sistema Google Lens é capaz de detectar diversas condições relacionadas à pele do usuário.

Marca do Google (Imagem: Vitor Pádua/Tecnoblog)

Tudo começa com o app oficial do Google para Android ou iPhone. Ao enviar uma imagem na área de busca visual, a plataforma apresenta fotos similares àquelas que você mandou.

Na demonstração, a tela do Google Lens diz que “os resultados da busca são apenas informacionais e não um diagnóstico”. Abaixo surgem opções de saber mais sobre dermatite atópica e psoríase, entre outras situações. A própria interface do app do Google lembra que é precisa buscar um médico para receber todas as orientações.

Busca por foto de pele no Google Lens retorna resultado com doenças dermatológicas (Imagem: Divulgação/Google)

O potencial da visão computacional

Conforme lembra o portal The Verge, o Google está trabalhando em projetos de inteligência artificial para reconhecimento de imagens há anos. Desde 2021, as ferramentas da empresa são capazes de identificar problemas de saúde relacionados com pele, cabelo e unhas.

A chamada visão computacional tem um baita potencial de auxiliar na vida das pessoas, uma vez que traz informações complementares para preocupações reais dos usuários. Alguns deles, aliás, que normalmente não teriam condições de buscar um médico. Por outro lado, quantas não foram as vezes que pesquisamos por um determinado sintoma no Google e esbarramos em diagnósticos assustadores (e descabidos)? Já aconteceu muito comigo.

Outro ponto a se considerar tem a ver com o viés dos algoritmos. Muitos dos datasets atuais usados para treinar estes sistemas levam em consideração imagens de pessoas de pele mais clara, o que reduz sua eficácia quando as ferramentas são consultadas por usuários com tons de pele mais escuros.

Mais usabilidade

Por fim, mas não menos importante: a busca a partir de uma foto pode ser muito mais interessante do que tentar descrever em palavras aquilo que está diante de ti.

Com informações: The Verge e Google
Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele
Fonte: Tecnoblog