Category: OpenAI

Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT

Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT

O ChatGPT é capaz de responder inúmeras perguntas com uma precisão razoável, já que foi treinado com grandes quantidades de texto, como livros, artigos e também sites. Estes últimos, no entanto, parecem bem preocupados. Levantamentos mostram que mais de 15 entre os 100 sites mais acessados bloquearam o GPTBot, robô da OpenAI responsável por coletar conteúdo. Nessa lista, estão Amazon, New York Times, CNN e outros.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Os dados são de uma análise da Originality.ai, empresa especializada em conferir se um conteúdo foi gerado por inteligência artificial ou plagiado.

Entre os 100 sites mais acessados da internet, pelo menos 15 já bloquearam o robô. Entre os 1000 mais acessados, mais de 70 tomaram esta mesma medida.

Entre os mais de 1000 sites que estão bloqueando o GPTBot, estão nomes famosos, como:

Amazon

The New York Times

CNN

Wikihow

Shutterstock

Quora

Bloomberg

Scribd

Reuters

Ikea

Airbnb

Coursera

ChatGPT e outras IAs são acusadas de violar copyright

Bloquear o robô da OpenAI é uma forma de impedir o uso de conteúdo protegido por direitos autorais.

“Propriedade intelectual é a força vital dos nossos negócios, e precisamos proteger os direitos autorais do nosso conteúdo”, declarou uma porta-voz da agência de notícias Reuters à reportagem do jornal The Guardian.

Já o New York Times atualizou os termos de serviço para incluir um item que proíbe a raspagem do conteúdo para treinamento e desenvolvimento de inteligências artificiais.

Este é um tema em debate desde que o ChatGPT e outras ferramentas de inteligência artificial generativa foram lançadas.

O banco de imagens Getty Images, por exemplo, processou os criadores do Stable Diffusion por treinar a IA com fotografias protegidas por copyright. Algumas das criações da ferramenta mostram até mesmo a marca d’água da Getty.

Escritores tomaram caminho parecido e processaram a OpenAI, enquanto uma ação coletiva foi movida contra Microsoft, GitHub e OpenAI por desrespeitar licenças de atribuição de códigos abertos usados no treinamento das ferramentas.

Sites também bloqueiam crawler de arquivo público

O GPTBot é o “crawler” da OpenAI. Este nome é dado a robôs que “rastejam” pela web indexando e coletando informações. Google e Bing, por exemplo, têm os seus, que catalogam as páginas da internet para mostrar resultados de buscas.

A ideia da OpenAI é coletar informações para treinar o modelo de linguagem em larga escala que faz o ChatGPT funcionar.

O GPTBot foi anunciado no começo de agosto de 2023. A OpenAI também disponibilizou informações sobre como os sites poderiam impedir que ele coletasse conteúdo: basta remover a permissão no arquivo robots.txt ou bloquear o IP.

Alguns (mas não todos) sites da lista também bloquearam o CCBot, crawler da organização sem fins lucrativos Common Crawl, cujo objetivo é criar arquivos públicos, para qualquer um acessar.

Parte dos dados usados no treinamento do ChatGPT — e também dos modelos do Google e de outras empresas — vem da Common Crawl.

Com informações: Business Insider, The Guardian, Search Engine Land
Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT

Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT
Fonte: Tecnoblog

Quênia suspende startup que oferece criptomoeda a quem escanear íris

Quênia suspende startup que oferece criptomoeda a quem escanear íris

O Worldcoin é um projeto ambicioso — e controverso. Ele se propõe a escanear a íris de toda a população global para criar um sistema único de autenticação. Além disso, promete distribuir renda, pagando quem se cadastrar. O governo do Quênia, um dos primeiros países a receber a iniciativa, decidiu proibir a coleta de dados.

Orb, equipamento da Worldcoin usado para leitura da íris (Imagem: Divulgação/Worldcoin)

A Autoridade de Comunicações do Quênia vai avaliar o Worldcoin devido à “falta de clareza sobre segurança e armazenamento” dos dados das íris escaneadas, bem como à “incerteza” em relação à criptomoeda oferecida a quem se cadastra.

O Quênia não é o único país a ficar de olho (com o perdão do trocadilho) no Worldcoin. França, Alemanha e Reino Unido são alguns dos países que estão avaliando se o projeto viola leis de privacidade.

Projeto paga US$ 50 por pessoa

Segundo reportagens do site Rest of World e do jornal queniano The Standard, muitas pessoas no país se interessaram em escanear suas íris devido ao pagamento de 25 Worldcoins, que equivalem a cerca de US$ 50 ou R$ 240.

A maioria dos participantes teria sido atraída pelo dinheiro e não estava ciente dos objetivos do projeto — uma situação que se repete em Hong Kong e em Bangalore (Índia).

Com a suspensão das atividades, autoridades do Quênia precisaram dispersar filas de milhares de pessoas.

Worldcoin foi idealizado por fundador da OpenAI

A pessoa por trás do Worldcoin é Sam Altman, que criou a startup Tools for Humanity. Altman também é um dos fundadores e atual CEO da OpenAI, que desenvolve o ChatGPT e o Dall-E.

O Worldcoin foi anunciado em junho de 2021. Ele promete fazer um pagamento em uma criptomoeda própria a cada pessoa que escanear sua íris em um equipamento específico, chamado Orb — uma esfera prateada, do tamanho de uma bola de boliche.

Em maio de 2023, o aplicativo World foi lançado em mais de 80 países, e o Brasil está na lista. Ele funciona como carteira de criptomoedas e passaporte para login sem senhas, por meio da World ID, carteira de identidade registrada em uma blockchain.

O lançamento oficial da Worldcoin aconteceu em 24 de julho de 2023, quando as Orbs começaram a funcionar em 35 cidades de 20 países. No Brasil, o projeto está presente em três locais na cidade de São Paulo.

Durante o período beta, mais de 2 milhões de pessoas fizeram o registro de seus dados biométricos. Uma reportagem da MIT Technology Review aponta que muitas não receberam o dinheiro prometido.

Com informações: The Verge, Rest of World
Quênia suspende startup que oferece criptomoeda a quem escanear íris

Quênia suspende startup que oferece criptomoeda a quem escanear íris
Fonte: Tecnoblog

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

Alphabet, Amazon, Apple e Microsoft são algumas das empresas cujo valor está estimado a partir de US$ 1 trilhão. Em junho, uma nova companhia entrou nesse grupo: a Nvidia. É a primeira vez que uma empresa do ramo de chips alcança este patamar.

Todo mundo quer comprar da Nvidia (Imagem: Vitor Pádua / Tecnoblog)

Para quem não está tão inteirado das movimentações da empresa, a informação pode gerar surpresa. Afinal, a Nvidia não é aquela que faz as placas de vídeo para o público gamer?

E a resposta é sim: no setor de chips gráficos dedicados, a Nvidia é dominante. Mas foi-se o tempo que esta era o único negócio da companhia presidida por Jensen Huang. A utilidade das GPUs em diversas áreas impulsionou a Nvidia para novas e lucrativas direções.

Games, cripto e IA

A Nvidia surgiu em 1993. O primeiro chip, NV1, chegou ao mercado dois anos depois, mas o sucesso mesmo veio em 1997, com o lançamento do RIVA 128. Mas talvez seu produto mais conhecido seja a linha GeForce, a primeira das GPUs modernas, introduzida em 1999. No mesmo ano, a empresa fez sua primeira oferta pública de ações.

O foco da Nvidia, nesses primeiros anos, estava nos games. Parcerias com Sega e Microsoft marcaram a trajetória da empresa — embora para a Sega as coisas não tenham saído como o esperado… ouça o Tecnocast 296 para entender essa história.

Mas a capacidade das GPUs vai muito além da renderização de gráficos, o que abriu uma nova gama de oportunidades. Aqui, vale uma explicação técnica.

Diferente da CPU, que processa tarefas de forma sequencial, a GPU tem como característica o processamento paralelo. Na prática, isso significa que ela consegue realizar várias instruções ao mesmo tempo. Isso é possível graças ao grande número de núcleos presente nas GPUs modernas. Quanto mais núcleos, melhor o desempenho.

Placa de vídeo Asus com GPU Nvidia GeForce RTX 4070 Ti (imagem: divulgação/Asus)

GPUs com muitos núcleos, portanto, são excelentes para aplicações que necessitam de alto volume de processamento. Um exemplo é a mineração de criptomoedas. Nos períodos de maior atividade dos mineradores, era até difícil encontrar chips no mercado, o que gerou disparos no preço.

Outro contexto muito importante do uso das GPUs é no machine learning, dentro do processo de treinamento de inteligências artificiais.

Vale destacar: a Nvidia não desenvolveu suas GPUs com estas aplicações em mente; elas foram descobertas ao longo do caminho. Chips poderosos eram necessários, e a Nvidia detinha a melhor tecnologia da área. Foi como somar dois e dois.

A empresa soube aproveitar esses novos desdobramentos. Hoje, colhe os frutos.

A Nvidia vende para quem quiser comprar

Segundo Jensen Huang, estamos atravessando o “momento iPhone da IA”. O ChatGPT teria provocado o mesmo agito no mercado que o smartphone da Apple provocou quando apareceu, em 2007. Para milhões de pessoas, foi o primeiro contato com uma inteligência artificial capaz de coisas extraordinárias.

Poucas empresas estão em melhor posição para aproveitar este momento do que a Nvidia. Suas GPUs são usadas para treinamento de inteligências artificiais há anos. Na parceria entre Microsoft e OpenAI para criação de produtos de IA, há “milhares” de GPUs já otimizadas para este fim.

Assim como no auge da mineração de criptomoedas, conseguir chips gráficos de alta performance no momento pode ser tarefa difícil. Elon Musk, por exemplo, comentou está mais fácil encontrar drogas do que GPUs atualmente. Há alguns meses, descobriu-se que o dono do Twitter também investia em IA. Como? Bem, ele comprou milhares de chips da Nvidia.

Intel e AMD não estão paradas, é claro, e tentam emplacar seus chips voltados para inteligência artificial. Porém, a dianteira da Nvidia é muito consolidada. Trata-se de um domínio construído ao longo de anos, e é improvável que as competidoras consigam atacá-lo num futuro próximo.

Jensen Huang, CEO da Nvidia

Assim, não é uma surpresa que o mercado esteja tão animado com a Nvidia. As ações da empresa subiram 181% no acumulado do ano; só no atual trimestre fiscal, a expectativa é de US$ 11 bilhões em vendas, um recorde para a empresa.

Além disso, há o posicionamento peculiar da companhia. Google e Microsoft, por exemplo, são concorrentes em áreas como busca e IA generativa. O objetivo de ambas é criar produtos melhores, obter vantagens competitivas e conquistar mais usuários. O escopo da Nvidia é outro: ela é quem fornece o poder computacional para quem estiver interessado. Seja o Google, a Microsoft, Elon Musk ou quem quer que seja.

Portanto, é seguro dizer que a Nvidia não tem favoritos na batalha da inteligência artificial. Ela torce mesmo é pela briga.
As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga
Fonte: Tecnoblog

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

A OpenAI anunciou na última quinta-feira (20) a ferramenta de instruções padrões para o ChatGPT. Ainda em fase beta e disponível apenas para os assinantes do ChatGPT Plus, o recurso deve facilitar o uso da IA, permitindo que os usuários criem uma “estrutura” para que a inteligência artificial responda um comando de modo específico. A OpenAI espera lançar o recurso definitivamente e para todos os usuários nas próximas semanas.

ChatGPT deve dar respostas mais objetivas com nova funcionalidade (Imagem: Vitor Pádua / Tecnoblog)

O exemplo dado pela OpenAI e que também usaremos aqui é o seguinte: um professor da terceira série registrará na sua conta a sua profissão, permitindo que ele não repita que é um professor toda vez que enviar um prompt para o ChatGPT.

Além disso, o usuário pode definir como deseja receber a resposta. Por exemplo, o professor imaginário citado anteriormente pode preferir uma tabela com coluna de lado positivo e negativo de um determinado assunto que será apresentado em sala.

Em outra situação, a OpenAI mostra que um programador pode pedir que a resposta do ChatGPT seja direta, sem explicação sobre como funciona o código e que ele busque pela solução mais eficiente. E neste caso, o programador ainda pode adicionar com qual linguagem ele trabalha. Assim, não precisa escrever “escreva um código em Python” ou “escreva um código GoLang”.

Com instruções predefinidas para responder na linguagem GoLang, ChatGPT entrega código sem precisar que o usuário definida a linguagem (Imagem: Reprodução/Tecnoblog)

Novidade da OpenAI é bem invasiva e a empresa “sabe disso”

Informar a sua profissão ou o tamanho da sua família e onde você mora (esse é um dos exemplos no site da OpenAI) é bem invasivo do ponto de vista de privacidade. Ciente disso, a OpenAI permite que o usuário desative o uso das informações das instruções padrões para melhorar o desempenho do ChatGPT.

A empresa afirma que os dados pessoais que facilitem a identificação de alguém são removidos quando usado para treinar a IA. Todavia, o problema é se acontecer um vazamento, como já sofreu a OpenAI duas vezes: uma por erro próprio e a outra na qual ela jogou a culpa nos usuários.

Com informações: OpenAI
OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT
Fonte: Tecnoblog

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

A tecnologia por trás do ChatGPT precisa ser treinada com muito conteúdo para funcionar corretamente. A OpenAI conseguiu acesso a quase quatro décadas de notícias para fazer isso: a empresa fechou um acordo com a agência de notícias Associated Press para usar seus arquivos. Em troca, ela dará acesso às suas tecnologias.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

O acordo foi anunciado nesta quinta-feira (13) e é um dos primeiros entre uma empresa de notícias e uma companhia de inteligência artificial. A OpenAI licenciará parte do arquivo de textos da AP desde 1985.

Além disso, as empresas tentarão entender formas de usar inteligência artificial na produção de notícias, para empregá-la em futuros produtos e serviços. Ou seja, o ChatGPT não vai começar a escrever notícias para a AP — não por enquanto, pelo menos.

“O feedback [da AP] — bem como o acesso a seu arquivo de textos factuais, de alta qualidade — vai ajudar a melhorar as capacidades e utilidades dos sistemas da OpenAI”, disse Brad Lightcap, diretor-chefe de operações da OpenAI.

Na prática, o licenciamento do conteúdo também ajuda a OpenAI a se proteger de processos por violação de direitos autorais, vindos de escritores e artistas. A empresa fechou um acordo parecido com a Shutterstock, para usar suas imagens, vídeos e música no treinamento do Dall-E.

AP usa inteligência artificial há nove anos

A AP começou a testar inteligências artificiais em 2014. De lá para cá, ela automatizou relatórios financeiros de empresas, além de usar robôs na cobertura de torneios locais de beisebol e competições esportivas universitárias.

No começo de 2023, a AP anunciou novos usos para a inteligência artificial. Ela passou a emitir alertas de notícias em espanhol. Além disso, o serviço de fotografias e vídeos ganhou uma busca com IA, que permite que seus clientes façam pesquisas descritivas para encontrar o que querem.

Com informações: Axios, The Verge
OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT
Fonte: Tecnoblog

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

A Meta pode lançar a versão comercial da sua inteligência artificial, a LLaMA, em breve. A informação foi publicada pelo jornal Financial Times nesta quinta-feira (13). A LLaMA é um modelo de linguagem de IA generativa da própria Meta, liberado no início do ano para acadêmicos e pesquisadores.

Meta está perto de lançar sua tecnologia de inteligência artificial para empresas (Imagem: Vitor Pádua/Tecnoblog)

Agora, a empresa de Mark Zuckerberg lançará uma versão comercial da IA. Com essa possível estreia, a Meta visa competir contra o ChatGPT, Bard e “Twitter”. Ontem (12) foi a vez de Elon Musk confirmar a existência da X.AI, a sua empresa do ramo de inteligência artificial.

Lançamento comercial da LLaMA é “iminente”, diz fonte

Uma fonte disse para o Financial Times que o lançamento da versão comercial da LLaMA é iminente. Essa versão será disponibilizada para empresas que desejam adaptar o modelo de linguagem (LLM), algo que a OpenAI já permite com o ChatGPT através de sua API — e que ajuda a pagar as contas.

E ao contrário do GPT-4, LLM da OpenAI, a LLaMA será um modelo de linguagem de código-aberto — pelo menos é o que afirma a Meta. Para Nick Clegg, diretor de assuntos globais da Meta, “abertura é o melhor antídoto contra os medos que permeiam inteligências artificiais”.

Modelo de linguagem grande da Meta para inteligência artificial será liberado em breve para empresas (Imagem: Vitor Pádua / Tecnoblog)

Uma outra fonte, na condição de anonimato, disse para o Financial Times que o objetivo abrir o código da LLaMA é diminuir o domínio da OpenAI — no segmento de inteligência artificial. E vamos lá falar o óbvio: essa não é uma tarefa nada fácil.

Com empresa de IA do Elon Musk e IA do Mark Zuckerberg prestes a chegar para o público, só vem a minha mente aquela frase da Vanessa da Mata ao ver as empresas entrando na corrida de inteligência artificial: “AI, AI, AI, AI, AI, AI, AI”.

Com informações:  Financial Times
Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa
Fonte: Tecnoblog

Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais

Os escritores Sarah Silverman, Christopher Golden e Richard Kadrey abriram processos contra a OpenAI, empresa por trás do ChatGPT, e contra a Meta. Eles acusam as empresas de desrespeitar direitos autorais ao treinar suas inteligências artificiais de geração de texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A ação foi movida na Corte Distrital do Norte da Califórnia. Ela alega que o ChatGPT, da OpenAI, e o LLaMA, da Meta, foram treinados com conjuntos de dados adquiridos ilegalmente, que continham as obras dos autores.

Os livros estariam em sites como o Z-Library (que foi derrubado em novembro de 2022), o Library Genesis e o Bibliotik, além de serem compartilhados por torrent.

Como evidência do uso ilegal, os escritores apontam que o ChatGPT é capaz de resumir seus livros com ótima precisão, apesar de errarem alguns detalhes, o que indicaria que eles tiveram acesso às obras completas.

Já em relação ao LLaMA, da Meta, os autores dizem ter encontrado as obras no conjunto de dados que a empresa usou para treinar seus modelos de IA.

A Meta tem uma abordagem mais aberta sobre o assunto que a OpenAI: em um artigo, ela detalha as fontes usadas para desenvolver seu gerador de texto.

O conjunto de dados se chama ThePile (”a pilha”, em tradução livre) e foi criado por uma empresa EleutherAI. Em um artigo, ela afirma que ele usa uma cópia dos conteúdos da Bibliotik.

Escritório de advocacia já move outras ações contra ChatGPT

Os três autores são representados no processo pelos advogados Joseph Saveri e Matthew Butterick. A dupla também entrou com outra ação contra a OpenAI, em nome dos escritores Mona Awad e Paul Tremblay, na mesma corte dos EUA.

Saveri e Butterick criaram até um site chamado LLM Litigation (“litígio contra grandes modelos de linguagem”, em tradução livre) para divulgar as ações.

Além dos autores, o escritório de Saveri representa artistas que entraram com uma ação coletiva contra o Stable Diffusion. O algoritmo supostamente toma ilustrações, desenhos e outras obras como base para gerar imagens.

Outro processo é contra o GitHub Copilot, que usa IA para sugerir trechos de código. Todas essas práticas podem caracterizar violação de direitos autorais.

Com informações: The Verge
Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais
Fonte: Tecnoblog

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

O Threads mal chegou e já passou a marca de 100 milhões de usuários. Lançado na última quarta-feira, a nova rede social da Meta atingiu o número acima em apenas 5 dias. Com isso, o Threads supera com sobras o tempo que levou para o ChatGPT passar de 100 milhões de usuários — foram 2 meses para o serviço da OpenAI.

Threads chegou e rapidamente foi batendo recordes de usuários (Imagem: Thássius Veloso/Tecnoblog)

Logo quando ficou óbvio que o Threads estava para chegar, começaram os grandes questionamentos:  a nova rede social dará certo ou não? No momento, ainda está bem cedo para responder. E, na verdade, o importante para a Meta é que no curto prazo o Threads tem hype — logo mais será o momento de capitalizar com anúncios.

Threads é o “primeiro lançamento” de empresa consolidada

A estreia da Threads é um momento “inovador” nas redes sociais, pois foi a primeira vez que uma grande empresa, já consolidada, lançou uma nova plataforma. Desde que chegamos na “tríade” de redes sociais (Facebook, Instagram e Twitter), todos as grandes novidades foram atualizações nessas plataformas ou empresas que lançaram apps que foram esquecidos logo depois — BeReal é um exemplo.

BlueSky, Koo e Mastodon também chegaram como “substitutos do Twitter”, mas eles não são criações de uma empresa tão rica e dominante como a Meta. A grande vantagens do Threads para atingir a marca de meio Brasil em cinco dias é usar a integração com o Instagram e toda a base de usuários deste sucesso.

Threads ainda tem pontos há melhorar, mas a estrutura consolidada do Instagram ajuda na conquista do público (Imagem: Divulgação/Meta e Vitor Pádua/Tecnoblog)

E como já falamos aqui no Tecnoblog, outro acerto foi preparar os influencers para a nova rede — goste ou não deles. Afinal, toda rede social depende de criadores de conteúdo. Quanto mais público eles trazem, melhor. Por isso que Diego Defante não teve um acesso antecipado e o Leo Santana sim.

Mesmo com a Meta sendo experiente em redes sociais, algumas melhorias precisam ser feitas para o Threads popularizar ainda mais. Por exemplo, a opção de um feed só de quem você segue e lançar (de uma vez) o acesso web — com este último, aí eu penso em começar a “threadar”.

Threads não precisa “dar certo”, precisa dar lucro

Voltando ao “vai dar certo ou não”, a verdade é que o conceito de certo ou errado é relativo. Provavelmente, a Meta vê o “dar certo” como sinônimo de “dar lucro” — seja com 100 milhões de usuários ou 1 bilhão. Se com mais de 100 milhões de contas o Threads já for atrativo para os anunciantes, pagar as contas e ainda dar lucro, ótimo (para o Zuckerberg, óbvio).

Como bem comparou a colega Taylor Hatmaker do TechCrunch, o Threads quer ser o grande shopping center, não a “praça pública” falsamente prometida por Elon Musk ao comprar o Twitter. Até porque Threads não será um espaço para incentivar notícias e política.

Com informações: TheVerge e TechCrunch
Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT
Fonte: Tecnoblog

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

No início da semana, mais de cem mil contas de usuários do ChatGPT foram encontradas em sites de venda de informações hackeadas. A OpenAI, criadora do ChatGPT, se pronunciou sobre o caso. Para a empresa, a culpa do vazamento é dos usuários que não se protegem de malwares.

OpenAI reconhece vazamento, mas relembra que usuários precisam ter cuidado com malwares (Imagem: Vitor Pádua / Tecnoblog)

Este novo caso não tem relação com o bug que vazou dados de usuários do ChatGPT Plus, versão paga da inteligência artificial. Desta vez, de acordo com o Group-IB, empresa de cibersegurança que encontrou essas 100 mil contas em fóruns hackers, os dados foram roubados através de malwares instalados nos computadores das vítimas.

OpenAI afirma que toma as melhores medidas de segurança

Se no bug de março a culpada foi a OpenAI, dessa vez a empresa tirou o seu da reta e afirmou que segue os melhores padrões da indústria em cibersegurança. A criadora do ChatGPT disse, indiretamente, que não tem culpa se os usuários botam “vírus”. A OpenAI também está investigando as contas afetadas para contatar os clientes afetados.

Confira o comunicado da empresa para o site Tom’s Hardware:

“Os resultados do relatório de inteligência de ameaças da Group-IB são o resultado de ‘malware de commodities’ nos dispositivos das pessoas e não de uma violação da OpenAI. Atualmente, estamos investigando as contas que foram expostas. A OpenAI mantém as melhores práticas do setor para autenticar e autorizar [a entrada] dos usuários em serviços, incluindo o ChatGPT, e incentivamos nossos usuários a usar senhas fortes e instalar apenas softwares verificados e confiáveis em computadores pessoais.”
OpenAI

Cibersegurança não depende apenas da fornecedora do serviço, mas também do usuário (Imagem: Darwin Laganzon/Pixabay)

A OpenAI não está errada em se isentar de culpa neste caso. A cibersegurança é uma “estrada de mão dupla”: a fornecedora de um serviço faz a sua parte e o usuário faz a sua — seja usando um antivírus ou se atentando contra possíveis programas maliciosos de um príncipe nigeriano.

De acordo com a Group-IB, o Brasil está entre os países com mais contas vazadas. Outros países que integram essa lista infeliz estão: Bangladesh, Egito, França, Indonésia, Marrocos, Paquistão, Estados Unidos e Vietnã.

Vazamento de contas pode afetar a Samsung e outras empresas

Além de afetar os usuários, o vazamento pode prejudicar empresas: desde as pequenas até as grandes como a Samsung. A popularidade e efetividade do ChatGPT, sendo capaz até de ajudar na criação de código, leva funcionários de várias companhias a usar a IA como um assistente.

No caso da Samsung, a empresa proibiu o uso do ChatGPT nos seus computadores. A medida foi tomada após os “puxões de orelha” não funcionarem com seus empregados. A sul-coreana estava preocupada (e com razão) dos funcionários divulgarem dados confidenciais em um sistema de terceiro.

Com informações: Tech Radar e Tom’s Hardware
Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares
Fonte: Tecnoblog

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

Quando um grupo influente de executivos e pesquisadores de inteligência artificial apresenta uma declaração aberta sobre os perigos desta tecnologia para a humanidade, é impossível não prestar atenção. Ainda mais quando a palavra “extinção” é utilizada.

Vamos ser substituídos pela IA ou simplesmente extintos? (Imagem: Vitor Pádua / Tecnoblog)

Entre os signatários do alerta, divulgado no dia 30 de maio, estão os CEOs de empresas como OpenAI e Google DeepMind, além de estudiosos muito respeitados na área, como Geoffrey Hinton e Yoshua Bengio, considerados padrinhos da IA moderna. A mensagem era bem direta: “Mitigar o risco de extinção da IA deve ser uma prioridade global junto a outros riscos em escala social, como pandemias e guerra nuclear”.

Há uma organização sem fins lucrativos por trás da iniciativa, o Center for AI Safety. Seu diretor-executivo, Dan Hendrycks, é também um pesquisador de inteligências artificiais. Sua preocupação a respeito do futuro delas e sua relação conosco está expressa num artigo intitulado “Natural Selection Favors AIs over Humans” — algo como “A Seleção Natural favorece IAs em detrimento dos humanos.”

É, eu sei. Nem um pouco animador.

Mas como exatamente uma inteligência artificial causaria algo tão grave quanto a extinção humana? Aqui, vale olhar para o que diz o Center for AI Safety.

Não precisa ser extinção para ser grave

Para a maioria de nós, a inteligência artificial se resume ao ChatGPT ou geradores de imagens. Não é disso que Hendrycks e a organização que lidera estão falando. Os riscos apontados pela entidade só poderiam ser oferecidos por sistemas muito mais evoluídos, que hoje ainda não existem — mas podem vir a existir.

Entre as ameaças apontadas no site do grupo, estão perigos sérios, e é possível argumentar que alguns deles seriam capazes de gerar cenários destruição para a humanidade. Mas nem todos os riscos levariam a esse desfecho, é bom apontar. Há diferentes níveis de estrago. Conversamos sobre alguns deles no Tecnocast 293.

O cenário mais grave envolveria a armamentização (weaponization). Aqui, teríamos uma IA sendo usada intencionalmente para causar danos diversos. O texto no site do Center for AI Safety levanta, por exemplo, a possibilidade de seu uso para ciberataques automatizados.

Mas poderia ser pior, já que inteligências artificiais poderiam ser usadas no controle de armas, inclusive as químicas. Nesse contexto, um erro de interpretação do sistema poderia ter resultados catastróficos, como o início de uma guerra.

Inteligência artificial (imagem ilustrativa: Max Pixel)

Do restante dos riscos apresentados, alguns se baseiam num agravamento de fenômenos que já podemos observar hoje, como o uso de IA para fins de desinformação e a concentração dessas ferramentas nas mãos de poucos agentes, como empresas e países. Nada de extinção aqui, mas, ainda assim, são problemas graves.

É mais para o final da lista que vemos os riscos mais, digamos, especulativos.

E se a máquina decidir outra coisa?

Boa parte da ficção científica que especula sobre possíveis tensões entre a humanidade e os agentes de IA — incluindo aí robôs — parte da desconfiança. O que faríamos ser uma inteligência superior à nossa resolvesse fazer algo diferente do que a construímos para fazer?

O Center for AI Safety lista alguns riscos que dialogam com esse temor humano diante das máquinas. Objetivos emergentes (emergent goals): em sua evolução, as inteligências artificiais poderiam desenvolver metas e comportamentos que não previmos, e que poderiam — veja bem, poderiam — ser prejudiciais para nós.

E o que dizer de sistemas que tentam ativamente nos enganar (deception)? E nem precisa ser por um desejo de nos passar para trás, apenas pelo cálculo — estamos falando de uma máquina, certo? — de que mentir ajudaria a cumprir determinado objetivo. Imagine de eles pudessem, inclusive, enganar os humanos responsáveis por monitorá-los…

Estas são as hipóteses que provocam a desconfiança, que a ficção explora tão bem. No filme Eu, Robô, por exemplo, vemos como uma IA chega a uma nova interpretação de suas diretrizes, entendendo que a forma mais segura de cumprir sua principal regra, proteger os humanos, era através do controle. Mesmo contra nossa vontade.

O Exterminador do Futuro

Com tantas empresas correndo para criar sistemas mais sofisticados, não é surpreendente que essas preocupações comecem a ser ventiladas. Pode haver certo exagero na conversa sobre risco de extinção, mas a mensagem geral está clara: vamos manter os olhos abertos.

Também devemos ouvir os céticos

Claro que a carta do Center for AI Safety gera apreensão, mas é importante destacar que há muita gente que entende do assunto e que não a levou a sério.

Entre eles estão Yann LeCun, cientista da computação francês. Ele também é considerado, junto com Geoffrey Hinton e Yoshua Bengio, um dos padrinhos da pesquisa em IA. Ao contrário dos colegas, no entanto, LeCun — que também trabalha na Meta — não assinou a declaração, e se manifestou no Twitter a respeito.

A reação mais comum dos pesquisadores de IA a essas profecias de desgraça é um facepalm.
Yann LeCun

LeCun respondia a um tweet do professor Pedro Domingos, da Escola de Ciência da Computação e Engenharia da Universidade de Washington. Domingos também manifestou seu ceticismo: “Lembrete: a maioria dos pesquisadores de IA acha que a noção da IA acabar com a civilização humana é bobagem.”.

Arvind Narayanan, cientista da computação da Universidade de Princeton, disse à BBC: “A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, ela desvia a atenção dos danos de curto prazo da IA.”.

Quais danos a curto prazo? Diogo Cortiz, cientista cognitivo e professor da PUC/SP, chama a atenção para algumas.

Dizer que a sociedade corre risco de extinção é uma forma de tentar controlar a narrativa. Ajuda a comunicar a ideia de que as tecnologias que eles detém são mais poderosas do que de fato são enquanto desvia o foco de problemas reais e atuais: vieses, consentimento do uso de dados, uso indevido, responsabilidade e accountability, propriedade intelectual, empregos, concentração, etc.
Diogo Cortiz

Imagem de astronauta em um cavalo gerada pelo Dall-E (imagem: reprodução/OpenAI)

De fato, todos os pontos citados acima são reais e geram problemas aqui e agora. O caminho para resolvê-los passa por dados mais abertos — coisa que a OpenAI parece ter deixado apenas no nome — e por alguma forma de regulação, algo que os próprios executivos reconhecem.

Os riscos das IAs avançadíssimas continuarão a nos assombrar, e, em certa medida, é bom que seja assim. Não queremos ter surpresas desagradáveis. No entanto, um pouco de ceticismo quanto aos motivos de tantos executivos também é bem-vindo.

Vale lembrar que, em março, Elon Musk assinou uma carta aberta pedindo uma pausa no desenvolvimento de IAs. O mesmo Musk iniciou, pouco tempo depois, um projeto de inteligência artificial para o Twitter, mostrando que nunca quis, de fato, uma interrupção nas pesquisas.

Em resumo, o ideal é ser vigilante. Em relação ao futuro, mas também ao agora.
O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs
Fonte: Tecnoblog