Category: OpenAI

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;

outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;

e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.
IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind
Fonte: Tecnoblog

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT e da tecnologia GPT, pediu pela regulamentação internacional de inteligências artificiais “superinteligentes”. Para os fundadores da empresa, as IAs necessitam de um órgão regulador respeitado à nível da Agência Internacional de Energia Atômica (AIEA). A proposta da OpenAI é diferente da carta que pedia a suspensão das pesquisas com inteligências artificiais.

OpenAI quer órgão internacional para regular inteligências artificiais (Imagem: Vitor Pádua/Tecnoblog)

Ao contrário da carta pela interrupção do desenvolvimento das tecnologias de IAs, a liderança da OpenAI quer que as inteligências artificiais continuem evoluindo enquanto os governos trabalham pela criação de um órgão regulador. A empresa quer que esse órgão proteja a humanidade de criar uma tecnologia que pode destruí-la — mas não necessariamente no estilo Exterminador do Futuro.

Pedido de regulamentação pela OpenAI veio de diretores

A publicação no site da OpenAI, pedindo pela regulamentação rígida das inteligências artificiais, é assinada por Sam Altman, Greg Brockman e Ilya Sutskever, todos com cargos de direção na empresa.

Os três líderes da OpenAI afirmam que, enquanto esse órgão internacional não é criado, as empresas que estão desenvolvendo inteligências artificiais precisam trabalhar em conjunto. Essa cooperação visa manter a segurança e integração das IAs com a sociedade. A carte sugere também que esse “trabalho em equipe” pode determinar uma “taxa de evolução” das tecnologias enquanto os governos preparam a criação do órgão.

Órgão regulador teria papel de ser a AIEA das inteligências artificiais (Imagem: Andrea De Santis/Unsplash)

Pela comparação com a AIEA, uma agência internacional fiscalizadora de IAs, como sugerem os diretores da empresa, seria ligada a alguma divisão da Organização das Nações Unidas (ONU). Atualmente, a AIEA é um órgão autônomo da ONU, mais próximo da Assembleia Geral e Conselho de Segurança — visitando em algumas ocasiões a usina nuclear de Zaporizhzhia, no front da Guerra da Rússia contra a Ucrânia.

Riscos para a humanidade não envolvem “revolução das máquinas”

Os riscos para a humanidade, motivo citado pela OpenAI para a criação de um órgão regulador, não se restringem a um cenário de “Exterminador do Futurou” ou IAs escravizando humanos. Na verdade, a empresa nem chega a comentar como seria esse cenário.

A “destruição da humanidade” também pode ser visualizado em um cenário de colapso social. Com IAs assumindo o trabalho de milhares de pessoas, a população desempregada pode entrar em situação de pobreza, levando a riscos sociais, existenciais e de segurança para nações não preparadas para lidar com o avanço da tecnologia. O que é o caso de todos os países da atualidade.

Com informações: The Guardian
OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais
Fonte: Tecnoblog

Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários

A inteligência artificial já faz parte do dia a dia de inúmeras empresas de tecnologia. Algumas abraçaram de vez os robôs, enquanto outras mantém um olhar mais desconfiado. É o caso da Apple, que pode ter proibido seus funcionários de usarem o ChatGPT e outras ferramentas de IA. A maçã teria receio que vazamentos de seus projetos poderiam ocorrer com a utilização frequente do chatbot da OpenAI.

Apple (Imagem: Vitor Pádua / Tecnoblog)

Segundo um relato do The New York Times, a Apple decidiu seguir o mesmo caminho de outra empresa. A Samsung proibiu os funcionários de usarem o ChatGPT no trabalho depois que alguns colaboradores deixaram vazar dados confidenciais ao pedirem ajuda ao robô.

O jornal estadunidense reportou que a dona do iPhone estaria trabalhando em sua própria inteligência artificial generativa, como o Bard do Google e o Bing Chat da Microsoft. Sendo assim, a companhia teria preocupações que os profissionais acabassem deixando escapar informações importantes e secretas dos futuros projetos. Vale lembrar que o chatbot ganhou um app para iPhone recentemente.

Além disso, os colaboradores da maçã também teriam sido aconselhados a não usarem o Copilot do GitHub, pois ele é propriedade da Microsoft e utiliza códigos da OpenAI para suas funções.

Ao que tudo indica, “precaução” é a palavra da vez entre as grandes empresas. Apple e Samsung não estão sozinhas em restringir o uso do ChatGPT e similares por funcionários. Marcas como o Bank of America e J.P. Morgan adotaram as mesmas medidas.

(Imagem: Unsplash / Jonathan Kemper)

ChatGPT é conveniente, mas ainda falta segurança

Mesmo oferecendo muita utilidade no dia a dia dos usuários, o chatbot da OpenAI não está livre de críticas e receios. A proibição de marcas como Apple e Samsung é compreensível, já que o vazamento de dados a partir do robô ocorreu previamente.

A própria dona da ferramenta acabou divulgando detalhes de segurança do ChatGPT, na qual ressaltou os esforços para melhorar a privacidade, ao mesmo tempo, em que deu satisfação para sua base de usuários. No relato, a companhia destacou que não vende dados, mas que os usa para tornar os modelos de inteligência artificial mais úteis.

Ainda na questão de segurança, a empresa de proteção digital Kaspersky realizou testes na detecção de phishing por parte do ChatGPT. De acordo com seus resultados, a IA conseguiu adivinhar alvos de ataques, porém, alcançou taxas altas de falsos positivos de até 64%, o que foi considerado um número alto pelos especialistas.

Como o Brasil é um dos países que mais usa a inteligência artificial da OpenAI no mundo, vale tomar o máximo de medidas para se proteger do vazamento de dados e de golpes cibernéticos.

Com informações: Mashable.
Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários
Fonte: Tecnoblog

ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs

ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs

Para quem busca utilizar a inteligência artificial da OpenAI em documentos e apresentações do dia a dia, o GPT Workspace pode ser uma opção. O programa oferece duas extensões: uma para o Gmail e outra para o Docs, Sheets e Slides. Assim, você pode acessar o ChatGPT diretamente pelos aplicativos, sem precisar abrir uma nova aba do navegador.

GPT Workspace (Imagem: Divulgação / Qualtir)

A novidade foi criada pela empresa Qualtir e já está disponível. Com o GPT Workspace, você consegue gerar documentos distintos a partir de um comando, mas também ajeitar algo já pronto.

No Gmail, por exemplo, é possível pedir para o chatbot escrever e-mails profissionais ou criar respostas rápidas. Se quiser usar o robô no Slides, você pode produzir apresentações completas, com imagens e descrições detalhadas. Já no Google Docs, o ChatGPT pode receber prompts para gerar desde discursos a postagens em blogs.

O GPT Workspace oferece um plano gratuito, mas que limita o usuário a 10 comandos por mês. Já o modelo premium custa US$ 19 por mês (perto de R$ 95 em uma conversão direta). Segundo a companhia, as extensões não têm acesso às informações e arquivos do Google Drive da pessoa. Por padrão, os dados permanecem o tempo todo nos servidores do Google.

Por outro lado, o add-on precisa do endereço de e-mail e nome para identificar o indivíduo, além de metadados, como data e nome do arquivo.

O GPT Workspace rodando no Google Slides (Imagem: Divulgação / Qualtir)

Bard chegou ao Workspace, mas não é para todo mundo

Em março de 2023, o Google anunciou que estava liberando a sua própria inteligência artificial para ser usada no Gmail e no Docs. Porém, a novidade chegou apenas nos Estados Unidos e para contas empresariais e educacionais.

Assim como o GPT Workspace, o robô da gigante de buscas auxilia na criação de e-mails, transformando as mensagens em algo mais direto ou formal, por exemplo. No Docs, é possível fazer comandos para a IA escrever textos completos, com estilos distintos.

No entanto, o chatbot da empresa não começou muito bem. Fontes afirmam que o Google Bard está precisando de humanos para “chutarem” as respostas, o que aumenta as chances de oferecer erros aos usuários.

Anunciado em fevereiro, o Bard começou a ser disponibilizado em março. Ele lembra bastante o ChatGPT e o Bing Chat, que usa o robô para responder às dúvidas das pessoas. Até segunda ordem, a IA da gigante de buscas está limitada a um pequeno número de indivíduos nos EUA e no Reino Unido.

Com informações: GPT Workspace.
ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs

ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs
Fonte: Tecnoblog

OpenAI e outras empresas podem ter que revelar uso de material com copyright

OpenAI e outras empresas podem ter que revelar uso de material com copyright

A inteligência artificial é um assunto em alta, e seus aspectos positivos e negativos ainda estão sob avaliação. A União Europeia, por exemplo, agora está interessada na questão dos direitos autorais. O bloco discute obrigar as empresas a revelar se materiais protegidos por copyright foram usados para treinar robôs como o ChatGPT.

Bandeiras da União Europeia (Imagem: Thijs ter Haar/Wikimedia Commons)

Esta exigência foi adicionada ao Regulamento da Inteligência Artificial nas duas últimas semanas, disse uma fonte interna à Reuters. Alguns membros do Parlamento Europeu queriam proibir o uso de material com copyright, mas uma proposta mais branda, exigindo apenas transparência, venceu as discussões.

Dessa forma, empresas que desenvolvem ferramentas geradoras de conteúdo, como o ChatGPT, o Dall-E, o Midjourney e muitas outras, precisarão revelar qualquer uso de material protegido por direitos autorais para treinar seus sistemas.

O Regulamento da Inteligência Artificial (ou AI Act, em inglês) vem sendo discutido há dois anos, antes mesmo do lançamento do ChatGPT pela OpenAI e de todo o destaque sobre o tema que veio desde então.

O Parlamento Europeu já tinha um rascunho da lei, e seus membros concordaram em avançar com a matéria para a fase de discussões.

As inteligências artificiais generativas dependem de treinamento com grandes quantidades de dados. Assim, elas entendem diversas formas de escrever, acumulam informações, aprendem como desenhar em vários estilos, e assim por diante.

Processos contra empresas podem aumentar

Empresas como a OpenAI se recusam a abrir detalhes sobre os dados usados para treinar seu software. Caso a legislação europeia seja aprovada, elas precisarão revelar de onde foi retirado o conteúdo.

Isso pode ter consequências negativas para as companhias: os processos por violação de direitos autorais devem se multiplicar.

Imagem gerada pelo Stable Diffusion tem marca d’água da Getty Images (Imagem: Reprodução/The Verge)

A questão do copyright já é uma realidade no cenário da inteligência artificial, principalmente entre artistas e fotógrafos. A empresa de bancos de imagens Getty Images está processando a Stability AI, por exemplo.

O Stable Diffusion, modelo desenvolvido pela Stability AI, foi “pego” criando imagens com a marca d’água da Getty. Isso indica que as fotos da empresa foram usadas indevidamente para treinar a inteligência artificial.

Além da briga entre as duas empresas, três artistas moveram uma ação coletiva contra a Stability AI, a Midjourney e a DeviantArt.

Eles alegam que as desenvolvedoras violaram os direitos de milhões de artistas ao usar 5 bilhões de imagens raspadas da internet sem o consentimento dos artistas.

Deixando as imagens um pouco de lado, a Microsoft e sua subsidiária GitHub foram acionadas na Justiça dos EUA por causa da ferramenta Copilot.

O Copilot foi treinado usando códigos abertos. A licença desses códigos, porém, exige que o autor esteja listado em trabalhos derivados.

Mesmo assim, o Copilot cria longos scripts a partir de trabalhos protegidos por essas licenças sem dar nenhum crédito, o que seria uma violação da lei de direitos autorais.

Com informações: Reuters, The Verge
OpenAI e outras empresas podem ter que revelar uso de material com copyright

OpenAI e outras empresas podem ter que revelar uso de material com copyright
Fonte: Tecnoblog

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

Depois de quase 30 dias banido na Itália, o ChatGPT volta a ser liberado no país. Acesso foi retomado dias depois da OpenAI atualizar suas políticas de privacidades, um dos pontos que motivou o banimento da IA generativa na Velha Bota (apelido para a Itália). O bloqueio ao ChatGPT também usou um vazamento de dados na justificativa.

ChatGPT volta a funcionar na Itália após alterações na política de privacidade (Imagem: Vitor Pádua/Tecnoblog)

Sobre a nova política de privacidade, a OpenAI agora permite que os usuários desativem o histórico de conversa com a IA. Ao ativar o recurso, o ChatGPT não utilizará a conversa para ser treinada. Porém, o conteúdo é guardado por 30 dias e revisado para monitorar possíveis abusos.

ChatGPT foi banido na Itália no fim de março

O bloqueio do ChatGPT na Itália aconteceu no dia 31 de março. Agência de Proteção de Dados do país acusou a OpenAI de recolher informações pessoais da população de maneira ilegal. Além disso, a agência apontou que a empresa não possuía métodos eficazes para verificar a idade dos usuários — somente maiores de 13 anos podem acessar o ChatGPT.

Para piorar a situação da OpenAI, dias antes do banimento, um bug na inteligência artificial levou ao vazamento de dado de usuários do serviço ChatGPT+ e permitiu que o histórico de conversa de uma conta fosse acessada por outro usuário.

Agora, quando um usuário com IP italiano entra no ChatGPT, um pop-up com a mensagem “a OpenAI está feliz em retomar o ChatGPT na Itália”. No texto também é pedido que a pessoa confirme ter mais de 18 anos ou que tem mais de 13 anos e foi autorizado pelos pais a acessar a IA generativa. O pop-up conta ainda com um link para acessar a política de privacidade da OpenAI.

ChatGPT agora pede confirmação de idade na Itália (Imagem: Unsplash / Jonathan Kemper)

OpenAI continua sob investigação na Espanha

Apesar das boas notícias na Itália, a OpenAI continua sob investigação na Espanha. Até o momento, o ChatGPT não foi banido no país. O motivo da investigação é quase o mesmo alegado pela Itália.

A Agência Espanhola de Proteção de Dados (AEPD) está investigando se a OpenAI segue o Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia. Na Velha Bota, a dúvida envolvia a legislação da própria Itália.

O Conselho Europeu de Proteção de Dados (EDPB na sigla em inglês) criou uma força-tarefa para investigar o cumprimento da GDPR pela OpenAI.

Com informações: TechCrunch
ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade
Fonte: Tecnoblog

DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA

DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA

A briga pelo futuro da inteligência artificial está só começando, e cada empresa tenta reunir o que tem de melhor. O Google, por exemplo, vai incorporar o laboratório DeepMind ao Brain, sua equipe de pesquisa em IA. A nova unidade se chamará Google DeepMind.

Google (Imagem: Vitor Pádua / Tecnoblog)

Demis Hassabis, CEO da DeepMind, terá o mesmo cargo no Google DeepMind. Já Jeff Dean, co-fundador da equipe Brain, será o cientista-chefe da Google Research e do Google DeepMind.

“Juntos, colaborando com nossos fantásticos colegas das áreas de produto do Google, temos uma oportunidade real para melhorar consideravelmente as vidas de bilhões de pessoas, transformar indústrias, levar a ciência adiante e ajudar comunidades diversas”, declarou Hassabis.

Nos últimos meses, o lançamento do ChatGPT colocou o Google em alerta.

A empresa estava acostumada a desenvolver inteligências artificiais para seu motor de buscas, “entendendo” conteúdo de páginas e buscas de usuários. Transformá-las em produtos para o usuário, porém, é algo novo.

Mesmo assim, o Google reagiu e vem liberando o Bard, seu chatbot com IA, aos poucos.

O lançamento foi cheio de problemas, como respostas erradas do programa e insatisfação de funcionários. Apesar disso, o CEO Sundar Pichai garante que sua empresa tem a melhor inteligência artificial do mercado.

A chegada da equipe da DeepMind pode ser vista nesse sentido: reforçar o desenvolvimento das tecnologias de IA para não ficar atrás da Microsoft e da OpenAI na corrida.

DeepMind era científica e queria mais independência

Dá para entender a declaração de Hassabis como um aviso que, daqui em diante, as tecnologias desenvolvidas serão voltadas para produtos e aplicações práticas.

Isso não é exatamente novidade: a DeepMind já realizou trabalhos para aumentar a duração da bateria dos smartphones com Android e reduzir o consumo de energia nos data centers da empresa. Mesmo assim, o foco era muito mais acadêmico e científico.

Como lembra o site The Verge, Google e DeepMind tinham um relacionamento tenso. Enquanto o laboratório tinha alguns dos melhores pesquisadores do mundo e uma reputação científica enorme, ele dava prejuízo, e era a gigante das buscas era quem pagava as contas.

Em 2021, o Google teria rejeitado um pedido da DeepMind para se tornar uma instituição sem fins lucrativos e ter mais independência.

Christopher Manning, diretor do Laboratório de Inteligência Artificial de Stanford, avalia que a fusão pode ser mais difícil do que parece. “Estrategicamente, faz sentido. Taticamente, será difícil gerenciar as diferenças organizacionais e culturais”, diz o cientista ao Wall Street Journal.

A DeepMind ficou famosa quando seu AlphaGo venceu um jogo de go contra o campeão mundial Lee Sedol. Outros feitos do laboratório foram o AlphaZero, que usou aprendizado por reforço para jogar go, xadrez e shogi, e o AlphaFold, especializado em enovelamento de proteínas.

Fundada em 2010 no Reino Unido, a DeepMind comprada pelo Google em 2014. No ano seguinte, a reestruturação corporativa formou o conglomerado Alphabet, com Google e DeepMind como subsidiárias separadas. Agora, elas estão novamente unidas.

Com informações: The Wall Street Journal, The Verge
DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA

DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA
Fonte: Tecnoblog

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Na última quinta-feira (13), Sam Altman, CEO da OpenAI, declarou que a empresa não está “treinando” o GPT-5, modelo de linguagem (LLM) de inteligência artificial da empresa. Com a sua fala, Altman desmentiu os rumores e a carta que pedia a pausa no desenvolvimento de IAs. Ainda sobre a carta o CEO, relata que ela não informava o que especificamente as empresas deveriam parar.

GPT é o nome do “motor” equipado no ChatGPT e Bing Chat (imagem: Emerson Alecrim/Tecnoblog)

Sam Altman foi um dos convidados do evento “O Futuro dos Negócios IAs”, organizado pelo célebre Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês). Mesmo sem desenvolver o GPT-5, Altman revelou que a empresa está focada em aprimorar o GPT-4, LLM mais recente da OpenAi e que é usada no ChatGPT e Bing Chat.

CEO da OpenAI comenta carta para pausar desenvolvimento de IAs

Para Sam Altman, a carta aberta que pedia às empresas de inteligência artificial a interrupção do desenvolvimento de LLMs mais potentes que o GPT-4 não explicava de maneira técnica o que fazer. Ele ainda desmentiu a informação publicada na carta de que a OpenAI já estava treinando o GPT-5.

O documento foi publicado em março, pouco depois do lançamento oficial do GPT-4. A autoria é da fundação Future of Life publicou, que tem uma parte do seu financiamento oriundo do caixa de Elon Musk — que é um dos assinantes da carta junto de outros empresários techs.

Bing Chat com GPT-4 não consegue resolver regra de três composta — nem mesmo em inglês (Imagem: Reprodução /Tecnoblog)

O CEO da OpenAI afirmou ainda que o treinamento do GPT-5 não começará tão cedo. O foco é melhorar o que já tem. A “assustadora e potente” GPT-4 continua falhando em tarefas “simples”, como regra de três composta — seja no Bing ou no ChatGPT.

Mesmo parecendo que não levou a carta a sério, Altman disse que a OpenAI está resolvendo problemas de segurança no GPT-4. Na carta, este foi um dos pontos de “preocupação” levantado pela Future of Life.

Com informações: The Verge
Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo
Fonte: Tecnoblog

ChatGPT será investigado na Espanha por violação de privacidade de usuários

ChatGPT será investigado na Espanha por violação de privacidade de usuários

O ChatGPT enfrenta mais um problema na Europa. A OpenAI, empresa responsável pela IA generativa, será alvo de investigação aberta pelo órgão da Espanha responsável por proteção de dados. Até o momento, a Agência Espanhola de Proteção de Dados (AEPD) não pediu o bloqueio do serviço em seu território.

Depois de investigação e bloqueio na Itália, agora é a vez da Espanha abrir um inquérito sobre o ChatGPT (Imagem: Reprodução/Tecnoblog)

Depois de ser bloqueado na Itália por possíveis violações de privacidade, o ChatGPT pode ver o mesmo acontecer no outro país. A AEPD investiga se a OpenAI está seguindo o Regulamento Geral sobre a Proteção de Dados (GDPR, na sigla em inglês) da União Europeia. O regulamento aponta as obrigações que devem ser seguidas por todas as entidades, públicas e privadas, que atuam nos países membros da União Europeia (UE).

GDPR regula como dados de europeus são geridos por estrangeiros

A legislação da EU fiscaliza, entre outros pontos, como os dados de cidadãos dos países membros são geridos por empresas estrangeiras. Por exemplo, se uma instituição está exportando informações privadas para fora do continente. Logo, a OpenAI, que é americana, precisa ser transparente sobre como lida com os dados sigilosos dos europeus.

Nesse ponto, a Itália e a Espanha têm dúvidas se a OpenAI de fato protege as informações privadas dos usuários do ChatGPT. Para evitar qualquer problema com dados sigiloso sendo “mal geridos”, o órgão italiano responsável por fiscalizar a GDPR bloqueou a IA generativa no país. A Espanha, até o momento, não seguiu esses passos.

Órgão da União Europeia também investigará como a OpenAI utiliza os dados sigilosos (Imagem: Thijs ter Haar/Wikimedia Commons)

Entretanto, a AEPD tomou um passo importante: pediu que o Conselho Europeu de Proteção de Dados (EDPB na sigla em inglês), órgão da EU que fiscaliza o Regulamento, discutisse o ChatGPT em uma discussão de plenário.

O resultado do debate levou o EDPB a criar uma força-tarefa para investigar a gestão de dados privados pela OpenAI. A investigação do Conselho será paralela aos trabalhos da Espanha e da Itália.

Bug no ChatGPT revelou dados sigilosos de usuários

ChatGPT enfrentou outros problemas antes de investigações na Europa (Imagem: Reprodução/Tecnoblog)

No dia 20 de março, um bug no ChatGPT permitiu que os e-mails de confirmação do ChatGPT Plus, com dados pessoais, fossem enviados aos assinantes errados. O problema também permitia que a primeira mensagem de uma conversa fosse acessada por outro usuário, mas só se as duas contas estivessem online ao mesmo tempo.

Para resolver o bug, a OpenAI deixou o ChatGPT fora do ar durante boa parte do dia 20 de março. Quatro dias depois, a empresa confirmou a razão de ter “desligado” a IA por várias horas. O caso foi um dos argumentos usados pela Itália para bloquear o serviço no país.

Com informações: Tech Crunch
ChatGPT será investigado na Espanha por violação de privacidade de usuários

ChatGPT será investigado na Espanha por violação de privacidade de usuários
Fonte: Tecnoblog

Atalho do ChatGPT está chegando para dispositivos da Apple

Atalho do ChatGPT está chegando para dispositivos da Apple

O desenvolvedor e editor do MacStories, Federico Viticci, anunciou que está lançando um atalho avançado para integrar o ChatGPT aos sistemas operacionais do iPhone, iPad, Apple Watch e Mac. Chamado de “S-GPT”, a novidade promete conectar a inteligência artificial da OpenAI com recursos nativos dos gadgets da Apple. Isso permitirá que o usuário converse com o chatbot sem precisar abrir a página da plataforma em um navegador.

O S-GPT (Imagem: Divulgação / Federico Viticci)

Segundo a página do S-GPT, o atalho serve para que o usuário faça perguntas para o ChatGPT a partir de uma caixa na tela do dispositivo. As respostas aparecem em um alerta no aparelho, como em uma notificação. Por enquanto, ele só aceitará textos, mas não há limite para o tamanho da questão.

Para se distanciar de outros produtos similares, o desenvolvedor destacou os diferenciais da novidade:

O S-GPT usa a nova API de bate-papo lançada pela OpenAI, que é mais econômica do que a API de conclusão de texto anterior e pode produzir resultados de alta qualidade. Mais importante ainda, o S-GPT suporta o modo de conversação: à medida que você conversa com o ChatGPT e faz perguntas de acompanhamento na mesma “sessão”, o S-GPT mantém o contexto de suas perguntas anteriores e a série de respostas do assistente. Na verdade, você pode parar o atalho a qualquer momento e exportar um log completo de uma conversa inteira como uma única transcrição.

Em outras palavras, Federico Viticci queria oferecer algo mais do que “perguntas simples ou pedidos de poemas”. Ele criou uma ferramenta para ser integrada às funcionalidades nativas dos produtos da Apple.

Uma conversa completa salva em arquivo de texto (Imagem: Divulgação / Federico Viticci)

S-GPT exige conta na OpenAI

O S-GPT (abreviação de Shortcuts-GPT) é “gratuito para qualquer usuário”, conforme afirmação do desenvolvedor. No entanto, é necessário ter uma inscrição na OpenAI com associação a um plano de pagamento “pay-as-you-go”, que é um sistema em que você paga por um serviço antes de usá-lo e você não pode usar mais do que você pagou.

Essa necessidade se deve ao fato de que o atalho aproveita a API de desenvolvedor da criadora da inteligência artificial, que tem um custo. Ele pode se conectar ao modelo 3.5 do ChatGPT e, caso o usuário tenha acesso à versão 4.0, também conseguirá usá-lo.

Alguns dos exemplos do que a novidade consegue fazer é responder a um comando para criar uma playlist com artistas específicos. Dessa forma, ele acessa o chatbot, que repassa a lista de faixas musicais e pede para você nomeá-la. Quando você abrir o aplicativo do Apple Music ou similar, as músicas ordenadas estarão te esperando.

Com isso, talvez a Siri precisará se preocupar em perder seu posto.

Com informações: TechRadar.
Atalho do ChatGPT está chegando para dispositivos da Apple

Atalho do ChatGPT está chegando para dispositivos da Apple
Fonte: Tecnoblog