Category: OpenAI

Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais

Os escritores Sarah Silverman, Christopher Golden e Richard Kadrey abriram processos contra a OpenAI, empresa por trás do ChatGPT, e contra a Meta. Eles acusam as empresas de desrespeitar direitos autorais ao treinar suas inteligências artificiais de geração de texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A ação foi movida na Corte Distrital do Norte da Califórnia. Ela alega que o ChatGPT, da OpenAI, e o LLaMA, da Meta, foram treinados com conjuntos de dados adquiridos ilegalmente, que continham as obras dos autores.

Os livros estariam em sites como o Z-Library (que foi derrubado em novembro de 2022), o Library Genesis e o Bibliotik, além de serem compartilhados por torrent.

Como evidência do uso ilegal, os escritores apontam que o ChatGPT é capaz de resumir seus livros com ótima precisão, apesar de errarem alguns detalhes, o que indicaria que eles tiveram acesso às obras completas.

Já em relação ao LLaMA, da Meta, os autores dizem ter encontrado as obras no conjunto de dados que a empresa usou para treinar seus modelos de IA.

A Meta tem uma abordagem mais aberta sobre o assunto que a OpenAI: em um artigo, ela detalha as fontes usadas para desenvolver seu gerador de texto.

O conjunto de dados se chama ThePile (”a pilha”, em tradução livre) e foi criado por uma empresa EleutherAI. Em um artigo, ela afirma que ele usa uma cópia dos conteúdos da Bibliotik.

Escritório de advocacia já move outras ações contra ChatGPT

Os três autores são representados no processo pelos advogados Joseph Saveri e Matthew Butterick. A dupla também entrou com outra ação contra a OpenAI, em nome dos escritores Mona Awad e Paul Tremblay, na mesma corte dos EUA.

Saveri e Butterick criaram até um site chamado LLM Litigation (“litígio contra grandes modelos de linguagem”, em tradução livre) para divulgar as ações.

Além dos autores, o escritório de Saveri representa artistas que entraram com uma ação coletiva contra o Stable Diffusion. O algoritmo supostamente toma ilustrações, desenhos e outras obras como base para gerar imagens.

Outro processo é contra o GitHub Copilot, que usa IA para sugerir trechos de código. Todas essas práticas podem caracterizar violação de direitos autorais.

Com informações: The Verge
Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais
Fonte: Tecnoblog

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

O Threads mal chegou e já passou a marca de 100 milhões de usuários. Lançado na última quarta-feira, a nova rede social da Meta atingiu o número acima em apenas 5 dias. Com isso, o Threads supera com sobras o tempo que levou para o ChatGPT passar de 100 milhões de usuários — foram 2 meses para o serviço da OpenAI.

Threads chegou e rapidamente foi batendo recordes de usuários (Imagem: Thássius Veloso/Tecnoblog)

Logo quando ficou óbvio que o Threads estava para chegar, começaram os grandes questionamentos:  a nova rede social dará certo ou não? No momento, ainda está bem cedo para responder. E, na verdade, o importante para a Meta é que no curto prazo o Threads tem hype — logo mais será o momento de capitalizar com anúncios.

Threads é o “primeiro lançamento” de empresa consolidada

A estreia da Threads é um momento “inovador” nas redes sociais, pois foi a primeira vez que uma grande empresa, já consolidada, lançou uma nova plataforma. Desde que chegamos na “tríade” de redes sociais (Facebook, Instagram e Twitter), todos as grandes novidades foram atualizações nessas plataformas ou empresas que lançaram apps que foram esquecidos logo depois — BeReal é um exemplo.

BlueSky, Koo e Mastodon também chegaram como “substitutos do Twitter”, mas eles não são criações de uma empresa tão rica e dominante como a Meta. A grande vantagens do Threads para atingir a marca de meio Brasil em cinco dias é usar a integração com o Instagram e toda a base de usuários deste sucesso.

Threads ainda tem pontos há melhorar, mas a estrutura consolidada do Instagram ajuda na conquista do público (Imagem: Divulgação/Meta e Vitor Pádua/Tecnoblog)

E como já falamos aqui no Tecnoblog, outro acerto foi preparar os influencers para a nova rede — goste ou não deles. Afinal, toda rede social depende de criadores de conteúdo. Quanto mais público eles trazem, melhor. Por isso que Diego Defante não teve um acesso antecipado e o Leo Santana sim.

Mesmo com a Meta sendo experiente em redes sociais, algumas melhorias precisam ser feitas para o Threads popularizar ainda mais. Por exemplo, a opção de um feed só de quem você segue e lançar (de uma vez) o acesso web — com este último, aí eu penso em começar a “threadar”.

Threads não precisa “dar certo”, precisa dar lucro

Voltando ao “vai dar certo ou não”, a verdade é que o conceito de certo ou errado é relativo. Provavelmente, a Meta vê o “dar certo” como sinônimo de “dar lucro” — seja com 100 milhões de usuários ou 1 bilhão. Se com mais de 100 milhões de contas o Threads já for atrativo para os anunciantes, pagar as contas e ainda dar lucro, ótimo (para o Zuckerberg, óbvio).

Como bem comparou a colega Taylor Hatmaker do TechCrunch, o Threads quer ser o grande shopping center, não a “praça pública” falsamente prometida por Elon Musk ao comprar o Twitter. Até porque Threads não será um espaço para incentivar notícias e política.

Com informações: TheVerge e TechCrunch
Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT
Fonte: Tecnoblog

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

No início da semana, mais de cem mil contas de usuários do ChatGPT foram encontradas em sites de venda de informações hackeadas. A OpenAI, criadora do ChatGPT, se pronunciou sobre o caso. Para a empresa, a culpa do vazamento é dos usuários que não se protegem de malwares.

OpenAI reconhece vazamento, mas relembra que usuários precisam ter cuidado com malwares (Imagem: Vitor Pádua / Tecnoblog)

Este novo caso não tem relação com o bug que vazou dados de usuários do ChatGPT Plus, versão paga da inteligência artificial. Desta vez, de acordo com o Group-IB, empresa de cibersegurança que encontrou essas 100 mil contas em fóruns hackers, os dados foram roubados através de malwares instalados nos computadores das vítimas.

OpenAI afirma que toma as melhores medidas de segurança

Se no bug de março a culpada foi a OpenAI, dessa vez a empresa tirou o seu da reta e afirmou que segue os melhores padrões da indústria em cibersegurança. A criadora do ChatGPT disse, indiretamente, que não tem culpa se os usuários botam “vírus”. A OpenAI também está investigando as contas afetadas para contatar os clientes afetados.

Confira o comunicado da empresa para o site Tom’s Hardware:

“Os resultados do relatório de inteligência de ameaças da Group-IB são o resultado de ‘malware de commodities’ nos dispositivos das pessoas e não de uma violação da OpenAI. Atualmente, estamos investigando as contas que foram expostas. A OpenAI mantém as melhores práticas do setor para autenticar e autorizar [a entrada] dos usuários em serviços, incluindo o ChatGPT, e incentivamos nossos usuários a usar senhas fortes e instalar apenas softwares verificados e confiáveis em computadores pessoais.”
OpenAI

Cibersegurança não depende apenas da fornecedora do serviço, mas também do usuário (Imagem: Darwin Laganzon/Pixabay)

A OpenAI não está errada em se isentar de culpa neste caso. A cibersegurança é uma “estrada de mão dupla”: a fornecedora de um serviço faz a sua parte e o usuário faz a sua — seja usando um antivírus ou se atentando contra possíveis programas maliciosos de um príncipe nigeriano.

De acordo com a Group-IB, o Brasil está entre os países com mais contas vazadas. Outros países que integram essa lista infeliz estão: Bangladesh, Egito, França, Indonésia, Marrocos, Paquistão, Estados Unidos e Vietnã.

Vazamento de contas pode afetar a Samsung e outras empresas

Além de afetar os usuários, o vazamento pode prejudicar empresas: desde as pequenas até as grandes como a Samsung. A popularidade e efetividade do ChatGPT, sendo capaz até de ajudar na criação de código, leva funcionários de várias companhias a usar a IA como um assistente.

No caso da Samsung, a empresa proibiu o uso do ChatGPT nos seus computadores. A medida foi tomada após os “puxões de orelha” não funcionarem com seus empregados. A sul-coreana estava preocupada (e com razão) dos funcionários divulgarem dados confidenciais em um sistema de terceiro.

Com informações: Tech Radar e Tom’s Hardware
Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares
Fonte: Tecnoblog

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

Quando um grupo influente de executivos e pesquisadores de inteligência artificial apresenta uma declaração aberta sobre os perigos desta tecnologia para a humanidade, é impossível não prestar atenção. Ainda mais quando a palavra “extinção” é utilizada.

Vamos ser substituídos pela IA ou simplesmente extintos? (Imagem: Vitor Pádua / Tecnoblog)

Entre os signatários do alerta, divulgado no dia 30 de maio, estão os CEOs de empresas como OpenAI e Google DeepMind, além de estudiosos muito respeitados na área, como Geoffrey Hinton e Yoshua Bengio, considerados padrinhos da IA moderna. A mensagem era bem direta: “Mitigar o risco de extinção da IA deve ser uma prioridade global junto a outros riscos em escala social, como pandemias e guerra nuclear”.

Há uma organização sem fins lucrativos por trás da iniciativa, o Center for AI Safety. Seu diretor-executivo, Dan Hendrycks, é também um pesquisador de inteligências artificiais. Sua preocupação a respeito do futuro delas e sua relação conosco está expressa num artigo intitulado “Natural Selection Favors AIs over Humans” — algo como “A Seleção Natural favorece IAs em detrimento dos humanos.”

É, eu sei. Nem um pouco animador.

Mas como exatamente uma inteligência artificial causaria algo tão grave quanto a extinção humana? Aqui, vale olhar para o que diz o Center for AI Safety.

Não precisa ser extinção para ser grave

Para a maioria de nós, a inteligência artificial se resume ao ChatGPT ou geradores de imagens. Não é disso que Hendrycks e a organização que lidera estão falando. Os riscos apontados pela entidade só poderiam ser oferecidos por sistemas muito mais evoluídos, que hoje ainda não existem — mas podem vir a existir.

Entre as ameaças apontadas no site do grupo, estão perigos sérios, e é possível argumentar que alguns deles seriam capazes de gerar cenários destruição para a humanidade. Mas nem todos os riscos levariam a esse desfecho, é bom apontar. Há diferentes níveis de estrago. Conversamos sobre alguns deles no Tecnocast 293.

O cenário mais grave envolveria a armamentização (weaponization). Aqui, teríamos uma IA sendo usada intencionalmente para causar danos diversos. O texto no site do Center for AI Safety levanta, por exemplo, a possibilidade de seu uso para ciberataques automatizados.

Mas poderia ser pior, já que inteligências artificiais poderiam ser usadas no controle de armas, inclusive as químicas. Nesse contexto, um erro de interpretação do sistema poderia ter resultados catastróficos, como o início de uma guerra.

Inteligência artificial (imagem ilustrativa: Max Pixel)

Do restante dos riscos apresentados, alguns se baseiam num agravamento de fenômenos que já podemos observar hoje, como o uso de IA para fins de desinformação e a concentração dessas ferramentas nas mãos de poucos agentes, como empresas e países. Nada de extinção aqui, mas, ainda assim, são problemas graves.

É mais para o final da lista que vemos os riscos mais, digamos, especulativos.

E se a máquina decidir outra coisa?

Boa parte da ficção científica que especula sobre possíveis tensões entre a humanidade e os agentes de IA — incluindo aí robôs — parte da desconfiança. O que faríamos ser uma inteligência superior à nossa resolvesse fazer algo diferente do que a construímos para fazer?

O Center for AI Safety lista alguns riscos que dialogam com esse temor humano diante das máquinas. Objetivos emergentes (emergent goals): em sua evolução, as inteligências artificiais poderiam desenvolver metas e comportamentos que não previmos, e que poderiam — veja bem, poderiam — ser prejudiciais para nós.

E o que dizer de sistemas que tentam ativamente nos enganar (deception)? E nem precisa ser por um desejo de nos passar para trás, apenas pelo cálculo — estamos falando de uma máquina, certo? — de que mentir ajudaria a cumprir determinado objetivo. Imagine de eles pudessem, inclusive, enganar os humanos responsáveis por monitorá-los…

Estas são as hipóteses que provocam a desconfiança, que a ficção explora tão bem. No filme Eu, Robô, por exemplo, vemos como uma IA chega a uma nova interpretação de suas diretrizes, entendendo que a forma mais segura de cumprir sua principal regra, proteger os humanos, era através do controle. Mesmo contra nossa vontade.

O Exterminador do Futuro

Com tantas empresas correndo para criar sistemas mais sofisticados, não é surpreendente que essas preocupações comecem a ser ventiladas. Pode haver certo exagero na conversa sobre risco de extinção, mas a mensagem geral está clara: vamos manter os olhos abertos.

Também devemos ouvir os céticos

Claro que a carta do Center for AI Safety gera apreensão, mas é importante destacar que há muita gente que entende do assunto e que não a levou a sério.

Entre eles estão Yann LeCun, cientista da computação francês. Ele também é considerado, junto com Geoffrey Hinton e Yoshua Bengio, um dos padrinhos da pesquisa em IA. Ao contrário dos colegas, no entanto, LeCun — que também trabalha na Meta — não assinou a declaração, e se manifestou no Twitter a respeito.

A reação mais comum dos pesquisadores de IA a essas profecias de desgraça é um facepalm.
Yann LeCun

LeCun respondia a um tweet do professor Pedro Domingos, da Escola de Ciência da Computação e Engenharia da Universidade de Washington. Domingos também manifestou seu ceticismo: “Lembrete: a maioria dos pesquisadores de IA acha que a noção da IA acabar com a civilização humana é bobagem.”.

Arvind Narayanan, cientista da computação da Universidade de Princeton, disse à BBC: “A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, ela desvia a atenção dos danos de curto prazo da IA.”.

Quais danos a curto prazo? Diogo Cortiz, cientista cognitivo e professor da PUC/SP, chama a atenção para algumas.

Dizer que a sociedade corre risco de extinção é uma forma de tentar controlar a narrativa. Ajuda a comunicar a ideia de que as tecnologias que eles detém são mais poderosas do que de fato são enquanto desvia o foco de problemas reais e atuais: vieses, consentimento do uso de dados, uso indevido, responsabilidade e accountability, propriedade intelectual, empregos, concentração, etc.
Diogo Cortiz

Imagem de astronauta em um cavalo gerada pelo Dall-E (imagem: reprodução/OpenAI)

De fato, todos os pontos citados acima são reais e geram problemas aqui e agora. O caminho para resolvê-los passa por dados mais abertos — coisa que a OpenAI parece ter deixado apenas no nome — e por alguma forma de regulação, algo que os próprios executivos reconhecem.

Os riscos das IAs avançadíssimas continuarão a nos assombrar, e, em certa medida, é bom que seja assim. Não queremos ter surpresas desagradáveis. No entanto, um pouco de ceticismo quanto aos motivos de tantos executivos também é bem-vindo.

Vale lembrar que, em março, Elon Musk assinou uma carta aberta pedindo uma pausa no desenvolvimento de IAs. O mesmo Musk iniciou, pouco tempo depois, um projeto de inteligência artificial para o Twitter, mostrando que nunca quis, de fato, uma interrupção nas pesquisas.

Em resumo, o ideal é ser vigilante. Em relação ao futuro, mas também ao agora.
O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs
Fonte: Tecnoblog

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;

outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;

e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.
IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind
Fonte: Tecnoblog

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT e da tecnologia GPT, pediu pela regulamentação internacional de inteligências artificiais “superinteligentes”. Para os fundadores da empresa, as IAs necessitam de um órgão regulador respeitado à nível da Agência Internacional de Energia Atômica (AIEA). A proposta da OpenAI é diferente da carta que pedia a suspensão das pesquisas com inteligências artificiais.

OpenAI quer órgão internacional para regular inteligências artificiais (Imagem: Vitor Pádua/Tecnoblog)

Ao contrário da carta pela interrupção do desenvolvimento das tecnologias de IAs, a liderança da OpenAI quer que as inteligências artificiais continuem evoluindo enquanto os governos trabalham pela criação de um órgão regulador. A empresa quer que esse órgão proteja a humanidade de criar uma tecnologia que pode destruí-la — mas não necessariamente no estilo Exterminador do Futuro.

Pedido de regulamentação pela OpenAI veio de diretores

A publicação no site da OpenAI, pedindo pela regulamentação rígida das inteligências artificiais, é assinada por Sam Altman, Greg Brockman e Ilya Sutskever, todos com cargos de direção na empresa.

Os três líderes da OpenAI afirmam que, enquanto esse órgão internacional não é criado, as empresas que estão desenvolvendo inteligências artificiais precisam trabalhar em conjunto. Essa cooperação visa manter a segurança e integração das IAs com a sociedade. A carte sugere também que esse “trabalho em equipe” pode determinar uma “taxa de evolução” das tecnologias enquanto os governos preparam a criação do órgão.

Órgão regulador teria papel de ser a AIEA das inteligências artificiais (Imagem: Andrea De Santis/Unsplash)

Pela comparação com a AIEA, uma agência internacional fiscalizadora de IAs, como sugerem os diretores da empresa, seria ligada a alguma divisão da Organização das Nações Unidas (ONU). Atualmente, a AIEA é um órgão autônomo da ONU, mais próximo da Assembleia Geral e Conselho de Segurança — visitando em algumas ocasiões a usina nuclear de Zaporizhzhia, no front da Guerra da Rússia contra a Ucrânia.

Riscos para a humanidade não envolvem “revolução das máquinas”

Os riscos para a humanidade, motivo citado pela OpenAI para a criação de um órgão regulador, não se restringem a um cenário de “Exterminador do Futurou” ou IAs escravizando humanos. Na verdade, a empresa nem chega a comentar como seria esse cenário.

A “destruição da humanidade” também pode ser visualizado em um cenário de colapso social. Com IAs assumindo o trabalho de milhares de pessoas, a população desempregada pode entrar em situação de pobreza, levando a riscos sociais, existenciais e de segurança para nações não preparadas para lidar com o avanço da tecnologia. O que é o caso de todos os países da atualidade.

Com informações: The Guardian
OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais
Fonte: Tecnoblog

Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários

A inteligência artificial já faz parte do dia a dia de inúmeras empresas de tecnologia. Algumas abraçaram de vez os robôs, enquanto outras mantém um olhar mais desconfiado. É o caso da Apple, que pode ter proibido seus funcionários de usarem o ChatGPT e outras ferramentas de IA. A maçã teria receio que vazamentos de seus projetos poderiam ocorrer com a utilização frequente do chatbot da OpenAI.

Apple (Imagem: Vitor Pádua / Tecnoblog)

Segundo um relato do The New York Times, a Apple decidiu seguir o mesmo caminho de outra empresa. A Samsung proibiu os funcionários de usarem o ChatGPT no trabalho depois que alguns colaboradores deixaram vazar dados confidenciais ao pedirem ajuda ao robô.

O jornal estadunidense reportou que a dona do iPhone estaria trabalhando em sua própria inteligência artificial generativa, como o Bard do Google e o Bing Chat da Microsoft. Sendo assim, a companhia teria preocupações que os profissionais acabassem deixando escapar informações importantes e secretas dos futuros projetos. Vale lembrar que o chatbot ganhou um app para iPhone recentemente.

Além disso, os colaboradores da maçã também teriam sido aconselhados a não usarem o Copilot do GitHub, pois ele é propriedade da Microsoft e utiliza códigos da OpenAI para suas funções.

Ao que tudo indica, “precaução” é a palavra da vez entre as grandes empresas. Apple e Samsung não estão sozinhas em restringir o uso do ChatGPT e similares por funcionários. Marcas como o Bank of America e J.P. Morgan adotaram as mesmas medidas.

(Imagem: Unsplash / Jonathan Kemper)

ChatGPT é conveniente, mas ainda falta segurança

Mesmo oferecendo muita utilidade no dia a dia dos usuários, o chatbot da OpenAI não está livre de críticas e receios. A proibição de marcas como Apple e Samsung é compreensível, já que o vazamento de dados a partir do robô ocorreu previamente.

A própria dona da ferramenta acabou divulgando detalhes de segurança do ChatGPT, na qual ressaltou os esforços para melhorar a privacidade, ao mesmo tempo, em que deu satisfação para sua base de usuários. No relato, a companhia destacou que não vende dados, mas que os usa para tornar os modelos de inteligência artificial mais úteis.

Ainda na questão de segurança, a empresa de proteção digital Kaspersky realizou testes na detecção de phishing por parte do ChatGPT. De acordo com seus resultados, a IA conseguiu adivinhar alvos de ataques, porém, alcançou taxas altas de falsos positivos de até 64%, o que foi considerado um número alto pelos especialistas.

Como o Brasil é um dos países que mais usa a inteligência artificial da OpenAI no mundo, vale tomar o máximo de medidas para se proteger do vazamento de dados e de golpes cibernéticos.

Com informações: Mashable.
Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários
Fonte: Tecnoblog

ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs

ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs

Para quem busca utilizar a inteligência artificial da OpenAI em documentos e apresentações do dia a dia, o GPT Workspace pode ser uma opção. O programa oferece duas extensões: uma para o Gmail e outra para o Docs, Sheets e Slides. Assim, você pode acessar o ChatGPT diretamente pelos aplicativos, sem precisar abrir uma nova aba do navegador.

GPT Workspace (Imagem: Divulgação / Qualtir)

A novidade foi criada pela empresa Qualtir e já está disponível. Com o GPT Workspace, você consegue gerar documentos distintos a partir de um comando, mas também ajeitar algo já pronto.

No Gmail, por exemplo, é possível pedir para o chatbot escrever e-mails profissionais ou criar respostas rápidas. Se quiser usar o robô no Slides, você pode produzir apresentações completas, com imagens e descrições detalhadas. Já no Google Docs, o ChatGPT pode receber prompts para gerar desde discursos a postagens em blogs.

O GPT Workspace oferece um plano gratuito, mas que limita o usuário a 10 comandos por mês. Já o modelo premium custa US$ 19 por mês (perto de R$ 95 em uma conversão direta). Segundo a companhia, as extensões não têm acesso às informações e arquivos do Google Drive da pessoa. Por padrão, os dados permanecem o tempo todo nos servidores do Google.

Por outro lado, o add-on precisa do endereço de e-mail e nome para identificar o indivíduo, além de metadados, como data e nome do arquivo.

O GPT Workspace rodando no Google Slides (Imagem: Divulgação / Qualtir)

Bard chegou ao Workspace, mas não é para todo mundo

Em março de 2023, o Google anunciou que estava liberando a sua própria inteligência artificial para ser usada no Gmail e no Docs. Porém, a novidade chegou apenas nos Estados Unidos e para contas empresariais e educacionais.

Assim como o GPT Workspace, o robô da gigante de buscas auxilia na criação de e-mails, transformando as mensagens em algo mais direto ou formal, por exemplo. No Docs, é possível fazer comandos para a IA escrever textos completos, com estilos distintos.

No entanto, o chatbot da empresa não começou muito bem. Fontes afirmam que o Google Bard está precisando de humanos para “chutarem” as respostas, o que aumenta as chances de oferecer erros aos usuários.

Anunciado em fevereiro, o Bard começou a ser disponibilizado em março. Ele lembra bastante o ChatGPT e o Bing Chat, que usa o robô para responder às dúvidas das pessoas. Até segunda ordem, a IA da gigante de buscas está limitada a um pequeno número de indivíduos nos EUA e no Reino Unido.

Com informações: GPT Workspace.
ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs

ChatGPT arranca na frente do Bard e já pode ser acessado no Google Docs
Fonte: Tecnoblog

OpenAI e outras empresas podem ter que revelar uso de material com copyright

OpenAI e outras empresas podem ter que revelar uso de material com copyright

A inteligência artificial é um assunto em alta, e seus aspectos positivos e negativos ainda estão sob avaliação. A União Europeia, por exemplo, agora está interessada na questão dos direitos autorais. O bloco discute obrigar as empresas a revelar se materiais protegidos por copyright foram usados para treinar robôs como o ChatGPT.

Bandeiras da União Europeia (Imagem: Thijs ter Haar/Wikimedia Commons)

Esta exigência foi adicionada ao Regulamento da Inteligência Artificial nas duas últimas semanas, disse uma fonte interna à Reuters. Alguns membros do Parlamento Europeu queriam proibir o uso de material com copyright, mas uma proposta mais branda, exigindo apenas transparência, venceu as discussões.

Dessa forma, empresas que desenvolvem ferramentas geradoras de conteúdo, como o ChatGPT, o Dall-E, o Midjourney e muitas outras, precisarão revelar qualquer uso de material protegido por direitos autorais para treinar seus sistemas.

O Regulamento da Inteligência Artificial (ou AI Act, em inglês) vem sendo discutido há dois anos, antes mesmo do lançamento do ChatGPT pela OpenAI e de todo o destaque sobre o tema que veio desde então.

O Parlamento Europeu já tinha um rascunho da lei, e seus membros concordaram em avançar com a matéria para a fase de discussões.

As inteligências artificiais generativas dependem de treinamento com grandes quantidades de dados. Assim, elas entendem diversas formas de escrever, acumulam informações, aprendem como desenhar em vários estilos, e assim por diante.

Processos contra empresas podem aumentar

Empresas como a OpenAI se recusam a abrir detalhes sobre os dados usados para treinar seu software. Caso a legislação europeia seja aprovada, elas precisarão revelar de onde foi retirado o conteúdo.

Isso pode ter consequências negativas para as companhias: os processos por violação de direitos autorais devem se multiplicar.

Imagem gerada pelo Stable Diffusion tem marca d’água da Getty Images (Imagem: Reprodução/The Verge)

A questão do copyright já é uma realidade no cenário da inteligência artificial, principalmente entre artistas e fotógrafos. A empresa de bancos de imagens Getty Images está processando a Stability AI, por exemplo.

O Stable Diffusion, modelo desenvolvido pela Stability AI, foi “pego” criando imagens com a marca d’água da Getty. Isso indica que as fotos da empresa foram usadas indevidamente para treinar a inteligência artificial.

Além da briga entre as duas empresas, três artistas moveram uma ação coletiva contra a Stability AI, a Midjourney e a DeviantArt.

Eles alegam que as desenvolvedoras violaram os direitos de milhões de artistas ao usar 5 bilhões de imagens raspadas da internet sem o consentimento dos artistas.

Deixando as imagens um pouco de lado, a Microsoft e sua subsidiária GitHub foram acionadas na Justiça dos EUA por causa da ferramenta Copilot.

O Copilot foi treinado usando códigos abertos. A licença desses códigos, porém, exige que o autor esteja listado em trabalhos derivados.

Mesmo assim, o Copilot cria longos scripts a partir de trabalhos protegidos por essas licenças sem dar nenhum crédito, o que seria uma violação da lei de direitos autorais.

Com informações: Reuters, The Verge
OpenAI e outras empresas podem ter que revelar uso de material com copyright

OpenAI e outras empresas podem ter que revelar uso de material com copyright
Fonte: Tecnoblog

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

Depois de quase 30 dias banido na Itália, o ChatGPT volta a ser liberado no país. Acesso foi retomado dias depois da OpenAI atualizar suas políticas de privacidades, um dos pontos que motivou o banimento da IA generativa na Velha Bota (apelido para a Itália). O bloqueio ao ChatGPT também usou um vazamento de dados na justificativa.

ChatGPT volta a funcionar na Itália após alterações na política de privacidade (Imagem: Vitor Pádua/Tecnoblog)

Sobre a nova política de privacidade, a OpenAI agora permite que os usuários desativem o histórico de conversa com a IA. Ao ativar o recurso, o ChatGPT não utilizará a conversa para ser treinada. Porém, o conteúdo é guardado por 30 dias e revisado para monitorar possíveis abusos.

ChatGPT foi banido na Itália no fim de março

O bloqueio do ChatGPT na Itália aconteceu no dia 31 de março. Agência de Proteção de Dados do país acusou a OpenAI de recolher informações pessoais da população de maneira ilegal. Além disso, a agência apontou que a empresa não possuía métodos eficazes para verificar a idade dos usuários — somente maiores de 13 anos podem acessar o ChatGPT.

Para piorar a situação da OpenAI, dias antes do banimento, um bug na inteligência artificial levou ao vazamento de dado de usuários do serviço ChatGPT+ e permitiu que o histórico de conversa de uma conta fosse acessada por outro usuário.

Agora, quando um usuário com IP italiano entra no ChatGPT, um pop-up com a mensagem “a OpenAI está feliz em retomar o ChatGPT na Itália”. No texto também é pedido que a pessoa confirme ter mais de 18 anos ou que tem mais de 13 anos e foi autorizado pelos pais a acessar a IA generativa. O pop-up conta ainda com um link para acessar a política de privacidade da OpenAI.

ChatGPT agora pede confirmação de idade na Itália (Imagem: Unsplash / Jonathan Kemper)

OpenAI continua sob investigação na Espanha

Apesar das boas notícias na Itália, a OpenAI continua sob investigação na Espanha. Até o momento, o ChatGPT não foi banido no país. O motivo da investigação é quase o mesmo alegado pela Itália.

A Agência Espanhola de Proteção de Dados (AEPD) está investigando se a OpenAI segue o Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia. Na Velha Bota, a dúvida envolvia a legislação da própria Itália.

O Conselho Europeu de Proteção de Dados (EDPB na sigla em inglês) criou uma força-tarefa para investigar o cumprimento da GDPR pela OpenAI.

Com informações: TechCrunch
ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade
Fonte: Tecnoblog