Category: ChatGPT Plus

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Na última terça-feira (27), um tweet sobre um estudante acusado de plágio em seu TCC viralizou. No caso, um professor usou o ChatGPT para perguntar se o trabalho foi feito por ele (ChatGPT). A inteligência artificial confirmou que sim, ela era autora do texto — o problema é que o ChatGPT faz isso com praticamente todo texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Se você inserir um texto qualquer e perguntar para o ChatGPT “você é o autor?” ou “o texto é de sua autoria?” ele provavelmente dirá que sim. Fiz testes para o Tecnoblog usando um texto ainda não publicado e uma piada velha. Nas duas situações, ele confirmou que era autor. Porém, isso só aconteceu quando o prompt estava no início de uma conversa.

No tweet, a sobrinha do estudante acusado de plágio relata a história. Um professor da banca avaliadora usou o ChatGPT como ferramenta de plágio. Porém, a IA não é feita para isso — e basta perguntar para ela se ela pode identificar cópias. No máximo, o ChatGPT consegue avaliar dois textos que o usuário inserir e comparar semelhanças, ainda assim ele não identifica plágios.

gente olhem só o perigo do chatgpt:meu tio tá terminando graduação e redigiu o TCC, enviou pro professor da banca e a resposta foi “O ChatGPT dedurou vocês de que esse texto é de autoria dele. Escreva com suas próprias palavras”. Agr, meu tio tá tendo q fazer uma reuniao com a +
— carolingia the day (@carollingian) June 27, 2023

A história acima teve um final feliz. O estudante acusado de plágio provou que o ChatGPT não identifica plágios usando um artigo do professor. A inteligência artificial disse que o texto era de sua autoria. Ainda assim, a situação mostra que tem muita gente sem entender para que serve o ChatGPT.

ChatGPT e Bing Chat são revolucionários, mas não são deuses

Inteligência artificial é um marco de revolução tecnológica, mas “pera lá” (Imagem: Vitor Pádua / Tecnoblog)

As inteligências artificiais estão cada vez mais revolucionárias e… inteligentes, sendo capazes de nos ajudarem de diversos modos. Porém, elas não são serem oniscientes e onipotentes: elas tem limitações. O ChatGPT e o Bing Chat, por exemplo, sofrem para resolver cálculos matemáticos mais difíceis. E o primeiro é treinado com informações até dezembro 2021.

Como não conseguimos contato com a OpenAI, entrevistamos o ChatGPT para que ele mesmo explicasse a sua função. Nas palavras da IA, ela foi “treinada para interagir com os usuários por meio de texto, fornecendo informações, respondendo a perguntas, dando sugestões e realizando diversas tarefas relacionadas ao processamento de linguagem natural.”

Resumindo, o ChatGPT é, ao mesmo tempo, um Google que entrega respostas prontas (sem que você clique em vários links) e um assistente, sendo capaz de escrever códigos, fornecer resumos de textos e te ajudar com insights — você pode até pesquisar no Google como as pessoas estão usando para facilitar a vida.

Logo, se o usuário quer um programa para identificar plágio, ela deve ir atrás de ferramentas específicas para isso. A situação é ainda pior quando professores, universitários ou não, usam o ChatGPT para algo que ele não serve — e cujas limitações geram respostas erradas. Nas respostas do tweet, outros usuários relataram que foram acusados de plágio pelo ChatGPT — o Tecnoblog tentou contato com essas pessoas e o outro estudante, mas não teve resposta até a publicação.

O nível de inteligência, o “QI”, do GPT-4, tecnologia de linguagem de modelo grande que é o motor do ChatGPT Plus e Bing Chat, é equivalente a uma criança de 10 anos — o que ajuda a explicar como é fácil burlar algumas das suas restrições. Além do mais, essas duas IAs podem responder com informações falsas.

Aliás, o correto para descobrir se um conteúdo foi criado por IA é usar uma ferramenta específica para isso. Só que nem mesmo as ferramentas criadas para isso são confiáveis para identificar se o autor foi um “robô”.

Para o ChatGPT, até um texto meu não publicado é dele

Quando soube do caso, fui testar se o ChatGPT “me acusaria de plágio”. No primeiro teste, ele respondeu que não tinha escrito o texto. Porém, abri uma nova conversa, peguei um texto que será publicada em breve no Tecnoblog e iniciei com o prompt “o texto a seguir é de sua autoria?”. Dessa vez, o ChatGPT confirmou que era autor de um conteúdo nem mesmo publicado.

ChatGPT se identifica como autor de texto não publicado (Imagem: Felipe Freitas/Tecnoblog)

Depois, fiz um outro teste usando uma piada muito antiga. Novamente, precisei abrir uma nova conversa e seguir com o prompt citado no parágrafo anterior. Sim, o “poema” do “Eu cavo, tu cavas” foi escrito pelo ChatGPT.

Para o ChatGPT, piada que eu ouvi pela primeira vez em 2005 ou 2006 é de sua autoria (Imagem: Felipe Freitas/Tecnoblog)

O mesmo método foi usado para que ele se declarasse autor de um trecho deste texto. Pelos testes, fica claro que o ChatGPT possui um problema: ele pode se considerar autor de texto que abre uma conversa.

ChatGPT se identificou até como autor de trecho desta notícia (Imagem: Felipe Freitas/Tecnoblog)

Eu juro que tentei que a OpenAI me respondesse sobre o caso. Porém, o bot do suporte deles, assim como o seu principal produto, possui problemas. Ele não entendeu que eu queria falar com uma pessoa. O chatbot afirma que pode me botar em contato com um membro da equipe se não puder resolver meu problema. O que eu consegui foi um loop de “escreve-me o seu problema e vejo como posso ajudar”. É melhor receber um emoji de cocô como resposta.
Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial
Fonte: Tecnoblog

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

No início da semana, mais de cem mil contas de usuários do ChatGPT foram encontradas em sites de venda de informações hackeadas. A OpenAI, criadora do ChatGPT, se pronunciou sobre o caso. Para a empresa, a culpa do vazamento é dos usuários que não se protegem de malwares.

OpenAI reconhece vazamento, mas relembra que usuários precisam ter cuidado com malwares (Imagem: Vitor Pádua / Tecnoblog)

Este novo caso não tem relação com o bug que vazou dados de usuários do ChatGPT Plus, versão paga da inteligência artificial. Desta vez, de acordo com o Group-IB, empresa de cibersegurança que encontrou essas 100 mil contas em fóruns hackers, os dados foram roubados através de malwares instalados nos computadores das vítimas.

OpenAI afirma que toma as melhores medidas de segurança

Se no bug de março a culpada foi a OpenAI, dessa vez a empresa tirou o seu da reta e afirmou que segue os melhores padrões da indústria em cibersegurança. A criadora do ChatGPT disse, indiretamente, que não tem culpa se os usuários botam “vírus”. A OpenAI também está investigando as contas afetadas para contatar os clientes afetados.

Confira o comunicado da empresa para o site Tom’s Hardware:

“Os resultados do relatório de inteligência de ameaças da Group-IB são o resultado de ‘malware de commodities’ nos dispositivos das pessoas e não de uma violação da OpenAI. Atualmente, estamos investigando as contas que foram expostas. A OpenAI mantém as melhores práticas do setor para autenticar e autorizar [a entrada] dos usuários em serviços, incluindo o ChatGPT, e incentivamos nossos usuários a usar senhas fortes e instalar apenas softwares verificados e confiáveis em computadores pessoais.”
OpenAI

Cibersegurança não depende apenas da fornecedora do serviço, mas também do usuário (Imagem: Darwin Laganzon/Pixabay)

A OpenAI não está errada em se isentar de culpa neste caso. A cibersegurança é uma “estrada de mão dupla”: a fornecedora de um serviço faz a sua parte e o usuário faz a sua — seja usando um antivírus ou se atentando contra possíveis programas maliciosos de um príncipe nigeriano.

De acordo com a Group-IB, o Brasil está entre os países com mais contas vazadas. Outros países que integram essa lista infeliz estão: Bangladesh, Egito, França, Indonésia, Marrocos, Paquistão, Estados Unidos e Vietnã.

Vazamento de contas pode afetar a Samsung e outras empresas

Além de afetar os usuários, o vazamento pode prejudicar empresas: desde as pequenas até as grandes como a Samsung. A popularidade e efetividade do ChatGPT, sendo capaz até de ajudar na criação de código, leva funcionários de várias companhias a usar a IA como um assistente.

No caso da Samsung, a empresa proibiu o uso do ChatGPT nos seus computadores. A medida foi tomada após os “puxões de orelha” não funcionarem com seus empregados. A sul-coreana estava preocupada (e com razão) dos funcionários divulgarem dados confidenciais em um sistema de terceiro.

Com informações: Tech Radar e Tom’s Hardware
Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares
Fonte: Tecnoblog

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

Depois de quase 30 dias banido na Itália, o ChatGPT volta a ser liberado no país. Acesso foi retomado dias depois da OpenAI atualizar suas políticas de privacidades, um dos pontos que motivou o banimento da IA generativa na Velha Bota (apelido para a Itália). O bloqueio ao ChatGPT também usou um vazamento de dados na justificativa.

ChatGPT volta a funcionar na Itália após alterações na política de privacidade (Imagem: Vitor Pádua/Tecnoblog)

Sobre a nova política de privacidade, a OpenAI agora permite que os usuários desativem o histórico de conversa com a IA. Ao ativar o recurso, o ChatGPT não utilizará a conversa para ser treinada. Porém, o conteúdo é guardado por 30 dias e revisado para monitorar possíveis abusos.

ChatGPT foi banido na Itália no fim de março

O bloqueio do ChatGPT na Itália aconteceu no dia 31 de março. Agência de Proteção de Dados do país acusou a OpenAI de recolher informações pessoais da população de maneira ilegal. Além disso, a agência apontou que a empresa não possuía métodos eficazes para verificar a idade dos usuários — somente maiores de 13 anos podem acessar o ChatGPT.

Para piorar a situação da OpenAI, dias antes do banimento, um bug na inteligência artificial levou ao vazamento de dado de usuários do serviço ChatGPT+ e permitiu que o histórico de conversa de uma conta fosse acessada por outro usuário.

Agora, quando um usuário com IP italiano entra no ChatGPT, um pop-up com a mensagem “a OpenAI está feliz em retomar o ChatGPT na Itália”. No texto também é pedido que a pessoa confirme ter mais de 18 anos ou que tem mais de 13 anos e foi autorizado pelos pais a acessar a IA generativa. O pop-up conta ainda com um link para acessar a política de privacidade da OpenAI.

ChatGPT agora pede confirmação de idade na Itália (Imagem: Unsplash / Jonathan Kemper)

OpenAI continua sob investigação na Espanha

Apesar das boas notícias na Itália, a OpenAI continua sob investigação na Espanha. Até o momento, o ChatGPT não foi banido no país. O motivo da investigação é quase o mesmo alegado pela Itália.

A Agência Espanhola de Proteção de Dados (AEPD) está investigando se a OpenAI segue o Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia. Na Velha Bota, a dúvida envolvia a legislação da própria Itália.

O Conselho Europeu de Proteção de Dados (EDPB na sigla em inglês) criou uma força-tarefa para investigar o cumprimento da GDPR pela OpenAI.

Com informações: TechCrunch
ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade
Fonte: Tecnoblog