Category: Arizona State University

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Técnicas presentes em assistentes de IA não são raciocínio real, dizem acadêmicos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Pesquisadores mostram que modelos de linguagem falham em resolver problemas que não estavam em seu do treinamento.
IAs podem gerar raciocínios que parecem corretos, mas apresentam erros lógicos.
Técnicas atuais, como cadeia de pensamentos, têm limitações e podem levar a respostas incorretas.

Um artigo escrito por pesquisadores da Universidade do Estado do Arizona, nos Estados Unidos, sugere que a capacidade de raciocínio de modelos de linguagem em larga escala (LLMs) é apenas uma “frágil miragem”, incapaz de resolver problemas lógicos que não fizeram parte de seu treinamento.

Nos últimos anos, ChatGPT, Gemini e outros assistentes com inteligência artificial passaram a contar com capacidades de “raciocínio simulado”, criando uma “cadeia de pensamentos” para destrinchar prompts em uma sequência de passos lógicos, que são apresentados ao usuário. No entanto, este método parece ter limitações.

IA tem dificuldade para resolver problemas novos

O trabalho dos cientistas ainda não foi revisado por pares e está disponível na plataforma Arxiv. Para avaliar a capacidade de raciocínio de um LLM, os pesquisadores criaram um ambiente de treinamento de IA com transformações simples de texto, como trocar letras de palavras para cifrá-las.

Logo em seguida, o LLM teve que realizar diversas tarefas. Algumas eram muito parecidas com as vistas no treinamento, enquanto outras precisavam combinar várias transformações para formar uma operação nova.

Problemas fora da base usada no treinamento viram dor de cabeça para IA (ilustração: Vitor Pádua/Tecnoblog)

Nos resultados, os modelos começaram a falhar quando precisaram lidar com novas transformações. Por exemplo: um modelo treinado com testes de “deslocar” letras (como trocar todas as letras pela seguinte no alfabeto) não sabia realizar tarefas que envolviam embaralhar a ordem das letras na própria palavra. Além disso, se o modelo tinha sido treinado com palavras de quatro letras, ele tinha dificuldades para resolver problemas com palavras de três ou cinco letras.

A IA até tentava generalizar regras lógicas com base em padrões observados durante o treinamento e criava linhas de raciocínio corretas, mas errava as respostas. O oposto também acontecia, mas com menos frequência: em alguns casos, o modelo chegava a uma resposta certa, mas usando encadeamentos incoerentes. Por fim, quanto maior o prompt e o número de passos necessário para chegar à resposta correta, pior era o desempenho do modelo.

Uma possível solução para isso é introduzir uma pequena quantidade de dados relacionada a diferentes tipos de problemas, mas os pesquisadores consideram que essa estratégia é “insustentável e reativa”.

Para eles, a conclusão é de que a técnica de cadeia de pensamentos pode produzir resultados convincentes, mas com falhas lógicas. Isso pode levar a riscos reais, caso o usuário confie na solução apresentada sem verificar se está tudo certo.

Outros estudos dizem que IA não pensa

Não é a primeira vez que cientistas chegam a esses resultados. Como lembra o Decoder, pesquisadores ligados à Apple já publicaram um artigo que aponta que LLMs usam reconhecimento de padrões e não planejamento simbólico ou compreensão estrutural.

Outros estudos levaram a resultados parecidos: acadêmicos ligados a duas universidades chinesas descobriram que o aprendizado por reforço com recompensas verificáveis, bastante usado na IA, não ajuda os modelos a desenvolver estratégias para resolver problemas.

Já cientistas da Universidade de Nova York descobriram que modelos de raciocínio não quebravam tarefas em um número suficiente de passos.

Por outro lado, críticos dizem que essas pesquisas são muito simplistas, pois não consideram que LLMs podem gerar códigos de programação para resolver problemas, ou ainda recorrer a ferramentas externas para buscar soluções.

Com informações do Ars Technica e do Decoder
Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores
Fonte: Tecnoblog

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT, da OpenAI, será usado pela Universidade do Estado do Arizona em seus computadores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI e a Universidade do Estado do Arizona (conhecida pela sigla ASU) anunciaram nesta semana uma parceria que levará o ChatGPT para os PCs da universidade. Esta é a primeira vez que uma instituição de ensino superior contrata o serviço de IA da empresa. O ChatGPT será usado por pesquisadores, funcionários e até mesmo alunos — mas não, a IA não fará os trabalhos de aula por eles.

O anúncio da parceria mostra que a percepção das instituições de ensino sobre a inteligência artificial está mudando. Com a popularização do ChatGPT, houve uma preocupação envolvendo o seu impacto nas instituições de ensino, tanto que algumas escolas bloquearam o acesso ao site da OpenAI.

O tempo foi passando e hoje a IA generativa passa a ser cotada como uma aliada no ensino e nas empresas — vide os funcionários da Samsung que usavam o ChatGPT para auxiliar em algumas tarefas. A ASU anunciou ainda que realizará um concurso para que alunos e funcionário deem dicas de como usar a IA nas atividades da universidade.

Funcionários da ASU ganharão conta do ChatGPT Enterprise

Com a parceria entre a Universidade do Estado do Arizona e OpenAI, funcionários da universidade terão contas para acessar o ChatGPT Enterprise, uma versão da IA com recursos extras. Entre essas funcionalidades estão a capacidade de analisar arquivos, receber prompts maiores e desempenho mais rápido.

O ChatGPT Enterprise usado pela ASU permite ainda que a instituição customize a IA com ferramentas dedicadas para as atividades da universidade. Um exemplo interessante para as universidades brasileiras seria um ChatGPT capaz de avaliar as ementas e conteúdos programáticos das disciplinas que um estudante deseja validar.

ChatGPT pode criar questões para que alunos treinem um determinado assunto (Imagem: Reprodução/Tecnoblog)

Se no início da sua popularização havia uma crença de que o ChatGPT iria prejudicar a educação, o tempo mostra que a IA generativa, quando bem usada, pode auxiliar as instituições de ensino. No exemplo acima, o ChatGPT mostra que ele pode ajudar os estudantes a treinar algum assunto criando novas questões — mas claro, ele ainda pode estar errado e as respostas da IA devem ser comparadas com as fontes, anotações e material de aula, por exemplo.

Com informações: TechCrunch
ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez
Fonte: Tecnoblog