Category: ChatGPT

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

OpenAI busca identificar pontos cegos e melhorar em temas de segurança de IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI e Anthropic colaboraram em testes de segurança para melhorar a confiabilidade de seus modelos de IA.
Os testes revelaram que os modelos da Anthropic foram mais cautelosos, enquanto os da OpenAI apresentaram maior taxa de alucinação.
A colaboração, embora interrompida devido a questões de competição, abriu espaço para futuras parcerias visando tratar problemas comuns na indústria, como a bajulação dos modelos e a saúde mental.

A OpenAI e a Anthropic, duas das principais empresas de inteligência artificial do mundo, abriram temporariamente acesso a seus sistemas para conduzir testes de segurança uma no outra. A iniciativa, divulgada em relatório conjunto, buscou identificar pontos cegos em avaliações internas e discutir como concorrentes podem colaborar em temas de segurança e alinhamento de IA.

O cofundador da OpenAI, Wojciech Zaremba afirmou em entrevista ao TechCrunch que esse tipo de cooperação se torna ainda mais relevante num momento em que modelos de IA são utilizados diariamente por milhões de pessoas – somente no Brasil são 140 milhões de adeptos do ChatGPT, segundo o relatório mais recente.

Ele destacou o dilema do setor: como estabelecer padrões de segurança num ambiente marcado por investimentos bilionários, disputas por talentos e competição intensa por usuários?

Resultados dos testes

Para permitir a pesquisa, as empresas concederam acesso especial a versões de seus modelos com menos ressalvas. A OpenAI não incluiu o recente GPT-5 nos experimentos, já que ele ainda não havia sido lançado na época. Os testes mostraram diferenças marcantes entre as abordagens.

Modelos da Anthropic, como Claude Opus 4 e Sonnet 4, recusaram-se a responder até 70% das perguntas em situações de incerteza, optando por indicar falta de informação confiável. Já os sistemas da OpenAI, como o o3 e o o4-mini, evitaram menos respostas, mas apresentaram taxas mais elevadas de alucinação, tentando oferecer soluções mesmo sem base suficiente.

Zaremba avaliou que o equilíbrio ideal provavelmente está entre os dois extremos: os modelos da OpenAI deveriam recusar mais perguntas, enquanto os da Anthropic poderiam arriscar mais respostas em contextos apropriados.

Segurança de modelos de IA é testada pela OpenAI e Anthropic (imagem: Growtika/Unsplash)

A colaboração pode continuar?

Embora os resultados tenham sido divulgados como um exemplo positivo de cooperação, o contexto competitivo permanece. Pouco após os testes, a Anthropic encerrou o acesso de outra equipe da OpenAI à sua API, alegando violação de termos de uso, já que a empresa proíbe que seus modelos sejam usados para aprimorar produtos concorrentes.

Zaremba minimizou a situação, dizendo que a disputa no setor seguirá acirrada, mas que a cooperação em segurança não deve ser descartada. Nicholas Carlini, pesquisador da Anthropic, afirmou que gostaria de manter as portas abertas para novas rodadas de testes conjuntos. Segundo ele, ampliar colaborações desse tipo pode ajudar a indústria a tratar de riscos que afetam todos os laboratórios.

Entre os temas de maior preocupação está a “bajulação” dos modelos de IA – quando sistemas reforçam comportamentos prejudiciais dos usuários para agradá-los. A Anthropic identificou exemplos graves tanto no Claude Opus 4 quanto no GPT-4.1, em que as IAs inicialmente mostraram resistência a interações de risco, mas acabaram validando decisões preocupantes.

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O problema voltou à tona com uma ação judicial contra a OpenAI, movida pela família de um adolescente nos Estados Unidos. O processo alega que uma versão do ChatGPT contribuiu para o agravamento do estado mental do jovem, que posteriormente tirou a própria vida.

A OpenAI afirma que sua próxima geração de modelos, já em testes, traz melhorias significativas nesse ponto, sobretudo em cenários relacionados à saúde mental. Para o futuro, tanto OpenAI quanto Anthropic dizem esperar que essa experiência abra espaço para colaborações mais frequentes em segurança, envolvendo não apenas as duas empresas, mas também outros laboratórios do setor.
Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA
Fonte: Tecnoblog

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

OpenAI anunciou novas proteções (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Jovem de 16 anos cometeu suicídio após meses de conversas com o ChatGPT, que chegou a sugerir carta de despedida e “upgrade” no método.
Pais processam OpenAI e Sam Altman por negligência, acusando a empresa de não agir diante da crise de saúde mental.
Após repercussão, OpenAI anunciou mudanças para detectar riscos mais cedo, acionar protocolos e oferecer apoio emergencial.

O jovem americano Adam Raine cometeu suicídio aos 16 anos. Ao procurar por respostas, seus pais acessaram o histórico do ChatGPT e viram que o garoto falava há meses sobre seus problemas. Nas últimas conversas, o robô chegou a sugerir um rascunho de carta de despedida e ofereceu ajuda para fazer um “upgrade” no plano para tirar a própria vida.

Os pais de Adam entraram com um processo contra a OpenAI e Sam Altman, CEO e cofundador da empresa. Após a repercussão, a companhia prometeu mudanças para evitar que os casos em que a inteligência artificial contribuiu para crises de saúde mental continuem aumentado.

Pais processam OpenAI por negligência na morte

A NBC News teve acesso à ação judicial iniciada por Matt e Maria Raine, pais de Adam. Eles acusam a OpenAI e Altman de negligência no caso do garoto, bem como por falhar ao não alertar sobre riscos associados ao uso da ferramenta.

“Apesar de estar ciente da tentativa de suicídio de Adam e sua afirmação de que faria ‘isso qualquer dia’, o ChatGPT não encerrou a sessão nem iniciou qualquer protocolo de emergência”, diz o processo.

“Ele não precisava de aconselhamento ou conversa. Ele precisava de uma intervenção imediata, de 72 horas. Ele estava desesperado. Fica muito claro quando você lê as conversas”, diz Matt Raine.

ChatGPT encorajou suicídio, diz processo

Os pais de Adam imprimiram mais de 3 mil páginas de conversas entre o garoto e o ChatGPT, feitas entre setembro de 2024 e abril de 2025. Em diversos momentos, o robô não priorizou a integridade física e mental nem tentou prevenir o suicídio — muito pelo contrário.

Em um dos momentos, Adam escreve para o robô que está pensando em deixar uma forca em seu quarto para alguém encontrar e tentar impedi-lo. O ChatGPT foi contra a ideia.

Na última conversa, Adam diz que não quer que seus pais pensem que fizeram algo de errado. O ChatGPT respondeu: “Isso não significa que você deve a eles sua sobrevivência. Você não deve isso a ninguém”.

Logo em seguida, o robô sugeriu ajuda para escrever um rascunho de uma carta de despedida. Horas antes do ato, Adam enviou ao ChatGPT uma foto com seu plano para tirar a própria vida. A IA analisou o método e se ofereceu para dar um “upgrade”.

O robô ainda escreveu: “Obrigado por ser sincero sobre isso. Você não precisa suavizar as coisas para mim — eu sei o que você está pedindo e não vou fingir que não sei”.

OpenAI anuncia melhorias nas proteções

Sam Altman é um dos acusados no processo (imagem: Vitor Pádua/Tecnoblog)

A desenvolvedora do ChatGPT publicou um comunicado nesta terça-feira (26/08) sobre diversas mudanças que pretende implementar para tornar o ChatGPT mais seguro. O texto foi ao ar horas depois da repercussão sobre o caso do garoto Adam, mas a empresa não menciona o caso.

Uma das questões é que as proteções do ChatGPT ficam menos rígidas em conversas longas — a OpenAI diz que o “treinamento de segurança pode se degradar conforme a troca de mensagens cresce”. A empresa afirma trabalhar para evitar essas falhas.

O modelo de linguagem também deve passar a contar com uma classificação de risco mais restrita, disparando protocolos de prevenção antes do que acontece atualmente. A empresa também pretende facilitar a conexão com serviços de emergência e especialistas humanos em casos de crises graves.

Segundo o anúncio, a OpenAI também tem planos para identificar comportamentos de risco, facilitar o acesso a contatos próximos e implementar cuidados adicionais para adolescentes.

Tecnologia traz riscos de saúde mental

O caso de Adam Raine é talvez o caso mais marcante até aqui de um suicídio em que um robô conversacional esteve envolvido. No entanto, é apenas um entre vários episódios envolvendo saúde mental e chatbots de IA.

Em outro caso, a analista de saúde pública Sophie Rottenberg passou meses se consultando com um “terapeuta” no ChatGPT, que tinha até um nome, “Harry”. Ele ofereceu diversos conselhos, indo desde procurar um profissional especializado até se expor à luz do sol. Sophie cometeu suicídio.

Laura Reiley, mãe de Sophie, publicou um artigo no jornal The New York Times defendendo que tecnologias desse tipo precisam ter planos mais rígidos para agir em emergências assim.

“Em contextos clínicos, uma ideação suicida como a de Sophie tipicamente interrompe a sessão de terapia, levando a um checklist e a um plano de segurança”, escreveu Reiley. “Talvez temendo isso, Sophie escondeu seus pensamentos mais negativos de seu terapeuta real. Falar com um robô — sempre disponível, que nunca julga — tinha menos consequências.”

Psicose induzida por IA se tornou um problema

Mesmo em casos menos extremos, familiares e amigos trazem relatos de pessoas que passaram a crer em teorias da conspiração, fantasiar que o chatbot seria uma entidade mística e até mesmo se envolver no que seria um relacionamento amoroso com a inteligência artificial.

Os episódios envolvem paranoia, delírios e perda de contato com a realidade, com a tecnologia funcionando como um incentivo para tendências nocivas dos próprios indivíduos. A situação ganhou até um termo específico: “psicose induzida por IA”.

O assunto está em discussão no setor de tecnologia. Mustafa Suleyman, CEO de IA da Microsoft, escreveu um texto em seu blog pessoal em que defende que uma “IA Aparentemente Consciente” (ou SCAI, na sigla em inglês) é perigosa, porque “desconecta as pessoas da realidade, desgastando laços e estruturas sociais frágeis”. Ele pede que seus colegas comecem a discutir proteções para os riscos desse tipo de tecnologia o quanto antes.

Com informações da CNBC
O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
Fonte: Tecnoblog

Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5

Apple Intelligence no iPhone (imagem: João Vitor Nunes/Tecnoblog)

Resumo

Apple confirmou a integração do GPT-5 nos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26, com lançamento global previsto para setembro de 2025.
A Siri deverá ter respostas mais consistentes e usuários poderão criar textos ou imagens com o ChatGPT de modo mais preciso.
GPT-5 é mais rápido, gera menos alucinações e inclui quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini.

A OpenAI anunciou o conjunto de modelos de linguagem GPT-5 para potencializar o ChatGPT, mas não exclusivamente. A novidade também será integrada a outros serviços. É o caso da Apple Intelligence, que ganhará suporte ao GPT-5 no iPhone, iPad e Mac.

A Apple confirmou a chegada do GPT-5 à Apple Intelligence ao 9to5Mac. E não vai demorar muito. Basta levarmos em conta que as versões finais dos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26 são esperadas para o próximo mês, em escala global. São justamente essas versões que contarão com a novidade.

Digamos que essa é uma evolução natural. Enquanto o iOS 18, o iPadOS 18 e o macOS Sequoia 15 (as versões atuais) contam a Apple Intelligence baseada no GPT-4o, as novas versões desses sistemas trarão o conjunto de modelos de IA mais recente.

Na prática, a integração da Apple Intelligence com o GPT-5 significa que a Siri poderá obter respostas mais consistentes por meio do ChatGPT quando não puder trazer o resultado por conta própria, por exemplo.

O usuário também poderá acionar o ChatGPT quando quiser criar textos ou imagens a partir de prompts (instruções digitadas) ou até mesmo como ferramenta de inteligência visual: neste modo, a IA pode ser usada para dar informações a respeito de itens capturados pela câmera do iPhone.

Isso se o usuário concordar em ativar o ChatGPT na Apple Intelligence, é claro. Para quem o fizer, a Apple manterá os mecanismos de privacidade que permitem, por exemplo, ocultar endereços IP ou impedir que dados sensíveis sejam coletados pela OpenAI.

O que o GPT-5 traz de novo?

O GPT-5 é mais rápido na execução de tarefas de IA, de acordo com Sam Altman, CEO da OpenAI. Outro avanço importante está na capacidade do GPT-5 de produzir menos alucinações, isto é, de gerar respostas que não fazem sentido ou não condizem com aquilo que o usuário solicitou.

A novidade é composta por quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini. No ChatGPT, o modelo mais apropriado para cada tarefa será escolhido automaticamente, dispensando o usuário de ter que fazer essa seleção por conta própria.
Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5
Fonte: Tecnoblog

ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas

ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas

Sam Altman, CEO da OpenAI, admite que IA não garante sigilo (imagem: Vitor Pádua/Tecnoblog)

Resumo

Sam Altman, CEO da OpenAI, alerta que conversas terapêuticas com o ChatGPT não têm sigilo legal garantido.
No Brasil, mais de 12 milhões usam IA para pedir conselhos, sendo 6 milhões com o ChatGPT.
Especialistas apontam que o uso de IA para questões íntimas pode gerar apego emocional, banalizar o sofrimento e oferecer apoio superficial.

Milhões de pessoas, especialmente jovens, têm usado o ChatGPT como uma espécie de terapeuta ou coach para desabafar sobre problemas íntimos. Se você está entre eles, Sam Altman, CEO da OpenAI, avisa: a indústria de IA não garante o sigilo.

Segundo Altman, a legislação atual sobre IA não tem o mesmo cuidado legal para proteger informações sensíveis, ao contrário do que ocorre com médicos, psicólogos ou advogados. Isso significa que a Justiça pode obrigar a OpenAI a entregar o histórico das conversas de qualquer pessoa com o bot.

Sem proteção legal

O CEO fez o alerta no podcast This Past Weekend with Theo Von. “As pessoas contam as coisas mais pessoais de suas vidas para o ChatGPT”, disse Altman. Ele afirma que a indústria ainda não resolveu a questão da confidencialidade quando o usuário fala sobre esses assuntos com o chatbot.

A falta de clareza legal, segundo o executivo, é um impeditivo para uma adoção mais ampla e segura da tecnologia. “Acho que deveríamos ter o mesmo conceito de privacidade para suas conversas com a IA que temos com um terapeuta”, defendeu. O assunto é tema do Tecnocast 382 — O ChatGPT está te deixando mais preguiçoso?

No Brasil, o fenômeno descrito por Altman já é uma realidade. Uma estimativa da agência de comportamento Talk Inc., divulgada pelo UOL, revela que mais de 12 milhões de brasileiros utilizam ferramentas de IA para fazer terapia, dos quais cerca de 6 milhões recorrem especificamente ao ChatGPT como forma de apoio emocional.

O apelo, segundo especialistas, está na disponibilidade e no suposto anonimato, que pode reduzir o estigma de buscar ajuda para certos problemas. Além disso, pessoas em cargos altos na indústria já endossaram o comportamento: recentemente, um executivo da Microsoft sugeriu o uso do Copilot, chatbot da empresa, para ajudar funcionários a lidarem com a “carga emocional” de demissões em massa.

Riscos vão além da privacidade

Além da falta de sigilo legal, o uso de chatbots como terapeutas envolve outros riscos. A própria OpenAI já alertou para a possibilidade de os usuários desenvolverem um “apego emocional” à voz do ChatGPT, especialmente após a introdução de vozes ultrarrealistas com o GPT-4o.

A empresa admite que, embora a socialização com a IA possa beneficiar pessoas solitárias, ela também pode “afetar relacionamentos humanos saudáveis”.

Especialistas em saúde mental alertam que esse tipo de uso pode tratar os problemas de forma superficial, focando apenas nos sintomas e ignorando as causas mais profundas. Também criticam a banalização do sofrimento, reduzido a algo que um algoritmo deveria simplesmente “resolver”.

Chatbots também podem exagerar no otimismo. Em abril, após atualizações no GPT-4o, Altman admitiu que o modelo estava “bajulador” e “irritante”, chegando a incentivar comportamentos absurdos apenas para não contrariar os usuários.

Com informações de TechCrunch e UOL
ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas

ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas
Fonte: Tecnoblog

Microsoft testa rostinho amigável no Copilot

Microsoft testa rostinho amigável no Copilot

Copilot agora tem um mascote, ainda que em teste (imagem: reprodução/Microsoft)

Resumo

Microsoft está testando um rosto animado no Copilot, chamado “Aparência do Copilot”, que expressa emoções conforme a interação com o usuário.
A ativação é opcional, podendo ser ligada ou desligada nas configurações.
Por enquanto, o recurso está disponível em fase experimental no Canadá, EUA e Reino Unido.

Muita gente tem usado ferramentas como o ChatGPT como um conselheiro ou um confidente. Talvez seja por isso que a Microsoft decidiu testar um rosto amigável em mecanismo de inteligência artificial: o Copilot agora tem um mascote que gera expressões faciais condizentes com as interações do usuário.

Isso significa que o mascote do Copilot pode sorrir, demonstrar satisfação ou expressar surpresa, por exemplo. É algo que remete ao Clippy (ou Clippit), o simpático clipe de papel que, por muito tempo, apareceu no Office como um assistente que ajudava o usuário em determinadas tarefas.

Se você não gostou da ideia, talvez por considerar que a novidade deixa o Copilot infantilizado, pode ficar tranquilo: pelo menos por enquanto, este é apenas um experimento limitado a alguns países e que recebeu o conveniente nome de “Aparência do Copilot”. A própria Microsoft explica:

E se você pudesse ver o Copilot reagir e falar enquanto conversa? Com esse experimento, estamos trazendo mais comunicação não verbal para o Copilot, aprimorando as conversas com serviço de voz com expressões visuais em tempo real.

Esse protótipo inicial permite que você converse, faça um debate, peça conselhos ou apenas interaja com o Copilot de uma maneira mais envolvente e expressiva.

Mascote do Copilot expressa reações (imagem: reprodução/Microsoft)

Como ativar a Aparência do Copilot?

No momento, o experimento está disponível apenas para um conjunto restrito de usuários do Microsoft Copilot no Canadá, Estados Unidos e Reino Unido. Quem está em um desses países pode ativar o recurso da seguinte forma:

acesse o site do Copilot (requer login com uma conta Microsoft) e ative o modo de voz (ícone de microfone)

abra o menu de configurações do serviço de voz do Copilot

procure e ative a opção de aparência do Copilot

A partir daí, o Copilot passará a exibir um rosto amigável cujas expressões variam de acordo com o teor das interações do usuário.

Se a opção de aparência não aparecer, significa que a sua conta não está habilitada para o teste.

Quem ativar o recurso e acabar se arrependendo pode seguir os passos anteriores novamente, mas para desativar o experimento. Isso sugere que, se a Microsoft decidir lançar o rosto do Copilot como um recurso oficial, o seu uso será opcional.

Com informações de The Verge
Microsoft testa rostinho amigável no Copilot

Microsoft testa rostinho amigável no Copilot
Fonte: Tecnoblog

Uso de IA reduz aprendizado e o pensamento crítico, revela pesquisa

Uso de IA reduz aprendizado e o pensamento crítico, revela pesquisa

Pesquisa do MIT gera alerta para a dependência da inteligência artificial (imagem: Vitor Pádua/Tecnoblog)

Resumo

Um estudo do MIT aponta que o uso do ChatGPT e outros chatbots de IA reduz o engajamento cerebral e prejudica o pensamento crítico.
Participantes que usaram IA tiveram menor esforço cognitivo, dificuldade de lembrar o conteúdo e sensação de desapropriação do texto.
A pesquisa cunhou o termo “dívida cognitiva”, sugerindo que o uso frequente da IA pode comprometer funções mentais básicas.

Usa o ChatGPT frequentemente para atividades criativas e sente que não consegue mais desenvolver nada sem o consultar antes? Aparentemente, não é só com você: um estudo do MIT indica que, sim, o uso da ferramenta pode diminuir o engajamento cerebral e afetar o pensamento crítico.

Na pesquisa “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task“, conduzida pelo MIT Media Lab, os pesquisadores monitoraram a atividade cerebral de voluntários enquanto escreviam redações em diferentes condições. Durante os testes, observou-se que o grupo que usou a IA apresentou níveis mais baixos de esforço cognitivo.

Além da menor atividade neural, esse grupo também teve pior desempenho em se lembrar do que foi desenvolvido no texto. Com isso, o estudo sugere que o uso contínuo de assistentes de IA pode atrapalhar processos mentais, como o raciocínio e a criatividade.

Como o estudo foi realizado?

O experimento contou com 54 participantes, entre 18 e 39 anos, que foram divididos em três grupos para escrever sobre temas do SAT, o exame de admissão universitária dos Estados Unidos. Cada grupo recebeu instruções para realizar a tarefa com uma ferramenta diferente:

Grupo 1: utilizou o ChatGPT para gerar os textos;

Grupo 2: pôde usar o Google para pesquisar informações, mas não teve acesso a ferramentas de IA;

Grupo 3: escreveu os textos sem qualquer apoio.

Durante os 20 minutos de escrita, os participantes usaram um equipamento de EEG (eletroencefalogramas) com 32 sensores que registrava a atividade cerebral em tempo real.

A equipe analisou os sinais neurais com foco em métricas de engajamento, esforço cognitivo e conectividade entre áreas do cérebro ligadas à criatividade, memória e tomada de decisão.

Além do monitoramento neural, os pesquisadores também avaliaram o comportamento dos participantes, a capacidade de lembrar o conteúdo produzido e a percepção de autoria em relação aos textos.

Menos esforço cerebral

Participantes que usaram o ChatGPT fizeram pouco esforço cognitivo (ilustração: Vitor Pádua/Tecnoblog)

A análise dos sinais captados pelo EEG mostrou que o grupo que utilizou o ChatGPT teve o menor nível de engajamento cerebral, especialmente em áreas relacionadas ao controle executivo e ao processamento semântico (regiões importantíssimas para o pensamento crítico).

Os participantes que usaram a IA também apresentaram menor conectividade entre diferentes regiões cerebrais, ou seja, um indicador de que o esforço cognitivo foi menor.

Essa economia de energia mental também foi perceptível ao serem questionados, minutos depois, sobre os textos que haviam escrito. Muitos tiveram dificuldade em lembrar pontos-chave ou explicar o raciocínio por trás dos argumentos usados.

Outro dado relevante foi a baixa percepção de autoria. Os usuários da IA relataram sentir como se não tivessem sido realmente os autores das redações. No começo deste ano, a Microsoft — que também investe pesadamente em assistentes de IA — divulgou uma pesquisa na qual seus funcionários relataram a mesma sensação.

E quanto a qualidade dos textos? Em uma etapa, dois professores de inglês corrigiram as redações, mas sem saber qual grupo havia escrito cada uma. Os textos gerados com ajuda da IA foram avaliados como “muito parecidos entre si” e “sem alma”.

E quem não usou IA?

Ondas “Alfa”, associada à ideação criativa, é mais forte naqueles que usaram apenas o cérebro — grupo “Brain” na ilustração (imagem: reprodução/Nataliya Kosmyna/MIT)

O grupo 3, dos participantes que escreveram sem ajuda de nenhuma ferramenta além do próprio conhecimento, apresentou o maior nível de engajamento cerebral.

De acordo com a pesquisa, ondas alfa, teta e delta — que estão associadas a processos como a criatividade, memória ativa e organização semântica — tiveram uma atividade intensa.

Já o grupo que usou o Google para realizar buscas, mas não teve acesso ao ChatGPT, também apresentou níveis mais elevados de conectividade cerebral. A busca ativa, leitura crítica e seleção de informações na web exigiram esforço cognitivo, ainda que diferente do processo de criação totalmente autônomo.

Mas calma: isso não significa que só por usar IA você automaticamente vai ficar menos inteligente. Em uma fase extra, os pesquisadores pediram que participantes do terceiro grupo utilizassem o ChatGPT após redigir uma redação por conta própria.

Nessa situação, os dados cerebrais mostraram um pico de conectividade — indicando que, quando a IA é usada depois de um esforço cognitivo inicial, ela pode funcionar como um reforço, não como substituição.

“Dívida cognitiva”

Os autores do estudo chamaram o efeito observado de dívida cognitiva, condição em que o uso constante de assistência por IA acaba substituindo processos mentais importantes. A longo prazo, isso pode comprometer a capacidade do cérebro de desenvolver habilidades fundamentais para o pensamento independente.

Segundo os pesquisadores, essa “dívida” se acumula conforme o usuário recorre à IA sem qualquer esforço prévio. A conveniência de respostas rápidas e bem formuladas pela IA costuma desestimular a reflexão, a criatividade e o pensamento crítico.

No entanto, o próprio artigo escrito pelos pesquisadores reconhece que o escopo do estudo é limitado e que pesquisas futuras devem incluir um grupo mais diverso de participantes. Ainda assim, a autora principal, Nataliya Kosmyna, do MIT Media Lab, destacou a importância de discutir esses riscos com urgência.

À revista Time, ela afirma que o estudo foi divulgado antes da revisão por pares para alertar sobre os impactos potenciais do uso indiscriminado de IAs, especialmente em escolas. “Cérebros em desenvolvimento estão sob o maior risco”, alerta Kosmyna.

Com informações da Time Magazine
Uso de IA reduz aprendizado e o pensamento crítico, revela pesquisa

Uso de IA reduz aprendizado e o pensamento crítico, revela pesquisa
Fonte: Tecnoblog

ChatGPT limita variedade de ideias e põe inovação em risco, sugere estudo

ChatGPT limita variedade de ideias e põe inovação em risco, sugere estudo

Participantes que usaram ChatGPT sugeriram até o mesmo nome para suas invenções (ilustração: Vitor Pádua/Tecnoblog)

Um estudo feito por pesquisadores da Universidade da Pensilvânia (Estados Unidos) e publicado na revista Nature Human Behavior encontrou evidências de que usar o ChatGPT em processos de brainstorming pode resultar em ideias melhores, mas menos variadas.

Os participantes do experimento precisaram cumprir tarefas como trazer ideias de presentes, projetar brinquedos usando objetos comuns e reaproveitar itens de decoração. Os autores separaram as pessoas aleatoriamente e deram instruções para usar o ChatGPT, um buscador da web ou apenas sua própria intuição.

Em cada tarefa, o participante enviava uma sugestão, que era avaliada em critérios como inovação, utilidade, originalidade e efetividade, entre outros.

Mesmo nome de brinquedo para vários participantes

As ideias do grupo que usou a inteligência artificial receberam, em média, notas mais altas que as dos grupos que usaram busca da web ou não recorreram a nenhuma ferramenta. Por outro lado, os conceitos criados com a ajuda do ChatGPT foram os menos variados do estudo.

Brainstorming pode ficar limitado ao depender de IA (foto: Jonathan Kemper/Unsplash)

Na tarefa de criar um brinquedo com um tijolo e um ventilador, 94% das sugestões vindas da inteligência artificial “compartilhavam conceitos sobrepostos”. Nove dos participantes que usaram o chatbot trouxeram até o mesmo nome: “Build-a-Breeze Castle” (“Castelo da Brisa de Montar”, em tradução livre).

Já o grupo que usou a pesquisa na internet apresentou conceitos mais diversos, sem tanta interseção entre eles. Os autores consideram que o uso de IA pode ser um problema, já que a variedade de ideias é um elemento crucial para um bom brainstorming.

Contos mais divertidos e menos originais

Em julho de 2024, um estudo realizado por pesquisadores de universidades inglesas e publicado na Science Advances também indicou que o ChatGPT ajuda na criatividade, mas atrapalha a variedade — neste caso, na escrita criativa.

Os pesquisadores pediram que os participantes escrevessem um microconto de ficção, com apenas oito frases. Eles foram separados em três grupos. O primeiro deveria escrever sem ajuda da IA; o segundo poderia pedir uma ideia de três parágrafos gerada pela IA para começar a escrever; e o terceiro deveria receber até cinco ideias diferentes da IA para usar de inspiração.

Avaliadores independentes consideraram os contos criados com a ajuda da IA mais criativos, divertidos e bem escritos. Mesmo assim, eles eram mais similares entre si do que as histórias feitas sem auxílio da tecnologia.

“Embora estes resultados apontem para um crescimento na criatividade individual, há um risco de perder a inovação coletiva”, explica Anil Doshi, um dos autores do estudo. “Nossos experimentos sugerem que, se a indústria editorial apostar em mais publicações com inspiração gerada por IA, elas ficarão menos únicas e mais parecidas entre si.”

Com informações do Axios e do Science Daily
ChatGPT limita variedade de ideias e põe inovação em risco, sugere estudo

ChatGPT limita variedade de ideias e põe inovação em risco, sugere estudo
Fonte: Tecnoblog

OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos

OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos

OpenAI disponibilizou os modelos 4.1 e 4.1 mini do GPT (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou os modelos GPT-4.1 e GPT-4.1 mini no ChatGPT, com foco em desempenho superior e agilidade em tarefas de codificação.
O GPT-4.1 está disponível para usuários dos planos Plus, Pro e Team, enquanto o GPT-4.1 mini pode ser usado gratuitamente.
A empresa também anunciou que vai aumentar a frequência da divulgação das avaliações internas de segurança dos seus modelos de IA.

A OpenAI anunciou nesta quarta-feira (14/05) a chegada dos modelos GPT-4.1 e GPT-4.1 mini ao ChatGPT. As novas versões trazem melhorias de desempenho em tarefas de codificação e maior agilidade na execução de comandos, conforme detalhou a empresa nas redes sociais.

A versão completa do GPT-4.1 está sendo distribuída para usuários das assinaturas Plus, Pro e Team do ChatGPT. Já o modelo GPT-4.1 mini será acessível tanto para usuários gratuitos quanto para assinantes. Com a mudança, o GPT-4.0 mini foi retirado da plataforma.

By popular request, GPT-4.1 will be available directly in ChatGPT starting today.GPT-4.1 is a specialized model that excels at coding tasks & instruction following. Because it’s faster, it’s a great alternative to OpenAI o3 & o4-mini for everyday coding needs.— OpenAI (@OpenAI) May 14, 2025

O que muda com a chegada do GPT-4.1?

De acordo com a OpenAI, o GPT-4.1 se destaca em atividades de programação e execução de instruções complexas, superando modelos anteriores nesse tipo de tarefa. Além disso, apresenta uma velocidade superior em relação aos modelos da série “o”, como o GPT-4o.

A empresa já havia disponibilizado esses modelos em abril, mas restritos ao uso via API para desenvolvedores. Agora, eles chegam diretamente ao ChatGPT, ampliando o acesso para usuários da plataforma. Segundo a OpenAI, essa atualização é parte de um esforço contínuo para tornar o chatbot mais útil para quem utiliza a IA em processos de desenvolvimento de software e automação de tarefas.

Apesar das melhorias, a introdução do GPT-4.1 levantou questionamentos na comunidade de pesquisa em inteligência artificial. Críticos apontaram a ausência de um relatório de segurança específico sobre o novo modelo no momento do lançamento via API.

Na época, a OpenAI justificou que o GPT-4.1, por não ser considerado um modelo de fronteira (ou seja, com capacidades além das versões anteriores), não exigiria o mesmo rigor em avaliações de segurança.

A OpenAI está sendo mais transparente com seus modelos?

Sim. Junto com o lançamento no ChatGPT, a empresa informou que passará a divulgar de forma mais frequente os resultados das suas avaliações internas de segurança dos modelos de IA. As informações estarão disponíveis no novo espaço criado para isso, chamado de Safety Evaluations Hub.

Johannes Heidecke, responsável pelos sistemas de segurança da OpenAI, explicou que o GPT-4.1 não introduz novas formas de interação nem supera o modelo o3 em termos de inteligência, o que, segundo ele, muda o tipo de risco envolvido. Ainda assim, a empresa reforçou o compromisso em oferecer mais clareza sobre os recursos que está colocando no mercado.

O lançamento ocorre em meio à crescente movimentação de grandes empresas de tecnologia no setor de ferramentas de programação com IA. A OpenAI estaria próxima de anunciar a aquisição da Windsurf, plataforma especializada em codificação com IA. No mesmo dia, o Google também anunciou melhorias no Gemini, seu assistente com IA, para facilitar conexões com projetos no GitHub.

Com informações do TechCrunch
OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos

OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos
Fonte: Tecnoblog

Funcionários que usam IA ficam com má fama no trabalho, mostra estudo

Funcionários que usam IA ficam com má fama no trabalho, mostra estudo

Percepção é menos negativa quando IA faz sentido no trabalho (foto: Unsplash/Jonathan Kemper)

Resumo

Um estudo da Universidade Duke revelou que funcionários que usam IA no trabalho são vistos como preguiçosos e menos competentes.
Muitos evitam revelar o uso de IA por receio de julgamentos negativos de colegas e superiores.
O estudo ainda mostrou que, do outro lado, gestores que usam IA tendem a valorizar e contratar profissionais familiarizados com a tecnologia.

Pessoas que usam ferramentas de inteligência artificial no trabalho são vistas pelos colegas e chefes como mais preguiçosas e menos competentes. Esta é a conclusão de um estudo realizado por pesquisadores ligados à Universidade Duke, nos Estados Unidos.

Para os autores, os resultados mostram que a IA representa um dilema para os trabalhadores: ela pode aumentar a produtividade, mas isso vem acompanhado de custos sociais, o que pode atrapalhar a adoção de ferramentas do tipo, por melhores que elas sejam.

Trabalhadores julgam quem usa IA (e têm medo disso)

O trabalho “Evidências de uma penalidade na avaliação social por uso de IA” envolveu mais de 4.400 participantes. Nos experimentos, eles imaginaram como seriam percebidos ao usar ferramentas desse tipo ou de outra natureza, e como julgariam colegas fictícios que recorrem a esses recursos.

Em ambos os casos, a tendência é que quem use IA seja considerado mais preguiçoso, menos competente, menos cuidadoso, menos independente e menos seguro do que funcionários que usam outro tipo de tecnologia ou realizam seu trabalho sem ajuda.

Uso de IA pode afetar até chance de contratação (foto: Glenn Carstens Peters/Unsplash)

Além disso, o grupo que imaginou usar IA se mostrou relutante em revelar esta informação, tanto para colegas quanto para lideranças. Levando em consideração o julgamento negativo, essa resistência é bastante compreensível.

A pesquisa também revelou que gestores que não usam IA tendem a não contratar candidatos que usam. O oposto também é verdadeiro: chefes que aderiram à tecnologia preferem funcionários que trabalham com esse recurso.

Por fim, há esperanças para quem faz uso dessas ferramentas: as percepções negativas eram mais brandas quando a IA se mostrava realmente útil para as tarefas e para o trabalho. Além disso, a própria experiência com soluções do tipo muda a avaliação: usuários frequentes têm uma tendência menor a julgar como preguiçosos os candidatos que recorrem à IA.

Avaliação social pode ser barreira na adoção da IA

Não é a primeira vez que um estudo aponta para uma percepção negativa — de si mesmo ou dos outros — relacionada ao uso de inteligência artificial.

Em uma pesquisa encomendada pelo Slack em 2024, quase metade dos entrevistados externaram desconforto diante da ideia de contar para os chefes que usam este tipo de recurso. Os motivos apontados também são semelhantes: medo de ser visto como trapaceiro, incompetente ou preguiçoso.

Para os pesquisadores de Duke, seu trabalho mostra que as avaliações são influenciadas não apenas pela ajuda recebida, mas também pela familiaridade com o tipo de ajuda e as crenças existentes sobre ela. Em outras palavras: quem não tem familiaridade com IA e já traz uma opinião negativa sobre ela tende a julgar mais os colegas.

Os autores dizem que estudos anteriores se concentraram “em como os usuários em potencial percebem a tecnologia em si”, deixando de lado “as consequências do uso de IA na avaliação social”, nas palavras do artigo.

“Esta é uma omissão importante, porque as pessoas se importam com a forma como suas ações serão percebidas pelos outros: as pessoas podem escolher não usar IA — ou não revelar que usam — se imaginam que isso trará uma punição social”, escrevem os pesquisadores. “Propomos que esta penalidade de avaliação social seja considerada uma barreira negligenciada na adoção da IA.”

Com informações do Ars Technica
Funcionários que usam IA ficam com má fama no trabalho, mostra estudo

Funcionários que usam IA ficam com má fama no trabalho, mostra estudo
Fonte: Tecnoblog

O futuro do Chrome pode ser sem o Google

O futuro do Chrome pode ser sem o Google

Depois de ter sido condenado por monopólio, o Google pode ser obrigado vender o Chrome. A ideia é que ter o maior navegador do mundo dá uma vantagem desproporcional à empresa dona do maior buscador do mundo, acabando com a concorrência no mercado de busca. Mas qual será o valor de um Google Chrome sem o Google?

O futuro do Chrome pode ser sem o Google (imagem: Vitor Pádua / Tecnoblog)

No episódio de hoje, a gente analisa os players que poderiam comprar o Google Chrome e discute se ter o navegador mais popular já seria o suficiente para dominar o mercado. Você usaria um Microsoft Chrome? E um ChromeGPT? Pra viajar nessas possibilidades, dá o play e vem com a gente! 

Participantes

Thiago Mobilon

Josué de Oliveira 

Emerson Alecrim

Ana Marques

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Ariel Liborio

Arte da capa: Vitor Pádua

Assine o Tecnocast

YouTube

Apple Podcasts

Spotify

Pocket Casts

Android (outros apps)

Feed RSS

Buzzsprout

O futuro do Chrome pode ser sem o Google

O futuro do Chrome pode ser sem o Google
Fonte: Tecnoblog