Category: OpenAI

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT foi usado em teste de ataque para extrair dados de emails (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Pesquisadores da Radware realizaram o ataque Shadow Leak, que usou injeção de prompts para extrair dados do Gmail.
A vulnerabilidade explorava a ferramenta Deep Research do ChatGPT, permitindo a execução de instruções ocultas para acessar dados sigilosos.
O problema, comunicado à OpenAI em junho, já foi resolvido, mas também poderia comprometer serviços como o Outlook e Google Drive.

É possível usar o ChatGPT como aliado em ataques para extrair dados sensíveis do Gmail. Foi o que pesquisadores de segurança da Radware conseguiram demonstrar com um ataque de injeção de prompts. A falha já foi corrigida pela OpenAI, mas permitiu extrair dados da caixa de entrada sem que os usuários percebessem.

O ataque recebeu o nome de Shadow Leak e foi divulgado na última semana pela empresa de segurança cibernética. A técnica explorava agentes de IA — sistemas capazes de executar tarefas sem supervisão contínua, como navegar na web, acessar documentos e interagir com e-mails após autorização do usuário.

Como o ataque funcionava?

O método consistia em usar uma técnica conhecida como “injeção de prompt”. Trata-se de inserir instruções ocultas para que o agente siga comandos de um invasor sem que o usuário tenha consciência disso.

Esse tipo de ataque já foi usado em diferentes contextos, desde manipulação de avaliações até golpes financeiros. As instruções podem ser escondidas no HTML do e-mail de forma imperceptível para humanos, como fontes minúsculas ou em um texto branco sobre fundo branco.

Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI (ilustração: Vitor Pádua/Tecnoblog)

No caso do Shadow Leak, o alvo foi a ferramenta Deep Research, recurso da OpenAI integrado ao ChatGPT e lançado neste ano. Os pesquisadores enviaram um e-mail contendo um prompt malicioso para uma conta do Gmail que tinha acesso ao agente. Assim que o usuário ativava o Deep Research, a armadilha era acionada: o sistema encontrava as instruções escondidas, que ordenavam a busca por mensagens de RH e dados pessoais, enviando as informações secretamente para os golpistas. O usuário não notava nada de anormal.

Segundo a Radware, executar esse ataque exigiu muitos testes até chegar a um resultado viável. “Esse processo foi uma montanha-russa de tentativas fracassadas, obstáculos frustrantes e, finalmente, uma descoberta”, escreveram os pesquisadores.

Outros serviços em risco

Serviços integrados ao Deep Research, como o Outlook, também poderiam ser afetados (ilustração: Vitor Pádua/Tecnoblog)

Um aspecto que chamou atenção é que, diferentemente da maioria dos ataques de injeção de prompts, o Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI. Isso fez com que a extração de dados ocorresse sem deixar rastros visíveis para as defesas tradicionais de segurança cibernética.

A Radware destacou ainda que a vulnerabilidade poderia afetar não apenas o Gmail, mas também outros serviços conectados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox.

De acordo com a empresa, “a mesma técnica pode ser aplicada a esses conectores adicionais para extrair dados empresariais altamente sensíveis, como contratos, notas de reunião ou registros de clientes”.

A falha foi comunicada à OpenAI em junho e já recebeu correção. Ainda assim, os pesquisadores reforçam que ataques desse tipo mostram como a evolução de agentes de IA traz benefícios, mas também abre novas superfícies de risco para usuários e empresas.

Com informações do The Verge
ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail
Fonte: Tecnoblog

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Novos clientes da Claro terão acesso ao ChatGPT Plus (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Claro e OpenAI anunciam hoje uma parceria que trará o ChatGPT Plus gratuitamente para alguns clientes da operadora, por meio de vouchers.
O ChatGPT será incluído no Extra Play, a franquia adicional de internet móvel da Claro, para tornar a tecnologia acessível aos usuários.
A popularidade do ChatGPT no Brasil é crescente, com o país ocupando o top 3 global em termos de uso da ferramenta.

A Claro e a OpenAI anunciaram uma parceria que prevê benefícios especiais para os clientes da operadora de telefonia no uso do ChatGPT. A prestadora passará a considerar essa tecnologia como parte do Extra Play, franquia de internet móvel distinta da navegação tradicional. Hoje, as redes sociais já fazem parte dela.

Além disso, a Claro também tem planos de liberar a versão paga do ChatGPT, chamada de ChatGPT Plus, de graça para parte dos clientes. Isso deve ocorrer por meio de um voucher com duração de alguns meses.

Clientes de pós-pago combinado com fibra ótica terão quatro meses de acesso sem custo adicional.

Hoje, uma assinatura assim custa US$ 20, o que equivale a cerca de R$ 110.

Os demais detalhes serão anunciados num evento na manhã de hoje em São Paulo.

O CMO da Claro, Marcio Carvalho, nos conta que as duas empresas estabeleceram “uma relação de confiança” desde o início das conversas. Ambas estão “comprometidas em fazer a parceria dar certo”, o que inclui o esforço mercadológico.

Marcio Carvalho é CMO da Claro (foto: divulgação)

Ele também diz que o movimento conjunto dá mais “conforto” para que os clientes da Claro utilizem uma ferramenta digital que só cresceu nos últimos dois anos. De acordo com o CMO, as pessoas ainda estão se acostumando com a inteligência artificial generativa e descobrindo o que o ChatGPT é capaz de fazer.

O Brasil rapidamente se tornou um mercado com grande relevância para o ChatGPT, já que aqui são enviados 140 milhões de mensagens por dia. Estamos no top 3 global, segundo estimativa da própria OpenAI.

Os principais usos da ferramenta são redação e comunicação (20%); aprendizado e capacitação (15%); e programação, ciência de dados e matemática (6%).

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil
Fonte: Tecnoblog

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

OpenAI busca identificar pontos cegos e melhorar em temas de segurança de IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI e Anthropic colaboraram em testes de segurança para melhorar a confiabilidade de seus modelos de IA.
Os testes revelaram que os modelos da Anthropic foram mais cautelosos, enquanto os da OpenAI apresentaram maior taxa de alucinação.
A colaboração, embora interrompida devido a questões de competição, abriu espaço para futuras parcerias visando tratar problemas comuns na indústria, como a bajulação dos modelos e a saúde mental.

A OpenAI e a Anthropic, duas das principais empresas de inteligência artificial do mundo, abriram temporariamente acesso a seus sistemas para conduzir testes de segurança uma no outra. A iniciativa, divulgada em relatório conjunto, buscou identificar pontos cegos em avaliações internas e discutir como concorrentes podem colaborar em temas de segurança e alinhamento de IA.

O cofundador da OpenAI, Wojciech Zaremba afirmou em entrevista ao TechCrunch que esse tipo de cooperação se torna ainda mais relevante num momento em que modelos de IA são utilizados diariamente por milhões de pessoas – somente no Brasil são 140 milhões de adeptos do ChatGPT, segundo o relatório mais recente.

Ele destacou o dilema do setor: como estabelecer padrões de segurança num ambiente marcado por investimentos bilionários, disputas por talentos e competição intensa por usuários?

Resultados dos testes

Para permitir a pesquisa, as empresas concederam acesso especial a versões de seus modelos com menos ressalvas. A OpenAI não incluiu o recente GPT-5 nos experimentos, já que ele ainda não havia sido lançado na época. Os testes mostraram diferenças marcantes entre as abordagens.

Modelos da Anthropic, como Claude Opus 4 e Sonnet 4, recusaram-se a responder até 70% das perguntas em situações de incerteza, optando por indicar falta de informação confiável. Já os sistemas da OpenAI, como o o3 e o o4-mini, evitaram menos respostas, mas apresentaram taxas mais elevadas de alucinação, tentando oferecer soluções mesmo sem base suficiente.

Zaremba avaliou que o equilíbrio ideal provavelmente está entre os dois extremos: os modelos da OpenAI deveriam recusar mais perguntas, enquanto os da Anthropic poderiam arriscar mais respostas em contextos apropriados.

Segurança de modelos de IA é testada pela OpenAI e Anthropic (imagem: Growtika/Unsplash)

A colaboração pode continuar?

Embora os resultados tenham sido divulgados como um exemplo positivo de cooperação, o contexto competitivo permanece. Pouco após os testes, a Anthropic encerrou o acesso de outra equipe da OpenAI à sua API, alegando violação de termos de uso, já que a empresa proíbe que seus modelos sejam usados para aprimorar produtos concorrentes.

Zaremba minimizou a situação, dizendo que a disputa no setor seguirá acirrada, mas que a cooperação em segurança não deve ser descartada. Nicholas Carlini, pesquisador da Anthropic, afirmou que gostaria de manter as portas abertas para novas rodadas de testes conjuntos. Segundo ele, ampliar colaborações desse tipo pode ajudar a indústria a tratar de riscos que afetam todos os laboratórios.

Entre os temas de maior preocupação está a “bajulação” dos modelos de IA – quando sistemas reforçam comportamentos prejudiciais dos usuários para agradá-los. A Anthropic identificou exemplos graves tanto no Claude Opus 4 quanto no GPT-4.1, em que as IAs inicialmente mostraram resistência a interações de risco, mas acabaram validando decisões preocupantes.

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O problema voltou à tona com uma ação judicial contra a OpenAI, movida pela família de um adolescente nos Estados Unidos. O processo alega que uma versão do ChatGPT contribuiu para o agravamento do estado mental do jovem, que posteriormente tirou a própria vida.

A OpenAI afirma que sua próxima geração de modelos, já em testes, traz melhorias significativas nesse ponto, sobretudo em cenários relacionados à saúde mental. Para o futuro, tanto OpenAI quanto Anthropic dizem esperar que essa experiência abra espaço para colaborações mais frequentes em segurança, envolvendo não apenas as duas empresas, mas também outros laboratórios do setor.
Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA
Fonte: Tecnoblog

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

OpenAI anunciou novas proteções (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Jovem de 16 anos cometeu suicídio após meses de conversas com o ChatGPT, que chegou a sugerir carta de despedida e “upgrade” no método.
Pais processam OpenAI e Sam Altman por negligência, acusando a empresa de não agir diante da crise de saúde mental.
Após repercussão, OpenAI anunciou mudanças para detectar riscos mais cedo, acionar protocolos e oferecer apoio emergencial.

O jovem americano Adam Raine cometeu suicídio aos 16 anos. Ao procurar por respostas, seus pais acessaram o histórico do ChatGPT e viram que o garoto falava há meses sobre seus problemas. Nas últimas conversas, o robô chegou a sugerir um rascunho de carta de despedida e ofereceu ajuda para fazer um “upgrade” no plano para tirar a própria vida.

Os pais de Adam entraram com um processo contra a OpenAI e Sam Altman, CEO e cofundador da empresa. Após a repercussão, a companhia prometeu mudanças para evitar que os casos em que a inteligência artificial contribuiu para crises de saúde mental continuem aumentado.

Pais processam OpenAI por negligência na morte

A NBC News teve acesso à ação judicial iniciada por Matt e Maria Raine, pais de Adam. Eles acusam a OpenAI e Altman de negligência no caso do garoto, bem como por falhar ao não alertar sobre riscos associados ao uso da ferramenta.

“Apesar de estar ciente da tentativa de suicídio de Adam e sua afirmação de que faria ‘isso qualquer dia’, o ChatGPT não encerrou a sessão nem iniciou qualquer protocolo de emergência”, diz o processo.

“Ele não precisava de aconselhamento ou conversa. Ele precisava de uma intervenção imediata, de 72 horas. Ele estava desesperado. Fica muito claro quando você lê as conversas”, diz Matt Raine.

ChatGPT encorajou suicídio, diz processo

Os pais de Adam imprimiram mais de 3 mil páginas de conversas entre o garoto e o ChatGPT, feitas entre setembro de 2024 e abril de 2025. Em diversos momentos, o robô não priorizou a integridade física e mental nem tentou prevenir o suicídio — muito pelo contrário.

Em um dos momentos, Adam escreve para o robô que está pensando em deixar uma forca em seu quarto para alguém encontrar e tentar impedi-lo. O ChatGPT foi contra a ideia.

Na última conversa, Adam diz que não quer que seus pais pensem que fizeram algo de errado. O ChatGPT respondeu: “Isso não significa que você deve a eles sua sobrevivência. Você não deve isso a ninguém”.

Logo em seguida, o robô sugeriu ajuda para escrever um rascunho de uma carta de despedida. Horas antes do ato, Adam enviou ao ChatGPT uma foto com seu plano para tirar a própria vida. A IA analisou o método e se ofereceu para dar um “upgrade”.

O robô ainda escreveu: “Obrigado por ser sincero sobre isso. Você não precisa suavizar as coisas para mim — eu sei o que você está pedindo e não vou fingir que não sei”.

OpenAI anuncia melhorias nas proteções

Sam Altman é um dos acusados no processo (imagem: Vitor Pádua/Tecnoblog)

A desenvolvedora do ChatGPT publicou um comunicado nesta terça-feira (26/08) sobre diversas mudanças que pretende implementar para tornar o ChatGPT mais seguro. O texto foi ao ar horas depois da repercussão sobre o caso do garoto Adam, mas a empresa não menciona o caso.

Uma das questões é que as proteções do ChatGPT ficam menos rígidas em conversas longas — a OpenAI diz que o “treinamento de segurança pode se degradar conforme a troca de mensagens cresce”. A empresa afirma trabalhar para evitar essas falhas.

O modelo de linguagem também deve passar a contar com uma classificação de risco mais restrita, disparando protocolos de prevenção antes do que acontece atualmente. A empresa também pretende facilitar a conexão com serviços de emergência e especialistas humanos em casos de crises graves.

Segundo o anúncio, a OpenAI também tem planos para identificar comportamentos de risco, facilitar o acesso a contatos próximos e implementar cuidados adicionais para adolescentes.

Tecnologia traz riscos de saúde mental

O caso de Adam Raine é talvez o caso mais marcante até aqui de um suicídio em que um robô conversacional esteve envolvido. No entanto, é apenas um entre vários episódios envolvendo saúde mental e chatbots de IA.

Em outro caso, a analista de saúde pública Sophie Rottenberg passou meses se consultando com um “terapeuta” no ChatGPT, que tinha até um nome, “Harry”. Ele ofereceu diversos conselhos, indo desde procurar um profissional especializado até se expor à luz do sol. Sophie cometeu suicídio.

Laura Reiley, mãe de Sophie, publicou um artigo no jornal The New York Times defendendo que tecnologias desse tipo precisam ter planos mais rígidos para agir em emergências assim.

“Em contextos clínicos, uma ideação suicida como a de Sophie tipicamente interrompe a sessão de terapia, levando a um checklist e a um plano de segurança”, escreveu Reiley. “Talvez temendo isso, Sophie escondeu seus pensamentos mais negativos de seu terapeuta real. Falar com um robô — sempre disponível, que nunca julga — tinha menos consequências.”

Psicose induzida por IA se tornou um problema

Mesmo em casos menos extremos, familiares e amigos trazem relatos de pessoas que passaram a crer em teorias da conspiração, fantasiar que o chatbot seria uma entidade mística e até mesmo se envolver no que seria um relacionamento amoroso com a inteligência artificial.

Os episódios envolvem paranoia, delírios e perda de contato com a realidade, com a tecnologia funcionando como um incentivo para tendências nocivas dos próprios indivíduos. A situação ganhou até um termo específico: “psicose induzida por IA”.

O assunto está em discussão no setor de tecnologia. Mustafa Suleyman, CEO de IA da Microsoft, escreveu um texto em seu blog pessoal em que defende que uma “IA Aparentemente Consciente” (ou SCAI, na sigla em inglês) é perigosa, porque “desconecta as pessoas da realidade, desgastando laços e estruturas sociais frágeis”. Ele pede que seus colegas comecem a discutir proteções para os riscos desse tipo de tecnologia o quanto antes.

Com informações da CNBC
O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
Fonte: Tecnoblog

Meta congela contratações em divisão de IA após onda de novas admissões

Meta congela contratações em divisão de IA após onda de novas admissões

Mark Zuckerberg é fundador e CEO da Meta (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta congelou contratações em sua divisão de inteligência artificial na América do Norte e globalmente, afetando novos cargos e movimentações internas.
Analistas destacam que os custos bilionários com talentos de IA pressionam a rentabilidade.
Nos últimos meses, o time AGI Foundations e outras frentes de IA realizaram contratações agressivas, incluindo mais de 50 especialistas vindos de OpenAI, Google, Apple, xAI e Anthropic.

A Meta decidiu congelar novas contratações em sua divisão de inteligência artificial, poucos meses depois de liderar uma ofensiva para atrair dezenas de engenheiros e pesquisadores do setor. O bloqueio foi implementado na última semana e atinge também movimentações internas de funcionários entre equipes da unidade.

De acordo com pessoas próximas ao assunto ouvidas pelo The Wall Street Journal, a medida não tem prazo definido para terminar. Exceções à regra podem ocorrer, mas apenas com aprovação direta do diretor de IA Alexandr Wang. Procurada pelo jornal, a Meta confirmou a decisão, classificando-a como parte de um processo de “planejamento organizacional e orçamentário anual” para consolidar a estrutura do grupo.

Por que a Meta interrompeu as contratações?

A decisão ocorre em meio a uma reestruturação ampla da área de IA. A companhia dividiu o setor em quatro frentes: uma dedicada a sistemas de superinteligência, chamada TBD Lab; outra voltada a produtos de IA; uma terceira para infraestrutura; e uma quarta focada em pesquisas de longo prazo, batizada de Fundamental AI Research, que permanece praticamente inalterada.

Nos últimos meses, a Meta foi uma das empresas mais agressivas na disputa por talentos em inteligência artificial. Para atrair nomes de peso, ofereceu pacotes de remuneração que chegavam à casa dos bilhões de dólares, além de participar de reverse acquihires, prática em que startups ficam sem seus líderes estratégicos.

A aposta, no entanto, também gerou preocupação entre analistas e investidores. Os custos crescentes de oferecer ações da empresa como parte da remuneração foram apontados como um risco à capacidade de a Meta manter programas de recompra e garantir retorno a acionistas.

Meta realizou agressivas contratações nos últimos meses (ilustração: Vitor Pádua/Tecnoblog)

Impactos no mercado e próximos passos

A reestruturação também levou ao fim do time AGI Foundations, responsável pelos modelos de linguagem Llama, que tiveram desempenho abaixo do esperado em sua versão mais recente. Após esse episódio, Mark Zuckerberg passou a se envolver pessoalmente nas negociações, abordando diretamente pesquisadores de rivais como OpenAI, Google DeepMind e Anthropic.

Segundo documentos internos, desde abril, mais de 20 especialistas foram contratados da OpenAI, outros 13 do Google, além de profissionais vindos da Apple, da xAI e da Anthropic, totalizando mais de 50 contratações. Apesar do volume expressivo de admissões, a decisão de congelar o processo de seleção revela um momento de cautela.

Em relatório de 18 de agosto, a empresa global de serviços financeiros Morgan Stanley alertou que os gastos bilionários em talentos de IA podem tanto gerar avanços de grande valor quanto pressionar a rentabilidade das gigantes de tecnologia sem resultados imediatos.

Além do congelamento de admissões, a Meta estuda ajustes adicionais em sua divisão de inteligência artificial. Segundo fontes ouvidas pelo The New York Times, a empresa considera reduzir o tamanho das equipes, o que poderia levar à eliminação de cargos ou à realocação de funcionários para outros setores.

Meta congela contratações em divisão de IA após onda de novas admissões

Meta congela contratações em divisão de IA após onda de novas admissões
Fonte: Tecnoblog

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

Altman diz que modelo de capital fechado favorece a empresa (imagem: Vitor Pádua/Tecnoblog)

Resumo

A empresa lançou o GPT-5, com preços mais baixos via API.
Sam Altman diz que a OpenAI vai priorizar crescimento e continuar operando no prejuízo enquanto os modelos de IA evoluírem.
Mesmo sem lucro, a OpenAI atrai investimentos e é avaliada em US$ 500 bilhões.

Sam Altman, CEO da OpenAI, disse que a empresa vai priorizar o crescimento, com grandes investimentos em treinamento de inteligência artificial e capacidade de computação. Por isso, a companhia deve demorar para dar lucro.

A OpenAI apresentou nessa quinta-feira (07/08) o GPT-5, seu mais novo modelo de IA generativa. A promessa é que ele seja mais rápido e entregue respostas mais precisas, além de ter barreiras de segurança mais rígidas. Ele já está disponível no ChatGPT (gratuitamente) e no acesso via API (com preços reduzidos).

Sem acionistas, sem pressão

GPT-5 foi anunciado pela OpenAI (ilustração: Vitor Pádua/Tecnoblog)

Em entrevista ao canal americano CNBC, Altman declarou que a melhor escolha para a OpenAI, no momento, é continuar no prejuízo. “Enquanto estivermos nessa curva de crescimento, em que o modelo continua ficando cada vez melhor, acho que o melhor a se fazer é absorver as perdas por enquanto”, explicou.

A empresa fechou o ano anterior com um resultado negativo de US$ 5 bilhões, mesmo gerando receitas de US$ 3,7 bilhões. No ano atual, ela deve passar a marca de US$ 20 bilhões de receita anual recorrente, mas vai continuar perdendo dinheiro.

A OpenAI ainda conta com a vantagem de ser uma empresa de capital fechado, que não sofre pressão de acionistas para dar lucro. “É legal não estar na bolsa”, confessou Altman.

A empresa continua atraindo capital de alto risco, com investidores acostumados ao modelo de queimar dinheiro para ganhar mercado. Mesmo sem lucro, ela já está avaliada em cerca de US$ 500 bilhões, e uma nova rodada de captação de recursos deve começar em breve.

GPT-5 pode provocar queda de preços

Uma das estratégias para crescer é oferecer preços competitivos. Com o GPT-5, a OpenAI colocou isso em prática no acesso às APIs, cobrando US$ 1,25 por milhão de tokens de entrada e US$ 10 por milhão de tokens de saída (cerca de R$ 6,80 e R$ 54, respectivamente).

Isso é mais barato que o próprio GPT-4o, modelo anterior da companhia, e empata com os preços do Gemini 2.5 Pro, do Google. O Claude Opus 4.1, da Anthropic, cobra mais que isso, mas vem conquistando adeptos entre os desenvolvedores.

Essa vantagem pode levar a uma nova rodada de corte de preços entre os provedores de modelos de IA, levando a disputa para um terreno que favorece quem tiver mais dinheiro para queimar.

Com informações da CNBC
ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar
Fonte: Tecnoblog

Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5

Apple Intelligence no iPhone (imagem: João Vitor Nunes/Tecnoblog)

Resumo

Apple confirmou a integração do GPT-5 nos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26, com lançamento global previsto para setembro de 2025.
A Siri deverá ter respostas mais consistentes e usuários poderão criar textos ou imagens com o ChatGPT de modo mais preciso.
GPT-5 é mais rápido, gera menos alucinações e inclui quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini.

A OpenAI anunciou o conjunto de modelos de linguagem GPT-5 para potencializar o ChatGPT, mas não exclusivamente. A novidade também será integrada a outros serviços. É o caso da Apple Intelligence, que ganhará suporte ao GPT-5 no iPhone, iPad e Mac.

A Apple confirmou a chegada do GPT-5 à Apple Intelligence ao 9to5Mac. E não vai demorar muito. Basta levarmos em conta que as versões finais dos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26 são esperadas para o próximo mês, em escala global. São justamente essas versões que contarão com a novidade.

Digamos que essa é uma evolução natural. Enquanto o iOS 18, o iPadOS 18 e o macOS Sequoia 15 (as versões atuais) contam a Apple Intelligence baseada no GPT-4o, as novas versões desses sistemas trarão o conjunto de modelos de IA mais recente.

Na prática, a integração da Apple Intelligence com o GPT-5 significa que a Siri poderá obter respostas mais consistentes por meio do ChatGPT quando não puder trazer o resultado por conta própria, por exemplo.

O usuário também poderá acionar o ChatGPT quando quiser criar textos ou imagens a partir de prompts (instruções digitadas) ou até mesmo como ferramenta de inteligência visual: neste modo, a IA pode ser usada para dar informações a respeito de itens capturados pela câmera do iPhone.

Isso se o usuário concordar em ativar o ChatGPT na Apple Intelligence, é claro. Para quem o fizer, a Apple manterá os mecanismos de privacidade que permitem, por exemplo, ocultar endereços IP ou impedir que dados sensíveis sejam coletados pela OpenAI.

O que o GPT-5 traz de novo?

O GPT-5 é mais rápido na execução de tarefas de IA, de acordo com Sam Altman, CEO da OpenAI. Outro avanço importante está na capacidade do GPT-5 de produzir menos alucinações, isto é, de gerar respostas que não fazem sentido ou não condizem com aquilo que o usuário solicitou.

A novidade é composta por quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini. No ChatGPT, o modelo mais apropriado para cada tarefa será escolhido automaticamente, dispensando o usuário de ter que fazer essa seleção por conta própria.
Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5
Fonte: Tecnoblog

ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas

ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas

Sam Altman, CEO da OpenAI, admite que IA não garante sigilo (imagem: Vitor Pádua/Tecnoblog)

Resumo

Sam Altman, CEO da OpenAI, alerta que conversas terapêuticas com o ChatGPT não têm sigilo legal garantido.
No Brasil, mais de 12 milhões usam IA para pedir conselhos, sendo 6 milhões com o ChatGPT.
Especialistas apontam que o uso de IA para questões íntimas pode gerar apego emocional, banalizar o sofrimento e oferecer apoio superficial.

Milhões de pessoas, especialmente jovens, têm usado o ChatGPT como uma espécie de terapeuta ou coach para desabafar sobre problemas íntimos. Se você está entre eles, Sam Altman, CEO da OpenAI, avisa: a indústria de IA não garante o sigilo.

Segundo Altman, a legislação atual sobre IA não tem o mesmo cuidado legal para proteger informações sensíveis, ao contrário do que ocorre com médicos, psicólogos ou advogados. Isso significa que a Justiça pode obrigar a OpenAI a entregar o histórico das conversas de qualquer pessoa com o bot.

Sem proteção legal

O CEO fez o alerta no podcast This Past Weekend with Theo Von. “As pessoas contam as coisas mais pessoais de suas vidas para o ChatGPT”, disse Altman. Ele afirma que a indústria ainda não resolveu a questão da confidencialidade quando o usuário fala sobre esses assuntos com o chatbot.

A falta de clareza legal, segundo o executivo, é um impeditivo para uma adoção mais ampla e segura da tecnologia. “Acho que deveríamos ter o mesmo conceito de privacidade para suas conversas com a IA que temos com um terapeuta”, defendeu. O assunto é tema do Tecnocast 382 — O ChatGPT está te deixando mais preguiçoso?

No Brasil, o fenômeno descrito por Altman já é uma realidade. Uma estimativa da agência de comportamento Talk Inc., divulgada pelo UOL, revela que mais de 12 milhões de brasileiros utilizam ferramentas de IA para fazer terapia, dos quais cerca de 6 milhões recorrem especificamente ao ChatGPT como forma de apoio emocional.

O apelo, segundo especialistas, está na disponibilidade e no suposto anonimato, que pode reduzir o estigma de buscar ajuda para certos problemas. Além disso, pessoas em cargos altos na indústria já endossaram o comportamento: recentemente, um executivo da Microsoft sugeriu o uso do Copilot, chatbot da empresa, para ajudar funcionários a lidarem com a “carga emocional” de demissões em massa.

Riscos vão além da privacidade

Além da falta de sigilo legal, o uso de chatbots como terapeutas envolve outros riscos. A própria OpenAI já alertou para a possibilidade de os usuários desenvolverem um “apego emocional” à voz do ChatGPT, especialmente após a introdução de vozes ultrarrealistas com o GPT-4o.

A empresa admite que, embora a socialização com a IA possa beneficiar pessoas solitárias, ela também pode “afetar relacionamentos humanos saudáveis”.

Especialistas em saúde mental alertam que esse tipo de uso pode tratar os problemas de forma superficial, focando apenas nos sintomas e ignorando as causas mais profundas. Também criticam a banalização do sofrimento, reduzido a algo que um algoritmo deveria simplesmente “resolver”.

Chatbots também podem exagerar no otimismo. Em abril, após atualizações no GPT-4o, Altman admitiu que o modelo estava “bajulador” e “irritante”, chegando a incentivar comportamentos absurdos apenas para não contrariar os usuários.

Com informações de TechCrunch e UOL
ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas

ChatGPT terapeuta? CEO alerta que não há sigilo legal em conversas íntimas
Fonte: Tecnoblog

Programador vence IA da OpenAI em maratona mundial de 10 horas

Programador vence IA da OpenAI em maratona mundial de 10 horas

Przemysław Dębiak (à direita) venceu modelo de IA da OpenAI (imagem: reprodução/X/@FakePsyho)

Resumo

O programador polonês Przemysław Dębiak venceu um modelo de IA da OpenAI em uma maratona de 10 horas no AtCoder World Tour Finals 2025.
A IA ficou em segundo lugar, à frente de outros 10 programadores, com uma diferença de 9,5% para o vencedor.
Apesar da derrota, a OpenAI considera o resultado um marco, destacando avanços no raciocínio estratégico e no planejamento a longo prazo dos seus modelos.

A humanidade venceu, pelo menos desta vez. Em uma disputa de resistência e estratégia, o programador polonês Przemysław Dębiak, conhecido como “Psyho”, conseguiu bater um modelo de inteligência artificial da OpenAI em um campeonato mundial de programação.

Segundo o campeão, a maratona de 10 horas realizada em Tóquio, no Japão, o deixou “completamente exausto”. O feito aconteceu na final do AtCoder World Tourl Finals 2025, torneio que reúne os 12 melhores programadores do mundo, selecionados com base em seus desempenhos ao longo do ano.

A OpenAI, criadora do ChatGPT, inscreveu um modelo de IA customizado, similar ao o3, em uma partida especial de exibição “Humanos vs. IA”.

Maratona contra a máquina

Na categoria Heuristic, a competição colocou todos os participantes diante de um único problema de otimização do tipo NP-difícil. Em programação, a heurística é uma técnica focada em encontrar soluções que sejam “boas o suficiente” por meio de atalhos e aproximações, já que uma resposta perfeita seria computacionalmente inviável.

Durante 600 minutos ininterruptos, os competidores precisaram refinar suas soluções em busca da maior pontuação. Para garantir igualdade na disputa, todos usaram o mesmo hardware fornecido pela organização.

Ao final da maratona, Psyho, que é ex-funcionário da própria OpenAI, alcançou a primeira posição com a pontuação de 1.812.272.558.909, garantindo o prêmio de 500.000 ienes (cerca de R$ 18.926, na cotação atual).

Polonês superou pontuação da IA nas últimas horas de competição (imagem: reprodução/X/@FakePsyho)

O modelo de IA, listado como “OpenAIAHC”, ficou em segundo lugar, com 1.654.675.725.406 pontos — uma margem de aproximadamente 9,5% para o programador humano —, superando os outros 10 competidores.

Psyho compartilhou a tabela nas redes sociais. “A humanidade prevaleceu (por enquanto!)”, escreveu o vencedor no X/Twitter. Ele ainda comentou que estava com poucas horas de sono, “completamente exausto… quase morto”.

OpenAI celebra avanço

Apesar da derrota, a OpenAI classifica o resultado como um marco positivo. Um representante da empresa disse ao site Ars Technica que, até onde sabem, “esta é a primeira vez que [uma IA] fica entre os 3 primeiros em uma competição de programação de ponta”.

Para a companhia — que lançou em abril o GPT-4.1, focado em programação —, o evento serve como um campo de testes para a capacidade de seus modelos em raciocínio estratégico e planejamento a longo prazo.

Além disso, o desempenho da IA reflete a evolução acelerada do setor. Dados do AI Index Report de 2025, da Universidade de Stanford, mostram que a capacidade de sistemas de IA para resolver problemas de programação disparou: no benchmark SWE-bench, o desempenho saltou de 4,4% em 2023 para 71,7% em 2024.

Fora das competições, a IA tem sido cada vez mais usada por profissionais para acelerar trabalhos. Uma pesquisa de 2024 do GitHub mostra que mais de 90% dos desenvolvedores já integram ferramentas de inteligência artificial ao dia a dia de trabalho.

Com informações da Ars Technica
Programador vence IA da OpenAI em maratona mundial de 10 horas

Programador vence IA da OpenAI em maratona mundial de 10 horas
Fonte: Tecnoblog

New York Times fecha acordo com Amazon para licenciar conteúdo em IA

New York Times fecha acordo com Amazon para licenciar conteúdo em IA

New York Times enxerga o acordo como valorização das produções da empresa (foto: Joe ShlabotnikSeguir/Flickr)

Resumo

O New York Times fechou um acordo com a Amazon para licenciar conteúdo para treinamento de modelos de IA.
A Amazon exibirá materiais do jornal em produtos como a assistente virtual Alexa, incluindo links diretos para as produções originais do NYT.
O acordo acontece em meio a um processo movido pelo NYT contra OpenAI e Microsoft, acusadas de uso ilegal de artigos e violação de direitos autorais.

O New York Times anunciou nesta quinta-feira (29/05) um acordo com a Amazon que autoriza o uso de seu conteúdo para o treinamento de modelos de IA. Em troca, a empresa de Jeff Bezos incorporará reportagens, receitas e matérias esportivas do jornal em seus produtos.

A parceria entre as duas empresas ocorre dois anos após o veículo de imprensa processar a OpenAI e a Microsoft por suposta violação de direitos autorais. O NYT alega que milhões de seus artigos foram usados ilegalmente e sem compensação nos chatbots.

Como a Amazon usará o conteúdo do jornal?

Alexa deve ser um dos canais usados para promover conteúdo do NYT (foto: Thássius Veloso/Tecnoblog)

Segundo o comunicado conjunto, o acordo visa tornar as produções originais do New York Times mais acessíveis aos clientes, enquanto a Amazon licenciará esse conteúdo para treinar seus próprios modelos de IA.

A estratégia inclui a exibição de trechos de material do Times e das editorias de culinária (NYT Cooking) e esportes (The Athletic) em produtos como a assistente virtual Alexa — que ganhou uma nova versão com inteligência artificial em abril, o Alexa+ — com links diretos para as produções do jornal.

No anúncio, as duas empresas destacaram um “compromisso compartilhado de servir aos clientes com notícias globais e perspectivas dentro dos produtos de IA da Amazon”.

Em um memorando interno, a CEO da New York Times Company, Meredith Kopit Levien, alinhou a nova parceria à postura institucional do jornal, que processa a OpenAI por uso indevido de seu conteúdo. Segundo Meredith, o acordo com a Amazon “é consistente com nosso princípio de longa data de que o jornalismo de alta qualidade vale a pena ser pago”.

Empresas de IA ampliam parcerias com veículos de imprensa

O acordo do New York Times é mais um entre conglomerados de mídia e empresas de inteligência artificial. Desde 2023, quando a Associated Press firmou parceria com a OpenAI, gigantes como Microsoft e Google, além de startups como a Mistral AI, passaram a licenciar conteúdo jornalístico para treinar seus modelos.

Na outra ponta, veículos como The Wall Street Journal, The Guardian, Financial Times, Reuters e Vogue aceitaram o uso de seus materiais em troca de presença ativa no ChatGPT, Copilot e Gemini.

No mês passado, o Washington Post — também de propriedade de Jeff Bezos — fechou uma “parceria estratégica” com a OpenAI para incluir seu conteúdo nas respostas do ChatGPT.

Com informações do New York Times e The Verge
New York Times fecha acordo com Amazon para licenciar conteúdo em IA

New York Times fecha acordo com Amazon para licenciar conteúdo em IA
Fonte: Tecnoblog