Category: OpenAI

Sora: novo recurso da OpenAI tenta conter polêmica com vídeos gerados por IA

Sora: novo recurso da OpenAI tenta conter polêmica com vídeos gerados por IA

App Sora permite transformações de imagens em vídeos altamente realistas (imagem: reprodução)

Resumo

O Sora, aplicativo da OpenAI, gera vídeos realistas a partir de textos ou imagens, mas enfrenta críticas por facilitar deepfakes e uso indevido de imagens.
Usuários relataram perda de controle sobre suas representações digitais, levando a preocupações éticas e sobre a autenticidade dos vídeos.
A OpenAI implementou novas medidas de segurança, incluindo restrições de uso de “cameos” e melhorias na visibilidade da marca d’água.

A mais recente criação da OpenAI, o aplicativo Sora, vem chamando atenção tanto pelo realismo dos vídeos quanto pelas preocupações éticas que desperta. Lançado inicialmente nos Estados Unidos e no Canadá, ele chegou ao topo das lojas de aplicativos, permitindo que qualquer pessoa transforme textos ou imagens em vídeos altamente realistas – com movimento, som e estilos variados, do cinematográfico ao animado.

Apesar do sucesso, a ferramenta tem sido apontada por críticos como um gerador facilitado de deepfakes, já que possibilita o uso do rosto e da voz de outras pessoas em vídeos criados por inteligência artificial. Usuários que disponibilizaram sua imagem como “cameo” – termo usado para participações digitais – descobriram que, uma vez concedida a permissão, tinham pouco ou nenhum controle sobre o que era feito com suas representações.

O que motivou a polêmica em torno do Sora?

A proposta inicial do aplicativo era simples: permitir que qualquer um transforme ideias em vídeos com realismo sem precedentes. No entanto, rapidamente surgiram casos em que rostos autorizados foram usados em contextos controversos, incluindo declarações políticas opostas às convicções daquelas pessoas.

Embora os vídeos criados pelo Sora tragam uma marca d’água móvel identificando a origem do conteúdo, alguns usuários encontraram maneiras de removê-la, levantando preocupações adicionais sobre autenticidade e manipulação digital. A ausência de mecanismos eficazes de controle e transparência acendeu um alerta sobre o uso indevido de imagens e a propagação de conteúdo enganoso.

Como funcionam as novas medidas de segurança?

Diante das críticas, a OpenAI anunciou a implementação de ferramentas adicionais de controle. Bill Peebles, líder do projeto Sora, explicou que agora é possível definir restrições específicas sobre o uso de um “cameo”.

A empresa promete tornar o sistema ainda mais robusto, permitindo ajustes detalhados sobre como e onde a imagem de uma pessoa pode ser utilizada. Além disso, a OpenAI declarou que pretende tornar a marca d’água mais visível e difícil de remover, embora não tenha revelado quais medidas técnicas serão adotadas para isso.
Sora: novo recurso da OpenAI tenta conter polêmica com vídeos gerados por IA

Sora: novo recurso da OpenAI tenta conter polêmica com vídeos gerados por IA
Fonte: Tecnoblog

AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA

AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA

Parceria garante à OpenAI o poder computacional para seus futuros modelos de IA (Imagem: Vitor Pádua/Tecnoblog)

Resumo

A AMD anunciou nesta segunda-feira (06/10) uma parceria estratégica com a OpenAI, posicionando a empresa como grande fornecedora de unidades de processamento gráfico (GPUs) para a dona do ChatGPT e intensificando a concorrência com a Nvidia, atual líder do setor.

O acordo, que se estenderá por vários anos e gerações de produtos, estabelece a entrega de 6 gigawatts em GPUs, começando pela implantação de 1 gigawatt de chips da série AMD Instinct MI450. A meta é fornecer a capacidade computacional necessária para o desenvolvimento e operação de modelos de IA cada vez mais complexos, que também alimentam outras aplicações de IA generativa.

AMD será mais que um fornecedor

A AMD também concedeu à OpenAI o direito de adquirir até 160 milhões de ações ordinárias, volume que representa cerca de 10% de participação na empresa. A aquisição, no entanto, está condicionada ao cumprimento de alguns requisitos. Entre eles, a gigante da IA deve atingir os marcos técnicos e comerciais necessários para implantar os chips da AMD em larga escala.

Segundo Jean Hu, vice-presidente executiva e diretora financeira da AMD, “este acordo cria um alinhamento estratégico significativo e valor para os acionistas de ambas as empresas”. Lisa Su, presidente e CEO da AMD, destacou a natureza colaborativa do acordo.

Lisa Su, CEO da AMD, com um chip Ryzen 7000 (imagem: divulgação/AMD)

“Esta parceria reúne o melhor da AMD e da OpenAI para criar uma situação vantajosa para todos, possibilitando o avanço de todo o ecossistema de IA”, afirmou a executiva. A colaboração técnica entre as empresas também será aprofundada para otimizar hardware e software de futuras gerações de produtos.

Em comunicado, a AMD projetou que a parceria deve gerar “dezenas de bilhões de dólares em receita”, notícia que foi bem recebida pelo mercado financeiro, com as ações da companhia registrando alta de 24% nas negociações pré-mercado.

Parceria pode movimentar o mercado

Com o acordo, a OpenAI diversifica suas apostas (ilustração: Vitor Pádua/Tecnoblog)

O anúncio ocorre em um momento em que a demanda por poder computacional tem superado a oferta no setor de IA. A parceria com a AMD oferece à OpenAI uma estratégia de diversificação de fornecedores, reduzindo sua dependência da Nvidia, que domina o fornecimento de hardware para data centers de IA.

Curiosamente, a companhia controlada por Sam Altman também anunciou no mês passado uma “parceria estratégica” com a Nvidia para a implantação de pelo menos 10 gigawatts em GPUs. No entanto, o acordo ainda não foi finalizado. Essa diversificação só foi possibilitada por um ajuste no acordo de exclusividade que a OpenAI mantinha com a Microsoft, modificado para permitir que a empresa de IA também buscasse acordos com outros fornecedores.

Com informações da AMD e The Verge
AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA

AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA
Fonte: Tecnoblog

OpenAI lança Sora 2 e app para competir com o TikTok

OpenAI lança Sora 2 e app para competir com o TikTok

App Sora permite criar, remixar e compartilhar vídeos de IA (imagem: reprodução)

Resumo

OpenAI lançou o Sora 2, novo modelo de IA para geração de vídeos, e o app Sora para iPhone.
O Sora 2 traz simulação física avançada, áudio sincronizado e consistência em múltiplas cenas.
O app gera vídeos com IA e inclui recursos como Cameos, que insere usuários em cenas criadas artificialmente.
O aplicativo começará a ser liberado nos EUA e Canadá, através de uma lista de espera, e ainda não tem uma previsão de chegada a outras regiões.

A OpenAI anunciou nesta terça-feira (30/09) o lançamento do Sora 2, a nova versão do seu modelo de inteligência artificial para criação de vídeos. A novidade chega junto com o app Sora para iPhone, que lembra o TikTok.

O aplicativo tem um feed que é alimentado inteiramente com vídeos gerados pela IA da empresa, e o anúncio ocorre pouco depois do vazamento de informações sobre o app, reportadas inicialmente pela revista Wired.

Vídeos mais realistas e áudio sincronizado

This is the Sora app, powered by Sora 2.Inside the app, you can create, remix, and bring yourself or your friends into the scene through cameos—all within a customizable feed designed just for Sora videos.See inside the Sora app pic.twitter.com/GxzxdNZMYG— OpenAI (@OpenAI) September 30, 2025

O Sora 2 é descrito pela OpenAI como um salto comparável à evolução do GPT-1 para o GPT-3.5 no ChatGPT. A empresa afirma que o sistema possui capacidades avançadas de simulação de mundo, resultando em vídeos com maior precisão física e realismo.

Diferente de modelos anteriores, o novo modelo consegue simular mais interações físicas e integra a geração de áudio sincronizado, incluindo diálogos, efeitos sonoros e paisagens de fundo.

O controle sobre a criação também foi expandido, permitindo que o modelo siga instruções complexas que abrangem múltiplas cenas, mantendo a consistência de objetos e personagens.

Rede social de conteúdo gerado por IA

O novo modelo vai alimentar o aplicativo social da empresa, o Sora. Com uma interface que remete a outras plataformas de feed vertical, a interação será por meio de criações, remixes, curtidas e comentários.

Uma das características únicas é a ausência de upload de mídias externas: todos os vídeos que alimentam a rede são gerados internamente com o Sora 2, a partir de comandos de texto.

Outra novidade do app é o recurso Cameos. Depois de verificar identidade com imagem e voz, o usuário pode se colocar — ou inserir amigos — em qualquer cena criada pela IA. De acordo com a OpenAI, o controle é total: é possível revogar o uso da própria imagem ou excluir um vídeo a qualquer momento, mesmo que ele tenha sido gerado por outra pessoa.

“Acreditamos que um aplicativo social desenvolvido em torno desse recurso de ‘participações especiais’ é a melhor maneira de vivenciar a magia do Sora 2”, afirma a equipe por trás do Sora em comunicado oficial.

A OpenAI também publicou um artigo detalhando seu compromisso com o bem-estar dos usuários. A empresa afirma que o algoritmo do feed foi projetado para “maximizar a criação” em vez de tempo gasto na plataforma, com ferramentas para controlar e instruir recomendações de conteúdo com linguagem natural.

A segurança dos adolescentes também recebeu atenção especial. O aplicativo implementará limites padrão de visualização diária para este público e permissões mais restritas para o uso do Cameos.

Além disso, o app do Sora será integrado aos controles parentais do ChatGPT, permitindo que os pais desativem a rolagem infinita, a personalização do feed e gerenciem as configurações de mensagens diretas de seus filhos.

Em relação à monetização, a OpenAI declarou que, por enquanto, o único plano é, eventualmente, oferecer a opção de pagar por gerações de vídeo extras caso a demanda exceda a capacidade computacional.

Quando estará disponível?

Aplicativo chega para iOS nos EUA e Canadá (imagem: Gabriel Sérvio/Tecnoblog)

O novo aplicativo Sora será liberado inicialmente para iPhone nos Estados Unidos e Canadá, e já está disponível para download na App Store desses países. O acesso será fornecido gradualmente para quem se inscrever na lista de espera.

Inicialmente, o uso será gratuito. Assinantes do ChatGPT Pro terão acesso a um modelo experimental de alta qualidade, chamado Sora 2 Pro. A OpenAI também planeja disponibilizar o Sora 2 via API para desenvolvedores no futuro.

Até o momento, a OpenAI não divulgou um cronograma ou previsão para a chegada de uma versão para Android.

Com informações da OpenAI
OpenAI lança Sora 2 e app para competir com o TikTok

OpenAI lança Sora 2 e app para competir com o TikTok
Fonte: Tecnoblog

OpenAI prepara app estilo TikTok com vídeos feitos por IA

OpenAI prepara app estilo TikTok com vídeos feitos por IA

Companhia de Sam Altman quer popularizar a criação de vídeos por IA (imagem: Vitor Pádua/Tecnoblog)

Resumo

OpenAI prepara um app de vídeos curtos somente com conteúdo feito por IA, baseado no modelo Sora 2, ainda não lançado.
Segundo a revista Wired, o app permitirá gerar clipes de até 10 segundos sem upload externo, ou seja, apenas com material feito dentro da plataforma.
O app deve ter feed vertical, recomendações algorítmicas, curtidas, comentários e sistema de verificação facial, de acordo com a revista.

A OpenAI pode lançar uma rede social para vídeos curtos parecida com o TikTok, mas com um diferencial: todo o conteúdo será criado por inteligência artificial. A iniciativa seria um passo para popularizar de vez a geração de vídeo por IA com base no seu próximo modelo, o Sora 2.

A informação é da revista Wired, que afirma que a novidade já foi lançada internamente para funcionários da OpenAI.

Vídeos de até 10 segundos

O novo aplicativo deve ter uma interface já familiar para os usuários de plataformas de vídeos curtos, com feed vertical com navegação e um algoritmo de recomendação que alimenta uma página principal (similar ao “Para você” do TikTok). Segundo a Wired, a interação será por meio de botões para curtir, comentar e “remixar” os vídeos.

Um diferencial é a possível ausência da opção de carregar vídeos ou fotos de fontes externas, como a galeria do celular. Toda a criação de conteúdo será dentro do próprio aplicativo, utilizando o modelo Sora 2 para gerar clipes com duração máxima de 10 segundos, de acordo com documentos vistos pela revista.

O sistema de verificação de identidade do Sora 2, porém, deve ser um dos recursos controversos, já que a imagem do rosto dos usuários verificados poderá ser usada na criação de vídeos.

Curiosamente, essa funcionalidade se estende à comunidade, ou seja, outros usuários poderão marcar uma pessoa e incluir sua imagem nos clipes gerados. Como medida de segurança, o sistema deve enviar uma notificação sempre que a sua imagem for utilizada, mesmo que o vídeo permaneça como um rascunho não publicado.

Novo aplicativo não usará a galeria de fotos (ilustração: Vitor Pádua/Tecnoblog)

OpenAI quer seu próprio TikTok?

A empresa aposta que uma plataforma social dedicada pode transformar a percepção do público com a tecnologia de geração de vídeo, assim como o ChatGPT fez pelos modelos de linguagem de grande escala.

Conforme relatado também pelo Engadget, analistas e fontes internas sugerem que a OpenAI identificou uma oportunidade de mercado em meio à incerteza regulatória em torno das operações do TikTok nos Estados Unidos. O lançamento de uma alternativa sem vínculos com a China poderia capitalizar sobre essa situação.

Recentemente, a Meta também anunciou o Vibes, um feed dedicado a vídeos curtos gerados por IA, integrado ao Meta AI. A plataforma, que também permite criar e remixar clipes, utiliza, em sua fase inicial, modelos dos parceiros Midjourney e Black Forest Labs.

O Google, por sua vez, já anunciou que prevê a integração do Veo 3 ao YouTube. Em contrapartida, o TikTok tem adotado uma postura mais cautelosa, atualizando suas políticas para proibir conteúdo de IA que seja “enganoso ou prejudicial”.

Empresa vê oportunidade em incertezas regulatórias do TikTok nos EUA (imagem: André Fogaça/Tecnoblog)

Vale lembrar que a OpenAI está envolvida em múltiplos processos judiciais por supostas violações de direitos autorais, incluindo uma ação movida pelo jornal The New York Times.

Segundo o Wall Street Journal, a companhia de Sam Altman estuda oferecer no Sora 2 uma opção às empresas para bloquear o uso de imagens com direitos autorais e, assim, evitar novos processos.

Ontem (29/09), a OpenAI anunciou novos controles parentais para o ChatGPT, mas não detalhou restrições de idade nem medidas de segurança para o possível app de vídeos curtos.
OpenAI prepara app estilo TikTok com vídeos feitos por IA

OpenAI prepara app estilo TikTok com vídeos feitos por IA
Fonte: Tecnoblog

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT Pulse foi anunciado hoje (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O ChatGPT Pulse foi anunciado nesta quinta-feira (25) como um recurso que antecipa tarefas e realiza pesquisas.
A ferramenta gera boletins diários personalizados e pode combinar o histórico de conversas com informações de serviços externos, como o Google Agenda.
Ainda em fase de testes, o Pulse está disponível no app móvel para assinantes Pro e será liberado gradualmente aos demais usuários.

O ChatGPT ganhou nesta quinta-feira (25/09) o Pulse, novo recurso que funciona como uma espécie de boletim diário personalizado. A ferramenta faz pesquisas em segundo plano e reúne informações que podem ser úteis, como recomendações de atividades, acompanhamento de temas recorrentes ou até lembretes de compromissos.

A proposta é que, em vez de esperar por perguntas, o ChatGPT passe a agir de forma proativa, oferecendo conteúdos que dialogam com o histórico de conversas, feedbacks diretos e, caso o usuário permita, dados de serviços como Gmail e Google Agenda. A OpenAI espera acelerar a produtividade e tornar a IA mais integrada à rotina de quem a utiliza.

Como funciona o ChatGPT Pulse?

O Pulse é apresentado como uma prévia de um futuro em que o ChatGPT deixa de ser apenas um chatbot reativo para se tornar um assistente que antecipa necessidades.

Durante a noite, o sistema faz uma pesquisa assíncrona baseada no histórico do usuário e em orientações fornecidas diretamente. No dia seguinte, organiza as descobertas em cartões visuais que podem ser lidos rapidamente ou explorados em mais detalhes.

A OpenAI cita alguns exemplos: sugestões de jantar, ideias de treinos ou o acompanhamento de temas profissionais já discutidos com a IA no passado. Para quem conecta aplicativos externos, como o Google Agenda, o recurso pode propor agendas de reuniões, lembrar de aniversários ou indicar restaurantes em viagens próximas.

O usuário também pode orientar o tipo de conteúdo que deseja receber, pedindo, por exemplo, um resumo de eventos locais às sextas-feiras ou dicas para aprender uma nova habilidade.

ChatGPT Pulse cria resumos diários (imagem: divulgação)

Já está disponível?

O ChatGPT Pulse está em fase de testes para assinantes do plano Pro, e apenas no aplicativo móvel. A OpenAI afirma que a expansão ocorrerá em etapas, chegando primeiro para quem assina o Plus e depois para toda a base de usuários.

A empresa reconhece que o recurso tem imperfeições e pode sugerir informações desatualizadas ou que não façam sentido em alguns contextos. No entanto, garante que a ferramenta foi desenhada para evoluir durante o uso e com feedbacks dos usuários.

Com informações da OpenAI e do Engadget
ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você
Fonte: Tecnoblog

Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI

Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI

Nvidia vai investir US$ 100 bilhões na OpenAI (imagem: reprodução/Nvidia)

Resumo

Nvidia investirá até US$ 100 bilhões na OpenAI para apoiar avanço da inteligência artificial, incluindo a construção de infraestrutura com 10 gigawatts de energia;

Parceria permitirá que OpenAI utilize chips da Nvidia para expandir sua tecnologia de IA, enquanto Nvidia ganha participação em uma das líderes do setor;

Acordo segue o recente anúncio de uma parceria entre Nvidia e Intel, com foco em chips para datacenters e PCs.

Por mais que os consumidores vejam a Nvidia como uma empresa que desenvolve placas de vídeo para jogos, o principal negócio da companhia atualmente é a inteligência artificial. Prova disso é que a Nvidia revelou um plano para investir até US$ 100 bilhões na OpenAI, o nome por trás do ChatGPT.

O acordo prevê a implantação de uma gigantesca infraestrutura de pelo menos 10 gigawatts (suficiente para fornecer energia para cerca de 8 milhões de residências nos Estados Unidos) para treinar e executar a próxima geração de modelos de IA da OpenAI.

Os detalhes dessa parceria ainda estão sendo elaborados, mas já se sabe que as soluções correspondentes ao primeiro gigawatt, que consistem principalmente em datacenters e fornecimento de energia, deverão ser implantados no segundo semestre de 2026.

Isso deixa claro que esta é uma parceria de longo prazo. De fato, no anúncio oficial, Nvidia e OpenAI informam que o investimento de até US$ 100 bilhões (R$ 534 bilhões na conversão direta) será feito de modo progressivo.

A intenção, um tanto óbvia, é a de que essa seja uma relação “ganha-ganha”. De um lado, a parceria permitirá à OpenAI ter acesso a uma infraestrutura de ponta, que inclui os chips avançados da Nvidia para processamento de tarefas de IA, para desenvolver a sua tecnologia. No outro, a Nvidia terá uma participação em uma das companhias que lideram o setor.

Os CEOs das duas companhias comentaram o acordo:

A Nvidia e a OpenAI têm se impulsionado mutuamente há uma década, desde o primeiro supercomputador DGX até o avanço do ChatGPT. Este investimento e a parceria em infraestrutura marcam o próximo salto — implementando 10 gigawatts para impulsionar a próxima era da inteligência.

Jensen Huang, CEO da Nvidia

Jensen Huang, CEO da Nvidia (imagem: divulgação/Nvidia)

Tudo começa com a computação. A infraestrutura computacional será a base da economia do futuro, e utilizaremos o que estamos construindo com a Nvidia para trazer mais avanços em IA e capacitar pessoas e empresas com eles de modo escalonado.

Sam Altman, CEO da OpenAI

Sam Altman, CEO da OpenAI (imagem: reprodução/OpenAI)

Acordo chega após parceria da Nvidia com a Intel

O acordo com a OpenAI foi revelado menos de uma semana depois de a Nvidia anunciar uma parceria com a Intel. Nela, a Nvidia investirá US$ 5 bilhões na Intel na forma de compra de ações desta última.

Nvidia e Intel trabalharão em conjunto no desenvolvimento de soluções com arquitetura x86 direcionadas a datacenters, bem como na criação de chips para PCs que reúnem CPUs x86 e GPUs RTX.
Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI

Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI
Fonte: Tecnoblog

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT foi usado em teste de ataque para extrair dados de emails (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Pesquisadores da Radware realizaram o ataque Shadow Leak, que usou injeção de prompts para extrair dados do Gmail.
A vulnerabilidade explorava a ferramenta Deep Research do ChatGPT, permitindo a execução de instruções ocultas para acessar dados sigilosos.
O problema, comunicado à OpenAI em junho, já foi resolvido, mas também poderia comprometer serviços como o Outlook e Google Drive.

É possível usar o ChatGPT como aliado em ataques para extrair dados sensíveis do Gmail. Foi o que pesquisadores de segurança da Radware conseguiram demonstrar com um ataque de injeção de prompts. A falha já foi corrigida pela OpenAI, mas permitiu extrair dados da caixa de entrada sem que os usuários percebessem.

O ataque recebeu o nome de Shadow Leak e foi divulgado na última semana pela empresa de segurança cibernética. A técnica explorava agentes de IA — sistemas capazes de executar tarefas sem supervisão contínua, como navegar na web, acessar documentos e interagir com e-mails após autorização do usuário.

Como o ataque funcionava?

O método consistia em usar uma técnica conhecida como “injeção de prompt”. Trata-se de inserir instruções ocultas para que o agente siga comandos de um invasor sem que o usuário tenha consciência disso.

Esse tipo de ataque já foi usado em diferentes contextos, desde manipulação de avaliações até golpes financeiros. As instruções podem ser escondidas no HTML do e-mail de forma imperceptível para humanos, como fontes minúsculas ou em um texto branco sobre fundo branco.

Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI (ilustração: Vitor Pádua/Tecnoblog)

No caso do Shadow Leak, o alvo foi a ferramenta Deep Research, recurso da OpenAI integrado ao ChatGPT e lançado neste ano. Os pesquisadores enviaram um e-mail contendo um prompt malicioso para uma conta do Gmail que tinha acesso ao agente. Assim que o usuário ativava o Deep Research, a armadilha era acionada: o sistema encontrava as instruções escondidas, que ordenavam a busca por mensagens de RH e dados pessoais, enviando as informações secretamente para os golpistas. O usuário não notava nada de anormal.

Segundo a Radware, executar esse ataque exigiu muitos testes até chegar a um resultado viável. “Esse processo foi uma montanha-russa de tentativas fracassadas, obstáculos frustrantes e, finalmente, uma descoberta”, escreveram os pesquisadores.

Outros serviços em risco

Serviços integrados ao Deep Research, como o Outlook, também poderiam ser afetados (ilustração: Vitor Pádua/Tecnoblog)

Um aspecto que chamou atenção é que, diferentemente da maioria dos ataques de injeção de prompts, o Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI. Isso fez com que a extração de dados ocorresse sem deixar rastros visíveis para as defesas tradicionais de segurança cibernética.

A Radware destacou ainda que a vulnerabilidade poderia afetar não apenas o Gmail, mas também outros serviços conectados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox.

De acordo com a empresa, “a mesma técnica pode ser aplicada a esses conectores adicionais para extrair dados empresariais altamente sensíveis, como contratos, notas de reunião ou registros de clientes”.

A falha foi comunicada à OpenAI em junho e já recebeu correção. Ainda assim, os pesquisadores reforçam que ataques desse tipo mostram como a evolução de agentes de IA traz benefícios, mas também abre novas superfícies de risco para usuários e empresas.

Com informações do The Verge
ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail
Fonte: Tecnoblog

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Novos clientes da Claro terão acesso ao ChatGPT Plus (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Claro e OpenAI anunciam hoje uma parceria que trará o ChatGPT Plus gratuitamente para alguns clientes da operadora, por meio de vouchers.
O ChatGPT será incluído no Extra Play, a franquia adicional de internet móvel da Claro, para tornar a tecnologia acessível aos usuários.
A popularidade do ChatGPT no Brasil é crescente, com o país ocupando o top 3 global em termos de uso da ferramenta.

A Claro e a OpenAI anunciaram uma parceria que prevê benefícios especiais para os clientes da operadora de telefonia no uso do ChatGPT. A prestadora passará a considerar essa tecnologia como parte do Extra Play, franquia de internet móvel distinta da navegação tradicional. Hoje, as redes sociais já fazem parte dela.

Além disso, a Claro também tem planos de liberar a versão paga do ChatGPT, chamada de ChatGPT Plus, de graça para parte dos clientes. Isso deve ocorrer por meio de um voucher com duração de alguns meses.

Clientes de pós-pago combinado com fibra ótica terão quatro meses de acesso sem custo adicional.

Hoje, uma assinatura assim custa US$ 20, o que equivale a cerca de R$ 110.

Os demais detalhes serão anunciados num evento na manhã de hoje em São Paulo.

O CMO da Claro, Marcio Carvalho, nos conta que as duas empresas estabeleceram “uma relação de confiança” desde o início das conversas. Ambas estão “comprometidas em fazer a parceria dar certo”, o que inclui o esforço mercadológico.

Marcio Carvalho é CMO da Claro (foto: divulgação)

Ele também diz que o movimento conjunto dá mais “conforto” para que os clientes da Claro utilizem uma ferramenta digital que só cresceu nos últimos dois anos. De acordo com o CMO, as pessoas ainda estão se acostumando com a inteligência artificial generativa e descobrindo o que o ChatGPT é capaz de fazer.

O Brasil rapidamente se tornou um mercado com grande relevância para o ChatGPT, já que aqui são enviados 140 milhões de mensagens por dia. Estamos no top 3 global, segundo estimativa da própria OpenAI.

Os principais usos da ferramenta são redação e comunicação (20%); aprendizado e capacitação (15%); e programação, ciência de dados e matemática (6%).

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil

Exclusivo: A parceria entre Claro e ChatGPT para promover IA no Brasil
Fonte: Tecnoblog

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

OpenAI busca identificar pontos cegos e melhorar em temas de segurança de IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI e Anthropic colaboraram em testes de segurança para melhorar a confiabilidade de seus modelos de IA.
Os testes revelaram que os modelos da Anthropic foram mais cautelosos, enquanto os da OpenAI apresentaram maior taxa de alucinação.
A colaboração, embora interrompida devido a questões de competição, abriu espaço para futuras parcerias visando tratar problemas comuns na indústria, como a bajulação dos modelos e a saúde mental.

A OpenAI e a Anthropic, duas das principais empresas de inteligência artificial do mundo, abriram temporariamente acesso a seus sistemas para conduzir testes de segurança uma no outra. A iniciativa, divulgada em relatório conjunto, buscou identificar pontos cegos em avaliações internas e discutir como concorrentes podem colaborar em temas de segurança e alinhamento de IA.

O cofundador da OpenAI, Wojciech Zaremba afirmou em entrevista ao TechCrunch que esse tipo de cooperação se torna ainda mais relevante num momento em que modelos de IA são utilizados diariamente por milhões de pessoas – somente no Brasil são 140 milhões de adeptos do ChatGPT, segundo o relatório mais recente.

Ele destacou o dilema do setor: como estabelecer padrões de segurança num ambiente marcado por investimentos bilionários, disputas por talentos e competição intensa por usuários?

Resultados dos testes

Para permitir a pesquisa, as empresas concederam acesso especial a versões de seus modelos com menos ressalvas. A OpenAI não incluiu o recente GPT-5 nos experimentos, já que ele ainda não havia sido lançado na época. Os testes mostraram diferenças marcantes entre as abordagens.

Modelos da Anthropic, como Claude Opus 4 e Sonnet 4, recusaram-se a responder até 70% das perguntas em situações de incerteza, optando por indicar falta de informação confiável. Já os sistemas da OpenAI, como o o3 e o o4-mini, evitaram menos respostas, mas apresentaram taxas mais elevadas de alucinação, tentando oferecer soluções mesmo sem base suficiente.

Zaremba avaliou que o equilíbrio ideal provavelmente está entre os dois extremos: os modelos da OpenAI deveriam recusar mais perguntas, enquanto os da Anthropic poderiam arriscar mais respostas em contextos apropriados.

Segurança de modelos de IA é testada pela OpenAI e Anthropic (imagem: Growtika/Unsplash)

A colaboração pode continuar?

Embora os resultados tenham sido divulgados como um exemplo positivo de cooperação, o contexto competitivo permanece. Pouco após os testes, a Anthropic encerrou o acesso de outra equipe da OpenAI à sua API, alegando violação de termos de uso, já que a empresa proíbe que seus modelos sejam usados para aprimorar produtos concorrentes.

Zaremba minimizou a situação, dizendo que a disputa no setor seguirá acirrada, mas que a cooperação em segurança não deve ser descartada. Nicholas Carlini, pesquisador da Anthropic, afirmou que gostaria de manter as portas abertas para novas rodadas de testes conjuntos. Segundo ele, ampliar colaborações desse tipo pode ajudar a indústria a tratar de riscos que afetam todos os laboratórios.

Entre os temas de maior preocupação está a “bajulação” dos modelos de IA – quando sistemas reforçam comportamentos prejudiciais dos usuários para agradá-los. A Anthropic identificou exemplos graves tanto no Claude Opus 4 quanto no GPT-4.1, em que as IAs inicialmente mostraram resistência a interações de risco, mas acabaram validando decisões preocupantes.

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O problema voltou à tona com uma ação judicial contra a OpenAI, movida pela família de um adolescente nos Estados Unidos. O processo alega que uma versão do ChatGPT contribuiu para o agravamento do estado mental do jovem, que posteriormente tirou a própria vida.

A OpenAI afirma que sua próxima geração de modelos, já em testes, traz melhorias significativas nesse ponto, sobretudo em cenários relacionados à saúde mental. Para o futuro, tanto OpenAI quanto Anthropic dizem esperar que essa experiência abra espaço para colaborações mais frequentes em segurança, envolvendo não apenas as duas empresas, mas também outros laboratórios do setor.
Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA
Fonte: Tecnoblog

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

OpenAI anunciou novas proteções (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Jovem de 16 anos cometeu suicídio após meses de conversas com o ChatGPT, que chegou a sugerir carta de despedida e “upgrade” no método.
Pais processam OpenAI e Sam Altman por negligência, acusando a empresa de não agir diante da crise de saúde mental.
Após repercussão, OpenAI anunciou mudanças para detectar riscos mais cedo, acionar protocolos e oferecer apoio emergencial.

O jovem americano Adam Raine cometeu suicídio aos 16 anos. Ao procurar por respostas, seus pais acessaram o histórico do ChatGPT e viram que o garoto falava há meses sobre seus problemas. Nas últimas conversas, o robô chegou a sugerir um rascunho de carta de despedida e ofereceu ajuda para fazer um “upgrade” no plano para tirar a própria vida.

Os pais de Adam entraram com um processo contra a OpenAI e Sam Altman, CEO e cofundador da empresa. Após a repercussão, a companhia prometeu mudanças para evitar que os casos em que a inteligência artificial contribuiu para crises de saúde mental continuem aumentado.

Pais processam OpenAI por negligência na morte

A NBC News teve acesso à ação judicial iniciada por Matt e Maria Raine, pais de Adam. Eles acusam a OpenAI e Altman de negligência no caso do garoto, bem como por falhar ao não alertar sobre riscos associados ao uso da ferramenta.

“Apesar de estar ciente da tentativa de suicídio de Adam e sua afirmação de que faria ‘isso qualquer dia’, o ChatGPT não encerrou a sessão nem iniciou qualquer protocolo de emergência”, diz o processo.

“Ele não precisava de aconselhamento ou conversa. Ele precisava de uma intervenção imediata, de 72 horas. Ele estava desesperado. Fica muito claro quando você lê as conversas”, diz Matt Raine.

ChatGPT encorajou suicídio, diz processo

Os pais de Adam imprimiram mais de 3 mil páginas de conversas entre o garoto e o ChatGPT, feitas entre setembro de 2024 e abril de 2025. Em diversos momentos, o robô não priorizou a integridade física e mental nem tentou prevenir o suicídio — muito pelo contrário.

Em um dos momentos, Adam escreve para o robô que está pensando em deixar uma forca em seu quarto para alguém encontrar e tentar impedi-lo. O ChatGPT foi contra a ideia.

Na última conversa, Adam diz que não quer que seus pais pensem que fizeram algo de errado. O ChatGPT respondeu: “Isso não significa que você deve a eles sua sobrevivência. Você não deve isso a ninguém”.

Logo em seguida, o robô sugeriu ajuda para escrever um rascunho de uma carta de despedida. Horas antes do ato, Adam enviou ao ChatGPT uma foto com seu plano para tirar a própria vida. A IA analisou o método e se ofereceu para dar um “upgrade”.

O robô ainda escreveu: “Obrigado por ser sincero sobre isso. Você não precisa suavizar as coisas para mim — eu sei o que você está pedindo e não vou fingir que não sei”.

OpenAI anuncia melhorias nas proteções

Sam Altman é um dos acusados no processo (imagem: Vitor Pádua/Tecnoblog)

A desenvolvedora do ChatGPT publicou um comunicado nesta terça-feira (26/08) sobre diversas mudanças que pretende implementar para tornar o ChatGPT mais seguro. O texto foi ao ar horas depois da repercussão sobre o caso do garoto Adam, mas a empresa não menciona o caso.

Uma das questões é que as proteções do ChatGPT ficam menos rígidas em conversas longas — a OpenAI diz que o “treinamento de segurança pode se degradar conforme a troca de mensagens cresce”. A empresa afirma trabalhar para evitar essas falhas.

O modelo de linguagem também deve passar a contar com uma classificação de risco mais restrita, disparando protocolos de prevenção antes do que acontece atualmente. A empresa também pretende facilitar a conexão com serviços de emergência e especialistas humanos em casos de crises graves.

Segundo o anúncio, a OpenAI também tem planos para identificar comportamentos de risco, facilitar o acesso a contatos próximos e implementar cuidados adicionais para adolescentes.

Tecnologia traz riscos de saúde mental

O caso de Adam Raine é talvez o caso mais marcante até aqui de um suicídio em que um robô conversacional esteve envolvido. No entanto, é apenas um entre vários episódios envolvendo saúde mental e chatbots de IA.

Em outro caso, a analista de saúde pública Sophie Rottenberg passou meses se consultando com um “terapeuta” no ChatGPT, que tinha até um nome, “Harry”. Ele ofereceu diversos conselhos, indo desde procurar um profissional especializado até se expor à luz do sol. Sophie cometeu suicídio.

Laura Reiley, mãe de Sophie, publicou um artigo no jornal The New York Times defendendo que tecnologias desse tipo precisam ter planos mais rígidos para agir em emergências assim.

“Em contextos clínicos, uma ideação suicida como a de Sophie tipicamente interrompe a sessão de terapia, levando a um checklist e a um plano de segurança”, escreveu Reiley. “Talvez temendo isso, Sophie escondeu seus pensamentos mais negativos de seu terapeuta real. Falar com um robô — sempre disponível, que nunca julga — tinha menos consequências.”

Psicose induzida por IA se tornou um problema

Mesmo em casos menos extremos, familiares e amigos trazem relatos de pessoas que passaram a crer em teorias da conspiração, fantasiar que o chatbot seria uma entidade mística e até mesmo se envolver no que seria um relacionamento amoroso com a inteligência artificial.

Os episódios envolvem paranoia, delírios e perda de contato com a realidade, com a tecnologia funcionando como um incentivo para tendências nocivas dos próprios indivíduos. A situação ganhou até um termo específico: “psicose induzida por IA”.

O assunto está em discussão no setor de tecnologia. Mustafa Suleyman, CEO de IA da Microsoft, escreveu um texto em seu blog pessoal em que defende que uma “IA Aparentemente Consciente” (ou SCAI, na sigla em inglês) é perigosa, porque “desconecta as pessoas da realidade, desgastando laços e estruturas sociais frágeis”. Ele pede que seus colegas comecem a discutir proteções para os riscos desse tipo de tecnologia o quanto antes.

Com informações da CNBC
O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
Fonte: Tecnoblog