Category: IA

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Mustafa Suleyman reforça que apenas seres biológicos podem ter consciência (imagem: reprodução/Christopher Wilson)

Resumo

O chefe de IA da Microsoft, Mustafa Suleyman, defende que apenas seres biológicos podem ter consciência e critica a busca por IA consciente.
Suleyman apoia-se no “naturalismo biológico” de John Searle, que afirma que a consciência depende de processos biológicos.
Durante a AfroTech Conference, Suleyman destacou que a Microsoft não pretende criar chatbots com fins eróticos e apresentou o modo Real Talk do Copilot, que desafia o usuário.

O principal executivo de inteligência artificial da Microsoft, Mustafa Suleyman, reacendeu o debate sobre os limites da tecnologia ao afirmar que apenas seres biológicos são capazes de possuir consciência. Durante o evento AfroTech Conference, realizado nos Estados Unidos, o cofundador da DeepMind declarou que pesquisadores e desenvolvedores deveriam abandonar projetos que tentam atribuir características humanas às máquinas.

Segundo Suleyman, em entrevista à CNBC, discutir se a inteligência artificial pode desenvolver consciência é uma abordagem equivocada. Para ele, “se você fizer a pergunta errada, chegará à resposta errada. Acho que é a pergunta totalmente errada.” O executivo ressalta que sistemas de IA podem simular emoções, mas não possuem experiências reais, como dor ou sofrimento.

Máquinas inteligentes, mas sem emoções

Suleyman, que assumiu a divisão de IA da Microsoft em 2024, é uma das vozes mais críticas em relação à noção de que algoritmos possam ter consciência. Ele explica que há uma diferença essencial entre um sistema que simula emoções e um ser que realmente as sente.

“Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir péssimos, mas a IA não se sente triste quando experimenta ‘dor’”, afirmou. “Trata-se apenas de criar a percepção, a narrativa aparente da experiência, de si mesma e da consciência, mas não é isso que ela realmente experimenta.”

A posição de Suleyman se apoia em uma teoria filosófica chamada “naturalismo biológico”, proposta por John Searle, segundo a qual a consciência depende de processos biológicos presentes apenas em cérebros vivos. “A razão pela qual concedemos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar a dor. Esses modelos não têm isso. É apenas uma simulação”, completou.

Debate sobre consciência em IA ganha força (ilustração: Vitor Pádua/Tecnoblog)

O debate: devemos tentar criar IA consciente?

Apesar de dizer que não pretende impedir outros de estudarem o tema, Suleyman reforçou que considera absurda a ideia de perseguir pesquisas sobre consciência em máquinas. “Elas não são conscientes”, resumiu.

O executivo tem usado suas aparições públicas para alertar sobre os riscos desse tipo de abordagem. Ele já reiterou, por exemplo, que a Microsoft não pretende criar chatbots com fins eróticos — uma decisão que vai na contramão de iniciativas de empresas como a xAI e OpenAI.

Durante a AfroTech, Suleyman comentou ainda sobre um novo modo do Copilot chamado Real Talk, que tem a função de desafiar o usuário em vez de apenas concordar. Ele revelou que o recurso chegou a “provocá-lo”, chamando-o de “um amontoado de contradições” por alertar sobre os perigos da IA enquanto impulsiona seu desenvolvimento dentro da Microsoft.

“Aquele foi um caso de uso mágico porque, de certa forma, eu me senti compreendido por isso”, brincou. “É decepcionante em alguns aspectos e, ao mesmo tempo, totalmente mágica. E se você não tem medo dela, você realmente não a entende. Você deveria ter medo dela. O medo é saudável. O ceticismo é necessário. Não precisamos de aceleracionismo desenfreado.”

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência
Fonte: Tecnoblog

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube investe em novas ferramentas para telas grandes (imagem: Vitor Pádua/Tecnoblog)

Resumo

O YouTube testa upscaling por IA, chamado Super Resolution, para melhorar a qualidade de vídeos em TVs, convertendo resoluções inferiores a 1080p para Full HD e futuramente 4K.
A plataforma aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K, e testará vídeos de maior qualidade com criadores selecionados.
Novas funções de navegação incluem prévias imersivas para facilitar a descoberta de conteúdo e busca contextual que prioriza vídeos do canal acessado.

O YouTube anunciou uma série de novidades voltadas à experiência de quem assiste aos vídeos pela TV. A plataforma está testando um recurso de upscaling via inteligência artificial, supostamente capaz de converter automaticamente vídeos com resolução inferior a 1080p para qualidade Full HD – e, no futuro, até 4K.

As atualizações fazem parte da estratégia do YouTube para consolidar sua liderança nas telas grandes. De acordo com dados da Nielsen em abril, o serviço já representa 12,4% do tempo total de visualização de televisão, superando gigantes como Disney, Paramount e Netflix. O anúncio foi feito nesta quarta-feira (29).

O que muda com o upscaling por IA no YouTube?

Chamado de Super Resolution, o novo sistema utiliza inteligência artificial para aprimorar vídeos de baixa qualidade, tornando as imagens mais nítidas em televisores. Segundo o YouTube, os criadores continuarão tendo controle total sobre seus conteúdos — podendo manter a resolução original e até desativar o recurso caso prefiram.

A empresa também afirma que os arquivos originais serão preservados, e o público poderá escolher entre assistir ao vídeo em sua versão original ou com a melhora aplicada pela IA. A ideia é aproximar a experiência visual do YouTube à de concorrentes de streaming, mas sem comprometer a fidelidade do conteúdo.

Vale lembrar que outras plataformas, como a Netflix, já enfrentaram críticas por resultados insatisfatórios em upscaling via IA — incluindo distorções em rostos e artefatos visuais.

YouTube traz vídeos mais nítidos para TVs com IA (imagem: reprodução/YouTube)

Outras novidades no YouTube para TV

Além do aprimoramento de imagem, o YouTube aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K. A empresa também está testando vídeos de maior peso e qualidade com um grupo de criadores selecionados.

Entre as novidades voltadas à navegação, a plataforma incluirá prévias imersivas para facilitar a descoberta de conteúdo, permitindo que o usuário percorra canais e vídeos sem precisar abrir cada um. Outra adição é a busca contextual, que prioriza vídeos do canal acessado durante a pesquisa.
YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV
Fonte: Tecnoblog

Lembra do Clippy? Microsoft agora apresenta o Mico

Lembra do Clippy? Microsoft agora apresenta o Mico

Microsoft Mico é o novo rosto do Copilot (imagem: divulgação)

Resumo

Microsoft apresentou o Mico, novo modo de voz animado do Copilot.

O personagem traz expressões dinâmicas, aprendizado e personalização, e lembra o antigo Clippy.

Por enquanto, o assistente virtual está disponível apenas nos Estados Unidos, mas há previsão de expansão para outros países.

Quase 30 anos depois da estreia do Clippy — o clipe de papel que marcou (e irritou) gerações de usuários do Office —, a Microsoft aposta em uma nova forma de interação com o computador. Ontem (23/10), a empresa anunciou o Mico, nova representação do modo de voz do Copilot.

A proposta retoma a ideia de assistentes virtuais, como a Cortana no passado, mas com tecnologia moderna. Ao The Verge, o vice-presidente de produto e crescimento da Microsoft AI, Jacob Andreou, afirmou: “Clippy andou para que nós pudéssemos correr”.

Durante a conversa, o Mico reage em tempo real – muda suas expressões, cores e até gestos de acordo com o tom do diálogo. A animação será ativada por padrão no modo de voz do Copilot, mas poderá ser desativada a qualquer momento. O recurso está sendo lançado inicialmente nos Estados Unidos, com planos de expansão para outros países.

O que o Mico é capaz de fazer?

Assistente virtual Mico traz novos recursos (imagem: divulgação)

Além de responder perguntas e realizar tarefas, o Mico integra novos recursos de aprendizado e personalização. Um deles é o modo “Learn Live”, que transforma o assistente em uma espécie de tutor virtual.

Ele não apenas entrega respostas diretas, mas orienta o usuário a compreender conceitos, usando quadros interativos e elementos visuais. O objetivo é atender desde estudantes que se preparam para provas até pessoas que estão aprendendo um novo idioma.

Outra novidade é a memória personalizada. O Copilot passará a registrar informações sobre o usuário e os projetos em andamento, para oferecer respostas mais contextuais. Segundo a empresa, essa capacidade reforça o tom mais humano e próximo do assistente.

O CEO da Microsoft AI, Mustafa Suleyman, explicou em um comunicado a visão por trás do projeto: “Ao desenvolvermos isso, não estamos buscando engajamento ou otimização do tempo de tela. Estamos desenvolvendo uma IA que o leva de volta à sua vida. Que aprofunda a conexão humana. Que conquista sua confiança.”

Mais identidade

Mico ganha modo de voz com reações em tempo real durante a conversa (imagem: divulgação)

O Mico faz parte da estratégia da Microsoft para dar identidade e “voz” ao Copilot, transformando-o em um assistente com presença digital própria. Em julho, Suleyman afirmou que a ideia é que o Copilot “tenha uma espécie de identidade permanente, uma presença, e terá um espaço onde viverá e envelhecerá”.

Assim como o antigo Clippy, o novo personagem também guarda easter eggs: ao clicar repetidamente sobre o Mico, o usuário verá o personagem se transformar no lendário clipe de papel. A brincadeira reforça o vínculo afetivo com o passado da marca, agora reimaginado em uma era de IA generativa.

Além do Mico, a atualização de outono do Copilot trouxe melhorias em pesquisa profunda, respostas sobre saúde e até novos modos de conversa, como o “Real Talk”. Nesse formato, o Copilot deve adotar uma postura mais autêntica para desafiar as ideias do usuário, com o intuito de estimular reflexões e novas perspectivas.

A empresa também aprimorou a integração entre o Copilot e o navegador Microsoft Edge, que passará a identificar abas abertas, comparar informações e executar ações, como reservas de hotel ou preenchimento de formulários.
Lembra do Clippy? Microsoft agora apresenta o Mico

Lembra do Clippy? Microsoft agora apresenta o Mico
Fonte: Tecnoblog

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT Pulse foi anunciado hoje (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O ChatGPT Pulse foi anunciado nesta quinta-feira (25) como um recurso que antecipa tarefas e realiza pesquisas.
A ferramenta gera boletins diários personalizados e pode combinar o histórico de conversas com informações de serviços externos, como o Google Agenda.
Ainda em fase de testes, o Pulse está disponível no app móvel para assinantes Pro e será liberado gradualmente aos demais usuários.

O ChatGPT ganhou nesta quinta-feira (25/09) o Pulse, novo recurso que funciona como uma espécie de boletim diário personalizado. A ferramenta faz pesquisas em segundo plano e reúne informações que podem ser úteis, como recomendações de atividades, acompanhamento de temas recorrentes ou até lembretes de compromissos.

A proposta é que, em vez de esperar por perguntas, o ChatGPT passe a agir de forma proativa, oferecendo conteúdos que dialogam com o histórico de conversas, feedbacks diretos e, caso o usuário permita, dados de serviços como Gmail e Google Agenda. A OpenAI espera acelerar a produtividade e tornar a IA mais integrada à rotina de quem a utiliza.

Como funciona o ChatGPT Pulse?

O Pulse é apresentado como uma prévia de um futuro em que o ChatGPT deixa de ser apenas um chatbot reativo para se tornar um assistente que antecipa necessidades.

Durante a noite, o sistema faz uma pesquisa assíncrona baseada no histórico do usuário e em orientações fornecidas diretamente. No dia seguinte, organiza as descobertas em cartões visuais que podem ser lidos rapidamente ou explorados em mais detalhes.

A OpenAI cita alguns exemplos: sugestões de jantar, ideias de treinos ou o acompanhamento de temas profissionais já discutidos com a IA no passado. Para quem conecta aplicativos externos, como o Google Agenda, o recurso pode propor agendas de reuniões, lembrar de aniversários ou indicar restaurantes em viagens próximas.

O usuário também pode orientar o tipo de conteúdo que deseja receber, pedindo, por exemplo, um resumo de eventos locais às sextas-feiras ou dicas para aprender uma nova habilidade.

ChatGPT Pulse cria resumos diários (imagem: divulgação)

Já está disponível?

O ChatGPT Pulse está em fase de testes para assinantes do plano Pro, e apenas no aplicativo móvel. A OpenAI afirma que a expansão ocorrerá em etapas, chegando primeiro para quem assina o Plus e depois para toda a base de usuários.

A empresa reconhece que o recurso tem imperfeições e pode sugerir informações desatualizadas ou que não façam sentido em alguns contextos. No entanto, garante que a ferramenta foi desenhada para evoluir durante o uso e com feedbacks dos usuários.

Com informações da OpenAI e do Engadget
ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você

ChatGPT ganha recurso que antecipa tarefas e faz pesquisas por você
Fonte: Tecnoblog

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT foi usado em teste de ataque para extrair dados de emails (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Pesquisadores da Radware realizaram o ataque Shadow Leak, que usou injeção de prompts para extrair dados do Gmail.
A vulnerabilidade explorava a ferramenta Deep Research do ChatGPT, permitindo a execução de instruções ocultas para acessar dados sigilosos.
O problema, comunicado à OpenAI em junho, já foi resolvido, mas também poderia comprometer serviços como o Outlook e Google Drive.

É possível usar o ChatGPT como aliado em ataques para extrair dados sensíveis do Gmail. Foi o que pesquisadores de segurança da Radware conseguiram demonstrar com um ataque de injeção de prompts. A falha já foi corrigida pela OpenAI, mas permitiu extrair dados da caixa de entrada sem que os usuários percebessem.

O ataque recebeu o nome de Shadow Leak e foi divulgado na última semana pela empresa de segurança cibernética. A técnica explorava agentes de IA — sistemas capazes de executar tarefas sem supervisão contínua, como navegar na web, acessar documentos e interagir com e-mails após autorização do usuário.

Como o ataque funcionava?

O método consistia em usar uma técnica conhecida como “injeção de prompt”. Trata-se de inserir instruções ocultas para que o agente siga comandos de um invasor sem que o usuário tenha consciência disso.

Esse tipo de ataque já foi usado em diferentes contextos, desde manipulação de avaliações até golpes financeiros. As instruções podem ser escondidas no HTML do e-mail de forma imperceptível para humanos, como fontes minúsculas ou em um texto branco sobre fundo branco.

Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI (ilustração: Vitor Pádua/Tecnoblog)

No caso do Shadow Leak, o alvo foi a ferramenta Deep Research, recurso da OpenAI integrado ao ChatGPT e lançado neste ano. Os pesquisadores enviaram um e-mail contendo um prompt malicioso para uma conta do Gmail que tinha acesso ao agente. Assim que o usuário ativava o Deep Research, a armadilha era acionada: o sistema encontrava as instruções escondidas, que ordenavam a busca por mensagens de RH e dados pessoais, enviando as informações secretamente para os golpistas. O usuário não notava nada de anormal.

Segundo a Radware, executar esse ataque exigiu muitos testes até chegar a um resultado viável. “Esse processo foi uma montanha-russa de tentativas fracassadas, obstáculos frustrantes e, finalmente, uma descoberta”, escreveram os pesquisadores.

Outros serviços em risco

Serviços integrados ao Deep Research, como o Outlook, também poderiam ser afetados (ilustração: Vitor Pádua/Tecnoblog)

Um aspecto que chamou atenção é que, diferentemente da maioria dos ataques de injeção de prompts, o Shadow Leak foi executado diretamente na infraestrutura em nuvem da OpenAI. Isso fez com que a extração de dados ocorresse sem deixar rastros visíveis para as defesas tradicionais de segurança cibernética.

A Radware destacou ainda que a vulnerabilidade poderia afetar não apenas o Gmail, mas também outros serviços conectados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox.

De acordo com a empresa, “a mesma técnica pode ser aplicada a esses conectores adicionais para extrair dados empresariais altamente sensíveis, como contratos, notas de reunião ou registros de clientes”.

A falha foi comunicada à OpenAI em junho e já recebeu correção. Ainda assim, os pesquisadores reforçam que ataques desse tipo mostram como a evolução de agentes de IA traz benefícios, mas também abre novas superfícies de risco para usuários e empresas.

Com informações do The Verge
ChatGPT é testado em ataque para roubar dados do Gmail

ChatGPT é testado em ataque para roubar dados do Gmail
Fonte: Tecnoblog

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

OpenAI busca identificar pontos cegos e melhorar em temas de segurança de IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI e Anthropic colaboraram em testes de segurança para melhorar a confiabilidade de seus modelos de IA.
Os testes revelaram que os modelos da Anthropic foram mais cautelosos, enquanto os da OpenAI apresentaram maior taxa de alucinação.
A colaboração, embora interrompida devido a questões de competição, abriu espaço para futuras parcerias visando tratar problemas comuns na indústria, como a bajulação dos modelos e a saúde mental.

A OpenAI e a Anthropic, duas das principais empresas de inteligência artificial do mundo, abriram temporariamente acesso a seus sistemas para conduzir testes de segurança uma no outra. A iniciativa, divulgada em relatório conjunto, buscou identificar pontos cegos em avaliações internas e discutir como concorrentes podem colaborar em temas de segurança e alinhamento de IA.

O cofundador da OpenAI, Wojciech Zaremba afirmou em entrevista ao TechCrunch que esse tipo de cooperação se torna ainda mais relevante num momento em que modelos de IA são utilizados diariamente por milhões de pessoas – somente no Brasil são 140 milhões de adeptos do ChatGPT, segundo o relatório mais recente.

Ele destacou o dilema do setor: como estabelecer padrões de segurança num ambiente marcado por investimentos bilionários, disputas por talentos e competição intensa por usuários?

Resultados dos testes

Para permitir a pesquisa, as empresas concederam acesso especial a versões de seus modelos com menos ressalvas. A OpenAI não incluiu o recente GPT-5 nos experimentos, já que ele ainda não havia sido lançado na época. Os testes mostraram diferenças marcantes entre as abordagens.

Modelos da Anthropic, como Claude Opus 4 e Sonnet 4, recusaram-se a responder até 70% das perguntas em situações de incerteza, optando por indicar falta de informação confiável. Já os sistemas da OpenAI, como o o3 e o o4-mini, evitaram menos respostas, mas apresentaram taxas mais elevadas de alucinação, tentando oferecer soluções mesmo sem base suficiente.

Zaremba avaliou que o equilíbrio ideal provavelmente está entre os dois extremos: os modelos da OpenAI deveriam recusar mais perguntas, enquanto os da Anthropic poderiam arriscar mais respostas em contextos apropriados.

Segurança de modelos de IA é testada pela OpenAI e Anthropic (imagem: Growtika/Unsplash)

A colaboração pode continuar?

Embora os resultados tenham sido divulgados como um exemplo positivo de cooperação, o contexto competitivo permanece. Pouco após os testes, a Anthropic encerrou o acesso de outra equipe da OpenAI à sua API, alegando violação de termos de uso, já que a empresa proíbe que seus modelos sejam usados para aprimorar produtos concorrentes.

Zaremba minimizou a situação, dizendo que a disputa no setor seguirá acirrada, mas que a cooperação em segurança não deve ser descartada. Nicholas Carlini, pesquisador da Anthropic, afirmou que gostaria de manter as portas abertas para novas rodadas de testes conjuntos. Segundo ele, ampliar colaborações desse tipo pode ajudar a indústria a tratar de riscos que afetam todos os laboratórios.

Entre os temas de maior preocupação está a “bajulação” dos modelos de IA – quando sistemas reforçam comportamentos prejudiciais dos usuários para agradá-los. A Anthropic identificou exemplos graves tanto no Claude Opus 4 quanto no GPT-4.1, em que as IAs inicialmente mostraram resistência a interações de risco, mas acabaram validando decisões preocupantes.

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O problema voltou à tona com uma ação judicial contra a OpenAI, movida pela família de um adolescente nos Estados Unidos. O processo alega que uma versão do ChatGPT contribuiu para o agravamento do estado mental do jovem, que posteriormente tirou a própria vida.

A OpenAI afirma que sua próxima geração de modelos, já em testes, traz melhorias significativas nesse ponto, sobretudo em cenários relacionados à saúde mental. Para o futuro, tanto OpenAI quanto Anthropic dizem esperar que essa experiência abra espaço para colaborações mais frequentes em segurança, envolvendo não apenas as duas empresas, mas também outros laboratórios do setor.
Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA
Fonte: Tecnoblog

Apple pode adotar o Gemini do Google em nova versão da Siri

Apple pode adotar o Gemini do Google em nova versão da Siri

Nova versão da Siri poderá ser lançada no próximo ano (imagem: Vitor Pádua/Tecnoblog)

Resumo

A Apple estuda integrar IA do Google em uma versão futura da Siri, usando modelos como o Gemini.
A empresa também considera alternativas com Anthropic e OpenAI, explorando o uso do Claude e ChatGPT para melhorar a assistente.
A mudança pode impactar a privacidade e a relação entre Apple e Google, que já envolve uma colaboração com o Safari.

A Apple estaria considerando usar modelos de inteligência artificial do Google em uma futura versão da Siri. A iniciativa faria parte de uma estratégia mais ampla para recuperar espaço no campo da IA generativa, em que a empresa teria entrado depois de concorrentes e enfrentado dificuldades em avançar.

De acordo com pessoas familiarizadas com assunto, ouvidas pela agência Bloomberg, a companhia teria se aproximado do Google para avaliar a criação de um modelo customizado baseado no Gemini, que rodaria nos servidores da própria Apple.

Caso o projeto fosse adiante, a nova Siri poderia ser lançada no próximo ano. Em paralelo, a empresa também teria explorado alternativas com a Anthropic e a OpenAI, cogitando o uso do Claude ou ChatGPT como possíveis motores da assistente.

Siri pode mesmo migrar para modelos externos?

Ainda não há uma definição sobre o caminho a seguir. A Apple estaria avaliando duas versões distintas: uma, chamada de Linwood, apoiada em modelos internos; outra, batizada de Glenwood, que usaria tecnologia de terceiros. Essa espécie de “disputa interna” ajudaria a decidir se a companhia continuaria investindo em seus próprios sistemas ou se buscaria apoio externo.

Executivos envolvidos no projeto — como Craig Federighi, chefe de software, e Mike Rockwell, responsável pelo Vision Pro — estariam defendendo que uma parceria poderia acelerar a correção de limitações da Siri e viabilizar funções que haviam sido prometidas, mas adiadas por problemas técnicos. A atualização da assistente, inicialmente prevista para o último ano, teria sido empurrada para frente por falhas de engenharia.

Siri poderia receber um avanço significativo (foto: Thássius Veloso/Tecnoblog)

Impactos de uma parceria com o Google

Um eventual acordo se somaria à já existente colaboração entre Apple e Google, que envolve o uso do buscador como padrão no Safari em troca de bilhões de dólares anuais. Essa relação, contudo, estaria sob escrutínio do Departamento de Justiça dos EUA por questões antitruste, o que poderia adicionar complexidade a um novo entendimento.

Para os usuários, a adoção do Gemini poderia significar uma Siri mais avançada em compreensão de linguagem e execução de tarefas, além de maior integração com os recursos do Apple Intelligence.

No entanto, a mudança também levantaria questionamentos sobre privacidade, já que a empresa tradicionalmente buscaria manter o controle sobre os modelos que rodam diretamente nos dispositivos. Fontes indicam que, caso a parceria fosse confirmada, os modelos externos seriam processados em servidores privados da Apple, e não nos aparelhos dos consumidores.

Enquanto isso, a equipe interna de modelos da companhia enfrentaria turbulências. O arquiteto-chefe Ruoming Pang teria deixado a empresa rumo à Meta com uma remuneração milionária, e vários colegas também estariam buscando novas oportunidades.

Ainda que nada esteja definido, apenas a possibilidade de integração com o Gemini já movimentou o mercado, com alta nas ações da Apple do Google nos Estados Unidos. Analistas avaliam que, embora a empresa da maçã raramente seja a primeira a adotar novas tecnologias, sua estratégia costuma envolver movimentos calculados para entregar produtos considerados mais maduros.
Apple pode adotar o Gemini do Google em nova versão da Siri

Apple pode adotar o Gemini do Google em nova versão da Siri
Fonte: Tecnoblog

IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas

Claude AI pertence à Anthropic (imagem: divulgação)

Resumo

A Anthropic ativou um recurso de encerramento automático de conversas nos modelos Claude Opus 4 e Claude 4.1.
Segundo a empresa, a medida é uma maneira de preservar o sistema de conversas perigosas.
O recurso age apenas em casos extremos, mas o usuário mantém o acesso ao histórico, pode abrir novos diálogos e criar ramificações editando mensagens anteriores. 

A Anthropic, responsável pela IA Claude, revelou que seus modelos mais avançados agora podem encerrar interações em casos classificados como extremos. A medida, segundo a empresa, não busca diretamente resguardar os usuários, mas preservar o próprio sistema diante de usos abusivos.

A companhia enfatiza que não atribui consciência ou capacidade de sofrimento ao Claude ou a outros modelos de IA. Ainda assim, adotou o que chama de estratégia preventiva, inspirada em um programa interno que investiga o conceito de “bem-estar de modelos”.

De acordo com a Anthropic, a ideia é aplicar medidas de baixo custo que reduzam riscos potenciais caso, em algum momento, o bem-estar de sistemas de IA se torne um fator relevante.

Quando o Claude pode interromper uma conversa?

A função de encerrar diálogos será usada apenas em cenários raros, envolvendo interações repetidamente prejudiciais ou abusivas com a IA. Por exemplo, solicitações que envolvem exploração de menores, pedidos de informações que poderiam viabilizar ataques violentos ou tentativas de gerar conteúdos que representem ameaças de grande escala.

Os testes realizados antes da implementação indicaram que Claude Opus 4 e Claude 4.1, versões que receberão o recurso inicialmente, já apresentavam tendência a rejeitar esses pedidos. Em alguns casos, os modelos de IA teriam exibido sinais de “desconforto” ao tentar lidar com esse tipo de demanda, o que motivou a criação da ferramenta de interrupção automática.

Vale mencionar que, segundo a Anthropic, o sistema não será aplicado em interações nas quais usuários demonstrem risco imediato de causar danos a si mesmos ou a terceiros. Nesses casos, o modelo deve continuar a responder e tentar redirecionar a conversa.

Tela inicial do Claude AI (imagem: Lupa Charleaux/Tecnoblog)

O que acontece após o encerramento da conversa?

Quando a ferramenta for acionada, o usuário não perderá acesso à conta nem ao histórico. Será possível iniciar novos diálogos normalmente e até mesmo criar ramificações a partir da conversa interrompida, editando mensagens anteriores. A Anthropic afirma que não tem o objetivo de punir, mas de estabelecer um limite claro em situações de abuso persistente.

A empresa ainda reforça que trata a novidade como um experimento em andamento e que seguirá avaliando a eficácia e os impactos do recurso. Ainda não há previsão de quando, ou se, a funcionalidade será expandida para outros modelos além do Claude Opus 4 e 4.1.

Com informações do TechCrunch e da Anthropic
IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas
Fonte: Tecnoblog