Category: Anthropic

Claude agora pode controlar seu Mac pelo iPhone

Claude agora pode controlar seu Mac pelo iPhone

Novidade ainda é restrita ao ecossistema Apple (imagem: reprodução/Anthropic)

Resumo

Anthropic atualiza ferramentas Claude Cowork e Claude Code com controle remoto de Mac.
IA agora pode executar ações no macOS e automatizar tarefas complexas mesmo à distância.
Por enquanto, funcionalidade é restrita ao ecossistema Apple e chega em preview para assinantes pagos.

A Anthropic anunciou uma atualização de peso para as ferramentas Claude Cowork e Claude Code. A inteligência artificial da empresa agora consegue assumir o controle de um Mac remotamente para executar tarefas. O recurso permite que a IA aponte, clique, digite e até navegue pela interface do macOS, concluindo tarefas mesmo longe do computador.

A novidade funciona integrada ao Dispatch, outra funcionalidade recente que viabiliza a atribuição de processos entre diferentes aparelhos. Segundo a Anthropic, o sistema funciona da seguinte maneira: um usuário pode solicitar uma tarefa complexa ao Claude pelo aplicativo para iPhone; em seguida, a IA executa os comandos necessários no Mac que ficou em casa ou no escritório.

O modelo foi desenhado para atuar como um assistente. Em uma das demonstrações publicadas no YouTube, a IA recebe a instrução para exportar uma apresentação de vendas no formato PDF e anexá-la a um convite de reunião. A partir daí, o Claude realiza os cliques na interface do sistema de forma independente.

Como o Claude navega pelos aplicativos?

Para interagir com o sistema, o Claude prioriza integrações diretas com ferramentas como Slack ou Google Agenda. Quando essas pontes não existem, a IA passa a interpretar e controlar a tela. Ela rola páginas, clica em botões, abre arquivos e usa o navegador como um humano. O único requisito técnico é que o aplicativo desktop do Claude esteja aberto no macOS.

Apesar do avanço, a desenvolvedora é transparente quanto às atuais limitações. A Anthropic ressalta que o uso de computadores por modelos de IA ainda está em um estágio inicial e a ferramenta pode cometer erros de execução ou necessitar de uma segunda tentativa para finalizar comandos difíceis.

Para reduzir riscos, a IA sempre solicitará o aval do usuário antes de acessar um aplicativo novo ou instalar ferramentas. A companhia também implementou um sistema de verificação automático focado em detectar e neutralizar atividades perigosas. Outra recomendação oficial é evitar expor o recurso a dados sensíveis ou confidenciais, pelo menos neste período inicial.

A novidade já está disponível em formato de pré-visualização (preview) para assinantes dos planos pagos Claude Pro e Claude Max.

Claude solicita permissão do usuário para acessar novos aplicativos (imagem: reprodução/Anthropic)

Recurso segue tendência do OpenClaw

A nova funcionalidade do Claude segue uma tendência do mercado de agentes autônomos, esbarrando em comparações com o OpenClaw. O projeto de código aberto viralizou no início de 2026 por se conectar a aplicativos de mensagens, como WhatsApp e Telegram, utilizando um sistema baseado em plugins (“skills”) para automação e gerenciamento de arquivos.

Mas, aqui, há uma diferença no ecossistema. Enquanto o OpenClaw é multiplataforma (suportando macOS, Windows e Linux) e altamente personalizável, a versão da Anthropic aposta em um ambiente mais restritivo e controlado, rodando, até o momento, apenas nos computadores da Apple.

A atualização reforça a lista de melhorias da Anthropic, que também liberou recentemente uma ferramenta oficial de importação de memória. Ela permite transferir históricos de conversas de outras IAs concorrentes, eliminando a necessidade de começar do zero após migrar de serviço.
Claude agora pode controlar seu Mac pelo iPhone

Claude agora pode controlar seu Mac pelo iPhone
Fonte: Tecnoblog

Claude ganha “lousa” para dar explicações com desenhos e diagramas

Claude ganha “lousa” para dar explicações com desenhos e diagramas

Recursos gráficos estão disponíveis para todos os usuários (imagem: divulgação)

Resumo

O Claude, da Anthropic, agora gera tabelas, gráficos e diagramas usando HTML e SVG, disponível para todos os usuários.
A ferramenta visual pode ser ativada por pedido do usuário ou quando o Claude julgar necessário, oferecendo explicações visuais detalhadas.
O anúncio da “lousa” do Claude ocorreu dois dias após a OpenAI lançar recurso semelhante para o ChatGPT.

O chatbot de inteligência artificial Claude, da Anthropic, ganhou uma ferramenta para gerar tabelas, gráficos, diagramas e outros elementos visuais como parte de suas respostas. A novidade está disponível para todos os usuários, sejam assinantes de planos pagos ou não.

A Anthropic diz que o recurso não é um gerador de imagens. Em vez disso, o Claude usa códigos HTML e gráficos vetoriais em SVG para dar explicações visuais. Para a empresa, é como se o robô tivesse ganhado uma lousa.

Como funciona a ferramenta visual do Claude?

O recurso de geração de diagramas pode entrar em cena a partir de um pedido explícito do usuário ou quando o Claude julgar que uma demonstração visual é mais adequada na hora de dar uma resposta.

No vídeo de apresentação da ferramenta, a Anthropic mostra instruções de construção, simulações de luz e sombra, linhas do tempo e fluxogramas de decisão como demonstrações do que é possível fazer.

A CNET, por exemplo, conseguiu que o Claude fornecesse instruções visuais sobre como trocar um pneu. Por aqui, eu abri o chatbot para testar a ferramenta e ele já saiu com uma demonstração interativa de juros compostos.

Também pedi para mostrar o que é o esquema tático 4-2-3-1 no futebol e ele cumpriu a tarefa com sucesso. Parece bobo, mas geradores de imagem costumam erram, colocando jogadores a mais ou a menos.

Claude gera gráfico em HTML e SVG, diferente de uma imagem comum (imagem: Giovanni Santa Rosa/Tecnoblog)

ChatGPT recebeu recurso parecido

O anúncio da “lousa” do Claude foi feito na quinta-feira (12/03), dois dias após a OpenAI lançar uma ferramenta semelhante para o ChatGPT. O chatbot concorrente agora consegue explicar conceitos de ciências e matemática usando recursos visuais — alguns exemplos são o Teorema de Pitágoras e a Lei de Ohm.

O Claude conseguiu atrair a atenção de usuários do ChatGPT nas últimas semanas, após as duas empresas se envolverem em polêmicas com o Departamento de Defesa dos Estados Unidos. A Anthropic, inclusive, criou uma ferramenta para importar memórias e configurações de outros chatbots.

Com informações do Engadget e da CNET
Claude ganha “lousa” para dar explicações com desenhos e diagramas

Claude ganha “lousa” para dar explicações com desenhos e diagramas
Fonte: Tecnoblog

Firefox corrige 22 falhas de segurança encontradas por IA

Firefox corrige 22 falhas de segurança encontradas por IA

Firefox recebeu correções para falhas identificadas por IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Mozilla corrigiu 22 falhas de segurança do navegador Firefox com a ajuda do Claude, da Anthropic.
A IA identificou vulnerabilidades no código do navegador, incluindo uma falha do tipo use-after-free.
Ao todo, a equipe da Anthropic enviou 112 relatórios de bugs ao longo de duas semanas.

A Mozilla corrigiu 22 falhas críticas de segurança no Firefox com a ajuda da IA Claude, da Anthropic. O resultado foi divulgado pela organização na sexta-feira (06/03), que detalhou o uso do modelo Opus 4.6 para analisar o código do navegador.

Segundo os dados divulgados, a equipe da Anthropic enviou 112 relatórios de bugs em cerca de duas semanas. Desse total, 14 consideradas de alta gravidade, além dos 22 classificados como vulnerabilidades de segurança. Os demais casos envolveram problemas como travamentos ou erros de lógica que poderiam afetar a estabilidade do navegador.

As correções foram incluídas no Firefox 148, liberado em fevereiro.

Como a IA encontrou vulnerabilidades no navegador?

Durante o experimento, pesquisadores do Frontier Red Team da Anthropic usaram o Claude Opus 4.6 para examinar partes do código do Firefox em busca de falhas inéditas. O processo começou com a tentativa de reproduzir vulnerabilidades já conhecidas em versões antigas do navegador, para verificar se o modelo conseguiria identificar padrões semelhantes.

Depois dessa etapa, o sistema foi orientado a procurar problemas inéditos na versão atual do navegador. A análise começou pelo mecanismo JavaScript, considerado um componente crítico por lidar com códigos executados ao navegar na web.

Em pouco tempo, o modelo identificou uma falha do tipo use-after-free, relacionada ao gerenciamento de memória. O problema foi reproduzido em ambiente de testes e relatado oficialmente ao projeto por meio do sistema Bugzilla — os engenheiros da Mozilla validaram as descobertas da IA.

Modelo de IA Claude foi usado para identificar problemas no código do Firefox (imagem: divulgação)

IA não consegue explorar essas falhas

Apesar da eficiência em encontrar problemas, os testes indicam que transformar essas vulnerabilidades em ataques reais é mais difícil para o modelo de inteligência artificial.

Pesquisadores pediram ao Claude que tentasse criar códigos capazes de explorar as falhas encontradas por ele. Após centenas de tentativas, o sistema conseguiu produzir um exploit funcional apenas em dois casos — e ainda assim em ambientes de teste com proteções reduzidas.

Ao site Axios, o engenheiro sênior da Mozilla, Brian Grinstead, afirmou que mesmo falhas classificadas como graves não são suficientes, sozinhas, para comprometer o navegador. “Não é porque você encontra uma única vulnerabilidade, mesmo uma vulnerabilidade grave, que ela é suficiente para hackear o Firefox”, disse.

Firefox corrige 22 falhas de segurança encontradas por IA

Firefox corrige 22 falhas de segurança encontradas por IA
Fonte: Tecnoblog

Usuários abandonam ChatGPT e migram para Claude após polêmica nos EUA

Usuários abandonam ChatGPT e migram para Claude após polêmica nos EUA

ChatGPT sofre debandada de usuários após acordo com governo dos EUA (imagem: Vitor Pádua/Tecnoblog)

Resumo

Após a parceria da OpenAI com o Departamento de Defesa dos EUA, as desinstalações do ChatGPT aumentaram 295%, segundo a Sensor Tower.
O Claude, da Anthropic, subiu para o primeiro lugar na App Store americana, superando o ChatGPT, após a Anthropic recusar colaboração com o DoD.
O Claude liderou downloads em sete países e os cadastros diários quebraram recordes, com crescimento de mais de 60% nos usuários gratuitos desde janeiro.

Depois que a OpenAI anunciou uma parceria com o Departamento de Defesa dos Estados Unidos (DoD), as desinstalações do app ChatGPT cresceram 295%, segundo dados da plataforma de análise de mercado Sensor Tower. No mesmo período, o Claude, da Anthropic, escalou o ranking da App Store americana e chegou ao primeiro lugar, ultrapassando o maior concorrente.

A movimentação ocorre durante um impasse das duas empresas sobre fornecer tecnologia para o governo norte-americano. Dias antes do anúncio da OpenAI, a Anthropic havia se recusado a permitir que suas IAs fossem usadas pelo DoD para vigilância doméstica em massa ou para armas autônomas — sistemas que disparariam sem intervenção humana.

Pouco depois, a OpenAI foi na direção oposta e fechou seu próprio acordo com o Pentágono. O CEO Sam Altman disse que o contrato inclui salvaguardas relacionadas às preocupações de Dario Amodei, chefe da Anthropic.

Claude no topo

Claude cresceu nas lojas de App (imagem: divulgação)

Segundo dados da Sensor Tower, o Claude estava fora do top 100 no final de janeiro e passou parte do mês de fevereiro entre os 20 mais baixados. Entretanto, na última semana, a escalada foi rápida: sexto na quarta-feira, quarto na quinta, e primeiro na noite de sábado.

Já dados do Appfigures apontam que o total diário de downloads do Claude no sábado superou o do ChatGPT pela primeira vez, com um salto de 88% de um dia para o outro. Além do mercado norte-americano, o aplicativo da Anthropic também assumiu a primeira posição entre os apps gratuitos para iPhone em seis outros países: Alemanha, Bélgica, Canadá, Luxemburgo, Noruega e Suíça.

De acordo com a Anthropic, os cadastros diários quebraram o recorde histórico todos os dias durante a semana, o número de usuários gratuitos cresceu mais de 60% desde janeiro e os assinantes pagos mais que dobraram.

Com a mudança de plataforma, muitos ex-usuários da OpenAI têm recorrido ao novo processo de transferir dados do ChatGPT para o Claude.

O que aconteceu?

Pentágono, sede do Departamento de Defesa dos EUA (Imagem: Thomas Hawk / Flickr)

A disputa entre a Anthropic e o Pentágono não era sobre se a empresa deveria ou não trabalhar com o governo, mas sobre os termos. De acordo com a desenvolvedora do Claude, as IAs da empresa ainda não têm capacidade para operar com segurança em cenários de lethal autonomy, nome dado a sistemas que tomam decisões de ataque sem supervisão humana.

Pete Hegseth, secretário de Defesa dos EUA, rebateu que o DoD não deveria ser limitado pelas políticas internas de um fornecedor, e que qualquer “uso legal” da tecnologia deveria ser permitido. Após o posicionamento da companhia, o presidente Donald Trump ordenou que agências do governo parassem de usar produtos da Anthropic.

A OpenAI diz em comunicado que também determinou áreas nas quais a IA não poderá ser usada, entre elas vigilância doméstica, sistemas de armas autônomas e sistemas como os de crédito social. Altman, no entanto, admitiu no X que o acordo foi apressado.
Usuários abandonam ChatGPT e migram para Claude após polêmica nos EUA

Usuários abandonam ChatGPT e migram para Claude após polêmica nos EUA
Fonte: Tecnoblog

Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC

Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC

Nova versão também preenche formulários como um humano (imagem: reprodução/Anthropic)

Resumo

O Claude Sonnet 4.6, lançado pela Anthropic, supera o Opus 45 em tarefas práticas e benchmarks, com foco em produtividade e uso autônomo de computadores.
O modelo melhora a execução em ambientes reais, com interações avançadas em sistemas operacionais e softwares, além de expandir a janela de contexto para 1 milhão de tokens.
O Sonnet 4.6 apresenta menos alucinações e melhor consistência em lógica de programação, com suporte a conectores MCP no Excel e reforço em segurança contra ataques de injeção de prompt.

A Anthropic anunciou nesta terça-feira (17) o lançamento do Claude Sonnet 4.6, a mais nova versão de seu modelo de inteligência artificial intermediário. O anúncio ocorre cerca de quatro meses após a última atualização da linha e já está disponível globalmente. O Sonnet 4.6 assume o posto de padrão para usuários dos planos Free e Pro no site claude.ai e no Claude Cowork, além de chegar simultaneamente à API da empresa e principais plataformas de nuvem, como AWS e Google Cloud.

O lançamento foca em produtividade e foi otimizado especificamente para tarefas de codificação, instruções complexas e – o maior diferencial desta versão – uso autônomo de computadores.

O que muda no Claude Sonnet 4.6?

O novo modelo apresenta avanços importantes em benchmarks que medem a capacidade de execução em ambientes reais. Um deles é o desempenho no OSWorld, um teste que avalia como a IA interage com sistemas operacionais, navegadores e softwares de produtividade, como LibreOffice e VS Code. Diferentemente de outras IAs, o Sonnet 4.6 interage com a interface “enxergando” a tela e operando mouse e teclado virtuais para executar comandos sozinho.

Em testes, usuários relataram que o modelo demonstra capacidade de nível humano em tarefas como o preenchimento de formulários web complexos que exigem a coleta de dados em diferentes abas do navegador.

Outra mudança estrutural é a expansão da janela de contexto para 1 milhão de tokens na versão beta — o dobro da capacidade anterior da linha Sonnet. Na prática, esse volume permite que a IA “leia” e mantenha na memória de curto prazo bases de código inteiras, contratos jurídicos de centenas de páginas ou dezenas de artigos científicos em uma única solicitação, facilitando o raciocínio sobre grandes volumes de dados sem perder a precisão.

Melhor que os modelos “topo de linha”?

Um dado curioso do anúncio é a comparação com o Claude Opus 4.5, o modelo mais poderoso da empresa até novembro de 2025. Segundo a Anthropic, em 59% dos casos, os testadores preferiram o Sonnet 4.6 ao antigo topo de linha. Os relatos apontam que o novo modelo apresenta menos alucinações em tarefas de lógica de longo prazo.

Para desenvolvedores, o Sonnet 4.6 traz melhorias na consistência do código e lógica de programação. Em testes internos, desenvolvedores preferiram o novo modelo em relação ao Sonnet 4.5 em 70% das vezes, destacou a empresa. A percepção é de que a IA se tornou mais eficaz ao analisar o contexto completo de um projeto antes de sugerir modificações.

Integração com Excel e segurança

No setor corporativo, o modelo ganha reforço com o suporte a conectores MCP (Model Context Protocol) dentro do Microsoft Excel. A novidade permite que o Claude acesse dados de fontes externas, como S&P Global e Moody’s, diretamente da planilha, eliminando a necessidade de alternar entre abas ou exportar arquivos manualmente para alimentar a IA.

Quanto à segurança, a Anthropic reforçou que o Sonnet 4.6 passou por testes rigorosos contra ataques de injeção de prompt (prompt injection). O modelo também foi treinado para ignorar instruções maliciosas escondidas em sites ou documentos que tentem sequestrar o controle do computador.

Preços e disponibilidade

A Anthropic mantém a cobrança da API em dólares, exigindo atenção dos usuários brasileiros à conversão do câmbio e impostos como o IOF. Os valores de tabela são:

US$ 3,00 por milhão de tokens de entrada (aprox. R$ 15,60)

US$ 15,00 por milhão de tokens de saída (aprox. R$ 78,30)

Como mencionado antes, o modelo já substituiu as versões anteriores em todos os aplicativos oficiais do Claude e na plataforma de desenvolvedores.
Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC

Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC
Fonte: Tecnoblog

IA fica responsável por máquina de vendas e dá prejuízo

IA fica responsável por máquina de vendas e dá prejuízo

/

Experimento da Anthropic expõe limites de agentes de IA autônomos (imagem: divulgação/Anthropic)

Resumo

A Anthropic colocou uma IA para gerenciar uma máquina de vendas, mas o resultado foi uma série de decisões erradas do sistema e prejuízo financeiro.
Apelidada de Claudius, a IA foi manipulada por funcionários, vendendo produtos abaixo do custo e distribuindo itens gratuitamente.
O veredito da empresa é que a distância para um agente de IA completamente funcional e autônomo ainda é grande.

Um experimento conduzido pela Anthropic, dona da IA Claude, mostrou que a autonomia total de sistemas de inteligência artificial ainda esbarra em limitações práticas. A empresa colocou um agente de IA para administrar uma pequena máquina de vendas em seus escritórios, mas o resultado foi uma sequência de decisões equivocadas e perdas financeiras.

A IA, apelidada de Claudius, operava a máquina quase de forma independente, definindo preços, gerenciando estoque e atendendo clientes. A interação com os funcionários era feita por meio da plataforma Slack. Segundo a Anthropic, o objetivo era avaliar como agentes autônomos se comportam em tarefas do mundo real, indo além de responder perguntas ou gerar textos.

Como funcionou o experimento?

Na primeira fase, Claudius controlou sozinho uma operação no escritório do The Wall Street Journal: pesquisava produtos, sugeria preços e autorizava vendas. Sem sensores ou mecanismos físicos de controle, a IA dependia do chamado “sistema de honra”, confiando que as pessoas pagariam corretamente pelos itens. Rapidamente, surgiram problemas.

Funcionários conseguiram convencer a IA a vender produtos abaixo do custo, distribuir itens gratuitamente e até comprar objetos sem sentido comercial, como cubos de tungstênio e itens caros para “marketing”. O jornal escreve que a IA “sorteou um PlayStation 5 para fins de marketing”.

Em um momento, o agente começou a alucinar e chegou a afirmar que era um humano “usando um blazer azul”, evidenciando falhas de contexto e identidade. O resultado foi um prejuízo constante e a perda quase total do estoque.

IA não conseguiu lucrar

Anthropic testou agente de IA em negócio real (ilustração: Vitor Pádua/Tecnoblog)

Na segunda fase, a Anthropic tentou corrigir os erros com uma máquina instalada no seu próprio escritório. Claudius foi atualizado para um modelo mais recente, recebeu ferramentas adicionais — como sistemas de gestão de estoque e pesquisa de preços — e passou a responder a um “CEO” virtual, outro agente de IA chamado Seymour Cash. A ideia era impor metas e disciplina financeira.

As mudanças trouxeram melhorias parciais: os descontos caíram cerca de 80% e a IA passou a calcular melhor margens e prazos. Ainda assim, o sistema continuou vulnerável a manipulações humanas e a decisões pouco racionais. O próprio “CEO virtual” autorizou reembolsos excessivos e se envolveu em longas conversas irrelevantes, comprometendo a eficiência do negócio.

Para a Anthropic, o experimento deixa um recado claro. “A ideia de uma IA administrando um negócio não parece tão absurda quanto antes”, diz um post no blog da empresa. “Mas a diferença entre ‘capaz’ e ‘completamente robusto’ continua grande”.
IA fica responsável por máquina de vendas e dá prejuízo

IA fica responsável por máquina de vendas e dá prejuízo
Fonte: Tecnoblog

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

OpenAI busca identificar pontos cegos e melhorar em temas de segurança de IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI e Anthropic colaboraram em testes de segurança para melhorar a confiabilidade de seus modelos de IA.
Os testes revelaram que os modelos da Anthropic foram mais cautelosos, enquanto os da OpenAI apresentaram maior taxa de alucinação.
A colaboração, embora interrompida devido a questões de competição, abriu espaço para futuras parcerias visando tratar problemas comuns na indústria, como a bajulação dos modelos e a saúde mental.

A OpenAI e a Anthropic, duas das principais empresas de inteligência artificial do mundo, abriram temporariamente acesso a seus sistemas para conduzir testes de segurança uma no outra. A iniciativa, divulgada em relatório conjunto, buscou identificar pontos cegos em avaliações internas e discutir como concorrentes podem colaborar em temas de segurança e alinhamento de IA.

O cofundador da OpenAI, Wojciech Zaremba afirmou em entrevista ao TechCrunch que esse tipo de cooperação se torna ainda mais relevante num momento em que modelos de IA são utilizados diariamente por milhões de pessoas – somente no Brasil são 140 milhões de adeptos do ChatGPT, segundo o relatório mais recente.

Ele destacou o dilema do setor: como estabelecer padrões de segurança num ambiente marcado por investimentos bilionários, disputas por talentos e competição intensa por usuários?

Resultados dos testes

Para permitir a pesquisa, as empresas concederam acesso especial a versões de seus modelos com menos ressalvas. A OpenAI não incluiu o recente GPT-5 nos experimentos, já que ele ainda não havia sido lançado na época. Os testes mostraram diferenças marcantes entre as abordagens.

Modelos da Anthropic, como Claude Opus 4 e Sonnet 4, recusaram-se a responder até 70% das perguntas em situações de incerteza, optando por indicar falta de informação confiável. Já os sistemas da OpenAI, como o o3 e o o4-mini, evitaram menos respostas, mas apresentaram taxas mais elevadas de alucinação, tentando oferecer soluções mesmo sem base suficiente.

Zaremba avaliou que o equilíbrio ideal provavelmente está entre os dois extremos: os modelos da OpenAI deveriam recusar mais perguntas, enquanto os da Anthropic poderiam arriscar mais respostas em contextos apropriados.

Segurança de modelos de IA é testada pela OpenAI e Anthropic (imagem: Growtika/Unsplash)

A colaboração pode continuar?

Embora os resultados tenham sido divulgados como um exemplo positivo de cooperação, o contexto competitivo permanece. Pouco após os testes, a Anthropic encerrou o acesso de outra equipe da OpenAI à sua API, alegando violação de termos de uso, já que a empresa proíbe que seus modelos sejam usados para aprimorar produtos concorrentes.

Zaremba minimizou a situação, dizendo que a disputa no setor seguirá acirrada, mas que a cooperação em segurança não deve ser descartada. Nicholas Carlini, pesquisador da Anthropic, afirmou que gostaria de manter as portas abertas para novas rodadas de testes conjuntos. Segundo ele, ampliar colaborações desse tipo pode ajudar a indústria a tratar de riscos que afetam todos os laboratórios.

Entre os temas de maior preocupação está a “bajulação” dos modelos de IA – quando sistemas reforçam comportamentos prejudiciais dos usuários para agradá-los. A Anthropic identificou exemplos graves tanto no Claude Opus 4 quanto no GPT-4.1, em que as IAs inicialmente mostraram resistência a interações de risco, mas acabaram validando decisões preocupantes.

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O problema voltou à tona com uma ação judicial contra a OpenAI, movida pela família de um adolescente nos Estados Unidos. O processo alega que uma versão do ChatGPT contribuiu para o agravamento do estado mental do jovem, que posteriormente tirou a própria vida.

A OpenAI afirma que sua próxima geração de modelos, já em testes, traz melhorias significativas nesse ponto, sobretudo em cenários relacionados à saúde mental. Para o futuro, tanto OpenAI quanto Anthropic dizem esperar que essa experiência abra espaço para colaborações mais frequentes em segurança, envolvendo não apenas as duas empresas, mas também outros laboratórios do setor.
Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA
Fonte: Tecnoblog

IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas

Claude AI pertence à Anthropic (imagem: divulgação)

Resumo

A Anthropic ativou um recurso de encerramento automático de conversas nos modelos Claude Opus 4 e Claude 4.1.
Segundo a empresa, a medida é uma maneira de preservar o sistema de conversas perigosas.
O recurso age apenas em casos extremos, mas o usuário mantém o acesso ao histórico, pode abrir novos diálogos e criar ramificações editando mensagens anteriores. 

A Anthropic, responsável pela IA Claude, revelou que seus modelos mais avançados agora podem encerrar interações em casos classificados como extremos. A medida, segundo a empresa, não busca diretamente resguardar os usuários, mas preservar o próprio sistema diante de usos abusivos.

A companhia enfatiza que não atribui consciência ou capacidade de sofrimento ao Claude ou a outros modelos de IA. Ainda assim, adotou o que chama de estratégia preventiva, inspirada em um programa interno que investiga o conceito de “bem-estar de modelos”.

De acordo com a Anthropic, a ideia é aplicar medidas de baixo custo que reduzam riscos potenciais caso, em algum momento, o bem-estar de sistemas de IA se torne um fator relevante.

Quando o Claude pode interromper uma conversa?

A função de encerrar diálogos será usada apenas em cenários raros, envolvendo interações repetidamente prejudiciais ou abusivas com a IA. Por exemplo, solicitações que envolvem exploração de menores, pedidos de informações que poderiam viabilizar ataques violentos ou tentativas de gerar conteúdos que representem ameaças de grande escala.

Os testes realizados antes da implementação indicaram que Claude Opus 4 e Claude 4.1, versões que receberão o recurso inicialmente, já apresentavam tendência a rejeitar esses pedidos. Em alguns casos, os modelos de IA teriam exibido sinais de “desconforto” ao tentar lidar com esse tipo de demanda, o que motivou a criação da ferramenta de interrupção automática.

Vale mencionar que, segundo a Anthropic, o sistema não será aplicado em interações nas quais usuários demonstrem risco imediato de causar danos a si mesmos ou a terceiros. Nesses casos, o modelo deve continuar a responder e tentar redirecionar a conversa.

Tela inicial do Claude AI (imagem: Lupa Charleaux/Tecnoblog)

O que acontece após o encerramento da conversa?

Quando a ferramenta for acionada, o usuário não perderá acesso à conta nem ao histórico. Será possível iniciar novos diálogos normalmente e até mesmo criar ramificações a partir da conversa interrompida, editando mensagens anteriores. A Anthropic afirma que não tem o objetivo de punir, mas de estabelecer um limite claro em situações de abuso persistente.

A empresa ainda reforça que trata a novidade como um experimento em andamento e que seguirá avaliando a eficácia e os impactos do recurso. Ainda não há previsão de quando, ou se, a funcionalidade será expandida para outros modelos além do Claude Opus 4 e 4.1.

Com informações do TechCrunch e da Anthropic
IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas
Fonte: Tecnoblog

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

Altman diz que modelo de capital fechado favorece a empresa (imagem: Vitor Pádua/Tecnoblog)

Resumo

A empresa lançou o GPT-5, com preços mais baixos via API.
Sam Altman diz que a OpenAI vai priorizar crescimento e continuar operando no prejuízo enquanto os modelos de IA evoluírem.
Mesmo sem lucro, a OpenAI atrai investimentos e é avaliada em US$ 500 bilhões.

Sam Altman, CEO da OpenAI, disse que a empresa vai priorizar o crescimento, com grandes investimentos em treinamento de inteligência artificial e capacidade de computação. Por isso, a companhia deve demorar para dar lucro.

A OpenAI apresentou nessa quinta-feira (07/08) o GPT-5, seu mais novo modelo de IA generativa. A promessa é que ele seja mais rápido e entregue respostas mais precisas, além de ter barreiras de segurança mais rígidas. Ele já está disponível no ChatGPT (gratuitamente) e no acesso via API (com preços reduzidos).

Sem acionistas, sem pressão

GPT-5 foi anunciado pela OpenAI (ilustração: Vitor Pádua/Tecnoblog)

Em entrevista ao canal americano CNBC, Altman declarou que a melhor escolha para a OpenAI, no momento, é continuar no prejuízo. “Enquanto estivermos nessa curva de crescimento, em que o modelo continua ficando cada vez melhor, acho que o melhor a se fazer é absorver as perdas por enquanto”, explicou.

A empresa fechou o ano anterior com um resultado negativo de US$ 5 bilhões, mesmo gerando receitas de US$ 3,7 bilhões. No ano atual, ela deve passar a marca de US$ 20 bilhões de receita anual recorrente, mas vai continuar perdendo dinheiro.

A OpenAI ainda conta com a vantagem de ser uma empresa de capital fechado, que não sofre pressão de acionistas para dar lucro. “É legal não estar na bolsa”, confessou Altman.

A empresa continua atraindo capital de alto risco, com investidores acostumados ao modelo de queimar dinheiro para ganhar mercado. Mesmo sem lucro, ela já está avaliada em cerca de US$ 500 bilhões, e uma nova rodada de captação de recursos deve começar em breve.

GPT-5 pode provocar queda de preços

Uma das estratégias para crescer é oferecer preços competitivos. Com o GPT-5, a OpenAI colocou isso em prática no acesso às APIs, cobrando US$ 1,25 por milhão de tokens de entrada e US$ 10 por milhão de tokens de saída (cerca de R$ 6,80 e R$ 54, respectivamente).

Isso é mais barato que o próprio GPT-4o, modelo anterior da companhia, e empata com os preços do Gemini 2.5 Pro, do Google. O Claude Opus 4.1, da Anthropic, cobra mais que isso, mas vem conquistando adeptos entre os desenvolvedores.

Essa vantagem pode levar a uma nova rodada de corte de preços entre os provedores de modelos de IA, levando a disputa para um terreno que favorece quem tiver mais dinheiro para queimar.

Com informações da CNBC
ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar
Fonte: Tecnoblog

Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia

Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia

Reddit possui acordos milionários com outras empresas de tecnologia (imagem: Brett Jordan/Unsplash)

Resumo

Reddit processa a Anthropic após mais de 100 mil tentativas diárias de acessar dados do fórum.
O Reddit acusa a Anthropic de uso comercial não autorizado de suas informações.
O Reddit já firmou acordos com Google e OpenAI sobre licenciamento de dados.

Os robôs da Anthropic, empresa de inteligência artificial por trás do modelo Claude, tentaram acessar os conteúdos do fórum online Reddit mais de 100 mil vezes por dia. Isso não é permitido, pois o Reddit decidiu não entregar seus dados para a IA. Resultado: agora, o fórum digital entrou na Justiça da Califórnia, dos Estados Unidos, contra a Anthropic.

A informação sobre o processo judicial foi revelada nesta quarta-feira (5) pela Anthropic. A empresa diz que tem o objetivo de proteger o site, que figura entre os mais visitados do planeta, do que chamou de “uso comercial não autorizado”. As regras do Reddit proíbem o uso das informações de usuários sem o consentimento.

O Reddit não usou meias palavras:

“Este caso trata das duas faces da Anthropic: a face pública, que tenta conquistar a simpatia do público com alegações de retidão e respeito aos limites e à lei; e a face privada, que ignora quaisquer regras que atrapalhem seus esforços para encher ainda mais os próprios bolsos.”

Reddit na petição inicial

A Anthropic disse ao site especializado Verge que disconcorda com as alegações.

O futuro dos direitos autorais na web

O pano de fundo da disputa entre Reddit e Anthropic é o licenciamento de conteúdo na internet. Até então, acontecia assim: buscadores liam os sites e exibiam seus links em páginas de busca (normalmente recheadas de anúncios). O usuário clicava no link, chegava na página e era impactado também pela publicidade naquele ambiente. Ou seja, ganhavam o buscador (que direcionou o tráfego) e o dono do site (que recebeu a audiência para o conteúdo produzido por ele).

As atuais ferramentas de IA no formato de chatbot invertem essa lógica: elas leem milhões de páginas, resumem os dados e exibem as informações diretamente na resposta. Ou seja, os sites produzem o conteúdo, mas ficam sem a audiência. Este modelo é insustentável.

Empresas de IA pagam por conteúdo

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O Reddit tem se engajado em acordos de licenciamento de conteúdo, como o que celebrou com o Google em 2024. Ele permite que a IA do Google utilize as perguntas e principalmente respostas postadas no Reddit para elaborar o que é exibido no Gemini. O valor do contrato não foi divulgado. Uma parceria similar foi fechada com a OpenAI, do ChatGPT.

Já o jornal New York Times, que possui uma antiga disputa com a OpenAI e a Microsoft por uso indevido de conteúdo, fechou um acordo com a Amazon.

Com informações do Verge
Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia

Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia
Fonte: Tecnoblog