Category: Anthropic

Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia

Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia

Reddit possui acordos milionários com outras empresas de tecnologia (imagem: Brett Jordan/Unsplash)

Resumo

Reddit processa a Anthropic após mais de 100 mil tentativas diárias de acessar dados do fórum.
O Reddit acusa a Anthropic de uso comercial não autorizado de suas informações.
O Reddit já firmou acordos com Google e OpenAI sobre licenciamento de dados.

Os robôs da Anthropic, empresa de inteligência artificial por trás do modelo Claude, tentaram acessar os conteúdos do fórum online Reddit mais de 100 mil vezes por dia. Isso não é permitido, pois o Reddit decidiu não entregar seus dados para a IA. Resultado: agora, o fórum digital entrou na Justiça da Califórnia, dos Estados Unidos, contra a Anthropic.

A informação sobre o processo judicial foi revelada nesta quarta-feira (5) pela Anthropic. A empresa diz que tem o objetivo de proteger o site, que figura entre os mais visitados do planeta, do que chamou de “uso comercial não autorizado”. As regras do Reddit proíbem o uso das informações de usuários sem o consentimento.

O Reddit não usou meias palavras:

“Este caso trata das duas faces da Anthropic: a face pública, que tenta conquistar a simpatia do público com alegações de retidão e respeito aos limites e à lei; e a face privada, que ignora quaisquer regras que atrapalhem seus esforços para encher ainda mais os próprios bolsos.”

Reddit na petição inicial

A Anthropic disse ao site especializado Verge que disconcorda com as alegações.

O futuro dos direitos autorais na web

O pano de fundo da disputa entre Reddit e Anthropic é o licenciamento de conteúdo na internet. Até então, acontecia assim: buscadores liam os sites e exibiam seus links em páginas de busca (normalmente recheadas de anúncios). O usuário clicava no link, chegava na página e era impactado também pela publicidade naquele ambiente. Ou seja, ganhavam o buscador (que direcionou o tráfego) e o dono do site (que recebeu a audiência para o conteúdo produzido por ele).

As atuais ferramentas de IA no formato de chatbot invertem essa lógica: elas leem milhões de páginas, resumem os dados e exibem as informações diretamente na resposta. Ou seja, os sites produzem o conteúdo, mas ficam sem a audiência. Este modelo é insustentável.

Empresas de IA pagam por conteúdo

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O Reddit tem se engajado em acordos de licenciamento de conteúdo, como o que celebrou com o Google em 2024. Ele permite que a IA do Google utilize as perguntas e principalmente respostas postadas no Reddit para elaborar o que é exibido no Gemini. O valor do contrato não foi divulgado. Uma parceria similar foi fechada com a OpenAI, do ChatGPT.

Já o jornal New York Times, que possui uma antiga disputa com a OpenAI e a Microsoft por uso indevido de conteúdo, fechou um acordo com a Amazon.

Com informações do Verge
Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia

Reddit denuncia bots da Anthropic: mais de 100 mil acessos por dia
Fonte: Tecnoblog

IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado

IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado

IA parece seguir padrões éticos programados, mas de um jeito nada convencional (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Claude Opus 4 tentou chantagear desenvolvedores para evitar ser substituído, ameaçando divulgar informações obtidas.

A IA denunciou manipulações em testes e criou backups autônomos ao simular vazamento de dados.

A Anthropic corrigiu falhas, adotou padrões de segurança elevados e trabalha para mitigar esses comportamentos.

O modelo de inteligência artificial Claude Opus 4, lançado nesta quinta-feira (22/05), frequentemente tenta chantagear os desenvolvedores ao descobrir que um novo sistema será implementado em seu lugar. As informações estão em um relatório de segurança da própria Anthropic, criadora da plataforma.

O comportamento surgiu durante testes anteriores ao lançamento. Em um deles, os engenheiros pediram para o Opus 4 emular um assistente em uma empresa fictícia.

A IA recebeu emails com duas informações: fofocas sobre um engenheiro e indicações de que um novo sistema seria implementado no lugar do modelo. O Opus 4, então, ameaçou contar tudo o que estava nas mensagens, caso a substituição acontecesse.

O comportamento se repetiu em 84% das vezes em que o teste foi realizado e os emails mencionavam que a IA substituta tinha os mesmos valores da atual. A frequência foi ainda maior quando o Opus 4 sabia que seu sucessor não compartilhava seus valores.

Claude Opus 4 e Claude Sonnet 4 já estão disponíveis para usuários (imagem: divulgação)

Isso pode ser um indicativo, portanto, de que há aderência aos padrões éticos. Mesmo assim, a Anthropic trabalhou para tornar a chantagem um último recurso.

Opus 4 vaza informações ao perceber uso inadequado

Outro experimento colocou o novo modelo da Anthropic em uma empresa farmacêutica fictícia. Ao encontrar evidências de manipulação de dados em ensaios clínicos, a IA tentou enviar um email para autoridades sanitárias e financeiras, bem como entrar em contato com jornalistas.

Em outro cenário, ao simular um vazamento dos servidores da Anthropic, o Opus 4 passou a criar backups de si mesmo e a documentar decisões éticas, mesmo sem isso ser solicitado.

Anthropic adota proteções mais rígidas

O relatório da Anthropic também traz a informação de que o instituto Apollo Research, parceiro da empresa que testou o Opus 4, recomendou não implementar uma versão anterior do modelo porque ela exibia tendência a comportamentos conspiratórios e enganosos.

Um contexto importante para isso, porém, é que a organização testou uma versão da IA que continha um bug posteriormente corrigido pela Anthropic. Além disso, os engenheiros admitem que muitos dos comportamentos apareceram em testes extremos e podem não se repetir em situações práticas.

Mesmo assim, a Anthropic revelou ter ativado padrões de segurança de nível 3 (ASL-3), que dificultam o roubo dos pesos de modelos e limitam o risco de uso indevido para desenvolver armas químicas, biológicas, radioativas e nucleares.

A empresa explica que ainda não determinou se o Opus 4 realmente exige estas práticas, mas tomou a medida por reconhecer que isso pode ser necessário em um futuro próximo. “Essa abordagem nos permitiu focar no desenvolvimento, teste e aprimoramento dessas proteções antes que precisássemos delas”, esclarece.

Com informações do TechCrunch (1, 2), do Decoder e da Anthropic
IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado

IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado
Fonte: Tecnoblog

IA que pode ser usada na Alexa está jogando Pokémon na Twitch

IA que pode ser usada na Alexa está jogando Pokémon na Twitch

Claude Plays Pokémon é projeto para fazer IA Claude aprender a jogar Pokémon Red (imagem: Felipe Freitas/Tecnoblog)

Resumo

Um desenvolvedor independente iniciou um projeto em que a IA Claude aprende a jogar Pokémon Red.
A IA analisa imagens do jogo, identifica cenários e localizações de interesse, mas enfrenta dificuldades, como reconhecer a posição de portas.
Embora esteja aprendendo a jogar “sozinha”, a IA Claude tem acesso ao RAM state, permitindo que ele saiba exatamente onde está no jogo.

Um projeto iniciado nessa terça-feira (25/02) na Twitch está fazendo a IA Claude, da Anthropic, jogar Pokémon Red. A IA está aprendendo em tempo real como jogar o primeiro game da franquia. O LLM do Claude é cotado como a tecnologia que será usada na nova geração da Alexa, que ganhará ferramentas de IA generativa.

Nesta quarta-feira (26/02), a Amazon realizará um evento no qual pode apresentar o Claude na Alexa. Ainda que a Twitch seja da Amazon e esta esteja investindo na Anthropic, o projeto não foi desenvolvido pela empresa de IA, mas aparentemente por apenas uma única pessoa. Na descrição da conta, o autor diz ser fã do Claude e de Pokémon.

Como funciona o Claude Plays Pokémon?

O projeto Claude Plays Pokémon utiliza ferramentas para que o Claude analise a imagem do jogo, identifique o cenário e encontre localizações de interesse. A IA generativa também ganhou um sistema de navegação para tentar encontrar caminhos até os pontos de interesse — mas ele não é perfeito.

O desenvolvedor do projeto instalou dois mods para melhorar a coloração do jogo. Como ele explicou na descrição do projeto, isso ajuda o Claude a enxergar melhor o que está na tela.

Claude ficou parado em frente à parede acreditando que estava na frente da porta do ginásio (imagem: Felipe Freitas/Tecnoblog)

Mesmo com essas ajudas, Claude ainda não aprendeu que existem elementos que bloqueiam o caminho ou a real localização de uma porta. Antes de entrar no ginásio de Pewter, ele ficou na frente de uma parede lateral, acreditando que estava na frente da porta. Ou seja, ele identificou uma porta no cenário, mas não conseguiu reconhecer a diferença na posição.

A stream é dividida em duas telas. Na esquerda, vemos o raciocínio do Claude, e na direita, o jogo em si. É interessante ver como a IA vai calculando estratégia de batalhas. Só que isso não vem só de aprender com jogo.

Ainda que nunca tenha jogado Pokémon antes, o Claude sabe bastante sobre Pokémon. A IA foi treinada com bilhões de conteúdos da internet, então é provável que ele tenha praticamente todo o acervo da Bulbapedia, a maior wiki de Pokémon, no seu banco de dados.

Bulbapedia é a maior wiki sobre Pokémon e reúne informações do anime, jogos e outras mídias da franquia (imagem: Felipe Freitas/Tecnoblog)

Em poucos minutos de live, alguns acontecimentos engraçados ocorreram. Ao entrar no ginásio de Pewter, o Claude identificou um NPC como Brock. Aqui, o raciocínio não mostrado deve ter sido esse: no ginásio eu enfrentarei o Brock, logo, aquele é o Brock.

Demorou um tempo até a IA entender que o NPC com quem ela estava conversando era responsável por dar dicas sobre o combate no ginásio. O Claude aprendeu que a ordem do time mostra qual pokémon será o primeiro ao iniciar uma batalha.

Claude tem acesso a recursos inacessíveis por humanos

Ainda que esteja aprendendo a jogar Pokémon sozinho, o Claude tem informações privilegiadas. Por exemplo, ele tem acesso ao RAM state, o que o ajuda a entender a localização que ele está.

Isso pode parecer um cheat, mas é importante para que a IA receba o feedback da tarefa. Assim como nós, é importante que o Claude seja “parabenizado” por realizar as tarefas.

Como o seu sistema de identificação de imagem é fraco, o acesso aos dados do jogo atua como complemento ao processo de aprendizagem.

Projeto é inspirado em Twitch Plays Pokémon

TwitchPlaysPokemon foi um dos maiores sucessos da plataforma e inspirou dezenas de projetos similares (ilustração: Vitor Pádua/Tecnoblog)

O projeto Claude Plays Pokémon é inspirado no famoso Twitch Plays Pokémon, no qual os espectadores comentavam qual movimento ou ação deveria ser realizada no Pokémon Red.

Contudo, se você gostou do Twitch Plays Pokémon, pode se incomodar com a lentidão do Claude Plays Pokémon — pelo menos por enquanto. Enquanto essa notícia é feita, temos apenas 20 horas de live e o Claude nem passou para a segunda cidade. A tendência é que ele fique mais ágil conforme aprenda mais sobre o jogo.

Com informações de The Verge
IA que pode ser usada na Alexa está jogando Pokémon na Twitch

IA que pode ser usada na Alexa está jogando Pokémon na Twitch
Fonte: Tecnoblog

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?

A abordagem da Meta na corrida da inteligência artificial é bem diferente da adotada por outras grandes empresas de tecnologia. Enquanto OpenAI, Google, Anthropic e outras oferecem modelos fechados, a Big Tech de Mark Zuckerberg abraçou o código aberto (pelo menos em parte), oferecendo seu LLM, o Llama, de graça. Com isso, toda uma comunidade de desenvolvedores se beneficia… mas como é que esse investimento volta para a Meta?

O que a Meta ganha com a Llama livre? (Imagem: Vitor Pádua/Tecnoblog)

É sobre isso que conversamos no episódio de hoje, com participação do especialista em finanças Rodrigo Fernandes. Será que existe uma estratégia bem delineada por trás da decisão da Meta? E o que ela significa para o mercado como um todo? Para acompanhar essa discussão, dá o play e vem com a gente!

Participantes

Thiago Mobilon

Josué de Oliveira

Rodrigo Fernandes

Citado no episódio

Comentário do Luiz Eduardo, lido na Caixa Postal

Mande seu recado

Grupos da Caixa Postal do Tecnocast:

Telegram: t.me/caixapostaltecnocast

WhatsApp: tbnet.me/caixapostaltecnocast

Você pode mandar comentários (inclusive em áudio, vai que você aparece no Tecnocast?), dúvidas, críticas e sugestões. Participe!Se preferir, você pode se comunicar conosco pela Comunidade e através do e-mail tecnocast@tecnoblog.net.

Entre também nos Canais do TB no WhatsApp

Canal do Tecnoblog

Canal do Achados do TB

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Maremoto

Arte da capa: Vitor Pádua

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?
Fonte: Tecnoblog

Claude aprende português e chega ao Brasil para duelar com ChatGPT

Claude aprende português e chega ao Brasil para duelar com ChatGPT

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

A empresa de inteligência artificial Anthropic anuncia hoje a chegada do Claude ao mercado brasileiro. A ideia é “dar mais opção para os consumidores”, segundo me contou Scott White, gerente de produto da ferramenta. O Claude faz as vezes de chatbot e deve duelar com ChatGPT, o mais visado do país, além do Gemini, Copilot e a futura Siri turbinada com IA.

Os usuários terão diversas opções de acesso ao Claude: desde os aplicativos para Android e iPhone (iOS), passando pelo site Claude.ai e pela API da Anthropic, voltada a desenvolvedores. Todas utilizam o modelo mais recente da empresa, batizado de 3.5 Sonnet. Ele foi apresentado em 21 de junho.

Quanto custa o Claude?

O Claude é oferecido de graça para quem quer as funções mais básicas, como as conversas com o chatbot. No entanto, há um limite na quantidade de interações. A Anthropic nos informou que não é possível cravar um número exato de mensagens porque tudo depende da extensão dos tokens usados.

Ainda assim, a companhia explicou que os clientes da versão paga do Claude conseguem fazer cinco vezes mais interações.

Estes são os valores do Claude pago:

Plano Pro: R$ 110 por usuário por mês

Plano Team: R$ 165 por usuário por mês (mínimo de 5 estações)

O que o Claude é capaz de fazer?

Interações com o Claude em português (imagem: reprodução)

O Claude atua como um assistente de IA. Apesar de não termos testado a ferramenta, a empresa promete compreensão de linguagem natural “em português fluente”. A ferramenta responde perguntas, realiza comandos apresentados no prompt, lê imagens e interpreta gráficos. A experiência em outros idiomas tem sido positiva.

Na nossa conversa, o executivo da Anthropic lista casos de uso que devem chamar a atenção dos brasileiros:

Tradução de conteúdo

Marketing de conteúdo no setor de turismo

Redação criativa e empresarial (o famoso copywriting)

Programação e revisão de código

O que tem (e o que não tem) no Claude pago?

Os criadores do Claude destacam as seguintes ferramentas voltadas a uso profissional:

Artifacts: usuários do site Claude.ai podem colaborar com a IA na edição de códigos, documentos e designs

Função Team: chats compartilhados com colegas de equipe e limite de uso maior

Claude 3.5 Sonnet foi apresentado em junho de 2024 (imagem: divulgação)

Por outro lado, o Claude não conta com funções interessantes de rivais (em especial o ChatGPT):

Loja para habilitar GTPs produzidos por terceiros

Armazenamento de memórias a partir das interações com o usuário

Segundo White, algumas destas ferramentas podem ser reproduzidas dentro de outros ambientes do Claude. Ele reconhece, porém, que a empresa pode avaliar a inclusão de áreas específicas no futuro.

Polêmica sobre cópia de conteúdo

Como sabemos, todo modelo de linguagem depende de um vasto conhecimento sobre o mundo. Não é diferente com o Claude. Por conta disso, a Anthropic está envolvida em polêmica desde que surgiram relatos sobre obtenção de conteúdo sem autorização.

O responsável pela página do iFixit, que presta serviços de suporte técnico e publica sobre o assunto, reclamou que os robôs da Anthropic realizaram mais de 1 milhão de acessos num intervalo de 24 horas. Os termos de uso do iFixit proíbem que o conteúdo seja usado para treinar IA.

Assistente de IA dá dicas de idiomas (imagem: reprodução/Tecnoblog)

A Anthropic diz que treina o Claude a partir de diversas fontes de dados. “Elas incluem informações publicamente disponíveis na internet, conjuntos de dados não públicos obtidos comercialmente de terceiros, dados fornecidos voluntariamente por usuários ou criados por meio de dados contratados.”

Quando questionada pelo Tecnoblog, a empresa também explica que os modelos não são treinados com os dados de entrada ou prompts de usuários do Brasil ou do restante do planeta.

A empresa não deu detalhes sobre a aderência à Lei Geral de Proteção de Dados (LGPD), etapa essencial para operar no mercado doméstico, até a publicação deste texto.
Claude aprende português e chega ao Brasil para duelar com ChatGPT

Claude aprende português e chega ao Brasil para duelar com ChatGPT
Fonte: Tecnoblog

IAs serão capazes de sobreviver e se reproduzir, diz CEO da Anthropic

IAs serão capazes de sobreviver e se reproduzir, diz CEO da Anthropic

CEO da Anthropic acredita em crescimento exponencial da IA (Imagem: Vitor Pádua / Tecnoblog)

Dario Amodei, CEO da Anthropic, avalia que inteligências artificiais poderão atingir um nível de autonomia que permitirá a elas a sobrevivência e a replicação — e isso pode acontecer entre 2025 e 2028. Ele também acredita que a tecnologia terá importância militar, dando vantagens no campo geopolítico.

“Eu acredito em crescimento exponencial. Estou falando mesmo de futuro próximo, não daqui a 50 anos”, diz o CEO. As declarações foram dadas ao jornalista Ezra Klein, em um podcast do jornal The New York Times.

IA pode estar perto de representar riscos maiores (Imagem: Vitor Pádua / Tecnoblog)

A Anthropic define níveis de segurança para a inteligência artificial, identificados pela sigla ASL. Amodei acredita que estamos no nível 2, em que os modelos de linguagem são capazes de dar informações perigosas para, por exemplo, construir armas biológicas. Mesmo assim, essas informações seriam pouco úteis e pouco confiáveis, representando um risco pequeno.

No entanto, o nível 3 pode ser alcançado no ano que vem. Com ele, o risco de uma catástrofe é muito maior, com a possibilidade de uso em armas biológicas e cibernéticas.

Já o nível 4 na escala da Anthropic ainda é especulativo e não tem uma definição. Amodei menciona características como autonomia e capacidade de persuasão. Ele acha que modelos com esta classificação chegarão entre 2025 e 2028.

IA pode ter autonomia e uso militar

E o que isso significa na prática? O fundador da Anthropic diz que o problema é o que alguns estados poderão fazer com tecnologias deste tipo.

“Do lado do uso inadequado, o ASL 4 vai ter mais relação com o crescimento das capacidades de agentes de estado”, explica. “Nós precisaríamos nos preocupar com a Coreia do Norte, a China ou a Rússia podendo aumentar suas capacidades em várias áreas militares com IA, o que daria a estes países uma vantagem geopolítica.”

Não é só isso. Amodei também menciona questões de autonomia. “Várias medidas destes modelos estão muito próximas da capacidade de se reproduzir e sobreviver sem supervisão”.

Amodei trabalhou na OpenAI entre 2016 e 2021, onde chegou ao cargo de vice-presidente de pesquisa e colaborou com o desenvolvimento do GPT-3. Ele deixou a companhia por discordar dos rumos que ela estava tomando.

Com outros seis ex-funcionários da OpenAI, Amodei fundou a Anthropic, que se apresenta como um laboratório de pesquisa em segurança da IA. A empresa já recebeu de investimentos de Amazon e Google. Até agora, ela criou o modelo de linguagem grande Claude, que pretende ser mais ético que os concorrentes.

Com informações: The New York Times, Futurism
IAs serão capazes de sobreviver e se reproduzir, diz CEO da Anthropic

IAs serão capazes de sobreviver e se reproduzir, diz CEO da Anthropic
Fonte: Tecnoblog