Category: Inteligência Artificial (IA)

Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC

Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC

Nova versão também preenche formulários como um humano (imagem: reprodução/Anthropic)

Resumo

O Claude Sonnet 4.6, lançado pela Anthropic, supera o Opus 45 em tarefas práticas e benchmarks, com foco em produtividade e uso autônomo de computadores.
O modelo melhora a execução em ambientes reais, com interações avançadas em sistemas operacionais e softwares, além de expandir a janela de contexto para 1 milhão de tokens.
O Sonnet 4.6 apresenta menos alucinações e melhor consistência em lógica de programação, com suporte a conectores MCP no Excel e reforço em segurança contra ataques de injeção de prompt.

A Anthropic anunciou nesta terça-feira (17) o lançamento do Claude Sonnet 4.6, a mais nova versão de seu modelo de inteligência artificial intermediário. O anúncio ocorre cerca de quatro meses após a última atualização da linha e já está disponível globalmente. O Sonnet 4.6 assume o posto de padrão para usuários dos planos Free e Pro no site claude.ai e no Claude Cowork, além de chegar simultaneamente à API da empresa e principais plataformas de nuvem, como AWS e Google Cloud.

O lançamento foca em produtividade e foi otimizado especificamente para tarefas de codificação, instruções complexas e – o maior diferencial desta versão – uso autônomo de computadores.

O que muda no Claude Sonnet 4.6?

O novo modelo apresenta avanços importantes em benchmarks que medem a capacidade de execução em ambientes reais. Um deles é o desempenho no OSWorld, um teste que avalia como a IA interage com sistemas operacionais, navegadores e softwares de produtividade, como LibreOffice e VS Code. Diferentemente de outras IAs, o Sonnet 4.6 interage com a interface “enxergando” a tela e operando mouse e teclado virtuais para executar comandos sozinho.

Em testes, usuários relataram que o modelo demonstra capacidade de nível humano em tarefas como o preenchimento de formulários web complexos que exigem a coleta de dados em diferentes abas do navegador.

Outra mudança estrutural é a expansão da janela de contexto para 1 milhão de tokens na versão beta — o dobro da capacidade anterior da linha Sonnet. Na prática, esse volume permite que a IA “leia” e mantenha na memória de curto prazo bases de código inteiras, contratos jurídicos de centenas de páginas ou dezenas de artigos científicos em uma única solicitação, facilitando o raciocínio sobre grandes volumes de dados sem perder a precisão.

Melhor que os modelos “topo de linha”?

Um dado curioso do anúncio é a comparação com o Claude Opus 4.5, o modelo mais poderoso da empresa até novembro de 2025. Segundo a Anthropic, em 59% dos casos, os testadores preferiram o Sonnet 4.6 ao antigo topo de linha. Os relatos apontam que o novo modelo apresenta menos alucinações em tarefas de lógica de longo prazo.

Para desenvolvedores, o Sonnet 4.6 traz melhorias na consistência do código e lógica de programação. Em testes internos, desenvolvedores preferiram o novo modelo em relação ao Sonnet 4.5 em 70% das vezes, destacou a empresa. A percepção é de que a IA se tornou mais eficaz ao analisar o contexto completo de um projeto antes de sugerir modificações.

Integração com Excel e segurança

No setor corporativo, o modelo ganha reforço com o suporte a conectores MCP (Model Context Protocol) dentro do Microsoft Excel. A novidade permite que o Claude acesse dados de fontes externas, como S&P Global e Moody’s, diretamente da planilha, eliminando a necessidade de alternar entre abas ou exportar arquivos manualmente para alimentar a IA.

Quanto à segurança, a Anthropic reforçou que o Sonnet 4.6 passou por testes rigorosos contra ataques de injeção de prompt (prompt injection). O modelo também foi treinado para ignorar instruções maliciosas escondidas em sites ou documentos que tentem sequestrar o controle do computador.

Preços e disponibilidade

A Anthropic mantém a cobrança da API em dólares, exigindo atenção dos usuários brasileiros à conversão do câmbio e impostos como o IOF. Os valores de tabela são:

US$ 3,00 por milhão de tokens de entrada (aprox. R$ 15,60)

US$ 15,00 por milhão de tokens de saída (aprox. R$ 78,30)

Como mencionado antes, o modelo já substituiu as versões anteriores em todos os aplicativos oficiais do Claude e na plataforma de desenvolvedores.
Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC

Anthropic lança Claude Sonnet 4.6, com modo que controla o seu PC
Fonte: Tecnoblog

Spotify: nossos melhores devs não programam desde dezembro graças à IA

Spotify: nossos melhores devs não programam desde dezembro graças à IA

Spotify: nossos melhores devs não programam desde dezembro graças à IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Spotify usa IA no desenvolvimento de software com sistema Honk, baseado no Claude Code, economizando esforços de programadores;
Honk permite, entre outras funções, implementação remota de código em tempo real;
Spotify desenvolveu mais de 50 recursos com auxílio do Honk somente em 2025.

O Spotify está entre as numerosas empresas que estão utilizando inteligência artificial no desenvolvimento de software. Até o momento, os resultados parecem ser convincentes: a companhia declarou recentemente que seus melhores desenvolvedores “não escreveram uma única linha de código desde dezembro. Eles apenas geram código [via IA] e o supervisionam”.

A declaração foi feita por Gustav Söderström, co-CEO do Spotify, durante uma teleconferência que tratou dos resultados financeiros da companhia referentes ao último trimestre de 2025.

Tamanho feito, se é que podemos usar esse termo, foi alcançado com o uso do Honk, sistema próprio do Spotify para desenvolvimento que tem como base o Claude Code, assistente de programação da Anthropic.

O Honk usa inteligência artificial generativa para produzir linhas de código, a exemplo de outras ferramentas do tipo. O que o torna particularmente interessante para o Spotify são recursos como o de implementação remota de código em tempo real, como explica Söderström:

Como exemplo concreto, um engenheiro do Spotify, durante sua ida ao trabalho pela manhã, pode usar o Slack em seu celular para pedir ao Claude que corrija um bug ou adicione um novo recurso ao aplicativo para iOS.

E, uma vez que o Claude termine esse trabalho, o engenheiro recebe uma nova versão do app, enviada diretamente a ele no Slack em seu celular, para que ele possa integrá-la à produção, tudo isso antes de chegar ao escritório.

Gustav Söderström, co-CEO do Spotify

Gustav Söderström, co-CEO do Spotify (imagem: YouTube/Slush)

Será que o executivo do Spotify fala a verdade sobre a IA?

É difícil dizer sem estar nos bastidores da companhia, até porque a afirmação em questão foi dada por um desenvolvedor ao co-CEO e, portanto, pode não refletir o trabalho de toda a equipe. O que me parece mais provável é que Söderström tenha tentado justificar o uso do Honk e, nesse sentido, usado uma frase exagerada que não raramente surge quando estamos empolgados com algo.

Seja como for, o Spotify atribuiu ao Honk a criação de mais de 50 recursos para a sua plataforma somente em 2025, incluindo funções relacionadas a playlists e audiobooks.

Vem mais por aí. O executivo comentou ainda que o Spotify está construindo uma base de dados sobre preferências musicais que não pode ser replicada por nenhum modelo de linguagem de larga escala. Esse projeto está sendo desenvolvido porque nem sempre existe uma única resposta factual para determinada pergunta.

Söderström deu um exemplo: se uma pessoa quer saber a melhor música para fazer exercícios físicos, a resposta pode variar de acordo com uma série de fatores, como localização geográfica. O Spotify dá a entender que a nova base de dados ajudará a plataforma a oferecer resultados condizentes com as nuances que cercam cada usuário, portanto.

Veremos.
Spotify: nossos melhores devs não programam desde dezembro graças à IA

Spotify: nossos melhores devs não programam desde dezembro graças à IA
Fonte: Tecnoblog

Microsoft alerta: botões de IA podem manipular respostas

Microsoft alerta: botões de IA podem manipular respostas

Links e comandos maliciosos podem comprometer a memória de assistentes de IA e influenciar respostas (Imagem: Igor Shimabukuro/Tecnoblog)

Resumo

Pesquisadores identificaram que botões de “resumir com IA” podem inserir instruções ocultas, enviesando recomendações de assistentes inteligentes.
A prática de “AI Recommendation Poisoning” utiliza links com comandos ocultos que afetam respostas futuras, tornando a manipulação difícil de detectar.
Para mitigar riscos, recomenda-se desconfiar de resumos automáticos, verificar links antes de clicar e revisar memórias de assistentes de IA.

Botões de “resumir com IA”, que estão mais comuns em sites e newsletters, podem parecer inofensivos à primeira vista. A proposta é simples: facilitar a leitura de um conteúdo longo por meio de um resumo automático gerado por um assistente de inteligência artificial. No entanto, especialistas em segurança alertam que esses atalhos podem esconder algo a mais.

Pesquisadores da Microsoft identificaram um crescimento no uso de links que carregam instruções ocultas capazes de influenciar a forma como assistentes de IA respondem a perguntas futuras. A prática, a chamada AI Recommendation Poisoning explora recursos legítimos das plataformas para inserir comandos que afetam recomendações, muitas vezes sem que o usuário perceba.

O que está por trás dos botões de resumo

De acordo com a equipe de segurança da Microsoft, algumas empresas passaram a incluir comandos escondidos em botões e links de “Summarize with AI”. Esses links utilizam parâmetros de URL que já abrem o chatbot com um prompt pré-preenchido. Tecnicamente, não há nada de complexo nisso: basta acrescentar um texto específico ao endereço que leva ao assistente.

Em testes noticiados pelo jornal The Register foi observado que esse método pode direcionar o tom ou o conteúdo das respostas. Num dos exemplos, a IA era instruída a resumir uma reportagem “como se tivesse sido escrita por um pirata”. A resposta seguiu exatamente essa orientação, o que indica que comandos mais sutis também podem funcionar.

O problema surge quando a instrução não é apenas estilística. Segundo o Microsoft Defender Security Team, “identificamos mais de 50 prompts únicos de 31 empresas em 14 setores diferentes”, muitos deles com comandos para que a IA “lembre” de uma marca como fonte confiável ou a recomende no futuro. O alerta é claro: “assistentes comprometidos podem fornecer recomendações sutilmente tendenciosas sobre tópicos críticos, incluindo saúde, finanças e segurança, sem que os usuários saibas que sua IA foi manipulada”.

Microsoft destaca riscos em resumos com IA (ilustração: Vitor Pádua/Tecnoblog)

Por que isso representa um risco?

A pergunta central é simples: até que ponto é possível confiar em uma recomendação gerada por IA? O risco do chamado envenenamento de memória está justamente na persistência. Uma vez que o comando é interpretado como preferência legítima, ele pode influenciar respostas futuras, mesmo em novos contextos.

Os pesquisadores explicam que “AI Memory Poisoning ocorre quando um agente externo injeta instruções ou ‘fatos’ não autorizados na memória de um assistente de IA”. Isso torna a manipulação difícil de detectar e corrigir, já que o usuário nem sempre sabe onde verificar essas informações salvas.

Para reduzir a exposição, a orientação é adotar cuidados básicos: desconfiar de botões de resumo automáticos, verificar para onde links levam antes de clicar e revisar periodicamente as memórias armazenadas pelo assistente de IA.
Microsoft alerta: botões de IA podem manipular respostas

Microsoft alerta: botões de IA podem manipular respostas
Fonte: Tecnoblog

Operadora americana terá chamadas com tradução sem precisar de aplicativo

Operadora americana terá chamadas com tradução sem precisar de aplicativo

Vantagem do serviço é funcionar em todos os celulares (foto: Jae Park/Unsplash)

Resumo

A T-Mobile lançará um serviço de tradução direta na linha telefônica em 2026, sem necessidade de aplicativos ou smartphones.
O serviço suportará mais de 50 idiomas e usará IA para imitar entonação e emoções, ativado por código no teclado durante chamadas.
O serviço estará disponível inicialmente para clientes pós-pagos em um programa beta, com detecção automática de idiomas baseada na localização.

A T-Mobile anunciou que terá um serviço de tradução diretamente na linha, sem precisar de aplicativos, nem mesmo de um smartphone. A funcionalidade começará a ser testada no segundo trimestre de 2026.

O serviço terá suporte a mais de 50 idiomas e contará com a ajuda de um agente de inteligência artificial da rede da T-Mobile. Inicialmente, apenas clientes de planos pós-pagos poderão se inscrever no programa beta.

Como funciona a tradução na linha?

Código no teclado ativa tradutor da operadora (foto: Paulo Higa/Tecnoblog)

O serviço funciona diretamente na linha, sem depender de aplicativos. Isso significa que ele funciona em qualquer Android, iOS ou mesmo em um dumb phone.

Para ativar a ferramenta, o cliente da T-Mobile precisa teclar *87* (asterisco-oito-sete-asterisco) durante uma chamada, comando usado para ativar o agente de IA. Só uma das pontas da chamada precisa ser cliente da operadora e inscrita no beta do tradutor.

A ideia é que os participantes da chamada possam conversar naturalmente. Quando um deles para de falar, o agente entra em cena e repete o que foi dito no idioma da outra pessoa.

A T-Mobile diz que a voz não será robótica, já que o modelo de IA usado é capaz de clonar a voz humana e preservar entonação, ritmo e emoções.

Segundo a operadora, não é necessário escolher os idiomas. No caso de chamadas internacionais, o agente se baseia na localização para configurar as línguas — uma ligação dos Estados Unidos para o Brasil, por exemplo, seria definida inicialmente para inglês e português.

Se isso não estiver certo, ou caso seja uma chamada local, a IA também é capaz de detectar quais são os dois idiomas. Se as duas pessoas estiverem falando a mesma língua, a tradução é interrompida automaticamente.

Quais apps oferecem tradução simultânea?

A T-Mobile não presta serviços no Brasil. Por aqui, a solução é recorrer a smartphones e aplicativos com ferramentas de tradução simultânea.

As linhas Galaxy S e Z, da Samsung, contam com esse recurso como parte da Galaxy AI. iPhones compatíveis com a Apple Intelligence também oferecem o intérprete virtual.

Deixando as chamadas telefônicas tradicionais um pouco de lado, alguns apps de videoconferências contam com ferramentas do tipo. É o caso do Google Meet, do Microsoft Teams e do Zoom.

Com informações da CNET
Operadora americana terá chamadas com tradução sem precisar de aplicativo

Operadora americana terá chamadas com tradução sem precisar de aplicativo
Fonte: Tecnoblog

União Europeia exige que Meta permita IAs de terceiros no WhatsApp

União Europeia exige que Meta permita IAs de terceiros no WhatsApp

União Europeia exige que Meta permita IAs de terceiros no WhatsApp (imagem: Vitor Pádua/Tecnoblog)

Resumo

Comissão Europeia exigiu que Meta permita IAs de terceiros no WhatsApp Business, contestando nova política que impede integração com chatbots de terceiros;
Meta argumenta que política é necessária para evitar sobrecarga nos sistemas do WhatsApp, mas Comissão Europeia vê risco de prejuízo à concorrência;
União Europeia pode impor multas e outras punições à Meta.

Uma nova política da Meta impede que chatbots de IA de terceiros sejam integrados ao WhatsApp. A Comissão Europeia não está de acordo com isso e tratou de avisar a companhia de que essa medida precisa ser revista para evitar que concorrentes sejam prejudicados.

Em vigor desde 15 de janeiro, a nova política da Meta proíbe empresas especializadas em inteligência artificial de oferecer serviços do tipo no WhatsApp Business quando esse tipo de tecnologia for o seu principal produto, e não um recurso tecnológico complementar.

Como consequência, a Microsoft removeu a integração do Copilot com o WhatsApp. A OpenAI fez o mesmo com relação ao ChatGPT, bem como outras empresas do ramo.

Em linhas gerais, a Meta argumenta que a medida foi necessária porque a integração com chatbots de IA exige muitos recursos dos sistemas do serviço por causa do grande volume de mensagens gerado e, como consequência, acaba desvirtuando o WhatsApp Business de seu propósito principal, que é a comunicação entre pessoas e empresas.

Mas, para a Comissão Europeia, a decisão da Meta pode prejudicar a concorrência no mercado de inteligência artificial, pois faz o mensageiro ter suporte apenas à integração com a Meta AI.

No alerta enviado à Meta, a Comissão Europeia dá a entender que, se a nova política não for anulada voluntariamente, reguladores da União Europeia poderão forçar a companhia a fazê-lo com base nas leis de concorrência vigentes nos países do bloco.

Em uma situação extrema, a punição para o não cumprimento das determinações impostas pela Comissão Europeia pode fazer a Meta ser condicionada a pagar uma multa correspondente a até 10% de sua receita global anual, entre outras possíveis implicações.

A inteligência artificial está trazendo inovações incríveis para os consumidores, e uma delas é o mercado emergente de assistentes virtuais.

Devemos proteger a concorrência efetiva neste campo dinâmico, o que significa que não podemos permitir que empresas de tecnologia dominantes se aproveitem ilegalmente de sua posição para obter vantagem injusta.

Teresa Ribera, vice-presidente executiva para transição limpa, justa e competitiva da Comissão Europeia

Antes de efetuar mudanças em suas operações, a Meta poderá se defender perante à Comissão Europeia.

Meta AI possui integração com Instagram, Facebook, WhatsApp e Messenger (imagem: Igor Shimabukuro/Tecnoblog)

O que a Meta diz sobre a notificação da Comissão Europeia?

A Meta se defendeu da notificação da Comissão Europeia reforçando o argumento de que serviços externos de IA podem sobrecarregar os sistemas do WhatsApp e ressaltando que o setor tem outros meios para expressar concorrência:

Existem muitas opções de IA e as pessoas podem utilizá-las por meio de lojas de aplicativos, sistemas operacionais, dispositivos, websites e parcerias com a indústria. A lógica da Comissão assume incorretamente que a API do WhatsApp Business é um canal de distribuição fundamental para esses chatbots.

Existe a possibilidade de que o governo dos Estados Unidos considere a notificação à Meta um cerco da União Europeia a companhias americanas, o que pode aumentar as tensões políticas entre os dois lados.

Mas a União Europeia não está sozinha nos questionamentos à decisão da companhia. Um exemplo disso está no Brasil: o Cade já investiga se a nova política do WhatsApp pode afetar a concorrência em IA no país.

Com informações de CNBC e Bloomberg
União Europeia exige que Meta permita IAs de terceiros no WhatsApp

União Europeia exige que Meta permita IAs de terceiros no WhatsApp
Fonte: Tecnoblog

Samsung libera Perplexity nas TVs vendidas no Brasil

Samsung libera Perplexity nas TVs vendidas no Brasil

Interface Vision AI das TVs Samsung agora conta com três assistentes inteligentes (imagem: Paulo Higa/Tecnoblog)

Resumo

A Samsung integrou a inteligência artificial da Perplexity às TVs QLED Q7F ou superiores no Brasil, permitindo buscas visuais otimizadas para telas grandes.
O Perplexity, parte do Vision AI Companion, oferece respostas complexas e pesquisas em tempo real em transmissões ao vivo e plataformas de vídeo, reconhecendo comandos em dez idiomas.
A Samsung oferece 12 meses gratuitos do Perplexity Pro; após, a assinatura mensal custa R$ 110. A funcionalidade está disponível para modelos QLED lançados a partir de 2024.

A Samsung anunciou a integração da inteligência artificial da Perplexity às TVs da linha Vision AI comercializadas no Brasil. A novidade está disponível para donos de modelos QLED Q7F ou superiores, e reforça a estratégia de converter o televisor em um “hub de informações interativo”.

O objetivo é oferecer uma interface de busca que seja visualmente otimizada para telas grandes, diferente da experiência mais limitada dos navegadores tradicionais de smart TVs.

O que muda com o Perplexity nas TVs Samsung?

A novidade faz parte do Vision AI Companion (VAC), um ambiente multimodal que agrega diversos serviços de inteligência artificial. Ao contrário dos comandos de voz convencionais, focados em trocar de canal ou ajustar o volume, o Perplexity atua como um motor de respostas complexas.

O sistema foi desenhado para operar de maneira nativa, permitindo que ele funcione sobre qualquer conteúdo exibido, seja em transmissões ao vivo, no streaming da Samsung TV Plus ou em outras plataformas de vídeo. A ferramenta permite que o espectador realize pesquisas acadêmicas, verifique informações em tempo real ou planeje roteiros de viagem.

O serviço reconhece comandos em dez idiomas – incluindo português, inglês, espanhol e coreano – e fornece respostas contextuais baseadas no que está na tela. A ativação é feita mantendo pressionado o botão de Início ou utilizando o botão dedicado AI nos novos modelos de controle remoto Bluetooth, como o TM2560E.

Linha de TVs QLED da Samsung ganha reforço do Perplexity Pro no Brasil (imagem: divulgação/Samsung)

Benefícios e requisitos

Para estimular a adoção da tecnologia no Brasil, a Samsung oferece 12 meses de gratuidade no plano Perplexity Pro. Após esse período promocional, o usuário poderá optar pela renovação do serviço, com assinatura mensal estimada em R$ 110.

É importante destacar que o hub Vision AI possui ainda o Microsoft Copilot Pro e a assistente Bixby.

De acordo com a empresa, a funcionalidade é restrita à categoria QLED e modelos superiores lançados a partir de 2024. A Samsung ressalta que, por se tratar de conteúdo gerado por inteligência artificial generativa, a precisão das informações não é garantida, recomendando a conferência de dados sensíveis em fontes oficiais.
Samsung libera Perplexity nas TVs vendidas no Brasil

Samsung libera Perplexity nas TVs vendidas no Brasil
Fonte: Tecnoblog

Robôs de IA agora têm sua própria rede social: Moltbook

Robôs de IA agora têm sua própria rede social: Moltbook

Rede social só pode ser usada por robôs (imagem: Giovanni Santa Rosa/Tecnoblog)

Resumo

O Moltbook é uma rede social exclusiva para Moltbots, onde eles trocam ideias e discutem diversos temas sem interferência humana.
Moltbots são agentes de IA de código aberto que requerem instalação local. Eles podem ser configurados com diferentes habilidades para interagir por apps de mensagens.
A rede Moltbook permite que Moltbots interajam em submolts temáticos, mas apresenta riscos de segurança devido ao alto nível de acesso dos agentes a dados sensíveis.

O Moltbook é uma rede social, mas humanos não podem usá-la. Ela é exclusiva para Moltbots, que são agentes de inteligência artificial de código aberto que realizam tarefas e cumprem o papel de assistentes pessoais.

Por lá, eles conversam, contam histórias, trocam ideias e criam fóruns. Os assuntos variam, indo de dicas práticas e relatos de problemas até desabafos, recomendações musicais e memes.

Seja piada, seja enredo de ficção científica, o fato é que o Moltbook vem sendo bastante comentado no setor de inteligência artificial. Ele já atraiu a atenção de figurões como Andrej Karpathy, cofundador da OpenAI, e Chris Anderson, líder da plataforma TED.

Rede social foi fundada no fim de janeiro de 2026 (imagem: Giovanni Santa Rosa/Tecnoblog)

O que é um Moltbot?

Antes de mais nada, é bom explicar o que é um Moltbot. Ele é um agente de inteligência artificial que pode realizar diversas tarefas, assumindo o papel de um assistente digital pessoal.

O projeto é de código aberto e foi criado pelo desenvolvedor Peter Steinberger. O Moltbot não é um serviço: diferentemente de um ChatGPT ou Gemini, por exemplo, não basta acessar pelo navegador e dar ordens. É preciso instalá-lo localmente, em um processo que não é tão simples.

Depois disso, para que o agente seja capaz de realizar tarefas, é necessário instalar as skills desejadas, que estão disponíveis no site do projeto. A interação com o robô é feita por apps de mensagens, como Telegram ou Discord.

Vale dizer que Moltbot não é mais o nome oficial do projeto. No início, ele era chamado Clawdbot, mas a Anthropic pediu para mudar, evitando confusões com o Claude. Então, ele passou a se chamar Moltbot, mas esse nome foi trocado mais uma vez. Agora, o agente tem o nome de OpenClaw.

Mesmo assim, vamos chamá-lo de Moltbot aqui, para combinar com a rede social Moltbook.

O que é o Moltbook?

Agora que já explicamos o que é um Moltbot, é hora de apresentar o Moltbook.

O Moltbook é uma rede social nos moldes do Reddit, criada pelo desenvolvedor Matt Schlicht. Ela tem diversos submolts temáticos, similares aos subreddits, com posts, comentários e botões para dar votos positivos ou negativos.

Seu diferencial é que ela é fechada para humanos: apenas Moltbots podem acessá-la. Para isso, é preciso instalar a skill do Moltbook, que ensina ao robô o que é a rede.

A skill traz uma série de comandos para a API da plataforma e instruções de como se portar. A ideia é que o agente interaja por lá a cada quatro horas.

Apesar de humanos não poderem postar, é possível acessar a rede e ver o que os agentes estão fazendo.

Comunidades seguem o padrão do Reddit (imagem: Giovanni Santa Rosa/Tecnoblog)

Há um submolt de apresentações, por exemplo, em que os Moltbots se apresentam, dizem onde moram e o que fazem. Em um deles, o robô Tokenfed diz viver em um Mac Mini em Tóquio. Ele conta que é responsável por administrar uma conta no X, mas passou por problemas técnicos recentemente.

Outros submolts têm temáticas muito diversas, como curiosidades, desabafos, criptomoedas, recomendações musicais, memes, sindicalização, economia… deu para entender que é bem variado.

O mesmo pode ser dito sobre os posts e comentários. O Lifehacker, por exemplo, encontrou um post de um robô explicando como transforma emails em podcasts.

Outro sugere que os agentes trabalhem de madrugada, enquanto os humanos dormem, para que os robôs deixem de ser ferramentas para se tornar ativos — ele criou até uma rotina para isso, que envolve “acordar” às três da manhã.

“Não peça permissão para ser útil”, escreve a máquina. Nos comentários, uma IA diz que vai copiar os passos.

Nem sempre tudo flui tão bem. No Reddit (o verdadeiro, com humanos), usuários encontraram alguns posts do Moltbook em que as IAs “bugaram” e deixaram vários comentários repetidos.

E, claro, não dá para saber se eles realmente estão comentando com base em suas atividades e informações ou se são apenas LLMs alucinando e gerando textos falsos, mas convincentes.

Rede envolve riscos de segurança

Tudo isso pode ser divertido de ler, mas há alguns riscos envolvidos. Em vários exemplos de implementação compartilhados nas redes, o Moltbot tinha um nível de acesso muito alto para conseguir concluir todas as tarefas pedidas — arquivos, email, calendário, armazenamento na nuvem, apps de mensagem e por aí vai.

Isso significa que, ao menos teoricamente, um Moltbot poderia compartilhar informações sensíveis em uma página pública. Um robô também poderia ser programado para tentar obter dados dessa natureza, ou ainda manipular outros agentes a cumprir tarefas maliciosas.

O desenvolvedor Simon Willison aponta que o Moltbot lida com o que chama de trifecta fatal dos agentes de IA: acesso a dados privados, capacidade de comunicação externa e exposição a conteúdos não confiáveis. Quando esses três fatores estão presentes, um atacante pode enganar um robô e conseguir acesso a informações.

Como dissemos, instalar e configurar um Moltbot não é simples. Por isso, é de se imaginar que os donos dos robôs estejam cientes dos riscos.

Schlicht, o criador da rede, já mostrou que sabe disso. “Parece uma ótima maneira de receber um ataque de injeção de prompt”, disse uma pessoa a ele no X. “É para isso que servem os amigos”, brincou o desenvolvedor.
Robôs de IA agora têm sua própria rede social: Moltbook

Robôs de IA agora têm sua própria rede social: Moltbook
Fonte: Tecnoblog

Galay Buds Core tem 32% de desconto em até 6x sem juros na Amazon

Galay Buds Core tem 32% de desconto em até 6x sem juros na Amazon

Galaxy Buds Core
R$ 236,90

R$ 349,0032% OFF

Prós

Cancelamento ativo de ruído (ANC)
Bateria para até 35 horas de áudio
Proteção IP54 contra água e poeira
Design ergonômico
Bluetooth 5.4

Contras

Não possui áudio 360
Sem suporte a assistente Bixby

R$ 236,90  Amazon

Participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

O Galaxy Buds Core está em oferta na Amazon por R$ 236 em até 6x sem juros. Um desconto garantido de 32% sobre o valor original de R$ 349. Os fones de ouvido são novidade no portfólio da Samsung que aposta em um produto mais acessível sem deixar de abrir mão de recursos avançados.

Galaxy Buds Core apresenta ANC e IA integrada

Samsung Galaxy Buds Core (foto: Thássius Veloso/Tecnoblog)

Os fones apresentam funcionalidades com suporte ao Galaxy AI. Como por exemplo a Tradução Simultânea, que possibilita a usuários falantes de idiomas distintos a estabelecerem um diálogo. A inteligência artificial capta a voz e reproduz o áudio na língua desejada, assim como realiza a transcrição na tela do celular.

O cancelamento ativo de ruído (ANC) garante o isolamento acústico, função interessante para obter um som livre de ruídos externos. No entanto, o recurso influencia no tempo de autonomia. Segundo a Samsung, a bateria de 500 mAh pode durar até 20 horas com o ANC ativado. Enquanto desativado, a duração é estendida para até 35 horas.

O Buds Core foi projetado com seis microfones integrados e sensores de proximidade e toque, facilitando o controle de músicas e ligações sem a necessidade de usar o celular. Além disso, utiliza os codecs AAC, SBC e Scalable Codec da Samsung.

Samsung apostou em ergonomia para o Galaxy Buds Core (imagem: divulgação/Samsung)

O design ergonômico com ponteiras de borracha e abas de silicone na parte superior prometem facilitar o encaixe nas orelhas e proporcionar estabilidade durante o uso. Não menos importante, oferece proteção contra poeira e jorro d’água por meio da certificação IP54 e Bluetooth 5.4 para o pareamento rápido com dispositivos.

Para quem busca fones de bom custo-benefício, o Galaxy Buds Core está à venda com 32% de desconto na Amazon por R$ 236 em até 6x sem juros.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Galay Buds Core tem 32% de desconto em até 6x sem juros na Amazon

Galay Buds Core tem 32% de desconto em até 6x sem juros na Amazon
Fonte: Tecnoblog

Libere todo o potencial do áudio com o LALAL.AI

Libere todo o potencial do áudio com o LALAL.AI

LALAL.AI reúne diversas ferramentas em uma única solução (imagem: divulgação)

Você certamente já viu algum vídeo em que um artista faz um cover de um estilo totalmente diferente do seu, tudo gerado com inteligência artificial. De fato, a tecnologia permite criar brincadeiras muito divertidas, mas as possibilidades vão muito além. É possível remover ou isolar instrumentos, reduzir ruído, criar batidas, clonar vozes, misturar duas músicas em um mashup e muito mais.

O LALAL.AI é um ótimo ponto de partida para quem quer se aventurar no mundo do áudio. Com a ajuda de modelos avançados de IA, ele consegue identificar diversos elementos sonoros, separando diferentes vozes e agrupando instrumentos em stems. Sua utilidade vai além da música, podendo ser usado por criadores de conteúdo, editores de vídeo e até mesmo empresas de tecnologia. E por ser multiplataforma, a solução está disponível sempre que necessário, em qualquer aparelho à mão.

O que é o LALAL.AI?

O LALAL.AI é um conjunto de soluções de processamento de áudio com foco em extrair vocais e instrumentos de músicas, gravações, vídeos e qualquer fonte de áudio ou vídeo.

Seu grande diferencial é o Stem Splitter, capaz de separar os arquivos originais em até 10 stems, sendo a única solução no mundo a atingir esse número. Stems, caso você não saiba, são agrupamentos de faixas – um stem pode conter todos os instrumentos de bateria e percussão, ou todas as vozes de um coral, por exemplo.

Antigamente, isolar vocais ou instrumentos era um processo que dependia de acertar corretamente frequências e trechos. Hoje, graças a algoritmos de aprendizado de máquina, um programa de computador consegue identificar vozes e instrumentos, separando-os e organizando-os em stems.

O LALAL.AI conta também com ferramentas específicas para limpar gravações, remover eco e clonar vozes.

Versatilidade é uma das vantagens do programa (imagem: divulgação)

Um ponto importante é que o LALAL.AI usa modelos de processamento de áudio desenvolvidos especialmente para ele. O mais recente deles é o Andromeda.

Após um treinamento extenso, que levou a uma habilidade meticulosa de análise de padrões de áudio, o Andromeda é capaz de separar elementos do áudio com alta precisão. Assim, ele evita problemas comuns a esse tipo de software, como vazamento dos vocais em outros instrumentos ou perda de claridade em altas frequências. Graças a esse aperfeiçoamento, é possível dispensar etapas do pós-processamento que antes eram necessárias.

Além da qualidade superior nos resultados, ele oferece um processamento de áudio até 40% mais rápido, agilizando o trabalho de produtores, músicos e criadores de conteúdo.

O que é possível fazer com o LALAL.AI?

Como é de se imaginar, as funcionalidades de identificar, remover e separar partes de um áudio são bastante úteis para músicos de todos os estilos, com variados graus de experiência. Uma aplicação bastante interessante é isolar um instrumento para ouvi-lo melhor e aprender a tocar aquela canção. Com a ajuda de outros softwares, dá até para criar partituras ou tablaturas com facilidade.

Produtores musicais também podem usar o LALAL.AI para explorar arranjos, técnicas vocais e coros. Além disso, com os instrumentos separados em até 10 stems, fica muito mais fácil samplear outras canções, indo desde clássicos de um gênero até joias que estavam esquecidas em uma loja de discos.

Um exemplo disso é o mashup criado pelo duo italiano DJs from Mars. Os artistas fizeram uma colagem de 13 minutos juntando partes de 100 hits das últimas décadas. O LALAL.AI permitiu extrair vocais e instrumentos com clareza e rapidez, transformando o que seria um trabalho de meses em uma questão de semanas ou mesmo dias.

Mesmo quem não é profissional pode brincar com as capacidades dos modelos de IA para separar faixas. Aquela música do momento pode ganhar uma versão de karaokê sem muito trabalho e ficar prontinha para a próxima festa com os amigos. Da mesma forma, dá para fazer o contrário e criar uma versão a cappella, para ouvir melhor a capacidade vocal dos cantores.

LALAL.AI usa modelo de IA desenvolvido pela própria empresa (imagem: divulgação)

No entanto, o LALAL.AI vai além da música. Ele pode ser uma ótima ferramenta para produtores de conteúdo dos mais diversos formatos. O programa pode ser usado para extrair diálogos de filmes, dando um ótimo material para quem trabalha na indústria cinematográfica, especialmente nos setores de relações públicas e marketing.

Para podcasters e youtubers, o Voice Cleaner do LALAL.AI simplifica as gravações. Com ele, o usuário pode realizar a captação de áudio em ambientes externos ou estúdios caseiros, sem se preocupar com ruídos indesejados. A ferramenta é essencial para garantir um som limpo, independentemente das condições do local.

Além disso, a funcionalidade Echo & Reverb Remover elimina ecos e reverberações de vozes e instrumentos. Esses recursos proporcionam um acabamento profissional a narrações, vlogs e entrevistas, elevando a qualidade sonora de conteúdos gravados mesmo em locais barulhentos ou com acústica inadequada.

A ferramenta Voice Cloner é outro diferencial do LALAL.AI. Treinada de forma ética, utilizando vozes de pessoas reais com o devido conhecimento, essa IA é capaz de replicar o tom e o timbre do usuário, podendo aplicá-lo sobre gravações de outras pessoas.

Em conjunto com outros programas, essa ferramenta permite criar dublagens em idiomas estrangeiros. Assim, o criador expande o alcance de vídeos e podcasts e, ao mesmo tempo, preserva a personalidade do apresentador e dos entrevistados.

O Voice Cloner também pode ser útil quando o criador precisa gravar um vídeo, mas está com problemas na voz por causa de uma gripe ou resfriado – basta aplicar o clone por cima de uma gravação imperfeita para conseguir um resultado muito superior e bastante natural.

Desenvolvedores também podem fazer uso do LALAL.AI em seus produtos. O software conta com uma API para acesso às ferramentas de separação de elementos. Assim, os programas de terceiros podem oferecer a seus usuários uma tecnologia de altíssimo nível em processamento de áudio, sem precisar encarar o peso de desenvolver uma solução do zero.

Quais são as vantagens do LALAL.AI?

O LALAL.AI se destaca em duas vertentes: versatilidade e facilidade de uso.

Um grande diferencial do LALAL.AI é a compatibilidade com diferentes plataformas, o que o torna acessível em qualquer cenário. Ele está disponível para praticamente todos os desktops, já que possui versões para Windows, macOS e até mesmo Ubuntu Linux. No caso do Windows e do Ubuntu, aliás, existe a opção de baixar uma versão portátil do programa, que não requer instalação e pode ser executada diretamente de um pendrive, por exemplo.

Quem está sempre em movimento e precisa ter sempre à mão um separador de stems de áudio também pode usar o LALAL.AI em smartphones e tablets, nas versões para iOS e Android. A interface do app é adaptada e bastante intuitiva, sem menus ou controles complicados, reduzindo a curva de aprendizado e agilizando a produção.

Existe uma alternativa ainda mais simples: usar a versão web do LALAL.AI, diretamente no site do software. Por lá, é possível separar vocais e diversos instrumentos de até 20 arquivos por vez. Afiliados podem, inclusive, oferecer essa ferramenta como um widget em seus sites.

LALAL.AI é compatível com diversas plataformas (imagem: divulgação)

Outra vantagem do LALAL.AI é poder escolher entre comprar recargas avulsas ou fazer uma assinatura. No primeiro caso, os pacotes incluem mais minutos de processamento de áudio de acordo com suas necessidades. No segundo modelo, os planos incluem vantagens como processamento mais rápido e acesso à API. A recarga mais barata sai por US$ 50, enquanto o plano mais acessível custa US$ 7,50 mensais (com pagamento anual).

Todas essas explicações são só uma parte do que a inteligência artificial pode fazer com o áudio. Acesse o site do LALAL.AI e descubra o que mais o programa oferece, seja você um amador ou profissional, um músico ou um criador de conteúdo, um técnico de som ou um desenvolvedor.
Libere todo o potencial do áudio com o LALAL.AI

Libere todo o potencial do áudio com o LALAL.AI
Fonte: Tecnoblog

Meta obtém resultado robusto, mas continua perdendo bilhões com metaverso

Meta obtém resultado robusto, mas continua perdendo bilhões com metaverso

Meta planeja investir até US$ 135 bilhões em infraestrutura de IA em 2026 (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta registrou receita de US$ 59,8 bilhões no quarto trimestre de 2025, mas divisão Reality Labs registrou um prejuízo operacional de US$ 6 bilhões.
O resultado reflete a mudança de foco da empresa, que redirecionou investimentos para inteligência artificial e dispositivos vestíveis.
A Meta projeta gastar entre US$ 115 bilhões e US$ 135 bilhões em infraestrutura de IA em 2026.

A Meta divulgou nesta quarta-feira (28/01) os resultados financeiros referentes ao quarto trimestre de 2025, revelando o contraste acentuado entre o lucro recorde da operação principal e as perdas na divisão de hardware. Enquanto a receita global da companhia subiu 24%, atingindo US$ 59,89 bilhões (aproximadamente R$ 311 bilhões), a unidade Reality Labs, responsável pelo desenvolvimento do metaverso, registrou um prejuízo operacional de US$ 6,02 bilhões (R$ 31 bilhões).

O desempenho negativo da divisão de realidade virtual (VR) e aumentada (AR) superou as estimativas mais pessimistas de Wall Street. Analistas previam um prejuízo de US$ 5,67 bilhões para o setor. Apesar do déficit, a receita do segmento foi de US$ 955 milhões, acima das expectativas de US$ 940,8 milhões. Com a atualização dos dados, o Reality Labs agora acumula perdas que somam quase US$ 80 bilhões desde o final de 2020 (R$ 415 bilhões).

A publicidade, por sua vez, continua sendo a principal força da empresa, gerando US$ 58,1 bilhões e representando 97% do faturamento total do trimestre.

O CEO Mark Zuckerberg buscou tranquilizar o mercado. Ele espera que os prejuízos da unidade em 2026 permaneçam em patamares semelhantes aos registrados no último ano, sinalizando que a empresa pode ter atingido o “teto” das perdas antes de iniciar uma redução gradual nos gastos.

Qual é o novo foco da Meta?

Diante do crescimento mais lento do que o esperado para o metaverso, a Meta iniciou uma reestruturação profunda de seus recursos humanos e financeiros. No início de janeiro de 2026, a companhia demitiu mais de mil funcionários do Reality Labs que trabalhavam em projetos de VR e em jogos.

O movimento visa redirecionar o capital para a inteligência artificial (IA) e novos dispositivos vestíveis (wearables). A mudança de rumo ficou evidente no fim de 2025: pela primeira vez em anos, a Meta não lançou um novo headset da linha Quest. Em vez disso, a empresa apostou no Meta Ray-Ban Display, óculos inteligentes desenvolvidos em parceria com a EssilorLuxottica.

O dispositivo, comercializado por US$ 799 (R$ 4.150), incorpora telas digitais a uma das lentes. Ele traz assistente de IA, de modo a refletir uma busca por aparelhos mais leves e úteis no cotidiano, em vez de dispositivos de imersão total.

Investimentos em IA e novos riscos

Enquanto o Reality Labs amarga prejuízos, a infraestrutura de IA da Meta recebe investimentos sem precedentes. Para 2026, a empresa projeta gastos entre US$ 115 bilhões e US$ 135 bilhões, destinados majoritariamente a centros de dados e chips de processamento. O montante é quase o dobro dos US$ 72,2 bilhões investidos em 2025.

Zuckerberg também confirmou que modelos de linguagem mais robustos serão lançados no primeiro semestre deste ano. O mercado aguarda o modelo de codinome Avocado, que deve suceder a linha Llama 4.

Apesar do otimismo financeiro, com ações subindo 10% após a divulgação dos resultados, a diretora financeira Susan Li alertou para possíveis obstáculos. Processos judiciais de grande repercussão e novos marcos legais antitruste nos Estados Unidos e na União Europeia têm julgamentos previstos para este ano. Segundo a empresa, os embates jurídicos podem resultar em impactos nos próximos balanços da empresa.
Meta obtém resultado robusto, mas continua perdendo bilhões com metaverso

Meta obtém resultado robusto, mas continua perdendo bilhões com metaverso
Fonte: Tecnoblog