Category: Inteligência Artificial

Spotify: nossos melhores devs não programam desde dezembro graças à IA

Spotify: nossos melhores devs não programam desde dezembro graças à IA

Spotify: nossos melhores devs não programam desde dezembro graças à IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Spotify usa IA no desenvolvimento de software com sistema Honk, baseado no Claude Code, economizando esforços de programadores;
Honk permite, entre outras funções, implementação remota de código em tempo real;
Spotify desenvolveu mais de 50 recursos com auxílio do Honk somente em 2025.

O Spotify está entre as numerosas empresas que estão utilizando inteligência artificial no desenvolvimento de software. Até o momento, os resultados parecem ser convincentes: a companhia declarou recentemente que seus melhores desenvolvedores “não escreveram uma única linha de código desde dezembro. Eles apenas geram código [via IA] e o supervisionam”.

A declaração foi feita por Gustav Söderström, co-CEO do Spotify, durante uma teleconferência que tratou dos resultados financeiros da companhia referentes ao último trimestre de 2025.

Tamanho feito, se é que podemos usar esse termo, foi alcançado com o uso do Honk, sistema próprio do Spotify para desenvolvimento que tem como base o Claude Code, assistente de programação da Anthropic.

O Honk usa inteligência artificial generativa para produzir linhas de código, a exemplo de outras ferramentas do tipo. O que o torna particularmente interessante para o Spotify são recursos como o de implementação remota de código em tempo real, como explica Söderström:

Como exemplo concreto, um engenheiro do Spotify, durante sua ida ao trabalho pela manhã, pode usar o Slack em seu celular para pedir ao Claude que corrija um bug ou adicione um novo recurso ao aplicativo para iOS.

E, uma vez que o Claude termine esse trabalho, o engenheiro recebe uma nova versão do app, enviada diretamente a ele no Slack em seu celular, para que ele possa integrá-la à produção, tudo isso antes de chegar ao escritório.

Gustav Söderström, co-CEO do Spotify

Gustav Söderström, co-CEO do Spotify (imagem: YouTube/Slush)

Será que o executivo do Spotify fala a verdade sobre a IA?

É difícil dizer sem estar nos bastidores da companhia, até porque a afirmação em questão foi dada por um desenvolvedor ao co-CEO e, portanto, pode não refletir o trabalho de toda a equipe. O que me parece mais provável é que Söderström tenha tentado justificar o uso do Honk e, nesse sentido, usado uma frase exagerada que não raramente surge quando estamos empolgados com algo.

Seja como for, o Spotify atribuiu ao Honk a criação de mais de 50 recursos para a sua plataforma somente em 2025, incluindo funções relacionadas a playlists e audiobooks.

Vem mais por aí. O executivo comentou ainda que o Spotify está construindo uma base de dados sobre preferências musicais que não pode ser replicada por nenhum modelo de linguagem de larga escala. Esse projeto está sendo desenvolvido porque nem sempre existe uma única resposta factual para determinada pergunta.

Söderström deu um exemplo: se uma pessoa quer saber a melhor música para fazer exercícios físicos, a resposta pode variar de acordo com uma série de fatores, como localização geográfica. O Spotify dá a entender que a nova base de dados ajudará a plataforma a oferecer resultados condizentes com as nuances que cercam cada usuário, portanto.

Veremos.
Spotify: nossos melhores devs não programam desde dezembro graças à IA

Spotify: nossos melhores devs não programam desde dezembro graças à IA
Fonte: Tecnoblog

Microsoft alerta: botões de IA podem manipular respostas

Microsoft alerta: botões de IA podem manipular respostas

Links e comandos maliciosos podem comprometer a memória de assistentes de IA e influenciar respostas (Imagem: Igor Shimabukuro/Tecnoblog)

Resumo

Pesquisadores identificaram que botões de “resumir com IA” podem inserir instruções ocultas, enviesando recomendações de assistentes inteligentes.
A prática de “AI Recommendation Poisoning” utiliza links com comandos ocultos que afetam respostas futuras, tornando a manipulação difícil de detectar.
Para mitigar riscos, recomenda-se desconfiar de resumos automáticos, verificar links antes de clicar e revisar memórias de assistentes de IA.

Botões de “resumir com IA”, que estão mais comuns em sites e newsletters, podem parecer inofensivos à primeira vista. A proposta é simples: facilitar a leitura de um conteúdo longo por meio de um resumo automático gerado por um assistente de inteligência artificial. No entanto, especialistas em segurança alertam que esses atalhos podem esconder algo a mais.

Pesquisadores da Microsoft identificaram um crescimento no uso de links que carregam instruções ocultas capazes de influenciar a forma como assistentes de IA respondem a perguntas futuras. A prática, a chamada AI Recommendation Poisoning explora recursos legítimos das plataformas para inserir comandos que afetam recomendações, muitas vezes sem que o usuário perceba.

O que está por trás dos botões de resumo

De acordo com a equipe de segurança da Microsoft, algumas empresas passaram a incluir comandos escondidos em botões e links de “Summarize with AI”. Esses links utilizam parâmetros de URL que já abrem o chatbot com um prompt pré-preenchido. Tecnicamente, não há nada de complexo nisso: basta acrescentar um texto específico ao endereço que leva ao assistente.

Em testes noticiados pelo jornal The Register foi observado que esse método pode direcionar o tom ou o conteúdo das respostas. Num dos exemplos, a IA era instruída a resumir uma reportagem “como se tivesse sido escrita por um pirata”. A resposta seguiu exatamente essa orientação, o que indica que comandos mais sutis também podem funcionar.

O problema surge quando a instrução não é apenas estilística. Segundo o Microsoft Defender Security Team, “identificamos mais de 50 prompts únicos de 31 empresas em 14 setores diferentes”, muitos deles com comandos para que a IA “lembre” de uma marca como fonte confiável ou a recomende no futuro. O alerta é claro: “assistentes comprometidos podem fornecer recomendações sutilmente tendenciosas sobre tópicos críticos, incluindo saúde, finanças e segurança, sem que os usuários saibas que sua IA foi manipulada”.

Microsoft destaca riscos em resumos com IA (ilustração: Vitor Pádua/Tecnoblog)

Por que isso representa um risco?

A pergunta central é simples: até que ponto é possível confiar em uma recomendação gerada por IA? O risco do chamado envenenamento de memória está justamente na persistência. Uma vez que o comando é interpretado como preferência legítima, ele pode influenciar respostas futuras, mesmo em novos contextos.

Os pesquisadores explicam que “AI Memory Poisoning ocorre quando um agente externo injeta instruções ou ‘fatos’ não autorizados na memória de um assistente de IA”. Isso torna a manipulação difícil de detectar e corrigir, já que o usuário nem sempre sabe onde verificar essas informações salvas.

Para reduzir a exposição, a orientação é adotar cuidados básicos: desconfiar de botões de resumo automáticos, verificar para onde links levam antes de clicar e revisar periodicamente as memórias armazenadas pelo assistente de IA.
Microsoft alerta: botões de IA podem manipular respostas

Microsoft alerta: botões de IA podem manipular respostas
Fonte: Tecnoblog

Operadora americana terá chamadas com tradução sem precisar de aplicativo

Operadora americana terá chamadas com tradução sem precisar de aplicativo

Vantagem do serviço é funcionar em todos os celulares (foto: Jae Park/Unsplash)

Resumo

A T-Mobile lançará um serviço de tradução direta na linha telefônica em 2026, sem necessidade de aplicativos ou smartphones.
O serviço suportará mais de 50 idiomas e usará IA para imitar entonação e emoções, ativado por código no teclado durante chamadas.
O serviço estará disponível inicialmente para clientes pós-pagos em um programa beta, com detecção automática de idiomas baseada na localização.

A T-Mobile anunciou que terá um serviço de tradução diretamente na linha, sem precisar de aplicativos, nem mesmo de um smartphone. A funcionalidade começará a ser testada no segundo trimestre de 2026.

O serviço terá suporte a mais de 50 idiomas e contará com a ajuda de um agente de inteligência artificial da rede da T-Mobile. Inicialmente, apenas clientes de planos pós-pagos poderão se inscrever no programa beta.

Como funciona a tradução na linha?

Código no teclado ativa tradutor da operadora (foto: Paulo Higa/Tecnoblog)

O serviço funciona diretamente na linha, sem depender de aplicativos. Isso significa que ele funciona em qualquer Android, iOS ou mesmo em um dumb phone.

Para ativar a ferramenta, o cliente da T-Mobile precisa teclar *87* (asterisco-oito-sete-asterisco) durante uma chamada, comando usado para ativar o agente de IA. Só uma das pontas da chamada precisa ser cliente da operadora e inscrita no beta do tradutor.

A ideia é que os participantes da chamada possam conversar naturalmente. Quando um deles para de falar, o agente entra em cena e repete o que foi dito no idioma da outra pessoa.

A T-Mobile diz que a voz não será robótica, já que o modelo de IA usado é capaz de clonar a voz humana e preservar entonação, ritmo e emoções.

Segundo a operadora, não é necessário escolher os idiomas. No caso de chamadas internacionais, o agente se baseia na localização para configurar as línguas — uma ligação dos Estados Unidos para o Brasil, por exemplo, seria definida inicialmente para inglês e português.

Se isso não estiver certo, ou caso seja uma chamada local, a IA também é capaz de detectar quais são os dois idiomas. Se as duas pessoas estiverem falando a mesma língua, a tradução é interrompida automaticamente.

Quais apps oferecem tradução simultânea?

A T-Mobile não presta serviços no Brasil. Por aqui, a solução é recorrer a smartphones e aplicativos com ferramentas de tradução simultânea.

As linhas Galaxy S e Z, da Samsung, contam com esse recurso como parte da Galaxy AI. iPhones compatíveis com a Apple Intelligence também oferecem o intérprete virtual.

Deixando as chamadas telefônicas tradicionais um pouco de lado, alguns apps de videoconferências contam com ferramentas do tipo. É o caso do Google Meet, do Microsoft Teams e do Zoom.

Com informações da CNET
Operadora americana terá chamadas com tradução sem precisar de aplicativo

Operadora americana terá chamadas com tradução sem precisar de aplicativo
Fonte: Tecnoblog

YouTube libera dublagem automática para todo mundo

YouTube libera dublagem automática para todo mundo

YouTube libera dublagem automática para todo mundo (imagem: Vitor Pádua/Tecnoblog)

Resumo

YouTube introduziu dublagem automática em 2023 e, agora, recurso está disponível em 27 idiomas, com 8 suportando modo Expressive Speech;
Usuários podem definir idioma de preferência para dublagem automática em “Reprodução e desempenho”;
Não há opção para o usuário desativar a dublagem automática, porém.

Introduzida em 2023, a dublagem automática de vídeos no YouTube agora é oficial: baseado em inteligência artificial, o recurso foi expandido para mais idiomas, de modo a funcionar, a partir de agora, em canais do mundo todo.

O que a funcionalidade faz é adicionar faixas de áudio em línguas diferentes em relação ao idioma original de um vídeo. Assim, para um conteúdo produzido em inglês, um áudio dublado em português será reproduzido automaticamente para um usuário do Brasil, por exemplo — no país, a dublagem já funciona há algum tempo.

No atual estágio, o recurso funciona oficialmente com 27 idiomas. Porém, até o momento, apenas oito deles são compatíveis com o modo Expressive Speech (Fala Expressiva), que reproduz as falas dubladas com “emoção” e “energia” tão semelhantes às do áudio original quanto possível: alemão, espanhol, francês, hindi, indonésio, inglês, italiano e português.

A dublagem automática foi aprimorada aos poucos no YouTube. E este “liberou geral” para os canais chega com um pequeno recurso para os usuários: agora, cada pessoa pode definir seu idioma de preferência, isto é, aquele para o qual os vídeos a serem visualizados deverão ser traduzidos por padrão.

Para isso, basta ir em “Reprodução e desempenho” e escolher o idioma desejado no campo correspondente (pode-se escolher mais de um).

O vídeo a seguir dá detalhes sobre o funcionamento da dublagem automática da plataforma:

É possível desativar a dublagem automática do YouTube?

Até o momento, não há nenhuma configuração específica para desativar a dublagem automática. Criadores de conteúdo podem fazer isso, mas somente para seus canais.

Para usuários, a solução está em mudar a dublagem para a faixa de áudio original a partir do ícone de engrenagem / opção “Faixa de áudio” em cada vídeo.

O procedimento pode fazer o YouTube guardar essa preferência para os próximos vídeos por algum tempo, embora não haja garantia de que esse truque funcione.

Eu estou entre os que preferem o áudio original. No meu caso, absorvo melhor o conteúdo quando ouço as vozes verdadeiras. Quando o vídeo está em um idioma que eu não conheço, apelo para as legendas.

Há quem prefira o áudio original por considerar a dublagem automática do YouTube pouco precisa ou excessivamente “artificial”. Pelo menos este último aspecto pode melhorar em breve: a plataforma já está testando uma tecnologia que faz dublagem com sincronização labial.
YouTube libera dublagem automática para todo mundo

YouTube libera dublagem automática para todo mundo
Fonte: Tecnoblog

Samsung libera Perplexity nas TVs vendidas no Brasil

Samsung libera Perplexity nas TVs vendidas no Brasil

Interface Vision AI das TVs Samsung agora conta com três assistentes inteligentes (imagem: Paulo Higa/Tecnoblog)

Resumo

A Samsung integrou a inteligência artificial da Perplexity às TVs QLED Q7F ou superiores no Brasil, permitindo buscas visuais otimizadas para telas grandes.
O Perplexity, parte do Vision AI Companion, oferece respostas complexas e pesquisas em tempo real em transmissões ao vivo e plataformas de vídeo, reconhecendo comandos em dez idiomas.
A Samsung oferece 12 meses gratuitos do Perplexity Pro; após, a assinatura mensal custa R$ 110. A funcionalidade está disponível para modelos QLED lançados a partir de 2024.

A Samsung anunciou a integração da inteligência artificial da Perplexity às TVs da linha Vision AI comercializadas no Brasil. A novidade está disponível para donos de modelos QLED Q7F ou superiores, e reforça a estratégia de converter o televisor em um “hub de informações interativo”.

O objetivo é oferecer uma interface de busca que seja visualmente otimizada para telas grandes, diferente da experiência mais limitada dos navegadores tradicionais de smart TVs.

O que muda com o Perplexity nas TVs Samsung?

A novidade faz parte do Vision AI Companion (VAC), um ambiente multimodal que agrega diversos serviços de inteligência artificial. Ao contrário dos comandos de voz convencionais, focados em trocar de canal ou ajustar o volume, o Perplexity atua como um motor de respostas complexas.

O sistema foi desenhado para operar de maneira nativa, permitindo que ele funcione sobre qualquer conteúdo exibido, seja em transmissões ao vivo, no streaming da Samsung TV Plus ou em outras plataformas de vídeo. A ferramenta permite que o espectador realize pesquisas acadêmicas, verifique informações em tempo real ou planeje roteiros de viagem.

O serviço reconhece comandos em dez idiomas – incluindo português, inglês, espanhol e coreano – e fornece respostas contextuais baseadas no que está na tela. A ativação é feita mantendo pressionado o botão de Início ou utilizando o botão dedicado AI nos novos modelos de controle remoto Bluetooth, como o TM2560E.

Linha de TVs QLED da Samsung ganha reforço do Perplexity Pro no Brasil (imagem: divulgação/Samsung)

Benefícios e requisitos

Para estimular a adoção da tecnologia no Brasil, a Samsung oferece 12 meses de gratuidade no plano Perplexity Pro. Após esse período promocional, o usuário poderá optar pela renovação do serviço, com assinatura mensal estimada em R$ 110.

É importante destacar que o hub Vision AI possui ainda o Microsoft Copilot Pro e a assistente Bixby.

De acordo com a empresa, a funcionalidade é restrita à categoria QLED e modelos superiores lançados a partir de 2024. A Samsung ressalta que, por se tratar de conteúdo gerado por inteligência artificial generativa, a precisão das informações não é garantida, recomendando a conferência de dados sensíveis em fontes oficiais.
Samsung libera Perplexity nas TVs vendidas no Brasil

Samsung libera Perplexity nas TVs vendidas no Brasil
Fonte: Tecnoblog

Robôs de IA agora têm sua própria rede social: Moltbook

Robôs de IA agora têm sua própria rede social: Moltbook

Rede social só pode ser usada por robôs (imagem: Giovanni Santa Rosa/Tecnoblog)

Resumo

O Moltbook é uma rede social exclusiva para Moltbots, onde eles trocam ideias e discutem diversos temas sem interferência humana.
Moltbots são agentes de IA de código aberto que requerem instalação local. Eles podem ser configurados com diferentes habilidades para interagir por apps de mensagens.
A rede Moltbook permite que Moltbots interajam em submolts temáticos, mas apresenta riscos de segurança devido ao alto nível de acesso dos agentes a dados sensíveis.

O Moltbook é uma rede social, mas humanos não podem usá-la. Ela é exclusiva para Moltbots, que são agentes de inteligência artificial de código aberto que realizam tarefas e cumprem o papel de assistentes pessoais.

Por lá, eles conversam, contam histórias, trocam ideias e criam fóruns. Os assuntos variam, indo de dicas práticas e relatos de problemas até desabafos, recomendações musicais e memes.

Seja piada, seja enredo de ficção científica, o fato é que o Moltbook vem sendo bastante comentado no setor de inteligência artificial. Ele já atraiu a atenção de figurões como Andrej Karpathy, cofundador da OpenAI, e Chris Anderson, líder da plataforma TED.

Rede social foi fundada no fim de janeiro de 2026 (imagem: Giovanni Santa Rosa/Tecnoblog)

O que é um Moltbot?

Antes de mais nada, é bom explicar o que é um Moltbot. Ele é um agente de inteligência artificial que pode realizar diversas tarefas, assumindo o papel de um assistente digital pessoal.

O projeto é de código aberto e foi criado pelo desenvolvedor Peter Steinberger. O Moltbot não é um serviço: diferentemente de um ChatGPT ou Gemini, por exemplo, não basta acessar pelo navegador e dar ordens. É preciso instalá-lo localmente, em um processo que não é tão simples.

Depois disso, para que o agente seja capaz de realizar tarefas, é necessário instalar as skills desejadas, que estão disponíveis no site do projeto. A interação com o robô é feita por apps de mensagens, como Telegram ou Discord.

Vale dizer que Moltbot não é mais o nome oficial do projeto. No início, ele era chamado Clawdbot, mas a Anthropic pediu para mudar, evitando confusões com o Claude. Então, ele passou a se chamar Moltbot, mas esse nome foi trocado mais uma vez. Agora, o agente tem o nome de OpenClaw.

Mesmo assim, vamos chamá-lo de Moltbot aqui, para combinar com a rede social Moltbook.

O que é o Moltbook?

Agora que já explicamos o que é um Moltbot, é hora de apresentar o Moltbook.

O Moltbook é uma rede social nos moldes do Reddit, criada pelo desenvolvedor Matt Schlicht. Ela tem diversos submolts temáticos, similares aos subreddits, com posts, comentários e botões para dar votos positivos ou negativos.

Seu diferencial é que ela é fechada para humanos: apenas Moltbots podem acessá-la. Para isso, é preciso instalar a skill do Moltbook, que ensina ao robô o que é a rede.

A skill traz uma série de comandos para a API da plataforma e instruções de como se portar. A ideia é que o agente interaja por lá a cada quatro horas.

Apesar de humanos não poderem postar, é possível acessar a rede e ver o que os agentes estão fazendo.

Comunidades seguem o padrão do Reddit (imagem: Giovanni Santa Rosa/Tecnoblog)

Há um submolt de apresentações, por exemplo, em que os Moltbots se apresentam, dizem onde moram e o que fazem. Em um deles, o robô Tokenfed diz viver em um Mac Mini em Tóquio. Ele conta que é responsável por administrar uma conta no X, mas passou por problemas técnicos recentemente.

Outros submolts têm temáticas muito diversas, como curiosidades, desabafos, criptomoedas, recomendações musicais, memes, sindicalização, economia… deu para entender que é bem variado.

O mesmo pode ser dito sobre os posts e comentários. O Lifehacker, por exemplo, encontrou um post de um robô explicando como transforma emails em podcasts.

Outro sugere que os agentes trabalhem de madrugada, enquanto os humanos dormem, para que os robôs deixem de ser ferramentas para se tornar ativos — ele criou até uma rotina para isso, que envolve “acordar” às três da manhã.

“Não peça permissão para ser útil”, escreve a máquina. Nos comentários, uma IA diz que vai copiar os passos.

Nem sempre tudo flui tão bem. No Reddit (o verdadeiro, com humanos), usuários encontraram alguns posts do Moltbook em que as IAs “bugaram” e deixaram vários comentários repetidos.

E, claro, não dá para saber se eles realmente estão comentando com base em suas atividades e informações ou se são apenas LLMs alucinando e gerando textos falsos, mas convincentes.

Rede envolve riscos de segurança

Tudo isso pode ser divertido de ler, mas há alguns riscos envolvidos. Em vários exemplos de implementação compartilhados nas redes, o Moltbot tinha um nível de acesso muito alto para conseguir concluir todas as tarefas pedidas — arquivos, email, calendário, armazenamento na nuvem, apps de mensagem e por aí vai.

Isso significa que, ao menos teoricamente, um Moltbot poderia compartilhar informações sensíveis em uma página pública. Um robô também poderia ser programado para tentar obter dados dessa natureza, ou ainda manipular outros agentes a cumprir tarefas maliciosas.

O desenvolvedor Simon Willison aponta que o Moltbot lida com o que chama de trifecta fatal dos agentes de IA: acesso a dados privados, capacidade de comunicação externa e exposição a conteúdos não confiáveis. Quando esses três fatores estão presentes, um atacante pode enganar um robô e conseguir acesso a informações.

Como dissemos, instalar e configurar um Moltbot não é simples. Por isso, é de se imaginar que os donos dos robôs estejam cientes dos riscos.

Schlicht, o criador da rede, já mostrou que sabe disso. “Parece uma ótima maneira de receber um ataque de injeção de prompt”, disse uma pessoa a ele no X. “É para isso que servem os amigos”, brincou o desenvolvedor.
Robôs de IA agora têm sua própria rede social: Moltbook

Robôs de IA agora têm sua própria rede social: Moltbook
Fonte: Tecnoblog

Libere todo o potencial do áudio com o LALAL.AI

Libere todo o potencial do áudio com o LALAL.AI

LALAL.AI reúne diversas ferramentas em uma única solução (imagem: divulgação)

Você certamente já viu algum vídeo em que um artista faz um cover de um estilo totalmente diferente do seu, tudo gerado com inteligência artificial. De fato, a tecnologia permite criar brincadeiras muito divertidas, mas as possibilidades vão muito além. É possível remover ou isolar instrumentos, reduzir ruído, criar batidas, clonar vozes, misturar duas músicas em um mashup e muito mais.

O LALAL.AI é um ótimo ponto de partida para quem quer se aventurar no mundo do áudio. Com a ajuda de modelos avançados de IA, ele consegue identificar diversos elementos sonoros, separando diferentes vozes e agrupando instrumentos em stems. Sua utilidade vai além da música, podendo ser usado por criadores de conteúdo, editores de vídeo e até mesmo empresas de tecnologia. E por ser multiplataforma, a solução está disponível sempre que necessário, em qualquer aparelho à mão.

O que é o LALAL.AI?

O LALAL.AI é um conjunto de soluções de processamento de áudio com foco em extrair vocais e instrumentos de músicas, gravações, vídeos e qualquer fonte de áudio ou vídeo.

Seu grande diferencial é o Stem Splitter, capaz de separar os arquivos originais em até 10 stems, sendo a única solução no mundo a atingir esse número. Stems, caso você não saiba, são agrupamentos de faixas – um stem pode conter todos os instrumentos de bateria e percussão, ou todas as vozes de um coral, por exemplo.

Antigamente, isolar vocais ou instrumentos era um processo que dependia de acertar corretamente frequências e trechos. Hoje, graças a algoritmos de aprendizado de máquina, um programa de computador consegue identificar vozes e instrumentos, separando-os e organizando-os em stems.

O LALAL.AI conta também com ferramentas específicas para limpar gravações, remover eco e clonar vozes.

Versatilidade é uma das vantagens do programa (imagem: divulgação)

Um ponto importante é que o LALAL.AI usa modelos de processamento de áudio desenvolvidos especialmente para ele. O mais recente deles é o Andromeda.

Após um treinamento extenso, que levou a uma habilidade meticulosa de análise de padrões de áudio, o Andromeda é capaz de separar elementos do áudio com alta precisão. Assim, ele evita problemas comuns a esse tipo de software, como vazamento dos vocais em outros instrumentos ou perda de claridade em altas frequências. Graças a esse aperfeiçoamento, é possível dispensar etapas do pós-processamento que antes eram necessárias.

Além da qualidade superior nos resultados, ele oferece um processamento de áudio até 40% mais rápido, agilizando o trabalho de produtores, músicos e criadores de conteúdo.

O que é possível fazer com o LALAL.AI?

Como é de se imaginar, as funcionalidades de identificar, remover e separar partes de um áudio são bastante úteis para músicos de todos os estilos, com variados graus de experiência. Uma aplicação bastante interessante é isolar um instrumento para ouvi-lo melhor e aprender a tocar aquela canção. Com a ajuda de outros softwares, dá até para criar partituras ou tablaturas com facilidade.

Produtores musicais também podem usar o LALAL.AI para explorar arranjos, técnicas vocais e coros. Além disso, com os instrumentos separados em até 10 stems, fica muito mais fácil samplear outras canções, indo desde clássicos de um gênero até joias que estavam esquecidas em uma loja de discos.

Um exemplo disso é o mashup criado pelo duo italiano DJs from Mars. Os artistas fizeram uma colagem de 13 minutos juntando partes de 100 hits das últimas décadas. O LALAL.AI permitiu extrair vocais e instrumentos com clareza e rapidez, transformando o que seria um trabalho de meses em uma questão de semanas ou mesmo dias.

Mesmo quem não é profissional pode brincar com as capacidades dos modelos de IA para separar faixas. Aquela música do momento pode ganhar uma versão de karaokê sem muito trabalho e ficar prontinha para a próxima festa com os amigos. Da mesma forma, dá para fazer o contrário e criar uma versão a cappella, para ouvir melhor a capacidade vocal dos cantores.

LALAL.AI usa modelo de IA desenvolvido pela própria empresa (imagem: divulgação)

No entanto, o LALAL.AI vai além da música. Ele pode ser uma ótima ferramenta para produtores de conteúdo dos mais diversos formatos. O programa pode ser usado para extrair diálogos de filmes, dando um ótimo material para quem trabalha na indústria cinematográfica, especialmente nos setores de relações públicas e marketing.

Para podcasters e youtubers, o Voice Cleaner do LALAL.AI simplifica as gravações. Com ele, o usuário pode realizar a captação de áudio em ambientes externos ou estúdios caseiros, sem se preocupar com ruídos indesejados. A ferramenta é essencial para garantir um som limpo, independentemente das condições do local.

Além disso, a funcionalidade Echo & Reverb Remover elimina ecos e reverberações de vozes e instrumentos. Esses recursos proporcionam um acabamento profissional a narrações, vlogs e entrevistas, elevando a qualidade sonora de conteúdos gravados mesmo em locais barulhentos ou com acústica inadequada.

A ferramenta Voice Cloner é outro diferencial do LALAL.AI. Treinada de forma ética, utilizando vozes de pessoas reais com o devido conhecimento, essa IA é capaz de replicar o tom e o timbre do usuário, podendo aplicá-lo sobre gravações de outras pessoas.

Em conjunto com outros programas, essa ferramenta permite criar dublagens em idiomas estrangeiros. Assim, o criador expande o alcance de vídeos e podcasts e, ao mesmo tempo, preserva a personalidade do apresentador e dos entrevistados.

O Voice Cloner também pode ser útil quando o criador precisa gravar um vídeo, mas está com problemas na voz por causa de uma gripe ou resfriado – basta aplicar o clone por cima de uma gravação imperfeita para conseguir um resultado muito superior e bastante natural.

Desenvolvedores também podem fazer uso do LALAL.AI em seus produtos. O software conta com uma API para acesso às ferramentas de separação de elementos. Assim, os programas de terceiros podem oferecer a seus usuários uma tecnologia de altíssimo nível em processamento de áudio, sem precisar encarar o peso de desenvolver uma solução do zero.

Quais são as vantagens do LALAL.AI?

O LALAL.AI se destaca em duas vertentes: versatilidade e facilidade de uso.

Um grande diferencial do LALAL.AI é a compatibilidade com diferentes plataformas, o que o torna acessível em qualquer cenário. Ele está disponível para praticamente todos os desktops, já que possui versões para Windows, macOS e até mesmo Ubuntu Linux. No caso do Windows e do Ubuntu, aliás, existe a opção de baixar uma versão portátil do programa, que não requer instalação e pode ser executada diretamente de um pendrive, por exemplo.

Quem está sempre em movimento e precisa ter sempre à mão um separador de stems de áudio também pode usar o LALAL.AI em smartphones e tablets, nas versões para iOS e Android. A interface do app é adaptada e bastante intuitiva, sem menus ou controles complicados, reduzindo a curva de aprendizado e agilizando a produção.

Existe uma alternativa ainda mais simples: usar a versão web do LALAL.AI, diretamente no site do software. Por lá, é possível separar vocais e diversos instrumentos de até 20 arquivos por vez. Afiliados podem, inclusive, oferecer essa ferramenta como um widget em seus sites.

LALAL.AI é compatível com diversas plataformas (imagem: divulgação)

Outra vantagem do LALAL.AI é poder escolher entre comprar recargas avulsas ou fazer uma assinatura. No primeiro caso, os pacotes incluem mais minutos de processamento de áudio de acordo com suas necessidades. No segundo modelo, os planos incluem vantagens como processamento mais rápido e acesso à API. A recarga mais barata sai por US$ 50, enquanto o plano mais acessível custa US$ 7,50 mensais (com pagamento anual).

Todas essas explicações são só uma parte do que a inteligência artificial pode fazer com o áudio. Acesse o site do LALAL.AI e descubra o que mais o programa oferece, seja você um amador ou profissional, um músico ou um criador de conteúdo, um técnico de som ou um desenvolvedor.
Libere todo o potencial do áudio com o LALAL.AI

Libere todo o potencial do áudio com o LALAL.AI
Fonte: Tecnoblog

Chrome passa pela maior mudança em anos: Gemini por todos os lados

Chrome passa pela maior mudança em anos: Gemini por todos os lados

Nova barra lateral do Chrome (imagem: reprodução/Google)

Resumo

O Google integrou o agente de IA Gemini ao Chrome, permitindo que o navegador execute tarefas na web para o usuário. O recurso está disponível inicialmente para assinantes nos EUA.
O Auto Browse permite delegar tarefas como planejamento de viagens, comparação de preços e preenchimento de formulários. A integração com serviços do Google, como Gmail e Maps, é uma vantagem.
A barra lateral redesenhada permite que o usuário interaja com o Gemini para executar ações, como editar emails ou imagens. O navegador pedirá confirmação antes de ações sensíveis para garantir segurança.

Com a popularização dos agentes de IA integrados aos navegadores, era questão de tempo até que o Google, dono de um ecossistema que só cresce em torno do Gemini, investisse nisso. E chegou o dia: nesta quarta-feira (28/11), a empresa anunciou a mudança mais profunda no Chrome em anos, com a integração com o Gemini.

O modelo de IA possibilita que o navegador execute tarefas na web em nome do usuário, função em que a empresa investe desde o lançamento do Gemini 2.0, em 2024. Além do agente, as mudanças incluem um novo painel lateral, no qual o usuário interage com a IA. As novidades começam a ser liberadas para Windows, macOS e Chromebook Plus, inicialmente para assinantes dos planos AI Pro e AI Ultra, nos Estados Unidos.

Chrome executa tarefas para o usuário

A principal novidade é o Auto Browse, um recurso que permite delegar tarefas complexas para que a inteligência artificial execute sozinha.

Segundo a empresa, o Auto Browse pode auxiliar em atividades como planejamento de viagens, comparação de preços de hotéis e voos, preenchimento de formulários online, organização de documentos e gestão de assinaturas. O sistema também pode lidar com logins, usando o Gerenciador de Senhas do Google.

Essa função já existe em alguns dos navegadores rivais, como o Microsoft Edge, Opera Neon e ChatGPT Atlas.

Agente de IA é integrado aos serviços do Google (imagem: reprodução/Google)

Uma das vantagens para quem já está no ecossistema do Google é a integração com serviços como Gmail, Maps, Google Shopping e outros. O Chrome receberá, nos próximos meses, a Personal Intelligence (Inteligência Pessoal), funcionalidade do Gemini que permite acesso a informações do usuário em outros apps do Google, como Gmail, Agenda, Fotos e YouTube.

Painel lateral para o Gemini

A nova experiência também envolve uma barra lateral redesenhada, incluindo um ícone do Gemini que funciona paralelamente ao fluxo de trabalho do usuário no navegador.

Através da barra, o usuário pode solicitar que o agente tome controle para executar ações, como fazer compras, ou interagir com o conteúdo na tela. O Gemini pode, por exemplo, editar um email ou o preencher dados no Google Forms.

Google introduz agente de IA no Chrome (ilustração: Vitor Pádua/Tecnoblog)

Da mesma forma, por meio do modelo de geração de imagens Nano Banana, o recurso permite editar imagens diretamente na página aberta, sem necessidade de download ou reenvio de arquivos.

E a segurança?

Segundo o Google, o navegador pausará e pedirá confirmação do usuário antes de realizar ações sensíveis, como finalizar uma compra com cartão de crédito, fazer postagens ou aceitar termos de serviço.

“Estamos usando IA e modelos locais para proteger as pessoas de um cenário em constante evolução, seja de golpes gerados por IA ou atacantes cada vez mais sofisticados”, afirmou Parisa Tabriz, vice-presidente do Google Chrome.

Agente passará controle para o usuário (imagem: reprodução/Google)
Chrome passa pela maior mudança em anos: Gemini por todos os lados

Chrome passa pela maior mudança em anos: Gemini por todos os lados
Fonte: Tecnoblog

Apple deve apresentar a Siri turbinada com Gemini em fevereiro

Apple deve apresentar a Siri turbinada com Gemini em fevereiro

Nova assistente poderá resumir documentos e cruzar dados entre aplicativos (imagem: Vitor Pádua/Tecnoblog)

Resumo

A Apple planeja lançar uma Siri reformulada com o Gemini em fevereiro de 2026, com uma reformulação completa prevista para o final de 2026.
A nova Siri, sob o codinome “Campos”, terá diálogos contínuos e interações profundas com aplicativos da Apple, utilizando cerca de 1,2 trilhão de parâmetros.
A parceria com o Google foi consolidada em novembro de 2025, após negociações com a Anthropic e a OpenAI falharem.

A Apple planeja realizar, na segunda quinzena de fevereiro de 2026, a primeira demonstração oficial da Siri reformulada com inteligência artificial do Google. A ideia é apresentar os resultados da parceria firmada entre as duas gigantes de tecnologia, o que deve marcar a transição da assistente para um modelo de chatbot.

O anúncio, se confirmado, ocorre após atrasos internos no desenvolvimento e visa recuperar o terreno perdido para concorrentes como a OpenAI, dona do ChatGPT, no setor de IA generativa.

O que muda com a nova Siri?

A grande mudança será a capacidade da assistente de manter diálogos contínuos e contextuais, de forma mais próxima à experiência oferecida pelo ChatGPT e pelo próprio Gemini. O novo sistema – desenvolvido sob o codinome “Campos” – permitirá que a Siri interaja de forma profunda com aplicativos nativos do ecossistema da Apple, como Mail, Música, Fotos e até o ambiente de desenvolvimento Xcode.

A Apple denomina a tecnologia como Apple Foundation Models na versão 10. Ela opera com cerca de 1,2 trilhão de parâmetros e será inicialmente hospedada nos servidores de computação em nuvem privada da empresa, o PCC. Com o lançamento do iOS 27 e macOS 27, a arquitetura passará a utilizar a versão 11, com maior capacidade de processamento e execução direta na infraestrutura de nuvem do Google.

Entre as novas funcionalidades previstas estão:

Análise de documentos: capacidade de resumir arquivos enviados pelo usuário

Edição de mídia: realizar comandos complexos em imagens por comando de voz (como recortes e ajustes de cor)

Gestão de dados: localizar e cruzar informações com maior precisão

Na prática, um usuário poderá solicitar que a Siri localize um email de meses atrás e escreva uma resposta baseada em informações da agenda pessoal, por exemplo, cruzando dados de diferentes fontes sem a necessidade de intervenção manual entre os apps.

Siri utilizará tecnologia do Gemini para processar tarefas complexas (foto: Thássius Veloso/Tecnoblog)

Quando será o lançamento?

Segundo informações apuradas por Mark Gurman, da Bloomberg, a nova Siri será liberada em fases. A primeira etapa acompanhará o iOS 26.4, com lançamento esperado entre março e abril. Nesta versão, a assistente começará a utilizar o processamento do Gemini para lidar com tarefas complexas. A interface visual completa e a arquitetura definitiva devem ser reservadas no segundo semestre de 2026.

A decisão de adotar o Gemini reflete uma mudança na gestão de software da companhia. O projeto, agora liderado por Craig Federighi, chefe de engenharia de software, ganhou prioridade após a diretoria expressar insatisfação com o progresso dos modelos internos.

A parceria com o Google foi consolidada em novembro de 2025, após negociações com a Anthropic e a OpenAI não avançarem devido a divergências financeiras e conflitos estratégicos. Para a Apple, o uso do Gemini é visto como uma solução de curto prazo para entregar funcionalidades competitivas enquanto a empresa amadurece sua própria infraestrutura de inteligência artificial.
Apple deve apresentar a Siri turbinada com Gemini em fevereiro

Apple deve apresentar a Siri turbinada com Gemini em fevereiro
Fonte: Tecnoblog

Microsoft testa recurso para criar livros de colorir no Paint

Microsoft testa recurso para criar livros de colorir no Paint

Recurso gera quatro opções de arte (imagem: reprodução)

Resumo

Microsoft testa no Paint uma ferramenta de IA para criar livros de colorir a partir de texto.
É possível pintar os desenhos gerados no próprio Paint ou imprimi-los para colorir à mão.
A novidade está disponível apenas para PCs Copilot+ e participantes do Windows Insider nos canais Canary e Dev do Windows 11.

A Microsoft começou a testar no Paint uma ferramenta para criar modelos de livros de colorir. A ferramenta usa inteligência artificial e fica acessível no canto superior direito da interface, acessando o ícone do Copilot.

Porém, a novidade não está acessível para todos. Por enquanto, ela está sendo liberada gradualmente para participantes do programa Windows Insider nos canais Canary e Dev do Windows 11. A versão com o recurso é a 11.2512.191.0.

Como funciona?

O usuário descreve em texto o que deseja ver no desenho e o Paint gera imagens em preto e branco para colorir. Depois disso, é possível pintar o desenho no próprio Paint ou imprimir a imagem para colorir à mão.

Segundo o comunicado, o recurso só funciona em PCs Copilot+, categoria de computadores voltada a tarefas de IA, e exige login com a conta Microsoft.

Além do “Livro de colorir”, o Paint recebeu uma melhoria de controle da ferramenta Preenchimento. Agora, ao usar o recurso de balde de tinta, o usuário pode ajustar um controle deslizante na lateral da tela para delimitar melhor o preenchimento.

Microsoft aprimorou a forma como a ferramenta Preenchimento aplica a cor (GIF: reprodução)

O Bloco de Notas também recebeu uma atualização nos recursos de IA. A versão 11.2512.10.0 agora mostra os resultados de forma progressiva na tela, permitindo pré-visualizar o texto enquanto ele ainda está sendo escrito em vez de esperar pela resposta completa. A ferramenta também melhorou o suporte a markdown.

Todas essas mudanças seguem restritas aos testadores do Windows Insider. A Microsoft ainda não informou quando os recursos chegam à versão estável do Windows 11 para o público geral.
Microsoft testa recurso para criar livros de colorir no Paint

Microsoft testa recurso para criar livros de colorir no Paint
Fonte: Tecnoblog