Category: Inteligência Artificial

Lembra do Clippy? Microsoft agora apresenta o Mico

Lembra do Clippy? Microsoft agora apresenta o Mico

Microsoft Mico é o novo rosto do Copilot (imagem: divulgação)

Resumo

Microsoft apresentou o Mico, novo modo de voz animado do Copilot.

O personagem traz expressões dinâmicas, aprendizado e personalização, e lembra o antigo Clippy.

Por enquanto, o assistente virtual está disponível apenas nos Estados Unidos, mas há previsão de expansão para outros países.

Quase 30 anos depois da estreia do Clippy — o clipe de papel que marcou (e irritou) gerações de usuários do Office —, a Microsoft aposta em uma nova forma de interação com o computador. Ontem (23/10), a empresa anunciou o Mico, nova representação do modo de voz do Copilot.

A proposta retoma a ideia de assistentes virtuais, como a Cortana no passado, mas com tecnologia moderna. Ao The Verge, o vice-presidente de produto e crescimento da Microsoft AI, Jacob Andreou, afirmou: “Clippy andou para que nós pudéssemos correr”.

Durante a conversa, o Mico reage em tempo real – muda suas expressões, cores e até gestos de acordo com o tom do diálogo. A animação será ativada por padrão no modo de voz do Copilot, mas poderá ser desativada a qualquer momento. O recurso está sendo lançado inicialmente nos Estados Unidos, com planos de expansão para outros países.

O que o Mico é capaz de fazer?

Assistente virtual Mico traz novos recursos (imagem: divulgação)

Além de responder perguntas e realizar tarefas, o Mico integra novos recursos de aprendizado e personalização. Um deles é o modo “Learn Live”, que transforma o assistente em uma espécie de tutor virtual.

Ele não apenas entrega respostas diretas, mas orienta o usuário a compreender conceitos, usando quadros interativos e elementos visuais. O objetivo é atender desde estudantes que se preparam para provas até pessoas que estão aprendendo um novo idioma.

Outra novidade é a memória personalizada. O Copilot passará a registrar informações sobre o usuário e os projetos em andamento, para oferecer respostas mais contextuais. Segundo a empresa, essa capacidade reforça o tom mais humano e próximo do assistente.

O CEO da Microsoft AI, Mustafa Suleyman, explicou em um comunicado a visão por trás do projeto: “Ao desenvolvermos isso, não estamos buscando engajamento ou otimização do tempo de tela. Estamos desenvolvendo uma IA que o leva de volta à sua vida. Que aprofunda a conexão humana. Que conquista sua confiança.”

Mais identidade

Mico ganha modo de voz com reações em tempo real durante a conversa (imagem: divulgação)

O Mico faz parte da estratégia da Microsoft para dar identidade e “voz” ao Copilot, transformando-o em um assistente com presença digital própria. Em julho, Suleyman afirmou que a ideia é que o Copilot “tenha uma espécie de identidade permanente, uma presença, e terá um espaço onde viverá e envelhecerá”.

Assim como o antigo Clippy, o novo personagem também guarda easter eggs: ao clicar repetidamente sobre o Mico, o usuário verá o personagem se transformar no lendário clipe de papel. A brincadeira reforça o vínculo afetivo com o passado da marca, agora reimaginado em uma era de IA generativa.

Além do Mico, a atualização de outono do Copilot trouxe melhorias em pesquisa profunda, respostas sobre saúde e até novos modos de conversa, como o “Real Talk”. Nesse formato, o Copilot deve adotar uma postura mais autêntica para desafiar as ideias do usuário, com o intuito de estimular reflexões e novas perspectivas.

A empresa também aprimorou a integração entre o Copilot e o navegador Microsoft Edge, que passará a identificar abas abertas, comparar informações e executar ações, como reservas de hotel ou preenchimento de formulários.
Lembra do Clippy? Microsoft agora apresenta o Mico

Lembra do Clippy? Microsoft agora apresenta o Mico
Fonte: Tecnoblog

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Meta AI é capaz de fazer edições avançadas, promete empresa (imagem: divulgação)

Resumo

O Instagram lançou o Restyle, um editor de fotos com IA que usa a Meta AI para modificar imagens em stories através de prompts de texto.
O Restyle permite remover detalhes, adicionar elementos e aplicar efeitos, com opções predefinidas ou instruções personalizadas.
A função está sendo liberada gradualmente e também pode ser usada em vídeos, mas apenas com presets da Meta AI.

O Instagram anunciou, nesta quinta-feira (23/10), o lançamento da função Restyle. A ferramenta usa a Meta AI para editar stories de acordo com o que você escreve em um prompt de texto, lembrando bastante o Nano Banana, presente no Gemini, do Google.

“Se você quiser remover um detalhe indesejado, colocar um elemento divertido, mudar a vibe usando um efeito diferente ou começar uma trend com seus amigos, agora você pode fazer isso de modo simples”, diz o comunicado da rede social. “Use o Restyle nas suas fotos e vídeos nos stories do Instagram para fazer edições com a Meta AI, sejam elas grandes ou pequenas.”

Como é costume nos lançamentos da Meta, o Restyle está sendo liberado gradualmente e pode demorar algumas semanas para chegar até você.

Como usar o Restyle?

Comece a criar um story e escolha uma foto da sua galeria. Depois, toque no ícone de pincel no topo da tela. O Restyle oferece três opções predefinidas para adicionar, remover ou mudar elementos. Basta escolher uma delas e digitar o que você deseja. Também é possível ir diretamente para o prompt, sem escolher entre essas alternativas.

Ver essa foto no Instagram Uma publicação compartilhada por Meta AI (@meta.ai)

Com isso, você pode tirar pessoas do fundo das fotos, mudar a cor do cabelo das pessoas, colocar objetos divertidos como coroa e balões, trocar o fundo por um pôr do sol e muito mais.

Segundo a empresa, para atingir o resultado desejado, é recomendável que você escreva instruções detalhadas: diga qual pessoa deve receber os efeitos, explique como você quer a iluminação, aponte em que área da imagem as edições devem ser feitas, descreva o estilo desejado e especifique um local para servir de cenário, por exemplo.

A Meta acrescentou ainda alguns efeitos prontos, que podem ser aplicados sem depender de instruções adicionais, como transformar o estilo da imagem em anime, aquarela ou 8-bits, entre outros. O Restyle também está disponível para vídeos, mas nesse caso, só é possível usar os presets oferecidos pela Meta AI.

Com informações da Meta e do Engadget

Instagram segue passos do Nano Banana e ganha editor de fotos com IA

Instagram segue passos do Nano Banana e ganha editor de fotos com IA
Fonte: Tecnoblog

Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial

Meta quer “mais agilidade” após CEO Mark Zuckerberg expressar preocupação (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta demitiu 600 funcionários da divisão de inteligência artificial em reestruturação para reduzir burocracia e aumentar eficiência.
A mudança foi motivada por preocupações de Mark Zuckerberg com o ritmo dos avanços em IA.
Apesar das demissões, a Meta segue contratando para o TBD Lab, nova divisão do laboratório, e tenta atrair mais talentos da OpenAI e do Google.

A Meta demitiu pelo menos 600 funcionários do seu recém-formado laboratório de “superinteligência artificial”. A medida faz parte de uma reestruturação interna que, segundo um memorando do diretor de IA da empresa, Alexandr Wang, visa reduzir a burocracia e aumentar a eficiência da divisão.

O anúncio foi feito internamente por Wang em comunicado aos funcionários. As informações são do portal Axios, mas foram confirmadas pela Meta ao TechCrunch. A reorganização busca criar uma operação “mais ágil” no setor.

O laboratório foi criado em junho deste ano para desenvolver uma inteligência artificial geral (AGI) e avançar na briga pelo mercado de IA, hoje dominado por outras empresas. Desde então, a Meta gastou bilhões de dólares em contratações e investimentos.

Meta está mudando sua estratégia de IA?

No memorando interno, Wang justificou a reestruturação como um movimento para otimizar processos e acelerar a tomada de decisões. “Ao reduzir o tamanho da nossa equipe, menos conversas serão necessárias para tomar uma decisão, e cada pessoa terá mais responsabilidade e mais escopo e impacto”, escreveu o executivo.

Os cortes, que afetam uma fração das milhares de funções dentro da divisão de superinteligência, atingem especificamente as unidades de pesquisa FAIR AI, equipes de IA relacionadas a produtos e a área de infraestrutura de IA.

Diretor de IA, Alexandr Wang, justifica cortes como forma de reduzir burocracia (imagem: reprodução/Dlabrot)

A Meta declarou ainda que incentiva ativamente os funcionários impactados a se candidatarem a outras vagas disponíveis internamente. “Este é um grupo talentoso de indivíduos, e precisamos de suas habilidades em outras áreas da empresa”, afirma Wang no comunicado.

A decisão está alinhada com a filosofia recente da Meta, definida pelo CEO Mark Zuckerberg como o “ano da eficiência”. Esta diretriz, implementada no último ano, resultou em rodadas anteriores de demissões em massa e uma reavaliação geral dos projetos e estrutura de custos da empresa. Na época, Zuckerberg declarou a preferência por uma organização “mais enxuta”.

A reestruturação atual, no entanto, é apresentada mais como um realinhamento estratégico. Fontes internas, conforme relatado pela Axios, indicam que Zuckerberg expressou preocupação há alguns meses sobre o ritmo dos avanços da divisão de IA. A avaliação era que os esforços existentes não estavam gerando as “melhorias de desempenho” ou os “avanços necessários” na velocidade desejada.

Essa percepção teria sido o motivo para a reorganização, que incluiu não apenas os cortes anunciados, mas também o investimento anterior de US$ 15 bilhões de dólares (cerca de R$ 81 bilhões) na Scale AI e a própria contratação de Alexandr Wang para liderar a divisão. O objetivo principal seria, portanto, focar recursos em áreas consideradas de maior potencial e remover gargalos operacionais.

Apesar dos cortes, Wang expressou confiança no futuro da divisão em seu comunicado. “Estou realmente animado com os modelos que estamos treinando, nossos planos de computação e os produtos que estamos construindo, e estou confiante em nosso caminho para construir a superinteligência”, concluiu.

Cortes ocorrem após contratações milionárias

Meta segue contratando talentos de rivais (ilustração: Vitor Pádua/Tecnoblog)

Embora esteja dispensando centenas de profissionais de IA, a Meta investiu agressivamente na contratação de talentos. A divisão recém-formada, conhecida internamente como TBD Lab, não foi afetada pelos cortes e, segundo fontes, continua recrutando ativamente no mercado.

Este novo laboratório tem atraído profissionais de concorrentes diretos. Recentemente, a Meta contratou Ananya Kumar, uma cientista pesquisadora vinda da OpenAI. Antes disso, Andrew Tulloch, cofundador da Thinking Machines, também se juntou à empresa para integrar o TBD Lab.

Estas contratações se somam a um esforço mais amplo da Meta durante o último ano para atrair especialistas em IA. A empresa conseguiu recrutar mais de 50 pesquisadores de concorrentes como Google e OpenAI, oferecendo pacotes salariais que, em alguns casos, atingiram valores multimilionários. Alguns, no entanto, abandonaram a Meta.
Meta demite 600 funcionários de divisão de inteligência artificial

Meta demite 600 funcionários de divisão de inteligência artificial
Fonte: Tecnoblog

Brasileiros aceitam IA nas finanças, mas somente como copiloto

Brasileiros aceitam IA nas finanças, mas somente como copiloto

Consumidores querem linguagem simples na IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

65% dos brasileiros aceitam IA no auxílio financeiro, mas a confiança em decisões autônomas é baixa.
O estudo também revela que os consumidores preferem IA que use linguagem simples e seja transparente sobre as regras e parâmetros de decisão.
Bancos estão integrando IA com resumos e chatbots para melhorar a experiência do cliente e aumentar a confiança.

Quase sete em cada dez consumidores brasileiros aceitam que a inteligência artificial auxilie na relação com o dinheiro. Por outro lado, entre os afeitos à IA, apenas 14% aceitariam que ela tomasse decisões por conta própria, de maneira autônoma. É o que mostra uma pesquisa encomendada pelo Itaú Unibanco e conduzida pela Consumoteca, divulgada hoje durante um evento em São Paulo.

O antropólogo Michel Alcoforado, responsável pelo estudo, avaliou que os brasileiros querem falar sobre dinheiro com “alguém” que não seja uma pessoa. Aqui, comento eu: os chatbots, com a capacidade de emular conversas humanas, caem como uma luva para gerar esse tipo de interação.

Diversos bancos têm realizado movimentos no sentido de integrar a inteligência artificial. Alguns já colocam resumos na tela inicial do app com os destaques do momento, personalizados para cada cliente. Outros oferecem chatbots com IA para ajudar nas variadas dúvidas.

Talvez o slide mais importante para quem curte tecnologia seja este abaixo, que mapeia exatamente o que faria o cliente confiar na IA, no contexto da relação com dinheiro:

Antropólogo Michel Alcoforado apresenta estudo sobre relação dos brasileiros com o dinheiro (foto: Thássius Veloso/Tecnoblog)

40%: linguagem simples, falar de uma forma que eu entenda

39%: conhecer as regras que regem a IA

38%: saber os parâmetros usados pela IA para tomada de decisão

36%: ver resultados de outras pessoas

36%: ter a garantia de que há uma equipe de especialistas por trás

30%: ver resultados compatíveis com a média do mercado

O levantamento da Consumoteca foi feito com 5 mil entrevistados no país inteiro, dividindo-se em cerca de metade entre 18 e 29 anos, e outra metade com pessoas com mais de 29 anos.

Thássius Veloso viajou para São Paulo a convite do Itaú
Brasileiros aceitam IA nas finanças, mas somente como copiloto

Brasileiros aceitam IA nas finanças, mas somente como copiloto
Fonte: Tecnoblog

65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo

65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo

24,5 milhões de crianças e adolescemtes acessam a internet no país (foto: Julia M. Cameron/Pexels)

Resumo

65% dos jovens brasileiros de 9 a 17 anos usaram IA generativa para atividades cotidianas; 92% dessa faixa etária são usuários de internet, totalizando 24,5 milhões.
O celular é o dispositivo mais utilizado, com 74% de uso diário; WhatsApp, YouTube, Instagram e TikTok são as plataformas mais acessadas.
45% das crianças e adolescentes tiveram contato com propaganda inadequada; 51% pediram produtos após exposição online.

Cerca de 65% dos jovens brasileiros com idade entre 9 e 17 anos utilizaram inteligência artificial generativa para realizar ao menos uma atividade do cotidiano. É o que mostra a pesquisa TIC Kids Online Brasil 2025, divulgada hoje pelo Cetic.br e NIC.br. O estudo mostra ainda que 92% da população de 9 a 17 anos é usuária de internet no país, o que representa 24,5 milhões de crianças e adolescentes.

As crianças e os adolescentes recorrem à IA para pesquisas escolares, busca de informações, criação de conteúdo ou conversas sobre problemas pessoais. No recorte por faixa etária, o uso desta nova tecnologia foi mais comum entre as pessoas de 15 a 17 anos do que as de 9 a 10 anos.

O celular é o principal dispositivo tecnológico da rotina das crianças e adolescentes: 74% fazem uso diário do dispositivo. Logo na sequência aparece a televisão, com 35%. O WhatsApp é a plataforma digital mais acessada, seguida de YouTube, Instagram e TikTok.

WhatsApp é o aplicativo mais utilizado pelas crianças (ilustração: Vitor Pádua/Tecnoblog)

Acessos nas escolas e publicidade digital

A pesquisa registrou queda no acesso à internet nas escolas, que passou de 51% em 2024 para 37% em 2025. Entre os que acessam a rede nas escolas, 12% reportaram uso várias vezes ao dia e 13%, uma vez por semana.

O estudo identificou exposição significativa a conteúdo publicitário. Os pais e responsáveis disseram que 45% das crianças e adolescentes de 9 a 17 anos tiveram contato com propaganda não apropriada para a idade e 51% pediram algum produto após o contato online. Esse público está consciente sobre o tema: 65% dos usuários de 11 a 17 anos concordaram que falar ou pesquisar sobre produtos na web aumenta a quantidade de propagandas recebidas.

Os formatos de vídeos mais vistos incluem pessoas abrindo embalagens de produtos (66%), ensinando como usar produtos (65%) e divulgando jogos de apostas (53%).

Fontes de informação

As principais fontes de informação dos responsáveis sobre uso seguro da internet são as próprias crianças ou adolescentes (50%), os familiares e amigos (48%), a televisão, rádio, jornais ou revistas (42%) e a escola (41%). Cerca de 37% buscam sites dedicados ao tema, 36% recorrem a vídeos ou tutoriais online e 31% consultam grupos de pais em redes sociais.

A pesquisa revelou ainda que 31% das crianças e adolescentes ajudam os responsáveis diariamente com atividades na internet.

A coleta de dados da pesquisa divulgada nesta quarta-feira foi realizada entre março e setembro de 2025, com entrevistas presenciais com 2.370 crianças e adolescentes, além de 2.370 pais ou responsáveis.
65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo

65% das crianças e adolescentes brasileiros já utilizam IA, revela estudo
Fonte: Tecnoblog

IA do Windows passa a te ouvir e ver sua tela para auxiliar nas tarefas

IA do Windows passa a te ouvir e ver sua tela para auxiliar nas tarefas

Ferramenta Hey Copilot chega ao Windows 11 (imagem: divulgação/Microsoft)

Resumo

O comando “Hey Copilot” permite controlar o Windows 11 por voz, realizar ações e fazer perguntas com suporte da IA.
O Copilot Vision analisa a tela e fornece assistência contextual, enquanto o Copilot Actions automatiza tarefas com linguagem natural.
A atualização também traz melhorias no menu Iniciar e integração com serviços como Google Drive, Gmail, OneDrive e Zoom.

A Microsoft anunciou hoje uma atualização do Windows 11 que permite controle por voz com apoio da inteligência artificial. Sim, você poderá falar com o seu dispositivo para realizar certas atividades. Além disso, a Microsoft decidiu colocar a IA diretamente no menu Iniciar do sistema operacional.

Hey Copilot

O recurso Copilot Voice será ativado com o comando “Hey Copilot” e estará disponível em todos os dispositivos com Windows 11 e Copilot. A empresa explicou ao Tecnoblog que não há necessidade de hardware adicional. A funcionalidade permite que usuários façam perguntas e solicitem ações usando linguagem natural, com o assistente respondendo por voz ou texto.

Tanto ele quanto o Copilot Vision formam a base da nova experiência de IA no Windows. Dados internos mostram que 68% dos usuários que utilizam comandos de voz interagem duas vezes mais com o Copilot do que aqueles que usam apenas texto.

Ambos são opcionais. No caso do Copilot Vision, o assistente de IA analisa o conteúdo da tela do computador e realiza o suporte guiado. Ele é capaz de aprender com novos aplicativos, obter recomendações para projetos ou receber instruções passo a passo.

Copilot indica como fazer um ajuste no Spotify (imagem: divulgação/Microsoft)

De acordo com a Microsoft, o Copilot Vision considera apenas o que é visível ao usuário. A exceção fica por conta do Word, Excel e PowerPoint, em que a totalidade dos documentos abertos é lida pelo Vision.

A empresa está testando uma versão experimental do Copilot Actions para arquivos locais no Windows, que permitirá ao assistente executar tarefas como organizar fotos de férias ou extrair informações de PDFs. O recurso funciona como um agente de propósito geral que recebe instruções em linguagem natural e tenta completá-las interagindo com aplicativos de desktop e web. Durante a execução, o usuário pode acompanhar o progresso ou assumir o controle da tarefa. Inicialmente, essa função será liberada para os integrantes do Windows Insiders, programa beta da companhia.

Mudanças no menu Iniciar

A empresa reformulou a barra de tarefas do Windows com a função “Ask Copilot”, que oferece acesso rápido ao Copilot Vision e Voice. Ela fica ao lado do botão de Windows, no antigo menu Iniciar. A nova ferramenta de busca promete resultados mais rápidos para encontrar aplicativos, arquivos e configurações, com atualização instantânea dos resultados durante a digitação.

A Microsoft esclareceu que a busca utiliza APIs existentes do Windows e não concede ao Copilot acesso ao conteúdo do usuário.

Serviços externos

IA do Windows 11 lê o conteúdo na tela do computador (imagem: divulgação/Microsoft)

O Copilot também ganhou a integração com serviços externos através dos conectores, que permitem vincular OneDrive, Outlook, Google Drive, Gmail, Google Calendar e Google Contacts ao assistente. Os usuários podem exportar conversas diretamente para Word, Excel ou PowerPoint e pedir ajuda com configurações do Windows.

A atualização inclui ainda integração com Explorador de Arquivos para tarefas como criação de sites com o badalado agente Manus e edição de vídeos com o app Filmora. Os computadores da linha Copilot+ PC terão integração com Zoom através do Click to Do, desenvolvida em parceria com a empresa, permitindo agendar reuniões ao passar o cursor sobre endereços de email visíveis na tela.

A Microsoft informou que divulgará detalhes sobre integrações com outros aplicativos de terceiros posteriormente.
IA do Windows passa a te ouvir e ver sua tela para auxiliar nas tarefas

IA do Windows passa a te ouvir e ver sua tela para auxiliar nas tarefas
Fonte: Tecnoblog

Google expande Nano Banana para busca, NotebookLM e mais produtos

Google expande Nano Banana para busca, NotebookLM e mais produtos

Nano Banana já ultrapassou 5 bilhões de imagens criadas (imagem: divulgação/Google)

Resumo

O Google integrou o modelo Nano Banana ao Google Search e NotebookLM, com previsão de chegada ao Google Fotos.
No Google Search, o Nano Banana funciona via Lens, permitindo transformar imagens com inteligência artificial.
No NotebookLM, o Nano Banana oferece novos estilos visuais e formatos de vídeo, como Explainer e Brief.

O Google está ampliando a presença do Nano Banana, modelo de geração de imagens baseado no Gemini 2.5 Flash. Ele foi lançado em agosto e rapidamente ganhou popularidade devido aos resultados impressionantes e convincentes. O sistema ultrapassou a marca de 5 bilhões de imagens criadas e agora passa a ser incorporado à busca e ao NotebookLM.

Com a novidade, usuários poderão utilizar os recursos visuais do Nano Banana diretamente em plataformas que já fazem parte do cotidiano digital. Segundo o Google, o objetivo é tornar a criação e a compreensão de conteúdos visuais mais simples e intuitivas, aproximando as funções de geração de imagem das atividades diárias de busca, aprendizado e criação.

Como o Nano Banana será usado no Google Search e NotebookLM?

A integração à busca ocorre por meio do Lens, recurso disponível no aplicativo do Google para Android e iPhone. A nova função, chamada Create, permitirá que o usuário tire uma foto — ou selecione uma imagem da galeria — e a transforme instantaneamente com ajuda da inteligência artificial. A ferramenta promete resultados rápidos e interativos, voltados para quem quer personalizar ou reinterpretar imagens em poucos cliques.

Já no NotebookLM, o Nano Banana atua nos bastidores da ferramenta de Video Overviews, que transforma anotações e documentos em vídeos narrados. Agora, o recurso ganhou seis novos estilos visuais — aquarela, papel artesanal, anime, quadro branco, impressão retrô e tradicional —, além da capacidade de criar ilustrações contextuais com base nas fontes enviadas pelo usuário.

IA do Google transforma textos e anotações em vídeos narrados (imagem: divulgação/Google)

Novo formato de vídeos e expansão para o Google Fotos

O NotebookLM agora oferece, além de diferentes estilos visuais, dois formatos de vídeo: o Explainer, voltado para resumos detalhados e estruturados de documentos, e o Brief, pensado para apresentações curtas que destacam apenas os principais pontos de um texto.

O usuário pode personalizar os vídeos escolhendo formato, estilo visual e até instruções específicas, como focar apenas na análise de custos ou converter receitas em vídeos fáceis de seguir. A atualização será liberada gradualmente, chegando primeiro aos assinantes do NotebookLM Pro e, nas próximas semanas, a todos os usuários.

O Google também confirmou que o Nano Banana chegará em breve ao Google Fotos, mas ainda não divulgou a data exata de lançamento. A expectativa é que o modelo seja incorporado aos recursos de edição de imagem do aplicativo, permitindo transformar fotos pessoais com os mesmos efeitos visuais disponíveis em outras plataformas.
Google expande Nano Banana para busca, NotebookLM e mais produtos

Google expande Nano Banana para busca, NotebookLM e mais produtos
Fonte: Tecnoblog

Prepare-se: seu Instagram vai ficar cheio de vídeos dublados por IA

Prepare-se: seu Instagram vai ficar cheio de vídeos dublados por IA

Usuários podem ver Reels de outras línguas com dublagem em português (imagem: divulgação/Meta)

Resumo

O Instagram expandiu o novo recurso de tradução de voz por inteligência artificial no Reels, incluindo suporte ao português e hindi. A novidade, que já estava disponível para inglês e espanhol desde agosto, tem como objetivo ajudar criadores de conteúdo a alcançar uma audiência global.

A ferramenta utiliza a Meta AI para analisar o áudio original de um vídeo e gerar uma versão dublada no idioma do espectador. Durante uma demonstração do recurso em português, entretanto, nota-se que a tecnologia ainda mistura o português falado no Brasil com construções frasais mais comuns em Portugal.

Além da dublagem, a IA também oferece uma funcionalidade de sincronização labial, que ajusta sutilmente os movimentos da boca do criador para que correspondam ao áudio, tornando o resultado mais natural.

Ver essa foto no Instagram Uma publicação compartilhada por Adam Mosseri (@mosseri)

Como ocorre a tradução?

A Meta desenvolveu a tecnologia de IA para “imitar o som e o tom da voz do criador”, buscando preservar a autenticidade do conteúdo original, mesmo em outro idioma.

Ainda assim, o processo não é totalmente automático para quem posta: é necessário ativar a opção “Traduza sua voz com a Meta AI”, antes de publicar um Reel. Em seguida, o criador pode revisar as traduções geradas e aprovar as versões que deseja disponibilizar.

A empresa também informou que está trabalhando em novas funcionalidades para o recurso. Em breve, a tradução de áudio com múltiplos interlocutores, já presente nos Reels no Facebook, chegará também ao Instagram.

A plataforma também planeja lançar uma tradução para textos aplicados aos vídeos por meio de stickers.

Sim, tem como desativar

Meta permite desativação completa da ferramenta (imagem: divulgação/Meta)

Ao contrário do que ocorre no YouTube, que também oferece tradução automática e dublagem de vídeos por IA, o Instagram oferece controles fáceis para desativar a ferramenta.

Na rede do Google, muitos usuários reclamam que a tradução é ativada por padrão e que as opções para desativá-la não são claras. Já o Instagram, que também traz a tecnologia ativada por padrão, pode ter se adiantado com as críticas feitas ao concorrente.

Para desativar as traduções em todos os Reels:

Acesse o seu perfil e toque no menu (três linhas) no canto superior direito.

Vá em Configurações e atividade.

Toque em Idioma e traduções.

Para gerenciar a tradução em um Reel específico:

Enquanto assiste a um vídeo, toque no ícone de três pontos (…).

Selecione Traduções.

Neste menu, é possível desativar a tradução para aquele vídeo, escolher para qual idioma traduzir ou relatar um erro na dublagem.

A Meta afirma que o recurso está sendo liberado gradualmente para todos os usuários com contas públicas do Instagram e para criadores no Facebook com mais de mil seguidores.
Prepare-se: seu Instagram vai ficar cheio de vídeos dublados por IA

Prepare-se: seu Instagram vai ficar cheio de vídeos dublados por IA
Fonte: Tecnoblog

Filha de Robin Williams pede a fãs: não mandem vídeos de IA

Filha de Robin Williams pede a fãs: não mandem vídeos de IA

O ator Robin Williams (imagem: reprodução/Wikimedia Commons)

Resumo

Zelda Williams pediu aos fãs que parem de enviar vídeos gerados por IA de seu pai, Robin Williams;
Zelda expressou descontentamento com vídeos de IA, chamando-os de perda de tempo e de energia;
Contudo, IA generativa vem ganhando força em produções profissionais, como em comerciais e séries.

Não é novidade que a inteligência artificial generativa já consegue produzir vídeos realistas de qualquer pessoa. Mas não é todo mundo que fica feliz com isso. Zelda Williams, filha de Robin Williams, pediu aos fãs que parem de enviar a ela vídeos de seu falecido pai gerados por IA.

Robin Williams foi muito admirado por conta de sua irreverência e atuação em filmes marcantes, como Sociedade dos Poetas Mortos (1989), Gênio Indomável (1997) e Patch Adams: O Amor é Contagioso (1998).

O ator faleceu em 2014, aos 63 anos de idade. Com o advento da IA generativa, fãs têm criado vídeos realistas de Robin Williams nos mais variados contextos. Muitos desses vídeos têm chegado a Zelda Williams, mas ela não tem ficado satisfeita com isso.

Em postagem recente no Instagram, ela disparou:

Por favor, parem de me enviar vídeos de IA com meu pai. Parem de acreditar que eu quero ver ou que eu vou entender. Eu não quero e não vou.

Se você está só tentando me trollar, já vi coisas muito piores, vou bloquear e seguir em frente. Mas, por favor, se você tiver um mínimo de decência, pare de fazer isso com ele e comigo, com todo mundo, ponto final. Isso é estupidez, é uma perda de tempo e de energia, e acredite em mim, NÃO é o que ele gostaria.

(…) E pelo amor de TUDO, parem de chamar isso de ‘o futuro’. A IA está apenas reciclando e regurgitando o passado para ser reconsumido. Vocês estão absorvendo a Centopeia Humana do conteúdo, e bem do final fila, enquanto as pessoas na frente riem e riem, consomem e consomem.

Zelda Williams

Robin Williams em Patch Adams: O Amor é Contagioso (imagem: reprodução)

IA generativa deve ganhar força em produções profissionais

O assunto é polêmico. Há quem recorra à IA para gerar vídeos de pessoas falecidas para prestar homenagens ou matar as saudades. Mas, como o caso de Zelda Williams ilustra, esse comportamento pode ser incômodo para familiares ou pessoas próximas do falecido.

Porém, no âmbito profissional, a IA generativa para vídeos deve ganhar força, movimentou que já começou, na realidade. Em 2023, por exemplo, uma tecnologia de deepfake foi usada para colocar Elis Regina em um comercial. A cantora faleceu em 1982.

Um exemplo mais recente vem de Cobra Kai. Em um episódio da sexta temporada da série da Netflix, “Sr. Miyagi” ressurgiu graças à inteligência artificial. O personagem foi interpretado nos filmes Karatê Kid por Pat Morita. O ator faleceu em 2005.

Com informações de Deadline

Filha de Robin Williams pede a fãs: não mandem vídeos de IA

Filha de Robin Williams pede a fãs: não mandem vídeos de IA
Fonte: Tecnoblog

Google lança ferramenta de vibe coding no Brasil

Google lança ferramenta de vibe coding no Brasil

Serviço de IA do Google ajuda leigos em desenvolvimento a criar apps (imagem: reprodução/Google)

Resumo

O Google lançou no Brasil a ferramenta de IA Opal, que permite criar miniaplicativos a partir de comandos de texto.
A Opal oferece um editor visual para leigos em programação, permitindo a edição de blocos de fluxo de trabalho e publicação dos miniaplicativos na web.
O Google introduziu uma ferramenta de depuração visual e otimizações de desempenho para agilizar a criação de aplicativos.

O Google anunciou nesta terça-feira (07/10) o lançamento da ferramenta de inteligência artificial Opal no Brasil. A ideia, que parte do Google Labs, é permitir que os usuários criem miniaplicativos a partir de comandos de texto. A plataforma estava em testes apenas nos Estados Unidos desde julho.

A expansão, que inclui mais 14 países além do Brasil, acontece simultaneamente à liberação de novas funcionalidades. Em comunicado oficial, o Google informou que a decisão de ampliar o acesso foi motivada pela complexidade e criatividade dos projetos desenvolvidos pela primeira leva de usuários.

Como o Opal funciona

O Opal opera a partir de um editor visual voltado a leigos em programação, oferecendo a infraestrutura do próprio Google (com Labs, Gemini e APIs do Android). O processo é semelhante ao uso de qualquer chatbot de IA, em que o usuário descreve a função do aplicativo que deseja criar, e a IA constrói um fluxo de trabalho com blocos que representam cada etapa do processo, como “receber dado do usuário”, “gerar texto” ou “exibir imagem”.

Cada um desses blocos pode ser editado individualmente, o que permite ao usuário refinar os comandos de texto para guiar a IA com mais precisão. Ao final do processo, o miniaplicativo pode ser publicado na web e compartilhado por meio de um link.

Além das criações próprias, a ferramenta possui uma galeria reunindo criações do Google e de outros usuários. Seguindo a ideia “colaborativa” de redes sociais como o TikTok, o Opal possui a opção editar projetos de outras pessoas por meio do botão “remixar”.

Fluxo dos apps gerados por IA no Opal (imagem: Felipe Faustino/Tecnoblog)

Inteligências artificiais já são usadas para auxiliar ou até mesmo gerar novos apps. O avanço das capacidades de codificação dos modelos é sempre um destaque nas novas versões.

O Gemini permite gerar códigos de apps para web e ter a pré-visualização diretamente no chatbot pelo menos desde março. A função foi aprimorada com o lançamento do Gemini 2.5 Pro, em maio.

Expansão global traz novas ferramentas

O Google anunciou duas atualizações voltadas a dar mais controle e agilidade aos criadores. A primeira é uma ferramenta de depuração visual, que permite executar o aplicativo passo a passo dentro do editor. Ela facilita a identificação de erros, destacando em qual bloco do fluxo ocorreu a falha.

A segunda melhoria diz respeito ao desempenho. O Google afirma ter implementado otimizações que reduzem o tempo necessário para criar novos aplicativos e permitem que fluxos de trabalho mais complexos executem tarefas em paralelo, diminuindo o tempo de espera.

A plataforma também está sendo liberada em países como Canadá, Índia, Japão, Coreia do Sul, Argentina e Colômbia.
Google lança ferramenta de vibe coding no Brasil

Google lança ferramenta de vibe coding no Brasil
Fonte: Tecnoblog