Category: Inteligência Artificial

TVs LG vão usar IA para captar as emoções dos espectadores

TVs LG vão usar IA para captar as emoções dos espectadores

Resumo

A LG usará IA para exibir anúncios alinhados às emoções dos espectadores nas TVs com sistema webOS, utilizando a tecnologia ZenVision da Zenapse.
A IA interpretará emoções, comportamentos e traços de personalidade, permitindo anúncios direcionados que geram impacto emocional, dividindo usuários em segmentos específicos.
O modelo de publicidade da LG, com enfoque em dados psicográficos, busca oferecer aos anunciantes informações mais profundas que as estratégias baseadas em dados demográficos.

Tecnologia ZenVision da Zenapse poderá identificar o comportamento dos espectadores de smart TVs da LG (imagem: Divulgação/LG)

A LG planeja usar inteligência artificial para exibir anúncios alinhados às emoções dos usuários das TVs da marca. A fabricante sul-coreana irá usar a tecnologia ZenVision, desenvolvida pela empresa de marketing Zenapse, nos televisores com o sistema operacional webOS.

De acordo com a empresa, a IA incorporada às TVs será capaz de interpretar emoções, comportamentos e até traços de personalidade do espectador. Então, ela poderá direcionar os anúncios que geram um “impacto emocional” nos usuários.

Os anúncios serão baseados no enredo do filme e série em exibição na TV da LG (imagem: Divulgação/LG)

Essa nova abordagem de publicidade nas TVs da LG surge de um acordo de licenciamento entre a LG Ad Solutions, divisão de publicidade da marca, e a Zenapce. A empresa de marketing cita que o ZenVision tem o objetivo de impulsionar as vendas de anúncios com “inteligência emocional baseada em IA”.

O recurso de IA faz a leitura das emoções usando os dados do roteiro e trama da série ou filme que o espectador está assistindo em TVs conectadas. A tecnologia também poderá analisar o comportamento da pessoa com base nos padrões de programas assistidos regularmente.

A LG e a Zenapce planejam dividir os usuários em segmentos altamente específicos, como “adotantes digitais”, “planejadores emocionalmente engajados” ou “buscadores de bem-estar”. Esses dados serão fornecidos detalhadamente para os anunciantes, que poderão escolher o público-alvo das peças de publicidade.

A princípio, a IA ZenVision deve ser usada para exibir anúncios direcionados nas telas iniciais das smart TVs da LG, canais de TV gratuitos com publicidade e outros espaços do webOS. O recurso não deve ter integração com os anúncios de plataformas de streaming, por exemplo.

Anúncios personalizados serão exibidos em diferentes espaços do sistema webOS (imagem: Divulgação/LG)

Diferenças entre dados demográficos e psicográficos

O modelo de publicidade direcionada guiada por “inteligência emocional” proposto pela LG visa fornecer aos anunciantes informações mais aprofundadas sobre os espectadores. Com isso, os dados psicográficos podem gerar um retorno maior do que as estratégias com dados demográficos ou a publicidade contextual.

Enquanto os dados demográficos fornecem detalhes como idade, gênero ou localização, os dados psicográficos conseguem segmentar os consumidores de forma mais profunda. As informações são baseadas em fatores psicológicos, como crenças pessoais, valores e atitudes.

“A publicidade com consciência emocional é uma parte fundamental dessa visão, criando experiências mais personalizadas e de alto impacto”, disse a LG.

Com informações de StreamTV Insider e Ars Technica.
TVs LG vão usar IA para captar as emoções dos espectadores

TVs LG vão usar IA para captar as emoções dos espectadores
Fonte: Tecnoblog

Motorola Razr 50 Ultra tem desconto histórico de 58% no Mercado Livre

Motorola Razr 50 Ultra tem desconto histórico de 58% no Mercado Livre

Tela externa de 4 polegadas do Razr 50 Ultra é a maior da categoria, diz Motorola (Imagem: Giovanni Santa Rosa / Tecnoblog)

Smartphone Motorola Razr 50 Ultra – 512GB 24GB (12GB RAM+12GB Ram Boost) Tela dobrável 6,9″ pOLED e externa 4” Moto AI camera IPX8 – Forest green
R$ 3.374 no Pix

PIX
Cupom

250DESCONTO
Ver Oferta

Receba mais promoções diretamente no seu celular:
participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

async function handle_redirect(cupom) {
try {
await navigator.clipboard.writeText(cupom.textContent);
cupom.classList.add(‘copied’);
cupom.dataset.text = ‘Cupom copiado!’;
} catch (err) {
console.error(‘Erro ao copiar para a área de transferência’, err);
}
}

O Motorola Razr 50 Ultra está saindo por apenas R$ 3.374 à vista no Pix com o cupom 250DESCONTO no Mercado Livre. Segundo histórico de preços no Buscapé, este é o menor valor já registrado pelo celular em oferta. O dobrável da Motorola se destaca pelo uso de inteligência artificial para aprimoramento das fotos, e tela externa maior que a da concorrência, com acesso rápido ao Gemini, do Google.

Motorola Razr 50 Ultra traz IA e tela maior

O primeiro grande destaque do celular dobrável da Motorola lançado em setembro de 2024 é a nova tela externa. Assim como a interna, ela é do tipo pOLED e tem taxa de atualização de 165 Hz, e agora tem 4 polegadas, ocupando quase toda a tampa do aparelho. Além de ser maior que a externa de concorrentes como a Samsung (com o Z Flip 6), ela ainda oferece acesso rápido ao Gemini nessa geração.

Outra novidade na parte externa fica por conta da câmera dupla de 50 MP, com teleobjetiva com zoom óptico 2x. Ainda em câmeras, o conjunto fotográfico do Razr 50 Ultra, que tem mais uma câmera frontal de 32 MP, agora utiliza a IA da Motorola para aprimoramento do HDR e da estabilização das imagens.

Modo filmadora tem controles rápidos ao alcance do polegar (Imagem: Giovanni Santa Rosa / Tecnoblog)

E falando em inteligência artificial, o Moto AI também traz recursos de IA para geração de papéis de parede personalizados, resumo de notificações, e transcrição e resumos automáticos de conversas, reuniões e palestras que são gravados pelo celular.

Por fim, o Motorola Razr 50 Ultra traz na ficha técnica o Snapdragon 8S Gen 3, RAM de 12 GB, 512 GB armazenamento, e bateria de 4.000 mAh com suporte a carregamento até 45W. Na prática, essas características devem entregar bom desempenho e autonomia, com alguns ganhos em relação à fotografia e tela externa do Galaxy Z Flip 6 da Samsung, mas perdendo no processador e no tamanho da tela interna.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Motorola Razr 50 Ultra tem desconto histórico de 58% no Mercado Livre

Motorola Razr 50 Ultra tem desconto histórico de 58% no Mercado Livre
Fonte: Tecnoblog

Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres

Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres

Elon Musk e Zuckerberg são alvo de manifestação com tecnologia (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Os cruzamentos de algumas cidades nos Estados Unidos trazem uma peculiaridade: o transeunte aperta um botão na hora de atravessar a rua. Além disso, o equipamento afixado ao poste pede para aguardar ou avançar. O que ninguém imaginava era que alguma pessoa hackearia alguns desses dispositivos na Califórnia para colocar as vozes de Elon Musk e Mark Zuckerberg, dois magnatas da tecnologia, como sabemos bem.

O assunto rapidamente surgiu nas redes sociais, com mais de 500 mil views, e ganhou as manchetes da imprensa americana. O responsável pela ação — ninguém assumiu a autoria — provavelmente usou algum sintetizador de voz e inteligência artificial para produzir os áudios, que depois foram incorporados nos postes de trânsito.

Confira as falas fake dos dois empresários:

Elon Musk: “Bem-vindo a Palo Alto, lar da engenharia da Tesla. Dizem que dinheiro não compra felicidade. E… é, ok… acho que isso é verdade. Deus sabe o quanto eu tentei. Mas ele pode comprar um Cybertruck, e isso é bem irado, né? …Né?? Porra, eu tô tão sozinho.”

Mark Zuckerberg: “Oi, aqui é o Mark Zuckerberg, mas os mais chegados me chamam de Zuck. É normal se sentir desconfortável ou até invadido enquanto a gente insere IA à força em todos os aspectos da sua experiência consciente. E eu só queria te tranquilizar: não precisa se preocupar, porque simplesmente não há nada que você possa fazer para impedir isso. Enfim, até mais.”

De acordo com o TechCrunch, as mensagens sonoras foram detectadas em Menlo Park, Palo Alto e Redwood City. Os funcionários da administração local começaram a desfazer a confusão no último sábado, dia 12/04.

Tanto Elon Musk quanto Zuckerberg têm chamado a atenção por causa dos posicionamentos que extrapolam os negócios, o que traz ainda mais escrutínio para a atuação de suas empresas. Nós não nos surpreenderemos se mais manifestações com uso de tecnologia surgirem no decorrer dos próximos quatro anos.
Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres

Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres
Fonte: Tecnoblog

Microsoft Research: modelos de IA ainda não são bons em corrigir bugs

Microsoft Research: modelos de IA ainda não são bons em corrigir bugs

Estudo mostra que modelos IA ainda não são bons em corrigir bugs (imagem ilustrativa: reprodução/Microsoft) Resumo
Um estudo da Microsoft Research revelou que modelos de IA atuais têm baixo desempenho em identificar códigos e bugs.
Os modelos da OpenAI atingiram apenas 30,2% de acerto (o1) e 22,1% (o3-mini) na tarefa.
O Claude 3.7 Sonnet, da Anthropic, obteve a maior taxa de sucesso na correção de bugs, com 48,4%.

O uso de inteligência artificial para geração de código no desenvolvimento de software já é realidade para numerosas organizações. Mas é preciso cautela com essa prática: um estudo da Microsoft Research aponta que os atuais modelos de IA não são bons em identificar códigos e erros de programação, isto é, bugs.Em linhas gerais, as organizações que recorrem à IA generativa no desenvolvimento de software o fazem para executar projetos mais rapidamente e, claro, diminuir a necessidade de contratar pessoas para conduzir essas atividades.Mas a Microsoft Research enfatiza que “a maioria dos desenvolvedores passa a maior parte do tempo depurando, e não escrevendo código”. É por isso que o uso de IA na programação precisa tratar a identificação e correção de erros como uma atribuição fundamental.Para avaliar esse aspecto, os pesquisadores da Microsoft Research fizeram testes de depuração de software usando a ferramenta de benchmark SWE-bench Lite.Os resultados mostraram resultados um tanto decepcionantes. O Claude 3.7 Sonnet, da Anthropic, apresentou a maior taxa média de sucesso: 48,4%. Já os modelos o1 e o3-mini, da OpenAI, registraram taxas de acerto de apenas 30,2% e 22,1%, respectivamente. Taxas de sucesso em “debug” pelos LLMs testadas (imagem ilustrativa: reprodução/Microsoft)Por que os modelos de IA ainda não são bons em depurar código?Os motivos são variados, mas os pesquisadores destacam as dificuldades dos modelos de IA testados em lidar com as ferramentas de depuração disponíveis. Há várias ferramentas para esse fim e elas podem ser usadas para problemas distintos, mas os modelos de IA não demostraram habilidades para fazer escolhas condizentes com cada tipo de problema.Mas a maior limitação encontrada pelos pesquisadores está na ausência de um volume de dados grande o suficiente para os modelos serem treinados para depuração. Para eles, há uma escassez de dados relacionados a “processos sequenciais de tomada de decisão” que correspondem às ações que desenvolvedores humanos executam para depurar código.Os pesquisadores dão a entender que é só questão de tempo para os modelos de IA ficarem melhores na resolução de bugs em softwares, mas enfatizam que “isso exigirá dados especializados para realizar o treinamento do modelo”.Apesar das limitações atuais, o uso da IA no desenvolvimento de software deve continuar em alta. Um exemplo dessa tendência vem do CEO da Shopify, que declarou que só contrata mais funcionários quando a IA não dá conta de novas tarefas.Com informações do TechCrunch e da Microsoft ResearchMicrosoft Research: modelos de IA ainda não são bons em corrigir bugs

Microsoft Research: modelos de IA ainda não são bons em corrigir bugs
Fonte: Tecnoblog

Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO

Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO

Grupo atua desde setembro de 2024 em campanha de spam (ilustração: Vitor Pádua/Tecnoblog)

Criminosos digitais têm utilizado ferramentas da OpenAI para atrair administradores de sites a uma rede fraudulenta de SEO (otimização para motores de busca). A estratégia consiste em criar mensagens personalizadas com inteligência artificial generativa, capazes de contornar filtros e captchas.

A operação foi identificada pela empresa de cibersegurança SentinelOne. Segundo os pesquisadores, uma ferramenta conhecida como AkiraBot foi empregada para tentar distribuir spam a cerca de 420 mil sites — em 80 mil deles, a tentativa teve êxito.

Caixas de comentários também eram alvo da quadrilha (imagem: reprodução/SentinelOne)

Os principais alvos eram negócios de pequeno e médio porte. As mensagens eram enviadas por meio de formulários de contato ou sistemas de atendimento via chat. As mensagens automatizadas ofereciam pacotes de SEO por US$ 30 mensais — aparentemente, os serviços eram falsos ou praticamente inúteis.

“Quando um novo meio de comunicação digital ganha popularidade, agentes mal-intencionados inevitavelmente o exploram para espalhar spam, buscando tirar proveito de usuários desavisados”, alerta a SentinelOne. “O email continua sendo o canal mais comum para esse tipo de prática, mas a popularização de novas plataformas ampliou o campo de atuação para esses ataques.”

Como a IA foi usada pelos golpistas?

Os responsáveis pelo golpe recorreram à API da OpenAI para gerar mensagens personalizadas com auxílio do modelo GPT-4o Mini. O sistema foi instruído a se comportar como um “assistente prestativo que cria mensagens de marketing”.

API da OpenAI recebia instruções e criava textos (imagem: reprodução/SentinelOne)

O uso de IA generativa permitiu que os textos não fossem idênticos entre si, como normalmente acontece em campanhas de spam. Apesar de parecidos, eles apresentavam variações suficientes para burlar os filtros automáticos.

Ainda de acordo com a SentinelOne, o primeiro domínio ligado ao grupo foi registrado em 2022. Arquivos relacionados à operação têm datas a partir de setembro de 2024. A investigação também revelou como a ferramenta evoluiu. Inicialmente voltada para sites na Shopify, o script logo passou a mirar páginas hospedadas em outras plataformas, como GoDaddy, Wix e Squarespace.

Além de alterar o conteúdo das mensagens, o sistema era capaz de escapar de barreiras como captchas e evitar a detecção por mecanismos de segurança de rede.

Qual era o golpe?

As comunicações fraudulentas promoviam dois serviços de SEO chamados Akira e ServiceWrap. Ao que tudo indica, ambos eram fraudulentos ou de péssima qualidade.

Apesar disso, na plataforma TrustPilot, os dois acumulavam inúmeras avaliações com cinco estrelas — muitas provavelmente criadas por inteligência artificial — além de algumas notas baixas, denunciando o caráter suspeito da operação.

A SentinelOne identificou um padrão: diversas contas publicavam avaliações sobre outras empresas e, dias depois, atribuíam nota máxima ao Akira ou ao ServiceWrap. O comportamento sugere um esforço coordenado para inflar artificialmente a reputação dessas marcas.

O que diz a OpenAI?

Em resposta à SentinelOne, a OpenAI divulgou o seguinte posicionamento:

“Agradecemos à SentinelOne por compartilhar os resultados de suas pesquisas. Usar as respostas de nosso serviço como spam vai contra nossas políticas. A chave de API envolvida foi desativada; seguimos investigando o caso e bloquearemos outros recursos vinculados a esse grupo. Levamos o uso indevido muito a sério e estamos constantemente aprimorando nossos sistemas para detectar abusos.”

Com informações da SentinelOne e 404 Media
Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO

Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO
Fonte: Tecnoblog

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

Empresa enfrenta desafios de infraestrutura para lançar novos modelos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O GPT-4 será desativado no ChatGPT em 30 de abril de 2025, mas continuará disponível via API para desenvolvedores.
O modelo substituto será o GPT-4o, com melhorias em escrita, programação e resolução de problemas científicos, segundo a OpenAI.
A OpenAI também pode lançar o GPT-4.1 na próxima semana, mas enfrenta desafios de infraestrutura, que já atrasaram o GPT-5.

A OpenAI anunciou que o GPT-4 deixará de estar disponível no ChatGPT a partir de 30 de abril de 2025. A partir dessa data, o chatbot com inteligência artificial passará a utilizar o GPT-4o — e novas versões já estão a caminho.

“Em comparações diretas, [o GPT-4o] supera consistentemente o GPT-4 em escrita, programação, problemas científicos e outras tarefas”, afirma a empresa no changelog do ChatGPT.

“Atualizações recentes ampliaram ainda mais a capacidade do GPT-4o de seguir instruções, solucionar questões e manter a fluidez nas conversas, tornando-o o substituto natural do GPT-4”, complementa a companhia.

Embora seja desativado no ChatGPT, o modelo continuará acessível via API, permitindo que desenvolvedores sigam utilizando essa alternativa em suas aplicações.

GPT-4.1 e novos modelos podem ser lançados em breve

A “aposentadoria” do GPT-4 reforça os rumores de que a OpenAI está prestes a lançar novos modelos. O engenheiro de software Tibor Blaho identificou que o ChatGPT já conta, em seu código, com referências ao o3, o o4 Mini e ao GPT-4.1 — este último, em variantes Nano e Mini.

Uma matéria publicada nesta quinta-feira (10/04) pelo Verge aponta que o o3 e o o4 Mini devem estrear nos próximos dias. Já o GPT-4.1 pode chegar a partir da semana que vem, embora ainda haja incertezas e risco de atrasos. A empresa tem enfrentado limitações de infraestrutura para desenvolver e disponibilizar suas novas soluções de IA generativa.

New ChatGPT web app version deployed just now (after midnight San Francisco time) adds mentions of “o4-mini”, “o4-mini-high” and “o3” pic.twitter.com/huz9XWQWGP— Tibor Blaho (@btibor91) April 10, 2025

Por esse mesmo motivo, o GPT-5 não deve aparecer tão cedo. Sam Altman, CEO da organização, já declarou que ainda levará alguns meses para que o modelo esteja pronto. Por outro lado, ele garante que o desempenho superará as expectativas iniciais.

GPT-4 foi um marco na evolução do ChatGPT

O GPT-4 foi revelado em março de 2023, poucos meses após o surgimento da onda da IA generativa. Inicialmente, ele esteve restrito aos assinantes do ChatGPT Plus, mesmo quando o Copilot da Microsoft (então conhecido como Bing Chat) já oferecia o modelo em sua versão gratuita.

O grande diferencial do GPT-4 foi o suporte à entrada de imagens, abrindo espaço para usos mais diversos. Além disso, trouxe respostas mais precisas e com tom mais natural.

“O GPT-4 marcou um momento crucial no desenvolvimento do ChatGPT. Agradecemos os avanços que ele proporcionou e os comentários dos usuários que contribuíram para a criação de seu sucessor”, escreveu a OpenAI no changelog.

Com informações do TechCrunch e Engadget
OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos
Fonte: Tecnoblog

Opera demonstra IA que navega na web por você, como um operador invisível

Opera demonstra IA que navega na web por você, como um operador invisível

Opera realiza o Browser Day em 10/04 (foto: Thássius Veloso/Tecnoblog)

Resumo

A Opera demonstrou em Lisboa um operador de IA que realiza tarefas na web simulando interações humanas, como cliques e preenchimento de formulários
O sistema usa a assistente Aria e processa informações localmente, sem envio para a nuvem
O operador ainda está em testes, mostrou limitações com idiomas e não tem data de lançamento definida

Os criadores do navegador Opera apostam que, no futuro, nós iremos usar agentes de inteligência artificial para fazer a navegação na web. Chega de entrar em páginas, encontrar detalhes, aprender os layouts. Numa demonstração realizada em Lisboa, com a presença do Tecnoblog, foi possível observar o “operador” da Opera em ação pela primeira vez.

A tarefa pode parecer banal: encomendar flores e mandar entregar em um endereço de hotel. Na prática, porém, a inteligência artificial passa por uma verdadeira provação de capacidades antes de completar a atividade.

Os responsáveis pela Opera estavam com alta expectativa para um recurso anunciado há poucos meses, porém mantido dentro do ambiente controlado da empresa até então. Chegaram a fornecer sacos de pipoca para os convidados na hora da apresentação.

Como funciona o operador da Opera?

Funciona assim: primeiro, o usuário chama a Aria, assistente de IA já existente no navegador Opera. O primeiro prompt é dado diretamente em uma caixa que aparece no centro da tela do browser. A partir daí, abre-se um painel na lateral esquerda do software onde aparecem diversas informações.

O Opera assume o controle e passa a fazer cliques do mouse, rolar a tela e preencher campos com informações. É como se uma mão invisível estivesse no controle do seu computador. Todo o processamento é dinâmico: o sistema observa o que está na tela e toma decisões sozinho.

Tanto é assim que, segundo os representantes da Opera, cada máquina poderia realizar o comando de maneira diferente. Algumas começariam lendo a primeira página, outras já clicando no menu superior — tal qual humanos com bagagens distintas.

Prompt: “I want to order flowers to Sheraton Cascais Resort. Delivery timeframe 8 to 11 am, the day of 11 April. Order it from floresnocais.pt. He likes yellow flowers. Bill it to Henrik Lexow. Ship it to Tillmann Braun” (foto: Thássius Veloso/Tecnoblog)

No fim das contas, o navegador conseguiu escolher as flores e preencher as informações de entrega. Esbarrou, porém, na tela de pagamento. Parece que a IA não lidou bem com informações em outro idioma (afinal, os comandos foram dados em inglês, mas a encomenda partiria de uma floricultura portuguesa).

Resultado surpreende

Os convidados para o evento de ontem (10) ficaram impressionados com a autonomia do sistema. Ele está em fase de testes e não foi liberado nem mesmo para os beta testers do Opera. Quando chegar ao mercado, deve competir com o operador do ChatGPT, que está em desenvolvimento. A Microsoft também trabalha no Copilot Vision, capaz de ver o que está na tela e conversar contigo, mas este sistema não realiza ações independentes.

Tenha em mente que o operador é mais lento do que um ser humano. A simples tarefa de comprar flores levou vários minutos. É provável que uma pessoa de carne e osso fizesse isso numa fração deste tempo. No entanto, estamos no início desta nova tecnologia, e já aprendemos de outras ocasiões que o amadurecimento da IA costuma ser muito rápido.

O operador do Opera é feito com privacidade em mente. Todo o processamento ocorre diretamente na máquina do usuário, sem depender da nuvem nem mandar seus dados para fora.

A Opera não divulgou planos para disponibilizar o operador de IA, nem qual será seu modelo de negócios.

Thássius Veloso viajou para Portugal a convite da Opera.
Opera demonstra IA que navega na web por você, como um operador invisível

Opera demonstra IA que navega na web por você, como um operador invisível
Fonte: Tecnoblog

OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem

OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem

Modelos novos podem vir “quebrados”, alerta empresa (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI pode lançar o GPT-4.1 na próxima semana, junto com versões Mini e Nano, e os modelos de raciocínio o4 Mini e o3.
Sam Altman, CEO da OpenAI, alertou que os lançamentos podem sofrer atrasos por problemas de capacidade semelhantes aos enfrentados com o GPT-5.
Referências aos modelos o4 Mini, o4 Mini High e o3 foram encontradas na nova versão web do ChatGPT.

A OpenAI pode apresentar seu novo modelo de inteligência artificial, o GPT-4.1, na próxima semana, de acordo com informações obtidas pelo site The Verge. Com ele, viriam versões menores, chamadas Mini e Nano. Os modelos de raciocínio o4 Mini e o3 também estão próximos de serem lançados.

Apesar da possibilidade de lançamento do GPT-4.1, as fontes ouvidas pela publicação advertem sobre o risco de atraso. Recentemente, a empresa precisou adiar novos modelos devido a problemas de capacidade.

Sam Altman avisou que GPT-5 vai demorar (imagem: Vitor Pádua/Tecnoblog)

Foi o que aconteceu, por exemplo, com o GPT-5, que teve seu anúncio postergado. Em uma publicação no X, Sam Altman, CEO da OpenAI, afirmou, na sexta-feira (04/04), que a companhia teve dificuldades para integrar suas tecnologias de maneira satisfatória. Por outro lado, ele declarou que a empresa poderá lançar um modelo muito melhor do que se pensava inicialmente.

Esta não foi a primeira vez que Altman tocou no assunto. Na terça-feira passada (01/04), o executivo alertou que os usuários devem ter em mente que os próximos lançamentos podem atrasar, chegar “quebrados” e enfrentar lentidão por causa de “desafios de capacidade”.

Novos modelos podem chegar antes

A reportagem do The Verge também aponta que os modelos de raciocínio o3 (em versão completa) e o o4 Mini devem ser lançados também na próxima semana. Neste caso, o lançamento parece mais próximo. Altman, da OpenAI, já falou abertamente sobre esses dois modelos no X.

Além disso, o engenheiro de IA Tibor Blaho encontrou referências ao o4 Mini, o4 Mini High e o3 em uma nova versão web do ChatGPT, o que reforça a ideia de que eles devem ser liberados em um futuro próximo.

Nesta quinta-feira (10/04), Altman afirmou no X que a empresa revelaria um novo recurso para o ChatGPT. No entanto, não se tratava de um novo modelo, e sim de melhorias na ferramenta de memória do chatbot.

Com informações do Verge
OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem

OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem
Fonte: Tecnoblog

Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4

Resultados do Llama 4 em testes chamaram a atenção (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta enviou para um teste de benchmarking no LMArena uma versão do Llama 4 diferente da que foi disponibilizada ao público, segundo especialistas em IA.
A empresa confirmou o uso da versão experimental, afirmando que aplica esse método a diversas “variantes customizadas”.
O LMArena criticou a Meta pela falta de transparência e anunciou que incluirá a versão final do Llama 4 Maverick nas votações.

Especialistas em inteligência artificial observaram que a Meta enviou para um teste de benchmarking uma versão do Llama 4 diferente da que foi liberada para o público. A empresa confirma ter usado uma versão experimental, mas diz fazer o mesmo com muitas variantes customizadas.

O que a Meta fez para provocar a polêmica?

Na documentação publicada com o lançamento do Llama 4, a Meta afirma que o teste LMArena foi feito usando uma versão experimental do modelo, “otimizada para conversacionalidade”, nas palavras da própria empresa.

O resultado do Llama 4 no LMArena é muito bom: o modelo é o atual segundo colocado na pontuação Elo. Com 1.417 pontos, ele está acima do 4o da OpenAI e abaixo apenas do Gemini 2.5 Pro, do Google.

Llama 4 foi bem em “batalhas” contra outros modelos de IA (ilustração: Vitor Pádua/Tecnoblog)

O LMArena é uma ferramenta de benchmarking de código aberto e colaborativa. Nos testes, usuários fazem uma mesma pergunta para dois modelos de IA distintos e votam em qual deu a melhor resposta. Quanto maior o número de vitórias na “arena”, maior a pontuação Elo (sim, o mesmo sistema de pontuação usado no xadrez, por exemplo).

O que a Meta diz sobre isso?

Em um email enviado ao The Verge, a Meta confirma ter usado uma versão experimental do Llama 4, mas diz que faz testes “com todos os tipos de variantes customizadas”.

A Llama-4-Maverick-03-26-Experimental é uma dessas e “também teve um bom desempenho no LMArena”, nas palavras de um porta-voz da companhia. Agora, a Meta afirma estar animada para ver o que os desenvolvedores farão com o Llama 4 de código aberto, que pode ser customizado.

O que a LMArena vai fazer a respeito?

Apesar de a Meta minimizar os questionamentos, os administradores do LMArena disseram que “a interpretação da Meta de nossas políticas não corresponde ao que esperamos dos fornecedores de modelos” e que a empresa deveria ter deixado claro que o modelo usado era otimizado.

Por isso, a versão final do Llama 4 Maverick será adicionada às votações, e os resultados devem ser divulgados em breve.

Com informações do TechCrunch, Gizmodo e The Verge
Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4
Fonte: Tecnoblog

Gemini: IA do Google passa a enxergar e conversar sobre o mundo

Gemini: IA do Google passa a enxergar e conversar sobre o mundo

Gemini Live estreia recurso visual nos celulares Galaxy S25, Pixel 9 e no Gemini Advanced (imagem: divulgação)

O Google liberou a funcionalidade de usar a câmera do celular com o Gemini Live. Anunciado no ano passado, o recurso da big tech que permite que usuários conversem com o Gemini enquanto exibem algum elemento do ambiente. Com essa ferramenta, é possível pedir informações sobre objetos, roupas e até ajuda na decoração da casa.

Para quais celulares está disponível o Gemini Live?

O Gemini Live foi liberado para os celulares Galaxy S25, Pixel 9 (não vendido oficialmente no Brasil) e assinantes do Gemini Advanced — serviço de assinatura da IA que fornece recursos extras.

Em seu site, a Samsung diz que o Gemini Live será lançado “primeiro nos celulares da série Galaxy S25”, indicando que outros dispositivos da marca ganharão a ferramenta no futuro.

Usuário pode pedir ao Gemini Live para identificar uma planta (foto: Thássius Veloso/Tecnoblog)

Se você já tem um modelo da linha Galaxy S25 e o celular está atualizado, você pode ativar o Gemini Live pressionando e segurando o botão lateral.

Quais as funcionalidades do Gemini Live?

Com o Gemini Live, o usuário pode apontar a câmera do celular para algum elemento e conversar com a IA. Por exemplo, é possível filmar a sua sala e pedir para o Gemini sugestões sobre como redecorar o espaço, seja trocando um móvel de lugar ou itens que combinem com a decoração.

O Google também mostra em seu site algumas outras sugestões, como filmar objetos na casa que estão com defeitos (uma cadeira rangendo, por exemplo) e receber o possível diagnóstico do problema, dicas de roupas para vestir em uma determinada ocasião, auxílio com cálculos e perguntar qual o material de uma roupa.

No momento, a funcionalidade de pedir informações sobre estabelecimentos não está disponível. Esse recurso foi mostrado pelo Google para o Android XR. Porém, dadas as suas semelhanças com o Gemini Live, é provável que ele estreie na IA no futuro.

Assim, usuários poderão apontar a câmera para a fachada de um restaurante, ver a tradução do cardápio (se tiver na parte externa) e ouvir o sumário das análises do local.
Gemini: IA do Google passa a enxergar e conversar sobre o mundo

Gemini: IA do Google passa a enxergar e conversar sobre o mundo
Fonte: Tecnoblog