Category: Inteligência Artificial

Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres

Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres

Elon Musk e Zuckerberg são alvo de manifestação com tecnologia (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Os cruzamentos de algumas cidades nos Estados Unidos trazem uma peculiaridade: o transeunte aperta um botão na hora de atravessar a rua. Além disso, o equipamento afixado ao poste pede para aguardar ou avançar. O que ninguém imaginava era que alguma pessoa hackearia alguns desses dispositivos na Califórnia para colocar as vozes de Elon Musk e Mark Zuckerberg, dois magnatas da tecnologia, como sabemos bem.

O assunto rapidamente surgiu nas redes sociais, com mais de 500 mil views, e ganhou as manchetes da imprensa americana. O responsável pela ação — ninguém assumiu a autoria — provavelmente usou algum sintetizador de voz e inteligência artificial para produzir os áudios, que depois foram incorporados nos postes de trânsito.

Confira as falas fake dos dois empresários:

Elon Musk: “Bem-vindo a Palo Alto, lar da engenharia da Tesla. Dizem que dinheiro não compra felicidade. E… é, ok… acho que isso é verdade. Deus sabe o quanto eu tentei. Mas ele pode comprar um Cybertruck, e isso é bem irado, né? …Né?? Porra, eu tô tão sozinho.”

Mark Zuckerberg: “Oi, aqui é o Mark Zuckerberg, mas os mais chegados me chamam de Zuck. É normal se sentir desconfortável ou até invadido enquanto a gente insere IA à força em todos os aspectos da sua experiência consciente. E eu só queria te tranquilizar: não precisa se preocupar, porque simplesmente não há nada que você possa fazer para impedir isso. Enfim, até mais.”

De acordo com o TechCrunch, as mensagens sonoras foram detectadas em Menlo Park, Palo Alto e Redwood City. Os funcionários da administração local começaram a desfazer a confusão no último sábado, dia 12/04.

Tanto Elon Musk quanto Zuckerberg têm chamado a atenção por causa dos posicionamentos que extrapolam os negócios, o que traz ainda mais escrutínio para a atuação de suas empresas. Nós não nos surpreenderemos se mais manifestações com uso de tecnologia surgirem no decorrer dos próximos quatro anos.
Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres

Vozes de Elon Musk e Zuckerberg criadas por IA surpreendem pedestres
Fonte: Tecnoblog

Microsoft Research: modelos de IA ainda não são bons em corrigir bugs

Microsoft Research: modelos de IA ainda não são bons em corrigir bugs

Estudo mostra que modelos IA ainda não são bons em corrigir bugs (imagem ilustrativa: reprodução/Microsoft) Resumo
Um estudo da Microsoft Research revelou que modelos de IA atuais têm baixo desempenho em identificar códigos e bugs.
Os modelos da OpenAI atingiram apenas 30,2% de acerto (o1) e 22,1% (o3-mini) na tarefa.
O Claude 3.7 Sonnet, da Anthropic, obteve a maior taxa de sucesso na correção de bugs, com 48,4%.

O uso de inteligência artificial para geração de código no desenvolvimento de software já é realidade para numerosas organizações. Mas é preciso cautela com essa prática: um estudo da Microsoft Research aponta que os atuais modelos de IA não são bons em identificar códigos e erros de programação, isto é, bugs.Em linhas gerais, as organizações que recorrem à IA generativa no desenvolvimento de software o fazem para executar projetos mais rapidamente e, claro, diminuir a necessidade de contratar pessoas para conduzir essas atividades.Mas a Microsoft Research enfatiza que “a maioria dos desenvolvedores passa a maior parte do tempo depurando, e não escrevendo código”. É por isso que o uso de IA na programação precisa tratar a identificação e correção de erros como uma atribuição fundamental.Para avaliar esse aspecto, os pesquisadores da Microsoft Research fizeram testes de depuração de software usando a ferramenta de benchmark SWE-bench Lite.Os resultados mostraram resultados um tanto decepcionantes. O Claude 3.7 Sonnet, da Anthropic, apresentou a maior taxa média de sucesso: 48,4%. Já os modelos o1 e o3-mini, da OpenAI, registraram taxas de acerto de apenas 30,2% e 22,1%, respectivamente. Taxas de sucesso em “debug” pelos LLMs testadas (imagem ilustrativa: reprodução/Microsoft)Por que os modelos de IA ainda não são bons em depurar código?Os motivos são variados, mas os pesquisadores destacam as dificuldades dos modelos de IA testados em lidar com as ferramentas de depuração disponíveis. Há várias ferramentas para esse fim e elas podem ser usadas para problemas distintos, mas os modelos de IA não demostraram habilidades para fazer escolhas condizentes com cada tipo de problema.Mas a maior limitação encontrada pelos pesquisadores está na ausência de um volume de dados grande o suficiente para os modelos serem treinados para depuração. Para eles, há uma escassez de dados relacionados a “processos sequenciais de tomada de decisão” que correspondem às ações que desenvolvedores humanos executam para depurar código.Os pesquisadores dão a entender que é só questão de tempo para os modelos de IA ficarem melhores na resolução de bugs em softwares, mas enfatizam que “isso exigirá dados especializados para realizar o treinamento do modelo”.Apesar das limitações atuais, o uso da IA no desenvolvimento de software deve continuar em alta. Um exemplo dessa tendência vem do CEO da Shopify, que declarou que só contrata mais funcionários quando a IA não dá conta de novas tarefas.Com informações do TechCrunch e da Microsoft ResearchMicrosoft Research: modelos de IA ainda não são bons em corrigir bugs

Microsoft Research: modelos de IA ainda não são bons em corrigir bugs
Fonte: Tecnoblog

Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO

Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO

Grupo atua desde setembro de 2024 em campanha de spam (ilustração: Vitor Pádua/Tecnoblog)

Criminosos digitais têm utilizado ferramentas da OpenAI para atrair administradores de sites a uma rede fraudulenta de SEO (otimização para motores de busca). A estratégia consiste em criar mensagens personalizadas com inteligência artificial generativa, capazes de contornar filtros e captchas.

A operação foi identificada pela empresa de cibersegurança SentinelOne. Segundo os pesquisadores, uma ferramenta conhecida como AkiraBot foi empregada para tentar distribuir spam a cerca de 420 mil sites — em 80 mil deles, a tentativa teve êxito.

Caixas de comentários também eram alvo da quadrilha (imagem: reprodução/SentinelOne)

Os principais alvos eram negócios de pequeno e médio porte. As mensagens eram enviadas por meio de formulários de contato ou sistemas de atendimento via chat. As mensagens automatizadas ofereciam pacotes de SEO por US$ 30 mensais — aparentemente, os serviços eram falsos ou praticamente inúteis.

“Quando um novo meio de comunicação digital ganha popularidade, agentes mal-intencionados inevitavelmente o exploram para espalhar spam, buscando tirar proveito de usuários desavisados”, alerta a SentinelOne. “O email continua sendo o canal mais comum para esse tipo de prática, mas a popularização de novas plataformas ampliou o campo de atuação para esses ataques.”

Como a IA foi usada pelos golpistas?

Os responsáveis pelo golpe recorreram à API da OpenAI para gerar mensagens personalizadas com auxílio do modelo GPT-4o Mini. O sistema foi instruído a se comportar como um “assistente prestativo que cria mensagens de marketing”.

API da OpenAI recebia instruções e criava textos (imagem: reprodução/SentinelOne)

O uso de IA generativa permitiu que os textos não fossem idênticos entre si, como normalmente acontece em campanhas de spam. Apesar de parecidos, eles apresentavam variações suficientes para burlar os filtros automáticos.

Ainda de acordo com a SentinelOne, o primeiro domínio ligado ao grupo foi registrado em 2022. Arquivos relacionados à operação têm datas a partir de setembro de 2024. A investigação também revelou como a ferramenta evoluiu. Inicialmente voltada para sites na Shopify, o script logo passou a mirar páginas hospedadas em outras plataformas, como GoDaddy, Wix e Squarespace.

Além de alterar o conteúdo das mensagens, o sistema era capaz de escapar de barreiras como captchas e evitar a detecção por mecanismos de segurança de rede.

Qual era o golpe?

As comunicações fraudulentas promoviam dois serviços de SEO chamados Akira e ServiceWrap. Ao que tudo indica, ambos eram fraudulentos ou de péssima qualidade.

Apesar disso, na plataforma TrustPilot, os dois acumulavam inúmeras avaliações com cinco estrelas — muitas provavelmente criadas por inteligência artificial — além de algumas notas baixas, denunciando o caráter suspeito da operação.

A SentinelOne identificou um padrão: diversas contas publicavam avaliações sobre outras empresas e, dias depois, atribuíam nota máxima ao Akira ou ao ServiceWrap. O comportamento sugere um esforço coordenado para inflar artificialmente a reputação dessas marcas.

O que diz a OpenAI?

Em resposta à SentinelOne, a OpenAI divulgou o seguinte posicionamento:

“Agradecemos à SentinelOne por compartilhar os resultados de suas pesquisas. Usar as respostas de nosso serviço como spam vai contra nossas políticas. A chave de API envolvida foi desativada; seguimos investigando o caso e bloquearemos outros recursos vinculados a esse grupo. Levamos o uso indevido muito a sério e estamos constantemente aprimorando nossos sistemas para detectar abusos.”

Com informações da SentinelOne e 404 Media
Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO

Bando usa IA da OpenAI para atacar 80 mil sites com falso serviço de SEO
Fonte: Tecnoblog

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

Empresa enfrenta desafios de infraestrutura para lançar novos modelos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O GPT-4 será desativado no ChatGPT em 30 de abril de 2025, mas continuará disponível via API para desenvolvedores.
O modelo substituto será o GPT-4o, com melhorias em escrita, programação e resolução de problemas científicos, segundo a OpenAI.
A OpenAI também pode lançar o GPT-4.1 na próxima semana, mas enfrenta desafios de infraestrutura, que já atrasaram o GPT-5.

A OpenAI anunciou que o GPT-4 deixará de estar disponível no ChatGPT a partir de 30 de abril de 2025. A partir dessa data, o chatbot com inteligência artificial passará a utilizar o GPT-4o — e novas versões já estão a caminho.

“Em comparações diretas, [o GPT-4o] supera consistentemente o GPT-4 em escrita, programação, problemas científicos e outras tarefas”, afirma a empresa no changelog do ChatGPT.

“Atualizações recentes ampliaram ainda mais a capacidade do GPT-4o de seguir instruções, solucionar questões e manter a fluidez nas conversas, tornando-o o substituto natural do GPT-4”, complementa a companhia.

Embora seja desativado no ChatGPT, o modelo continuará acessível via API, permitindo que desenvolvedores sigam utilizando essa alternativa em suas aplicações.

GPT-4.1 e novos modelos podem ser lançados em breve

A “aposentadoria” do GPT-4 reforça os rumores de que a OpenAI está prestes a lançar novos modelos. O engenheiro de software Tibor Blaho identificou que o ChatGPT já conta, em seu código, com referências ao o3, o o4 Mini e ao GPT-4.1 — este último, em variantes Nano e Mini.

Uma matéria publicada nesta quinta-feira (10/04) pelo Verge aponta que o o3 e o o4 Mini devem estrear nos próximos dias. Já o GPT-4.1 pode chegar a partir da semana que vem, embora ainda haja incertezas e risco de atrasos. A empresa tem enfrentado limitações de infraestrutura para desenvolver e disponibilizar suas novas soluções de IA generativa.

New ChatGPT web app version deployed just now (after midnight San Francisco time) adds mentions of “o4-mini”, “o4-mini-high” and “o3” pic.twitter.com/huz9XWQWGP— Tibor Blaho (@btibor91) April 10, 2025

Por esse mesmo motivo, o GPT-5 não deve aparecer tão cedo. Sam Altman, CEO da organização, já declarou que ainda levará alguns meses para que o modelo esteja pronto. Por outro lado, ele garante que o desempenho superará as expectativas iniciais.

GPT-4 foi um marco na evolução do ChatGPT

O GPT-4 foi revelado em março de 2023, poucos meses após o surgimento da onda da IA generativa. Inicialmente, ele esteve restrito aos assinantes do ChatGPT Plus, mesmo quando o Copilot da Microsoft (então conhecido como Bing Chat) já oferecia o modelo em sua versão gratuita.

O grande diferencial do GPT-4 foi o suporte à entrada de imagens, abrindo espaço para usos mais diversos. Além disso, trouxe respostas mais precisas e com tom mais natural.

“O GPT-4 marcou um momento crucial no desenvolvimento do ChatGPT. Agradecemos os avanços que ele proporcionou e os comentários dos usuários que contribuíram para a criação de seu sucessor”, escreveu a OpenAI no changelog.

Com informações do TechCrunch e Engadget
OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos
Fonte: Tecnoblog

Opera demonstra IA que navega na web por você, como um operador invisível

Opera demonstra IA que navega na web por você, como um operador invisível

Opera realiza o Browser Day em 10/04 (foto: Thássius Veloso/Tecnoblog)

Resumo

A Opera demonstrou em Lisboa um operador de IA que realiza tarefas na web simulando interações humanas, como cliques e preenchimento de formulários
O sistema usa a assistente Aria e processa informações localmente, sem envio para a nuvem
O operador ainda está em testes, mostrou limitações com idiomas e não tem data de lançamento definida

Os criadores do navegador Opera apostam que, no futuro, nós iremos usar agentes de inteligência artificial para fazer a navegação na web. Chega de entrar em páginas, encontrar detalhes, aprender os layouts. Numa demonstração realizada em Lisboa, com a presença do Tecnoblog, foi possível observar o “operador” da Opera em ação pela primeira vez.

A tarefa pode parecer banal: encomendar flores e mandar entregar em um endereço de hotel. Na prática, porém, a inteligência artificial passa por uma verdadeira provação de capacidades antes de completar a atividade.

Os responsáveis pela Opera estavam com alta expectativa para um recurso anunciado há poucos meses, porém mantido dentro do ambiente controlado da empresa até então. Chegaram a fornecer sacos de pipoca para os convidados na hora da apresentação.

Como funciona o operador da Opera?

Funciona assim: primeiro, o usuário chama a Aria, assistente de IA já existente no navegador Opera. O primeiro prompt é dado diretamente em uma caixa que aparece no centro da tela do browser. A partir daí, abre-se um painel na lateral esquerda do software onde aparecem diversas informações.

O Opera assume o controle e passa a fazer cliques do mouse, rolar a tela e preencher campos com informações. É como se uma mão invisível estivesse no controle do seu computador. Todo o processamento é dinâmico: o sistema observa o que está na tela e toma decisões sozinho.

Tanto é assim que, segundo os representantes da Opera, cada máquina poderia realizar o comando de maneira diferente. Algumas começariam lendo a primeira página, outras já clicando no menu superior — tal qual humanos com bagagens distintas.

Prompt: “I want to order flowers to Sheraton Cascais Resort. Delivery timeframe 8 to 11 am, the day of 11 April. Order it from floresnocais.pt. He likes yellow flowers. Bill it to Henrik Lexow. Ship it to Tillmann Braun” (foto: Thássius Veloso/Tecnoblog)

No fim das contas, o navegador conseguiu escolher as flores e preencher as informações de entrega. Esbarrou, porém, na tela de pagamento. Parece que a IA não lidou bem com informações em outro idioma (afinal, os comandos foram dados em inglês, mas a encomenda partiria de uma floricultura portuguesa).

Resultado surpreende

Os convidados para o evento de ontem (10) ficaram impressionados com a autonomia do sistema. Ele está em fase de testes e não foi liberado nem mesmo para os beta testers do Opera. Quando chegar ao mercado, deve competir com o operador do ChatGPT, que está em desenvolvimento. A Microsoft também trabalha no Copilot Vision, capaz de ver o que está na tela e conversar contigo, mas este sistema não realiza ações independentes.

Tenha em mente que o operador é mais lento do que um ser humano. A simples tarefa de comprar flores levou vários minutos. É provável que uma pessoa de carne e osso fizesse isso numa fração deste tempo. No entanto, estamos no início desta nova tecnologia, e já aprendemos de outras ocasiões que o amadurecimento da IA costuma ser muito rápido.

O operador do Opera é feito com privacidade em mente. Todo o processamento ocorre diretamente na máquina do usuário, sem depender da nuvem nem mandar seus dados para fora.

A Opera não divulgou planos para disponibilizar o operador de IA, nem qual será seu modelo de negócios.

Thássius Veloso viajou para Portugal a convite da Opera.
Opera demonstra IA que navega na web por você, como um operador invisível

Opera demonstra IA que navega na web por você, como um operador invisível
Fonte: Tecnoblog

OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem

OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem

Modelos novos podem vir “quebrados”, alerta empresa (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI pode lançar o GPT-4.1 na próxima semana, junto com versões Mini e Nano, e os modelos de raciocínio o4 Mini e o3.
Sam Altman, CEO da OpenAI, alertou que os lançamentos podem sofrer atrasos por problemas de capacidade semelhantes aos enfrentados com o GPT-5.
Referências aos modelos o4 Mini, o4 Mini High e o3 foram encontradas na nova versão web do ChatGPT.

A OpenAI pode apresentar seu novo modelo de inteligência artificial, o GPT-4.1, na próxima semana, de acordo com informações obtidas pelo site The Verge. Com ele, viriam versões menores, chamadas Mini e Nano. Os modelos de raciocínio o4 Mini e o3 também estão próximos de serem lançados.

Apesar da possibilidade de lançamento do GPT-4.1, as fontes ouvidas pela publicação advertem sobre o risco de atraso. Recentemente, a empresa precisou adiar novos modelos devido a problemas de capacidade.

Sam Altman avisou que GPT-5 vai demorar (imagem: Vitor Pádua/Tecnoblog)

Foi o que aconteceu, por exemplo, com o GPT-5, que teve seu anúncio postergado. Em uma publicação no X, Sam Altman, CEO da OpenAI, afirmou, na sexta-feira (04/04), que a companhia teve dificuldades para integrar suas tecnologias de maneira satisfatória. Por outro lado, ele declarou que a empresa poderá lançar um modelo muito melhor do que se pensava inicialmente.

Esta não foi a primeira vez que Altman tocou no assunto. Na terça-feira passada (01/04), o executivo alertou que os usuários devem ter em mente que os próximos lançamentos podem atrasar, chegar “quebrados” e enfrentar lentidão por causa de “desafios de capacidade”.

Novos modelos podem chegar antes

A reportagem do The Verge também aponta que os modelos de raciocínio o3 (em versão completa) e o o4 Mini devem ser lançados também na próxima semana. Neste caso, o lançamento parece mais próximo. Altman, da OpenAI, já falou abertamente sobre esses dois modelos no X.

Além disso, o engenheiro de IA Tibor Blaho encontrou referências ao o4 Mini, o4 Mini High e o3 em uma nova versão web do ChatGPT, o que reforça a ideia de que eles devem ser liberados em um futuro próximo.

Nesta quinta-feira (10/04), Altman afirmou no X que a empresa revelaria um novo recurso para o ChatGPT. No entanto, não se tratava de um novo modelo, e sim de melhorias na ferramenta de memória do chatbot.

Com informações do Verge
OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem

OpenAI pode lançar GPT-4.1 e mais modelos de IA na semana que vem
Fonte: Tecnoblog

Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4

Resultados do Llama 4 em testes chamaram a atenção (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta enviou para um teste de benchmarking no LMArena uma versão do Llama 4 diferente da que foi disponibilizada ao público, segundo especialistas em IA.
A empresa confirmou o uso da versão experimental, afirmando que aplica esse método a diversas “variantes customizadas”.
O LMArena criticou a Meta pela falta de transparência e anunciou que incluirá a versão final do Llama 4 Maverick nas votações.

Especialistas em inteligência artificial observaram que a Meta enviou para um teste de benchmarking uma versão do Llama 4 diferente da que foi liberada para o público. A empresa confirma ter usado uma versão experimental, mas diz fazer o mesmo com muitas variantes customizadas.

O que a Meta fez para provocar a polêmica?

Na documentação publicada com o lançamento do Llama 4, a Meta afirma que o teste LMArena foi feito usando uma versão experimental do modelo, “otimizada para conversacionalidade”, nas palavras da própria empresa.

O resultado do Llama 4 no LMArena é muito bom: o modelo é o atual segundo colocado na pontuação Elo. Com 1.417 pontos, ele está acima do 4o da OpenAI e abaixo apenas do Gemini 2.5 Pro, do Google.

Llama 4 foi bem em “batalhas” contra outros modelos de IA (ilustração: Vitor Pádua/Tecnoblog)

O LMArena é uma ferramenta de benchmarking de código aberto e colaborativa. Nos testes, usuários fazem uma mesma pergunta para dois modelos de IA distintos e votam em qual deu a melhor resposta. Quanto maior o número de vitórias na “arena”, maior a pontuação Elo (sim, o mesmo sistema de pontuação usado no xadrez, por exemplo).

O que a Meta diz sobre isso?

Em um email enviado ao The Verge, a Meta confirma ter usado uma versão experimental do Llama 4, mas diz que faz testes “com todos os tipos de variantes customizadas”.

A Llama-4-Maverick-03-26-Experimental é uma dessas e “também teve um bom desempenho no LMArena”, nas palavras de um porta-voz da companhia. Agora, a Meta afirma estar animada para ver o que os desenvolvedores farão com o Llama 4 de código aberto, que pode ser customizado.

O que a LMArena vai fazer a respeito?

Apesar de a Meta minimizar os questionamentos, os administradores do LMArena disseram que “a interpretação da Meta de nossas políticas não corresponde ao que esperamos dos fornecedores de modelos” e que a empresa deveria ter deixado claro que o modelo usado era otimizado.

Por isso, a versão final do Llama 4 Maverick será adicionada às votações, e os resultados devem ser divulgados em breve.

Com informações do TechCrunch, Gizmodo e The Verge
Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4
Fonte: Tecnoblog

Gemini: IA do Google passa a enxergar e conversar sobre o mundo

Gemini: IA do Google passa a enxergar e conversar sobre o mundo

Gemini Live estreia recurso visual nos celulares Galaxy S25, Pixel 9 e no Gemini Advanced (imagem: divulgação)

O Google liberou a funcionalidade de usar a câmera do celular com o Gemini Live. Anunciado no ano passado, o recurso da big tech que permite que usuários conversem com o Gemini enquanto exibem algum elemento do ambiente. Com essa ferramenta, é possível pedir informações sobre objetos, roupas e até ajuda na decoração da casa.

Para quais celulares está disponível o Gemini Live?

O Gemini Live foi liberado para os celulares Galaxy S25, Pixel 9 (não vendido oficialmente no Brasil) e assinantes do Gemini Advanced — serviço de assinatura da IA que fornece recursos extras.

Em seu site, a Samsung diz que o Gemini Live será lançado “primeiro nos celulares da série Galaxy S25”, indicando que outros dispositivos da marca ganharão a ferramenta no futuro.

Usuário pode pedir ao Gemini Live para identificar uma planta (foto: Thássius Veloso/Tecnoblog)

Se você já tem um modelo da linha Galaxy S25 e o celular está atualizado, você pode ativar o Gemini Live pressionando e segurando o botão lateral.

Quais as funcionalidades do Gemini Live?

Com o Gemini Live, o usuário pode apontar a câmera do celular para algum elemento e conversar com a IA. Por exemplo, é possível filmar a sua sala e pedir para o Gemini sugestões sobre como redecorar o espaço, seja trocando um móvel de lugar ou itens que combinem com a decoração.

O Google também mostra em seu site algumas outras sugestões, como filmar objetos na casa que estão com defeitos (uma cadeira rangendo, por exemplo) e receber o possível diagnóstico do problema, dicas de roupas para vestir em uma determinada ocasião, auxílio com cálculos e perguntar qual o material de uma roupa.

No momento, a funcionalidade de pedir informações sobre estabelecimentos não está disponível. Esse recurso foi mostrado pelo Google para o Android XR. Porém, dadas as suas semelhanças com o Gemini Live, é provável que ele estreie na IA no futuro.

Assim, usuários poderão apontar a câmera para a fachada de um restaurante, ver a tradução do cardápio (se tiver na parte externa) e ouvir o sumário das análises do local.
Gemini: IA do Google passa a enxergar e conversar sobre o mundo

Gemini: IA do Google passa a enxergar e conversar sobre o mundo
Fonte: Tecnoblog

OpenAI adia lançamento do GPT-5 por mais alguns meses

OpenAI adia lançamento do GPT-5 por mais alguns meses

Vai demorar mais alguns meses para o ChatGPT estrear o LLM GPT-5 (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI adiou o lançamento do GPT-5 para integrá-lo melhor ao ecossistema atual, segundo o CEO Sam Altman.
O novo modelo deve unificar LLMs anteriores e trazer recursos como voz integrada, Canvas e Deep Research.
Enquanto isso, os modelos de raciocínio o3 e o4-mini, voltados para programação, ciência e matemática, serão lançados nas próximas semanas.

A OpenAI vai adiar o lançamento do LLM GPT-5, modelo de IA generativa que será utilizado no ChatGPT. O adiamento do GPT-5 foi anunciado por Sam Altman, CEO da OpenAI, em uma publicação no X. Segundo Altman, o próximo LLM da empresa será “muito melhor do que pensado originalmente”.

Por que a OpenAI adiou o lançamento do GPT-5?

Segundo Sam Altman, um dos motivos para adiar o lançamento do GPT-5 por mais alguns meses foi a dificuldade em integrar de modo mais suave o LLM com o sistema existente. Altman ainda explica no tweet que a empresa espera ter capacidade suficiente para atender à demanda após o lançamento do GPT-5.

Sam Altman publicou no X que GPT-5 será adiado (imagem: Felipe Freitas/Tecnoblog)

O CEO da OpenAI diz que a empresa espera uma “demanda sem precedentes” com a estreia do novo LLM. A previsão da empresa faz sentido quando analisamos as declarações de Altman, outros membros da OpenAI e fontes anônimas de jornalistas. O CEO já revelou que o GPT-5 terá vários recursos, como voz integrada, uso do Canvas, busca, Deep Research e integrará todos os outros LLMs da empresa.

Essa integração do LLM funcionará assim: em vez de você selecionar qual modelo usar, a IA vai identificar pela complexidade do prompt qual o LLM ideal para entregar a resposta desejada. Para a OpenAI isso é ótimo, já que não precisará escolher uma versão cara do GPT para responder ao usuário quanto é 1+1.

O GPT-5 também terá diferentes níveis de inteligência — que podemos chamar de desempenho. Quem usa o ChatGPT gratuito terá acesso ao LLM com um nível padrão de inteligência. Assinantes do Plus usarão um GPT-5 mais inteligente, enquanto membros do Pro terão a versão ainda mais inteligente, com o máximo de capacidade do modelo.

LLMs o3 e o4-mini chegam em breve

No mesmo tweet em que informa o adiamento do GPT-5, Altman revela que os modelos o3 e o4-mini serão lançados nas próximas semanas. Esses LLM integram a família de modelos de raciocínio da OpenAI, voltados para tarefas de programação, ciência e matemática — além de mostrar a linha de raciocínio usada para chegar na resposta.

Com informações do TechCrunch
OpenAI adia lançamento do GPT-5 por mais alguns meses

OpenAI adia lançamento do GPT-5 por mais alguns meses
Fonte: Tecnoblog

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Meta lança novos modelos da geração Llama 4, incluindo um LLM professor de IAs (ilustração: Vitor Pádua/Tecnoblog)

A Meta anunciou na última sexta-feira (5) novos LLM do Llama 4, sua atual geração de modelo para IAs. O Llama 4 ganhou três novos modelos, cada um dedicado a uma atuação específica. Os modelos são o Maverick, Scout e Behemoth — este ainda em fase de treinamento.

Quais as especificações dos novos Llama 4?

O Llama 4 Scout tem 17 bilhões de parâmetros, janela de contexto de 10 milhões e foi treinado com 16 especialistas. Este LLM demanda menos capacidade de processamento. Como explica a Meta, ele pode ser utilizado com uma GPU Nvidia H100, aceleradora para executar tarefas de IA. O Llama 4 Scout é voltado para empresas ou profissionais que realizam tarefas menos complexas.  

Quanto maior a quantidade de parâmetros, maior a capacidade do LLM de processar prompts e dados para entregar uma resposta mais precisa. Por isso o Llama 4 Scout se encaixa como um modelo mais básico — dado o seu padrão para uso corporativo.

Gráfico da Meta mostra diferenças e especificações dos novos modelos do Llama 4 (imagem: divulgação)

O Llama 4 Maverick possui os mesmos 17 bilhões de parâmetros do Scout, mas foi treinado com 128 especialistas. Este LLM já necessita de um servidor H100 para ser utilizado, demandando mais processamento e gasto energético. O Maverick, ao contrário do Scout, atende empresas de porte médio à grande, que realizam mais atividades com processamento de dados.

Esses dois LLMs são versões reduzidas do Llama 4 Behemoth, que ainda não está disponível para testes. O Behemoth possui 288 bilhões de parâmetros e é desenvolvido para a criação de modelos derivados. Este LLM poderá ser usado por empresas para treinar ou criar seus próprios modelos.

Segundo a Meta, o Llama 4 Behemoth superou o GPT-4.5, Claude Sonnet 3.7 e o Gemini 2.0 Pro em benchmarks focados em ciências e matemática, como o Math-500 e GPQA Diamond — este é um teste em IAs respondem a questões de nível universitário em áreas de ciências.

O Llama 4 Scout e Llama 4 Maverick podem ser baixados no próprio site do LLM ou no Hugging Face. A Meta AI com o Llama 4 pode ser testada nos produtos da Meta, como WhatsApp ou Instagram Direct.

Com informações de Meta (1 e 2)
Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes
Fonte: Tecnoblog