Category: Gemini 2.0

Google lança AI Mode para entregar buscas em tempo real e com raciocínio

Google lança AI Mode para entregar buscas em tempo real e com raciocínio

Google liberou AI Mode em versão beta nos Estados Unidos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google lançou o AI Mode, um novo sistema de busca que aprimora o AI Overview.
A ferramenta utiliza o LLM Gemini 2.0 para buscar informações em tempo real e analisar dados, oferecendo respostas mais atualizadas.
No momento, o AI Mode está disponível apenas para usuários inscritos no Google Search Labs e assinantes do Google One AI Premium nos EUA, sem previsão para outros países.

O Google anunciou nessa quarta-feira (05/03) o AI Mode, novo sistema de busca com IA da big tech. O AI Mode é uma evolução do AI Overview, aquele resumo de busca feito com inteligência artificial que aparece no topo de uma pesquisa. Contudo, a proposta do AI Mode é entregar resultados mais atualizados, buscando em tempo real por conteúdos mais novos e exibindo seu raciocínio.

O que é o AI Mode do Google?

O AI Mode é uma nova ferramenta de pesquisa com IA do Google — podemos dizer que é a versão turbinada do AI Overview. Essa nova ferramenta utiliza uma versão customizada do LLM Gemini 2.0.

Ao contrário do AI Overview, o AI Mode tem recursos de raciocínio (reasoning) e busca informações em tempo real, como fazem os modos de busca do ChatGPT, Copilot e a IA da Perplexity.

AI Mode do Google responde sobre melhor dia para um ensaio de casamento no jardim público de Boston (imagem: divulgação)

Na teoria, essas buscas em tempo real com IA são capazes de usar textos mais recentes para entregar respostas mais atualizadas aos usuários. No exemplo mostrado na página do Google, o AI Mode passa ao usuário um guia sobre o melhor dia da semana para fazer um ensaio de casamento.

A resposta diz no primeiro parágrafo que o melhor dia é quinta-feira. Em seguida, o AI Mode explica o seu raciocínio, passando a previsão do tempo para a semana, dizendo os dias mais vazios para as fotos e sugerindo o melhor horário para a iluminação.

O AI Overview, ainda que use resultados baseado na busca, está mais focado em responder questões mais lineares. Por exemplo, resumir um tutorial sobre como fazer massa de pizza — o que pode gerar problemas, como sugerir passar cola na pizza para grudar o queijo. Já o AI Mode tenta ser uma mistura de agente de IA, analista e buscador.

Como usar o AI Mode nas pesquisas do Google?

AI Mode só está liberado na versão Beta e nos Estados Unidos (imagem: divulgação)

Para acessar o AI Mode, é necessário que o usuário esteja inscrito no Google Search Labs, programa de beta da big tech que fornece o acesso antecipado a futuros recursos da busca, e ser assinante do Google One AI Premium.

No entanto, essa nova ferramenta de pesquisas do Google foi liberada apenas nos Estados Unidos. Ainda não há previsão de quando o AI Mode terá o seu beta disponibilizado para outros países.

Com informações de Search Engine Journal
Google lança AI Mode para entregar buscas em tempo real e com raciocínio

Google lança AI Mode para entregar buscas em tempo real e com raciocínio
Fonte: Tecnoblog

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Gemini 2.0 Flash supera 1.5 Flash e equivale ao 1.5 Pro (Ilustração: Vitor Pádua/Tecnoblog)

O Google anunciou nesta quarta-feira (dia 11/12) o Gemini 2.0, nova versão do modelo de inteligência artificial. Ele estará em vários produtos da empresa, como o assistente que leva o mesmo nome e as AI Overviews, resumos que aparecem acima dos resultados de busca.

A nova versão será lançada inicialmente em formato reduzido, mas promete desempenho comparável ao do Gemini 1.5 Pro. Ela é capaz de trabalhar com texto, imagens estáticas, vídeos e fala.

A companhia também apresentou novos modelos e aplicações. São os chamados agentes, como o Project Mariner (uma extensão que navega na internet pelo usuário), o Jules (assistente para corrigir erros de código) e a nova versão do Project Astra (que identifica objetos com imagens de câmeras).

Gemini 2.0 Flash é a primeira versão

O Google vai liberar inicialmente o Gemini 2.0 Flash. Ainda em fase experimental, ele é a versão reduzida do novo modelo de IA. O Gemini 2.0 Flash estará disponível a partir de hoje (dia 11/12) no assistente Gemini na web, tanto para desktop quanto para smartphones. Nos apps para Android e iOS, ele chegará em breve.

Nos testes do Google, o Gemini 2.0 Flash supera o Gemini 1.5 Flash em quesitos como respostas, geração de códigos de programação, capacidade de fornecer fatos corretos, resolução de problemas matemáticos, raciocínio e análise de vídeos. Há uma leve piora em compreensão de contextos complexos.

As avaliações também mostram um desempenho comparável ao do Gemini 1.5 Pro, um dos modelos mais potentes da geração passada do Google.

Desenvolvedores terão acesso ao Gemini 2.0 Flash no Google AI Studio e no Vertex AI, com possibilidade de input multimodal e output em texto. Isso significa que o modelo é capaz de processar imagens, texto e áudio, mas as respostas ainda serão apenas em texto. Para parceiros selecionados, ele terá geração de voz e imagens.

Novo modelo será usado em agentes de IA

O Google também deu destaque ao que chamou de “experiências agênticas”. Já faz algum tempo que ouvimos que a IA poderá não só dar respostas ou gerar imagens, mas também assumir o controle de aplicativos que usamos diariamente. Este seria o tal uso “agêntico” que o Google menciona.

Uma destas experiências é o Project Mariner. Ele é capaz de entender o que está na tela do seu navegador, sejam textos, códigos de programação, imagens ou formulários. Uma extensão do Chrome, então, pode completar tarefas para o usuário.

O Google ressalta que o Mariner ainda está em fase inicial, nem sempre é preciso e pode demorar para completar as tarefas. Porém, a empresa promete que ele vai evoluir rapidamente.

Outra novidade é o Jules. Ele se comporta como um assistente de programação, resolvendo problemas, desenvolvendo planos e os executando, sob supervisão de um desenvolvedor.

Por fim, o Google também aperfeiçoou o Project Astra. Apresentado no Google I/O, o agente é capaz de usar câmeras e entender imagens ao redor, auxiliando o usuário a obter informações, com a ajuda do Lens e do Maps, por exemplo. A companhia também revelou óculos experimentais que usam esta ferramenta.

Com informações: Google, Axios, TechCrunch, The Verge
Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas
Fonte: Tecnoblog