Category: Inteligência Artificial

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer desenvolver novo sistema de direção autônoma usando o LLM Gemini (Imagem: Divulgação/Waymo)

A Waymo, serviço de táxi autônomo do Google, publicou um artigo no qual revela que usará o Gemini para uma nova tecnologia de direção autônoma. O Gemini é tanto o nome da IA generativa da big tech quanto do LLM, o motor dessas tecnologias. No caso, a empresa de robotáxi usará o LLM para o desenvolvimento do seu novo sistema de direção.

Por que essa decisão da Waymo é importante?

Com este anúncio, o Waymo sugere que as IAs generativas e seus LLMs podem ganhar uma nova função. Atualmente, o uso dessa tecnologia está associado a chatbots, respostas por email, geração de imagens, vídeos e aplicações profissionais — o próprio Gemini tem integrações ao Google Drive, assim como o Copilot no Microsoft 365.

O uso de uma IA generativa pode corrigir as limitações dos modelos atuais, baseados em algoritmos predefinidos, que são mais difíceis em se adaptar e lidar com novos cenários. Já os LLMs são capazes de aprender com o tempo e podem “decorar” parâmetros.

Uso de LLM de IAs generativas pode permitir que carros autônomos sejam mais ágeis em se adaptar a novos cenários de direção (Imagem: Vitor Pádua/Tecnoblog)

Obviamente, o LLM Gemini servirá como base e será adaptado para direção autônoma. Ainda assim, o fato de o Gemini ser generalista é visto como um ponto positivo. No artigo, a Waymo destaca que o LLM tem um “rico conhecimento de mundo” (como passar cola na pizza para grudar o queijo) e que o raciocínio em cadeia de conhecimento é superior aos algoritmos, já que busca imitar o raciocínio humano.

A ideia da Waymo é usar essas vantagens para criar o Modelo Multimodal de Ponta a Ponta para Direção Autônoma (EMMA em inglês). Segundo a empresa, os primeiros testes do EMMA foram positivos, demostrando uma “excelente capacidade” (aspas da Waymo) de prever trajetórias, detectar objetos e compreender a via.

A Waymo também destaca as falhas e limitações da tecnologia no momento, como a falta de integração com imagens 3D geradas pelo LiDAR e radares do veículo. Entretanto, a empresa não cita as alucinações de IA.

Ainda há um longo caminho para testes, desenvolvimentos e aprovação de órgãos competentes, mas já podemos imaginar alguns cenários futurísticos. Por exemplo, a EMMA decorando que em determinado local do trajeto há uma via rápida com saída de veículos lentos, o que a levaria a trocar de faixa para diminuir o risco de uma freada brusca.

Com informações: The Verge e Android Headlines
Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis
Fonte: Tecnoblog

Google Maps ganha IA para sugestões e Waze estreia voz para alertas

Google Maps ganha IA para sugestões e Waze estreia voz para alertas

Google Maps ganha novidades com IA do Gemini (Imagem: Vitor Pádua/Tecnoblog)

O Google Maps anunciou novos recursos alimentados por IA, incluindo uma experiência de navegação mais imersiva e sugestões de lugares utilizando o Gemini. A empresa também apresentou o novo modo voz no Waze, que permite aos motoristas a utilização de comandos de voz para informar adversidades no trânsito. A maioria dos recursos ainda não está disponível no Brasil.

Gemini poderá sugerir novos lugares no Maps

Uma das principais novidades anunciadas pelo Google foi a integração do Gemini ao Maps. Mas não se empolgue tanto: esses recursos estarão inicialmente disponíveis nos Estados Unidos e não há previsão de chegada no Brasil e outros países.

A inteligência artificial poderá sugerir lugares baseados em perguntas feitas pelo usuário. Será possível, por exemplo, perguntar “o que fazer com amigos à noite em Boston”, e o aplicativo irá fornecer uma lista de sugestões com diferentes categorias.

Gemini é integrado ao Maps para sugestões e respostas aos usuários (Imagem: Reprodução/Google)

Além de sugerir lugares, o Gemini também está integrado nos estabelecimentos do Google Maps e será capaz de responder perguntas complexas, como preços cobrados ou o que é servido. A IA também cria um resumo sobre o local baseado nas avaliações de usuário.

As informações são extraídas das avaliações e comentários dos próprios usuários, bem como fontes da internet. Com isso, o Google Maps poderá dar algumas nuances diferentes, como informar sobre a atmosfera de um estabelecimento ou se é adequado para crianças, por exemplo.

De acordo com Miriam Daniel, vice-presidente do Google Maps, as sugestões de lugares do Gemini não é baseada em nenhum histórico de buscas ou localização do usuário.

Os resultados levam em conta informações contextuais, incluindo o local da pesquisa, época do ano e clima. Um dos exemplos apresentados é a sugestão de eventos relacionados ao Halloween. No verão, essa mesma pergunta poderá trazer sugestões de parques ou shows ao ar livre.

Use a voz com o Waze para informar problemas na pista

Um dos recursos mais legais apresentados pelo Google é o modo de voz no Waze. O serviço de navegação é baseado em informações alimentadas pelos próprios usuários, e nem sempre o motorista consegue informar sobre acidentes e condições adversas na pista com segurança.

Utilizando a IA do Gemini, o Waze permitirá que o motorista informe “tem um carro parado na rua” para adicionar a informação no mapa, sem a necessidade de falar um comando de voz específico. Com a maior facilidade para reportar incidentes, o Google espera melhorar a qualidade das informações de trânsito.

Waze ganha Gemini para que motoristas informem adversidades no trânsito (Imagem: Reprodução/Google)

Ainda não há uma data para o lançamento oficial da IA de voz no Waze, mas o recurso será disponibilizado a partir desta semana para testadores beta no Android e iOS.

Outra novidade relativa ao Waze é a adição de zonas escolares no mapa. Com isso, a navegação poderá orientar os motoristas a reduzir a velocidade ou dirigir com maior cuidado, para evitar acidentes. De acordo com o Google, essa funcionalidade será lançada ainda em 2024.

Melhorias na navegação no Maps

Outra novidade interessante que não tem previsão de chegada ao Brasil é o aprimoramento dos mapas no modo de navegação do Google Maps. O aplicativo melhorou a exibição de faixas, o que pode auxiliar na direção em grandes avenidas com diversas bifurcações.

Com o aprimoramento, os mapas também passam a mostrar a localização de faixas de pedestre, placas e sinais de trânsito. Vale lembrar que esse tipo de exibição já está disponível há algum tempo no Apple Maps, também nos Estados Unidos.

Novo modo de busca com a rota em curso e exibição aprimorada no mapa (Imagem: Divulgação/Google)

O Google Maps também melhorou a busca ao longo da navegação, com sugestões de pontos de interesse que estejam no caminho. Além disso, o aplicativo passará a orientar melhor sobre a chegada, incluindo locais para estacionar o veículo e direções a pé até a entrada, com possibilidade de utilizar o Street View para melhor orientação.

O Google também anunciou a expansão do recurso de Visualização Imersiva para 150 cidades do mundo, mas nenhum município brasileiro foi mencionado na apresentação. O mapa consegue trazer melhores gráficos para estádios, parques e universidades usando IA, incluindo simulações de clima e trânsito baseado no horário.
Google Maps ganha IA para sugestões e Waze estreia voz para alertas

Google Maps ganha IA para sugestões e Waze estreia voz para alertas
Fonte: Tecnoblog

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024 (imagem: Vitor Pádua/Tecnoblog)

A atual onda de ferramentas e serviços com inteligência artificial (IA) gira em torno do conteúdo generativo. Mas, em um futuro próximo, o Google poderá dar um passo além: há rumores de que a companhia trabalha em uma IA que usa o navegador para automatizar determinadas tarefas para o usuário.

É o que conta o site The Information, que afirma também que a iniciativa recebeu o codinome Project Jarvis, uma óbvia referência ao assistente virtual do Homem de Ferro, no universo da Marvel.

Se os burburinhos estiverem corretos, o tal Project Jarvis poderá usar o Google Chrome (embora também possa funcionar com outros navegadores, presumivelmente) para realizar ações como reservar voos, buscar informações muito específicas na internet e fazer compras online.

Em linhas gerais, o foco dessa tecnologia é a execução de tarefas cotidianas para o usuário, algo que, guardadas as devidas proporções, espera-se que a Apple Intelligence também ofereça para usuários de iPhones, iPads e Macs, ainda que de modos distintos.

Para tanto, a tecnologia do Google terá como base o Gemini 2.0, versão esperada para dezembro de 2024. Se confirmada, a novidade chegará um anos após o surgimento da primeira versão do Google Gemini.

Ainda segundo o Information, o Project Jarvis fará capturas de telas continuamente para extrair textos e elementos gráficos presentes nelas. Áudios também poderão ser analisados.

A interpretação dessas informações será baseada no Gemini 2.0. Com isso, a tecnologia poderá preencher formulários em páginas web, pressionar botões virtuais, entre outras ações.

Project Jarvis deverá ter o Gemini 2.0 como base (imagem: Vitor Pádua/Tecnoblog)

Quando o Google apresentará o Jarvis?

Tudo ainda está no campo dos rumores, logo, ainda não há confirmação sobre o lançamento dessa tecnologia. Mas o Information vislumbra a possibilidade de uma versão preliminar do Project Jarvis ser apresentada em dezembro de 2024 como um exemplo daquilo que o Gemini 2.0 será capaz de oferecer.

Mesmo que isso ocorra até o fim do ano, o Jarvis (ou qualquer que venha a ser o seu nome) deverá ser liberado apenas para um grupo restrito de usuários, afinal, o projeto ainda está em fase inicial de desenvolvimento, supostamente. Tão inicial que, no momento atual, a tecnologia nem sempre processa informações rapidamente, ainda de acordo com os burburinhos.
Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024
Fonte: Tecnoblog

Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp

Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp

Meta AI funciona no WhatsApp, Messenger, Instagram e Facebook (Imagem: Vitor Pádua / Tecnoblog)

A Meta teria fechado um acordo de múltiplos anos de duração com a agência de notícias Reuters para usar seu conteúdo em respostas do chatbot Meta AI, liberado recentemente no Brasil. As informações foram obtidas pelo site Axios junto a fontes que estão a par do contrato.

Procurada pelo site The Verge, a Meta confirmou a parceria. “Embora a maioria das pessoas use a Meta AI para tarefas criativas, pesquisas profundas ou ajuda prática, esta parceria vai ajudar a garantir uma experiência mais útil para quem busca informações sobre eventos atuais”, disse a companhia em um e-mail.

Antiga sede da Reuters em Londres (Inglaterra) (Imagem: Concus Cretus / Wikimedia Commons)

O Axios diz que, a partir desta sexta-feira (dia 25/10), usuários da Meta AI nos Estados Unidos terão acesso a notícias e informações em tempo real ao conversar com o chatbot, presente em Facebook, Instagram, Messenger e WhatsApp. As respostas devem trazer links para o site da Reuters, e a agência de notícias será remunerada pelo conteúdo, segundo uma das fontes ouvidas.

A falta de informações atualizadas e confiáveis é um problema presente em muitas ferramentas de inteligência artificial generativa. A Meta AI, lançada no Brasil recentemente, fornece respostas factualmente incorretas sobre candidatos das eleições municipais de 2024.

Empresas de IA fecham acordo com publicações

Esta é a primeira vez que a Meta fecha uma parceria com uma empresa jornalística para obter conteúdo para sua inteligência artificial.

Este tipo de acordo se tornou frequente há cerca de um ano. A OpenAI, que desenvolve o ChatGPT, tem contratos com The Atlantic, The Wall Street Journal e Vox Media, entre outras publicações.

Nem sempre o relacionamento entre as big techs e as companhias de jornalismo é harmonioso, porém. O jornal The New York Times abriu um processo contra a OpenAI e a Microsoft, acusando as companhias de infringir direitos autorais ao usar reportagens para treinar os modelos de linguagem.

Com informações: Axios, The Verge
Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp

Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp
Fonte: Tecnoblog

Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site

OpenAI pode lançar um LLM mais potente em dezembro e abandonar a nomenclatura GPT nos modelos de IA (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI pode lançar um novo modelo de IA, que seria altamente mais potente que o GPT-4, em dezembro. A informação foi apurada pelo The Verge em contato com uma fonte próxima do caso. O novo LLM, que pode se chamar Orion, não estrearia diretamente no ChatGPT, mas seria liberado para empresas parceiras criarem programas com ele antes de ser liberado para o público.

Em outros momentos, um funcionário da OpenAI chegou a comentar que o sucessor do GPT-4 teria até 100 vezes mais capacidade computacional. Vale lembrar que o GPT-4o é uma atualização do GPT-4, não uma nova geração. Já o GPT o1 é um LLM voltado para a resolução de problemas matemáticos.

Quem serão os primeiros a usar o Orion?

Microsoft deve estrear o Orion no Azure já no mesmo de novembro (Imagem: Vitor Pádua / Tecnoblog)

Segundo outra fonte ouvida pelo The Verge, a OpenAI fornecerá o Orion para que empresas criem seus produtos e recursos com o LLM. E sim, a Microsoft, maior investidora da OpenAI, será uma das primeiras a estrear o Orion. A fonte afirma que a big tech já trabalha em integrar o LLM no Azure já em novembro.

O treinamento do Orion, segundo apurou o site, terminou em setembro. Neste mesmo mês, Sam Altman, CEO da OpenAI, publicou uma mensagem nada misteriosa no X. Altman escreveu um “poema” no qual diz estar empolgado para ver as constelações de inverno ascenderem aos céus.

Bem, a constelação de Orion fica mais visível durante o mês de janeiro, inverno no hemisfério norte. Ainda que a fonte afirme que o lançamento do LLM será realizado em dezembro, a chegada em janeiro não seria nada fora da curva. Ou a estreia do Orion pode acontecer em dezembro nas empresas parceiras e em janeiro no ChatGPT.

Com informações: The Verge
Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site
Fonte: Tecnoblog

Opera One traz tela dividida para abas e resumo de página com IA

Opera One traz tela dividida para abas e resumo de página com IA

Opera One R2 é nome da nova versão do navegador, que traz função de dividir tela do navegador com duas abas (Imagem: Divulgação/Opera)

O Opera liberou nesta quinta-feira (23) a nova versão do Opera One, navegador da empresa. Batizado de Opera One R2, a atualização traz mais recursos de IA para o browser e novas ferramentas de usabilidade, como a função de dividir uma janela com duas abas. Outra novidade ajudará quem costuma usar o navegador com mais de 30 abas abertas ao mesmo tempo — sim, isso existe e eu conheço gente assim.

O Opera One é uma versão renovada do navegador da marca, sendo lançado no ano passado e trazendo a IA Aria, que utiliza diferentes modelos de linguagem. Alguns recursos da IA do Opera já estavam liberados para os integrantes do beta do navegador, como o contexto de página. Agora eles estão disponíveis para todos.

Como funciona o recurso de tela dividida no Opera One?

No Opera One R2 o usuário poderá dividir a tela do navegador com duas abas. Para isso, basta clicar e arrastar a aba de uma das páginas para baixo, colocando-a sobre a janela onde está o conteúdo. Pelos testes feito pelo Tecnoblog, a tela dividida seleciona automaticamente a última aba selecionada para o outro espaço.

Recurso de dividir tela em duas abas no Opera ainda pode melhorar (Imagem: Reprodução/Tecnoblog)

O recurso é similar à tela dividida do Microsoft Edge, exceto que este não permite dividir a tela arrastando uma aba para baixo. Em comum, fechar a aba fecha as duas páginas abertas. O que senti falta no Opera One R2 foi um botão para abrir a tela dividida com a outra parte vazia.

Eu uso os dois navegadores no dia a dia. No Edge, é útil abrir a tela dividida pelo botão e selecionar a aba desejada entre as que já estão abertas ou digitar o endereço da página que você quer acessar.

Rastreamento de abas para dezenas de abas

Traços indicam últimas abas acessadas pelo usuário se ele tiver mais de 30 abas abertas (Imagem: Divulgação/Opera)

Outra novidade estreando no Opera é o rastreio de abas. Se o usuário tiver dezenas de abas abertas, a ferramenta indicará com um traço as cinco últimas acessadas. É como se elas deixassem um rastro no navegador. Quanto mais recente o último acesso, mais escuro o traço.

O player de música integrado pode ser destacado da barra lateral, flutuando no navegador. Essa função de flutuar também funciona com videochamadas. E falando sobre esses dois, o recurso de pausar automaticamente a música (útil para ouvir áudios ou abrir um vídeo rapidamente) funcionará durante chamadas.

Mais ferramentas de IA para a Aria e Manifest V2

Ferramenta de contexto da Aria no Opera permite resumir páginas (Imagem: Reprodução/Tecnoblog)

A Aria, IA generativa do Opera One, está com a ferramenta de contexto de página liberada para todos os usuários, assim como o recurso de geração e compreensão de imagens. O contexto de página é ativado pelo Ctrl + Shift + 7, que abre o prompt de texto da Aria.

Ao apertar o botão Tab no prompt, o usuário pode pedir que a Aria resuma a página aberta ou aponte tópicos que podem ser analisados. O contexto também explica sobre o que é o site que o usuário está acessando.

A Opera também explicou que o seu navegador seguirá suportando o sistema Manifest V2, que foi descontinuado pelo Google e é usado no bloqueador de anúncios nativo do Opera. Esse sistema tem mais opções de filtragem, deixando essas extensões mais eficientes. Recentemente, o uBlock Origin com Manifest V2 perdeu o suporte para o Chrome e foi removido do navegador do Google.
Opera One traz tela dividida para abas e resumo de página com IA

Opera One traz tela dividida para abas e resumo de página com IA
Fonte: Tecnoblog

WhatsApp testa ferramenta para criar e enviar pacotes de figurinhas

WhatsApp testa ferramenta para criar e enviar pacotes de figurinhas

WhatsApp vai agregar recurso que só estava disponível em outros apps (Imagem: Vitor Pádua / Tecnoblog)

O WhatsApp está desenvolvendo novas formas de organizar as figurinhas salvas, incluindo criar coleções e compartilhá-las com os contatos. Até agora, era necessário recorrer a apps de outros desenvolvedores para fazer isso.

A novidade foi encontrada na versão 2.24.22.13 do WhatsApp beta para Android. O recurso está presente no código do aplicativo e ainda não foi liberado para os participantes do programa de testes. As informações são do site especializado WABetaInfo. Ainda não há previsão de lançamento, e a versão final pode ser diferente.

WhatsApp vai deixar usuário criar, nomear, enviar e excluir pacotes (Imagem: Reprodução / WABetaInfo)

Com a ferramenta, usuários terão uma opção “Adicionar ao pacote de figurinhas” ao tocar em um sticker. É possível dar um nome à coleção e enviá-la em uma conversa, diretamente do menu seletor.

Versões betas anteriores do app já traziam a opção de selecionar várias figurinhas. Com isso, dá para colocá-las no topo da lista ou deletá-las de uma só vez, sem precisar repetir a ação para cada uma delas.

Outros recursos de figurinhas no WhatsApp

Até o momento, só é possível criar e disponibilizar pacotes de figurinhas usando aplicativos independentes. Alguns exemplos famosos são o Sticker.ly e o Wemoji. Eles também contam com recursos de busca de coleções de stickers.

Lançado em 2018, o recurso de figurinhas vem evoluindo a passos lentos no WhatsApp. O próprio criador e editor de figurinhas nativo é recente. Ele foi liberado para o WhatsApp Web em 2021 e só chegou aos smartphones no início de 2024.

Os últimos meses foram mais movimentados neste sentido. Em maio, a Meta liberou no Brasil os stickers gerados por inteligência artificial. Já em agosto, o mensageiro passou a contar com figurinhas animadas do site Giphy.

Com informações: WABetaInfo
WhatsApp testa ferramenta para criar e enviar pacotes de figurinhas

WhatsApp testa ferramenta para criar e enviar pacotes de figurinhas
Fonte: Tecnoblog

Meta AI no WhatsApp testa recurso de salvar informações sobre usuários

Meta AI no WhatsApp testa recurso de salvar informações sobre usuários

Meta AI quer guardar dados do usuário para melhorar as respostas dadas (ilustração: Vitor Pádua/Tecnoblog)

A Meta está testando o recurso de salvar informações sobre os usuários com a sua IA generativa no WhatsApp. A ferramenta apareceu na versão 2.24.22.9 do aplicativo para Android. Com essa funcionalidade, a Meta AI, IA generativa da big tech, terá maior conhecimento sobre o usuário, como preferências e outras informações pessoais.

Naturalmente, isso levanta questões sobre a privacidade do usuário. Na tela do recurso, divulgada pelo site WABetaInfo, a mensagem informa que a Meta AI “automaticamente relembrará algumas partes da conversa para entregar respostas mais relevantes”. Também existe a opção do usuário salvar dados que ele deseja que a IA guarde na memória.

Por que a Meta AI quer salvar informações?

Recurso de Memória da Meta AI aparece em versão beta do WhatsApp (Imagem: Divulgação/WABetaInfo)

A proposta da Meta com esse recurso para a IA é que os usuários tenham respostas mais precisas e contextualizadas. Por exemplo: suponha que você tenha restrições na sua dieta por conta de saúde ou alguma alergia. Sabendo disso, a Meta AI poderá recomendar receitas levando em conta essas restrições.

Essa funcionalidade também permite que os usuários recuperem mensagens trocadas com a Meta AI. O WABetaInfo explica ainda que você poderá apagar as informações salvas. Afinal, o usuário pode mudar de dieta, de gostos, precisar ficar sem fazer alguma coisa por conta de saúde, etc.

Meta AI chegou no Brasil neste mês

A Meta AI foi liberada no Brasil para WhatsApp, Messenger, Facebook e Instagram no dia 9 de outubro. No WhatsApp, o recurso pode ser acessado por um botão dedicado, localizado em cima do botão de iniciar nova conversa, ou fazendo a pergunta na barra de pesquisa.

Ao abrir a Meta AI, o usuário é levado para uma janela idêntica às conversas. Para utilizar a IA é necessário concordar com a política de uso da Meta sobre suas inteligências artificiais.

Com informações: WABetaInfo
Meta AI no WhatsApp testa recurso de salvar informações sobre usuários

Meta AI no WhatsApp testa recurso de salvar informações sobre usuários
Fonte: Tecnoblog

Microsoft terá Copilot autônomo para agilizar tarefas em empresas

Microsoft terá Copilot autônomo para agilizar tarefas em empresas

Copilot reúne ferramentas de inteligência artificial (Imagem: Divulgação / Microsoft)

O Copilot Studio, da Microsoft, ganhará um recurso para criação de Copilot Agents que funcionam de maneira autônoma, sem precisar dos usuários. A inteligência artificial entra em ação a partir de gatilhos, seguindo instruções predefinidas.

A novidade foi anunciada nesta segunda-feira (dia 21/10) pela Microsoft, durante o evento AI Tour. O recurso já vinha sendo testado com empresas escolhidas, e estará disponível em preview público, para todos os assinantes do Copilot Studio, a partir de novembro.

O que são os Copilot Agents autônomos?

A Microsoft tem uma ferramenta chamada Copilot Studio, que permite que organizações criem seus agentes personalizados. Basicamente, é como se várias instruções predefinidas fossem salvas e pudessem ser acionadas a partir de uma única ordem.

Os agentes autônomos vão um pouco além. Eles não dependem do comando de um funcionário para rodar. No lugar disso, podem operar a partir de gatilhos. Em um dos exemplos dados pela Microsoft, o agente autônomo de uma empresa entra em cena ao receber o email de um cliente em potencial.

Copilot Agent autônomo pode processar email recebido sem precisar ser comandado (Imagem: Reprodução / Microsoft)

A IA, então, analisa o email, encontra o especialista mais adequado para a tarefa e envia a ele uma mensagem com o contato do potencial cliente, bem como informações importantes. Tudo isso foi programado previamente.

As possibilidades de gatilhos são variadas, como novos arquivos em uma pasta na nuvem, uma resposta enviada por meio de um formulário ou até mesmo um horário predefinido.

O agente pode usar uma base de dados própria da empresa, além de ações predefinidas. A empresa tem um espaço no painel em que é possível acompanhar a atividade da IA. Para evitar problemas, o robô pode entrar em contato com um humano caso tenha alguma dificuldade na hora de executar a tarefa.

Além de programar seus próprios agentes autônomos, a Microsoft vai oferecer dez IAs deste tipo por meio da plataforma corporativa Dynamics 365. Eles poderão operar em setores de vendas, operações e serviços.
Microsoft terá Copilot autônomo para agilizar tarefas em empresas

Microsoft terá Copilot autônomo para agilizar tarefas em empresas
Fonte: Tecnoblog

Amazon também vai usar energia nuclear para inteligência artificial

Amazon também vai usar energia nuclear para inteligência artificial

Amazon é mais uma big tech a investir em energia nuclear para a sua operação de data centers e IA (Imagem: Vitor Pádua/Tecnoblog)

O papa é pop e a inteligência artificial é nuclear. Depois da Microsoft e do Google, agora é a vez da Amazon anunciar seu investimento em energia nuclear para o desenvolvimento de IAs. A big tech tem planos de iniciar o uso dessa energia a partir de 2030.

Os acordos firmados pela Amazon envolvem a Energy Northwest e a X-Energy. A primeira é um consórcio público do estado de Washington, onde fica uma das sedes da big tech. Já a X-Energy é uma startup que desenvolve reatores modulares pequenos (SMR em inglês) — uma concorrente da Kairos Power, que produzirá os SMR do Google.

A X-Energy anunciou que recebeu US$ 500 milhões (R$ 2,8 bilhões) em sua última rodada de investimentos. A startup divulgou no comunicado que esse valor foi “ancorado pela Amazon”, o que indica que a big tech foi a maior investidora. A Universidade de Michigan e a gestora de ativos Ares Management também colocaram dinheiro na X-Energy.

Amazon unindo o útil ao agradável com parcerias

X-Energy desenvolverá reatores para Energhy Northwest (Imagem: Divulgação/Amazon)

Os acordos divulgados pela Amazon são complementares. A Energy Northwest terá quatro SMR produzidos com sua tecnologia. No futuro, a X-Energy entregará mais reatores para a operação na usina do consórcio. A meta é operar com 12 SMR e gerar 960 MW de energia na planta da Energy Northwest.

A parceria entre Amazon e X-Energy também prevê a criação de outras usinas em diferentes partes dos EUA, visando gerar 5 GW de energia até 2039. Essas unidades serão criadas em regiões chaves e visam atendar uma demanda crescente de energia. Não a demanda da população, mas do desenvolvimento de inteligência artificial — ainda que não deixe isso explícito.

Assim como o Google e a Microsoft (que usará energia gerada na Usina de Three Mile Island), a Amazon possui planos de zerar a emissão de carbono na sua operação. Com a evolução das IAs, as big techs aumentam o gasto energético em seus data centers.

Usina de Three Mile Island fornecerá energia para a Microsoft (Imagem: Divulgação/Constellation)

Por consequência, a emissão de carbono cresce. Apesar d os debates sobre energia nuclear, ela é uma fonte limpa do ponto de vista de geração energética, já que não emite gases do efeito estufa (a cadeia de produção da usina, mineração e tratamento do urânio são outros 500).

Amazon, Google e Microsoft já embarcaram no uso de energia nuclear para seus data centers e desenvolvimento de IA. Agora só faltam Apple e Meta.

Com informações: The Verge e TechCrunch
Amazon também vai usar energia nuclear para inteligência artificial

Amazon também vai usar energia nuclear para inteligência artificial
Fonte: Tecnoblog