Category: Inteligência Artificial

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Gemini substitui o Assistente Google, mas big tech mantém as duas versões de ativação de voz (imagem: Vitor Pádua/Tecnoblog)

Resumo

O app do Google para Android poderá aceitar dois comandos de voz para ativar o Gemini Live: “Hey, Gemini” e “Hey, Google”.
A mudança facilita a transição para usuários acostumados com o comando “Hey, Google”.
O Google Assistente já foi substituído pelo Gemini como padrão de fábrica e deve ser sepultado em breve pela big tech.

O aplicativo do Google pode permitir que dois comandos de voz diferentes ativem o Gemini Live, recurso de agente de IA para celulares Android. O site 9to5Google encontrou nos códigos da versão beta do app uma string explicando que tanto o “Hey, Gemini” quanto o “Hey, Google” poderão ativar a funcionalidade.

Dado o histórico do Google em matar produtos e serviços, é uma surpresa que a empresa mantenha duas opções para ativar o Gemini Live. Pelo que é visto na string, a diferença é que o “Hey, Google” pode ativar ações mais rápidas. Por se tratar de um trecho de código em uma versão beta, o que essa diferença faz na prática ainda é desconhecida.

Por que a decisão do Google é boa?

Ao permitir que dois comandos diferentes ativem o Gemini, o Google facilita a vida do usuário que está acostumado com o “Hey, Google”. Caso acabasse de vez com esse comando, adotando apenas o “Hey, Gemini”, os usuários poderiam se confundir com a ativação da ferramenta. Enquanto isso, os usuários poderão se acostumar com a nova função do assistente inteligente.

Gemini vai se encaminhando para tomar de vez o lugar do Google Assistente, mas comando em comum ajuda na usabilidade (imagem: divulgação/Google)

O aplicativo do Gemini está aos poucos tomando o lugar do Google Assistente nos celulares Android. Ao abrir o assistente, smartphones com a versão mais recente do sistema operacional abrem uma página perguntando se o usuário deseja adotar o Gemini como assistente digital padrão.

Celulares mais novos, como o Galaxy S25 Ultra, já não fazem mais nenhuma menção ao Google Assistente. O padrão de fábrica já é o Gemini. Em breve o Assistente será sepultado no cemitério do Google.

O palpite do 9to5Google, usando como base o código do aplicativo beta, é que o “Hey, Gemini” ativará o Gemini Live, agente de IA generativa do Google. Ele permite que a câmera seja usada para a inteligência artificial identificar o ambiente, atuando como uma ferramenta que pode conversar com o usuário.

Já o “Hey, Google”, cuja ativação está ligada a recursos rápidos, pode ser usada para ativar tarefas mais simples, como pesquisa no buscador, criação de alarmes ou abertura de aplicativos.

Com informações de 9to5Google
Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android
Fonte: Tecnoblog

Google abandona promessa de não usar IA para armas e vigilância

Google abandona promessa de não usar IA para armas e vigilância

Google diz que empresas de países democráticos devem desenvolver IA com respeito à liberdade (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google removeu de seus princípios éticos para IA o compromisso de não utilizar a tecnologia em armas e vigilância.
Segundo a big tech, a mudança reflete a ampla disseminação da IA nos últimos anos e a crescente demanda de clientes governamentais, especialmente em questões de segurança nacional.
Apesar da alteração, o documento atualizado ainda menciona segurança, liberdade, igualdade e direitos humanos.

O Google alterou sua página de princípios éticos para inteligência artificial e removeu a promessa de não usar a tecnologia em armas ou sistemas de vigilância. A versão anterior do documento continha uma seção chamada “Aplicações que não buscaremos” — agora, esta seção não existe mais.

A alteração foi notada pela Bloomberg. Questionado pelo Washington Post especificamente sobre os trechos envolvendo armas e vigilância, o Google se recusou a responder.

Google já sofreu pressão de funcionários para encerrar contrato com Pentágono (ilustração: Vitor Pádua/Tecnoblog)

Por que o Google alterou suas políticas para IA?

O Google explica que atualizou seus princípios para IA porque, nos últimos anos, a tecnologia está muito mais disseminada e porque é necessário que empresas de países democráticos atendam clientes governamentais e envolvidos com a segurança nacional.

As informações constam em um texto publicado pela companhia em seu blog nesta terça-feira (04/02). Nele, a companhia também afirma que empresas, governos e organizações devem “trabalhar juntos para criar inteligências artificiais que protejam as pessoas, promovam crescimento global e apoiem a segurança nacional”.

O Google publicou seus princípios para inteligência artificial pela primeira vez em 2018. O documento veio logo após protestos de funcionários contra um projeto da companhia para o Departamento de Defesa dos Estados Unidos. Naquela ocasião, o movimento levou o Google a não renovar este contrato.

Documento ainda menciona segurança e direitos humanos

Mesmo sem a seção “Aplicações que não buscaremos”, a versão atualizada dos princípios do Google para desenvolver a IA ainda contém trechos que mencionam tópicos como segurança, liberdade, igualdade e direitos humanos.

Em um dos trechos, a empresa diz que usará supervisão humana e receberá feedback para garantir que as tecnologias estejam alinhadas com “princípios amplamente aceitos de direito internacional e direitos humanos”. Além disso, a companhia promete que fará testes para mitigar resultados não intencionais ou nocivos.

Com informações de Washington Post e TechCrunch
Google abandona promessa de não usar IA para armas e vigilância

Google abandona promessa de não usar IA para armas e vigilância
Fonte: Tecnoblog

IA da Adobe promete te ajudar a ler e a entender contratos

IA da Adobe promete te ajudar a ler e a entender contratos

Novo Acrobat AI Assistant ajuda na compreensão de contratos (imagem: reprodução/Adobe)

Resumo

Uma nova atualização do Acrobat AI Assistant aprimora a análise de contratos, destacando informações-chave e identificando diferenças entre acordos.
Segundo a Adobe, a ferramenta pode identificar e resumir contratos automaticamente, utilizando uma linguagem clara e acessível.
O recurso custa US$ 4,99 (R$ 29) por mês e, por enquanto, está disponível apenas em inglês, com previsão de suporte para outros idiomas, mas sem data definida.

Lidar com contratos é uma tarefa complicada. Frequentemente, esse tipo de documento é extenso e contém termos que são de difícil compreensão. Mas, e se uma inteligência artificial te ajudar a fazer esse trabalho? É o que promete a nova versão do Acrobat AI Assistant.

De acordo com a Adobe, a atualização oferece várias funções, como ajudar o usuário a compreender termos complexos, identificar diferenças entre acordos e verificar informações específicas nos documentos.

Em linhas gerais, a ideia é permitir que o usuário tenha acesso às informações realmente importantes do contrato e, ao mesmo tempo, não gaste muito lendo-o.

A novidade promete ser útil em várias circunstâncias. A própria Adobe dá alguns exemplos:

empresários podem identificar rapidamente datas-chave em contratos de fornecedores;

equipes financeiras podem acelerar as revisões de contratos de vendas;

profissionais de marketing podem identificar mudanças em escopos de trabalho atualizados e encontrar rapidamente entregas em parcerias de marca e publicidade;

consumidores podem localizar rapidamente as políticas de ocupação em aluguéis de apartamentos.

O Acrobat AI Assistant pode ainda identificar automaticamente quando um documento é um contrato, incluindo aqueles que são digitalizados (“escaneados”), e criar uma visão geral do documento — uma espécie de resumo. Isso tudo é feito com o uso de uma linguagem clara, afirma a Adobe.

Dá para confiar no Acrobat AI Assistant para ler contratos?

É difícil saber. Mas o uso de qualquer IA generativa requer atenção do usuário. Esse tipo de ferramenta ainda dá respostas imprecisas ou equivocadas, e isso não é raro de acontecer. Por isso, eu usaria o Acrobat AI Assistant com prudência, talvez testando a ferramenta com contratos não muito importantes, inicialmente.

Para contratos que envolvem bens ou acordos de alto valor, eu até usaria a ferramenta para facilitar a minha compreensão, mas não tomaria nenhuma decisão sem antes confiar esses documentos a advogados ou profissionais habilitados a lidar com eles.

Mas nem tudo é desconfiança. Penso que o novo Acrobat AI Assistant pode ser de grande auxílio para quem lida com grandes quantidades de contratos ou documentos muito volumosos, mas sempre como ferramenta de apoio — para ajudar na organização das informações, por exemplo.

Nesse sentido, a novidade pode valer a pena. Mas há um porém: a ferramenta é paga, tendo custo de US$ 4,99 por mês (R$ 29 na cotação atual). É possível usá-la tanto no Acrobat (que lê, edita e gera documentos) quanto no Acrobat Reader (leitor gratuito de documentos).

Leve em conta também que o Acrobat AI Assistant só funciona em inglês na atual fase. A Adobe promete suporte a outros idiomas, mas não informou quando isso irá acontecer.
IA da Adobe promete te ajudar a ler e a entender contratos

IA da Adobe promete te ajudar a ler e a entender contratos
Fonte: Tecnoblog

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta vai ouvir opiniões de especialistas de fora da empresa (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta poderá interromper o desenvolvimento de um sistema de IA caso identifique um risco extremo de catástrofe associado a ele.
Segundo um documento da plataforma, os riscos são classificados em dois níveis: alto, quando o sistema facilita uma ação perigosa, e crítico, quando ele a torna possível.
A avaliação desses riscos será conduzida por pesquisadores internos e externos, enquanto as decisões ficarão a cargo de “tomadores de decisão de nível sênior”.

A Meta publicou um novo documento sobre suas políticas para inteligência artificial, em que afirma que pode parar o desenvolvimento de um sistema caso considere que existe um risco extremo de catástrofe associado a ele, e pode não lançar um produto caso exista um risco alto.

O documento, chamado “Frontier AI Framework” (ou “Estrutura para IA de vanguarda”, em tradução livre), tem 21 páginas. Ele traz informações sobre a classificação de riscos adotada pela Meta e como esta avaliação será feita.

Quais as classificações de risco das IAs da Meta?

A Meta tem duas classificações de risco em que tomará medidas para evitar problemas: risco alto e risco extremo (ou crítico, como a empresa chama). Nos dois casos, a companhia considera os riscos de que estes sistemas possam ajudar em ataques de cibersegurança, químicos ou biológicos. Contudo, há uma diferença entre eles:

Risco alto: o sistema facilita a ação, mas não chega a torná-la viável

Risco crítico: o sistema torna a ação possível e os riscos não podem ser mitigados durante a implementação

Cenário crítico não pode ser mitigado, na avaliação da Meta (ilustração: Vitor Pádua/Tecnoblog)

O que a Meta faria nestas situações?

No caso de risco alto, a Meta diz que o sistema não seria lançado, tendo seu acesso limitado a um time de pesquisadores, como forma de proteção contra vazamentos. Neste cenário, a empresa trabalharia para mitigar o risco e reduzi-lo ao nível moderado (em que a IA não poderia ajudar em um ataque).

Já no caso de risco crítico, as medidas são mais extremas. A Meta diz que, neste cenário, pausaria o desenvolvimento para avaliar se existem barreiras para impedir um cenário de catástrofe. O acesso seria limitado a um pequeno número de especialistas, com medidas para evitar invasões e vazamentos.

Como a Meta vai avaliar os riscos?

De acordo com o documento, a Meta vai considerar a opinião de pesquisadores internos e externos, com “tomadores de decisão de nível sênior” revisando estes comentários. A companhia diz que o campo científico de avaliações de risco não é, neste momento, suficientemente robusta para fornecer métricas quantitativas.

Com informações de Meta e TechCrunch
Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo
Fonte: Tecnoblog

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A União Europeia anunciou a OpenEuroLLM, uma iniciativa para desenvolver modelos avançados de inteligência artificial de código aberto.
Liderada por Peter Sarlin, da Silo AI, a aliança terá início em fevereiro de 2025, com financiamento da Comissão Europeia e a participação de mais de 20 instituições e empresas.
O projeto contará com um orçamento inicial de 52 milhões de euros (cerca de R$ 311 milhões), focando em infraestruturas digitais e IA.
A iniciativa surge como resposta ao avanço dos Estados Unidos e da China no setor de inteligência artificial.

A União Europeia não quer ficar para trás dos Estados Unidos e da China quando o assunto é inteligência artificial. Por isso, o bloco anunciou uma aliança para desenvolver LLMs avançados e com código aberto: a OpenEuroLLM.

O projeto apoiará ou contará com o apoio de startups, centros de pesquisa, instituições de ensino e organizações especializadas em computação de alto desempenho que tenham sede em países da União Europeia.

De acordo com o anúncio oficial, mais de 20 instituições de pesquisa e empresas da região já fazem parte da iniciativa, que terá a missão de construir uma “família base de modelos de larga escala de alto desempenho, multilíngues e de grande porte para serviços comerciais, industriais e públicos”.

A OpenEuroLLM será comandada por Peter Sarlin, cofundador de Silo AI, empresa com sede na Finlândia especializada em inteligência artificial, mas que foi adquirida pela AMD em julho de 2024 por US$ 665 milhões (R$ 3,86 bilhões, na conversão atual).

Por que a OpenEuroLLM foi criada?

Segundo a própria entidade, o projeto foi criado com o intuito de “melhorar a competitividade e a soberania digital da Europa”.

Não é um discurso raso. De um lado, a União Europeia vê organizações americanas, com destaque para a OpenAI, dominando a cena da inteligência artificial.

Como se não bastasse, os Estados Unidos anunciaram o Stargate Project logo após a posse de Donald Trump como presidente do país. A iniciativa investirá US$ 500 bilhões para deixar os Estados Unidos na vanguarda da IA.

De outro lado, a Europa vê a DeepSeek se destacando como uma força chinesa em IA. Ainda que essa plataforma esteja sob questionamentos a respeitos dos custos reduzidos e do desempenho melhorado que afirma ter, o projeto mostra que a China não está alheia a todo esse movimento.

Bandeiras da União Europeia (foto: Thijs ter Haar/Wikimedia Commons)

Oficialmente, a OpenEuroLLM iniciou suas atividades em 1º de fevereiro de 2025 com base em um financiamento concedido pela Comissão Europeia por meio do Programa Europa Digital.

Os LLMs a serem desenvolvidos na OpenEuroLLM deverão seguir a estrutura regulatória da Europa, bem como alguns preceitos estabelecidos pela Comissão Europeia, entre eles, a “diversidade linguística e cultural”, de modo que todo o continente possa ser beneficiado pelos projetos que saírem de lá.

Ao TNW, Peter Sarlin declarou:

Isso não é sobre criar um chatbot de propósito geral, mas sobre construir a infraestrutura digital e de IA para permitir que companhias europeias inovem em IA.

Peter Sarlin, líder da OpenEuroLLM

Ainda de acordo com Sarlin, a fase inicial do projeto contará com um orçamento de 52 milhões de euros (R$ 311 milhões). Fiquemos de olho.
Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA
Fonte: Tecnoblog

OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado

Segundo a OpenAI, o novo LLM desenvolvido para a ferramenta é mais um passo na busca pela inteligência artificial geral (imagem: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou o Deep Research, um agente de IA para análises complexas baseado no LLM o3.
Na prática, a ferramenta atua como um analista de mercado, processando rapidamente informações que levariam horas para um humano, a partir de prompts dos usuários.
Contudo, o Deep Research ainda está em fase de testes e não é totalmente confiável, com a própria OpenAI alertando que a IA pode não diferenciar rumores e informações precisas.

A OpenAI anunciou neste domingo (02/02) o Deep Research, novo agente de IA capaz de realizar buscas na internet para tarefas complexas. Apesar da funcionalidade, o produto não é um concorrente do Google ou uma nova versão do ChatGPT Search, ferramenta de pesquisa da OpenAI. O Deep Research está disponível para assinantes do ChatGPT Pro, mas será liberado em breve para os planos Plus e Team.

Como funciona o Deep Research?

No vídeo da sua demonstração, vemos que, entre as funções do Deep Research, está a de realizar análises de determinados assuntos após receber prompts dos usuários. Segundo a OpenAI, o Deep Research realiza em minutos tarefas que demorariam horas para serem feitas por pessoas. Este recurso utiliza o LLM o3 da própria empresa.

Deep Research pode levar até 30 minutos para gerar análise, mas aponta as fontes usadas (imagem: Felipe Freitas/Tecnoblog)

Por exemplo, se você quer uma análise da evolução da logística nos últimos anos, basta pedir que o Deep Research realize essa pesquisa. A IA pesquisa fontes online, usando páginas da web, PDFs e até imagens — o usuário também pode subir arquivos para complementar a pesquisa. Basicamente, o Deep Research funciona nesse cenário como um analista de mercado.

Para chegar no Deep Research, a OpenAI desenvolveu esse novo LLM o3, focado justamente na realização dessas tarefas de análise de dados e navegação em páginas da web. De acordo com a OpenAI, este LLM é mais um passo da empresa na busca pela inteligência artificial geral (AGI).

Deep Research não é 100% confiável

OpenAI diz que o Deep Research pode sofrer com alucinações (ilustração: Vitor Pádua/Tecnoblog)

Naturalmente, como ocorre com os resultados das respostas das inteligências artificiais, a análise gerada pela Deep Research não é completamente confiável. Na própria página do anúncio da ferramenta, a OpenAI destaca que ela pode alucinar ou gerar inferências erradas sobre o tópico desejado.

O Deep Research pode ter dificuldades em diferenciar rumores de informações precisas. Sendo uma ferramenta em estágio inicial, é natural existir problemas desse tipo. Contudo, a OpenAI afirma que os casos de alucinações e inferências erradas são menores do que os modelos no ChatGPT.

Por enquanto, os usuários do ChatGPT Pro podem usar 100 prompts do Deep Research por mês. A OpenAI reforça que seguirá aprimorando o recurso continuamente nos próximos meses.
OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado
Fonte: Tecnoblog

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT(Imagem: Vitor Pádua / Tecnoblog)

A OpenAI lançou, nesta sexta-feira (31/01), o modelo de inteligência artificial o3-mini, e usuários do plano gratuito do ChatGPT poderão testar o recurso de pensamento lógico da ferramenta.

O o3-mini é a mais recente iteração da família “o” da empresa, dedicada a tecnologias que simulam a capacidade de raciocínio, prometendo se sair melhor em pedidos que envolvem programação, ciências e matemática. Segundo a companhia, o o3-mini deve ser mais “potente” e “acessível”.

ChatGPT poderá “pensar” antes de responder (foto: Giovanni Santa Rosa/Tecnoblog)

A companhia anuncia seu novo modelo ao fim de uma semana em que a chinesa DeepSeek causou impacto no setor tecnológico, com a Nvidia perdendo quase US$ 600 bilhões de valor de mercado em um dia e a própria OpenAI acusando a DeepSeek de “destilar” seus modelos de IA.

Quem poderá usar o o3-mini?

A OpenAI vai liberar o modelo o3-mini para quase todos os usuários do ChatGPT nesta sexta (31/01). Quem não paga, porém, terá acesso limitado, apenas para conhecer o produto. Para isso, basta clicar no botão “Reason”.

A OpenAI destaca que é a primeira vez que um modelo de raciocínio é disponibilizado para clientes do plano grátis. Coincidência ou não, o DeepSeek também dá acesso gratuito ao R1, seu modelo de raciocínio lógico.

DeepSeek chegou ao topo das listas de apps mais baixados em janeiro de 2025 (foto: Giovanni Santa Rosa/Tecnoblog)

Assinantes dos planos pagos Plus e Team terão um limite maior de uso, com 150 pedidos por dia, e usuários do plano Pro ganharão uso ilimitado. Os pacotes Enterprise e Edu receberão o novo modelo apenas na semana que vem.

Para que serve o o3-mini?

A OpenAI diz que o o3-mini, assim como outros modelos de raciocínio, se saem melhor em tarefas que envolvem ciências, matemática e programação.

Assim como seu antecessor, o o1-mini, e concorrentes (como o DeepSeek R1), as IAs deste tipo simulam um pensamento lógico, checando se suas respostas estão corretas antes de apresentá-las ao usuário. Por isso, elas levam mais tempo para atender aos pedidos.

Quais são as novidades do o3-mini?

De acordo com a desenvolvedora do ChatGPT, em “questões difíceis do mundo real”, o o3-mini comete “grandes erros” com uma frequência 39% menor que o o1-mini, e produz respostas mais “claras” e 24% mais rápidas.

Outra diferença importante não é tecnológica, mas sim comercial. O acesso ao o3-mini via API será 63% mais barato que o de o1-mini, custando US$ 1,10 por milhão de tokens de entrada e US$ 4,40 de saída. Apesar disso, ainda são valores mais altos que os da DeepSeek, que cobra, respectivamente, US$ 0,14 e US$ 2,19.

Com informações da OpenAI, TechCrunch e Wired
ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini
Fonte: Tecnoblog

Google começa a liberar Gemini 2.0 Flash para todo mundo

Google começa a liberar Gemini 2.0 Flash para todo mundo

Google começa a liberar Gemini 2.0 Flash para todo mundo (imagem: divulgação/Google)

O Google finalizou janeiro liberando o modelo de inteligência artificial Gemini 2.0 Flash para todo mundo que usa o aplicativo móvel do Gemini ou a sua versão web. A nova versão promete ajudar o usuário a lidar melhor com tarefas que envolvem escrita ou aprendizado, por exemplo.

O Gemini segue uma dinâmica de funcionamento ligeiramente diferente na comparação com o ChatGPT, o Copilot ou o recém-chegado DeepSeek. Em linhas gerais, basta abrir esses serviços e começar a interagir com eles. O Gemini também é assim, mas dá mais abertura para que o usuário defina o modelo de IA que servirá de base para essa interação.

É aí que o Gemini 2.0 Flash entra em cena. Esse modelo não é tão avançado quanto as versões Pro, por exemplo, mas promete ser versátil o suficiente para as tarefas mais cotidianas.

Como usar o Gemini 2.0 Flash?

O Google está liberando o Gemini 2.0 Flash para todo mundo que usa o app do serviço no Android, iPhone ou, ainda, a sua versão web, automática e gratuitamente. É possível escolher o modelo no topo do aplicativo. Se a versão 2.0 ainda não aparece para você, é só aguardar pela atualização.

Gemini 2.0 Flash na versão web (imagem: Emerson Alecrim/Tecnoblog)

A novidade vem para substituir o Gemini 1.5 Flash, embora a companhia afirme que essa versão, bem como o Gemini 1.5 Pro, ainda estarão disponíveis por algum tempo. Vale lembrar que o Google anunciou o Gemini 2.0 Flash em dezembro de 2024, mas em fase experimental.

Embora a liberação para todo mundo tenha começado agora, naquele período, a companhia já destacava que o Gemini 2.0 Flash é superior em relação ao Gemini 1.5 Flash em aspectos como geração de códigos de programação e capacidade de fornecer respostas corretas.

De modo complementar, o Google também está atualizando o recurso de geração de imagens do Gemini por meio da implementação do modelo Imagen 3, que “fornece detalhes e texturas mais interessantes e segue instruções com mais precisão para ajudar a dar vida à sua visão criativa”.
Google começa a liberar Gemini 2.0 Flash para todo mundo

Google começa a liberar Gemini 2.0 Flash para todo mundo
Fonte: Tecnoblog

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft anunciou integração com modelos da DeepSeek, mas investiga se empresa copiou modelos da OpenAI (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Microsoft anunciou que o modelo de IA DeepSeek R1 estará disponível nas plataformas Azure AI Foundry e GitHub.
Após o sucesso repentino do chatbot da DeepSeek, a big tech rapidamente incluiu o modelo, apesar das suspeitas de que a startup chinesa teria extraído indevidamente dados da OpenAI.
A Microsoft também planeja lançar versões “destiladas” do DeepSeek R1 para PCs com certificação Copilot+.

A Microsoft anunciou, nesta quarta-feira (29/01), que o modelo de inteligência artificial R1, da DeepSeek, estará disponível nas plataformas profissionais Azure AI Foundry e no GitHub. Além disso, a companhia prometeu que haverá versões “destiladas” da tecnologia para computadores com o selo Copilot+.

O Azure AI Foundry é uma plataforma de computação em nuvem que oferece diversos serviços de inteligência artificial, com acesso a APIs de mais de 1.800 modelos de variados tipos. Já o GitHub é uma plataforma para desenvolvedores. Nela, a Microsoft incluirá recursos adicionais e guias para integrar o DeepSeek R1 aos aplicativos criados por profissionais.

Por que esta integração é relevante?

O movimento da Microsoft chama a atenção por dois motivos. Um deles é que a empresa foi rápida para incluir o DeepSeek R1 entre os modelos disponíveis no Azure AI Foundry e no GitHub. Vale dizer que o R1 tem código aberto.

O outro é que a própria Microsoft revelou ter identificado um movimento de extração indevida de grandes volumes de dados da OpenAI. Agora, a gigante de Redmond investiga se o caso tem ligação com a DeepSeek. Vale lembrar que a Microsoft é uma das principais investidoras da OpenAI.

DeepSeek chegou ao topo das listas de apps mais baixados em janeiro de 2025 (foto: Giovanni Santa Rosa/Tecnoblog)

Nesta quarta-feira (29/01), a desenvolvedora do ChatGPT disse ter encontrado evidências de que a companhia chinesa usou técnicas de “destilação”, ou seja, treinou seus modelos a partir de perguntas e respostas de outros modelos — no caso, modelos da OpenAI.

Qual o próximo passo do DeepSeek R1 na Microsoft?

No mesmo comunicado, a Microsoft afirmou que, em breve, consumidores poderão usar versões “destiladas” do DeepSeek R1 em PCs com a certificação Copilot+, com execução local. Este “selo” identifica computadores que cumprem certos requisitos para bom desempenho em tarefas de IA, como 16 GB de RAM e NPU de 40 TOPS ou mais.

Por versões “destiladas”, entenda modelos menores derivados do R1, mais adequados para rodar com recursos limitados. A Microsoft não deu mais detalhes de como seriam estes modelos.

Com informações da Microsoft, Verge, TechCrunch e Reuters
Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub
Fonte: Tecnoblog

Nova IA da Alibaba promete superar DeepSeek e ChatGPT

Nova IA da Alibaba promete superar DeepSeek e ChatGPT

IA Qwen2, da Alibaba, ganha nova atualização (imagem: Divulgação/Alibaba)

A Alibaba anunciou, nesta quarta-feira (29), a nova versão do seu modelo de inteligência artificial: o Qwen 2.5-Max. Conforme a empresa de tecnologia chinesa, a nova IA é superior ao recente fenômeno DeepSeek e ao popular ChatGPT da OpenAI.

“O Qwen 2.5-Max supera quase todos os aspectos do GPT-4o, DeepSeek-V3 e Llama-3.1-405B [da Meta]”, destaca o anúncio sobre a nova IA publicado na conta oficial da empresa na rede social chinesa WeChat.

O modelo de código aberto da Alibaba mantém o foco na experiência de IA generativa. Em destaque, a nova versão deve aprimorar as ferramentas de texto para vídeo e aumentar a competitividade com outras empresas que investem na tecnologia.

Alibaba antecipa lançamento de modelo de IA para competir com a DeepSeek (imagem: Reprodução/Free Malaysian Today)

Curiosamente, a Alibaba está lançando o Qwen 2.5-Max no primeiro dia do Ano Novo Lunar. A data é um importante feriado do calendário chinês, quando grande parte dos chineses estão de folga e aproveitando momentos de descanso com a família.

Entretanto, a rápida ascensão da DeepSeek deve ter apressado os planos da revelação do modelo de IA da big tech. Lembrando que o sucesso da startup chinesa tem mexido tanto com as empresas do Vale do Silício quanto com as companhias asiáticas.

A estreia do modelo R1 da DeepSeek, no último dia 20 de janeiro, afetou diretamente as ações da Nvidia. A IA que usa menos dados e tem menor custo também colocou em xeque os investimentos bilionários feitos pelas empresas norte-americanas OpenAI e Microsoft.

Entre os concorrentes domésticos, a chinesa ByteDance, dona do TikTok, anunciou uma atualização do seu principal modelo de IA no dia 22 de janeiro. Testes de benchmark indicam que a IA tem um desempenho superior ao o1 da OpenAI ao atender e responder a instruções complexas.

DeepSeek deseja atingir a Inteligência Artificial Geral (ilustração: Vitor Pádua/Tecnoblog)

Em busca da Inteligência Artificial Geral

Em entrevista ao portal chinês Waves em julho de 2024, o fundador da DeepSeek Lian Wenfeng disse que o objetivo da startup é atingir a Inteligência Artificial Geral (AGI). Isso significa um modelo de sistema autônomo que supera os humanos na maioria das tarefas “economicamente valiosas”.

Além disso, Wenfeng pontuou que as big tech chinesas não têm potencial para se adequar ao futuro da indústria de IA devido aos altos custos e o formato de liderança vertical. Vale dizer que a startup tem uma operação enxuta, composta por jovens graduados e doutorandos das principais universidades chinesas.

“Grandes modelos fundamentais exigem inovação contínua, as capacidades dos gigantes da tecnologia têm seus limites”, declarou Wenfeng ao Waves.

Com informações da Reuters.
Nova IA da Alibaba promete superar DeepSeek e ChatGPT

Nova IA da Alibaba promete superar DeepSeek e ChatGPT
Fonte: Tecnoblog