Category: Inteligência Artificial

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta vai ouvir opiniões de especialistas de fora da empresa (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta poderá interromper o desenvolvimento de um sistema de IA caso identifique um risco extremo de catástrofe associado a ele.
Segundo um documento da plataforma, os riscos são classificados em dois níveis: alto, quando o sistema facilita uma ação perigosa, e crítico, quando ele a torna possível.
A avaliação desses riscos será conduzida por pesquisadores internos e externos, enquanto as decisões ficarão a cargo de “tomadores de decisão de nível sênior”.

A Meta publicou um novo documento sobre suas políticas para inteligência artificial, em que afirma que pode parar o desenvolvimento de um sistema caso considere que existe um risco extremo de catástrofe associado a ele, e pode não lançar um produto caso exista um risco alto.

O documento, chamado “Frontier AI Framework” (ou “Estrutura para IA de vanguarda”, em tradução livre), tem 21 páginas. Ele traz informações sobre a classificação de riscos adotada pela Meta e como esta avaliação será feita.

Quais as classificações de risco das IAs da Meta?

A Meta tem duas classificações de risco em que tomará medidas para evitar problemas: risco alto e risco extremo (ou crítico, como a empresa chama). Nos dois casos, a companhia considera os riscos de que estes sistemas possam ajudar em ataques de cibersegurança, químicos ou biológicos. Contudo, há uma diferença entre eles:

Risco alto: o sistema facilita a ação, mas não chega a torná-la viável

Risco crítico: o sistema torna a ação possível e os riscos não podem ser mitigados durante a implementação

Cenário crítico não pode ser mitigado, na avaliação da Meta (ilustração: Vitor Pádua/Tecnoblog)

O que a Meta faria nestas situações?

No caso de risco alto, a Meta diz que o sistema não seria lançado, tendo seu acesso limitado a um time de pesquisadores, como forma de proteção contra vazamentos. Neste cenário, a empresa trabalharia para mitigar o risco e reduzi-lo ao nível moderado (em que a IA não poderia ajudar em um ataque).

Já no caso de risco crítico, as medidas são mais extremas. A Meta diz que, neste cenário, pausaria o desenvolvimento para avaliar se existem barreiras para impedir um cenário de catástrofe. O acesso seria limitado a um pequeno número de especialistas, com medidas para evitar invasões e vazamentos.

Como a Meta vai avaliar os riscos?

De acordo com o documento, a Meta vai considerar a opinião de pesquisadores internos e externos, com “tomadores de decisão de nível sênior” revisando estes comentários. A companhia diz que o campo científico de avaliações de risco não é, neste momento, suficientemente robusta para fornecer métricas quantitativas.

Com informações de Meta e TechCrunch
Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo
Fonte: Tecnoblog

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A União Europeia anunciou a OpenEuroLLM, uma iniciativa para desenvolver modelos avançados de inteligência artificial de código aberto.
Liderada por Peter Sarlin, da Silo AI, a aliança terá início em fevereiro de 2025, com financiamento da Comissão Europeia e a participação de mais de 20 instituições e empresas.
O projeto contará com um orçamento inicial de 52 milhões de euros (cerca de R$ 311 milhões), focando em infraestruturas digitais e IA.
A iniciativa surge como resposta ao avanço dos Estados Unidos e da China no setor de inteligência artificial.

A União Europeia não quer ficar para trás dos Estados Unidos e da China quando o assunto é inteligência artificial. Por isso, o bloco anunciou uma aliança para desenvolver LLMs avançados e com código aberto: a OpenEuroLLM.

O projeto apoiará ou contará com o apoio de startups, centros de pesquisa, instituições de ensino e organizações especializadas em computação de alto desempenho que tenham sede em países da União Europeia.

De acordo com o anúncio oficial, mais de 20 instituições de pesquisa e empresas da região já fazem parte da iniciativa, que terá a missão de construir uma “família base de modelos de larga escala de alto desempenho, multilíngues e de grande porte para serviços comerciais, industriais e públicos”.

A OpenEuroLLM será comandada por Peter Sarlin, cofundador de Silo AI, empresa com sede na Finlândia especializada em inteligência artificial, mas que foi adquirida pela AMD em julho de 2024 por US$ 665 milhões (R$ 3,86 bilhões, na conversão atual).

Por que a OpenEuroLLM foi criada?

Segundo a própria entidade, o projeto foi criado com o intuito de “melhorar a competitividade e a soberania digital da Europa”.

Não é um discurso raso. De um lado, a União Europeia vê organizações americanas, com destaque para a OpenAI, dominando a cena da inteligência artificial.

Como se não bastasse, os Estados Unidos anunciaram o Stargate Project logo após a posse de Donald Trump como presidente do país. A iniciativa investirá US$ 500 bilhões para deixar os Estados Unidos na vanguarda da IA.

De outro lado, a Europa vê a DeepSeek se destacando como uma força chinesa em IA. Ainda que essa plataforma esteja sob questionamentos a respeitos dos custos reduzidos e do desempenho melhorado que afirma ter, o projeto mostra que a China não está alheia a todo esse movimento.

Bandeiras da União Europeia (foto: Thijs ter Haar/Wikimedia Commons)

Oficialmente, a OpenEuroLLM iniciou suas atividades em 1º de fevereiro de 2025 com base em um financiamento concedido pela Comissão Europeia por meio do Programa Europa Digital.

Os LLMs a serem desenvolvidos na OpenEuroLLM deverão seguir a estrutura regulatória da Europa, bem como alguns preceitos estabelecidos pela Comissão Europeia, entre eles, a “diversidade linguística e cultural”, de modo que todo o continente possa ser beneficiado pelos projetos que saírem de lá.

Ao TNW, Peter Sarlin declarou:

Isso não é sobre criar um chatbot de propósito geral, mas sobre construir a infraestrutura digital e de IA para permitir que companhias europeias inovem em IA.

Peter Sarlin, líder da OpenEuroLLM

Ainda de acordo com Sarlin, a fase inicial do projeto contará com um orçamento de 52 milhões de euros (R$ 311 milhões). Fiquemos de olho.
Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA
Fonte: Tecnoblog

OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado

Segundo a OpenAI, o novo LLM desenvolvido para a ferramenta é mais um passo na busca pela inteligência artificial geral (imagem: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou o Deep Research, um agente de IA para análises complexas baseado no LLM o3.
Na prática, a ferramenta atua como um analista de mercado, processando rapidamente informações que levariam horas para um humano, a partir de prompts dos usuários.
Contudo, o Deep Research ainda está em fase de testes e não é totalmente confiável, com a própria OpenAI alertando que a IA pode não diferenciar rumores e informações precisas.

A OpenAI anunciou neste domingo (02/02) o Deep Research, novo agente de IA capaz de realizar buscas na internet para tarefas complexas. Apesar da funcionalidade, o produto não é um concorrente do Google ou uma nova versão do ChatGPT Search, ferramenta de pesquisa da OpenAI. O Deep Research está disponível para assinantes do ChatGPT Pro, mas será liberado em breve para os planos Plus e Team.

Como funciona o Deep Research?

No vídeo da sua demonstração, vemos que, entre as funções do Deep Research, está a de realizar análises de determinados assuntos após receber prompts dos usuários. Segundo a OpenAI, o Deep Research realiza em minutos tarefas que demorariam horas para serem feitas por pessoas. Este recurso utiliza o LLM o3 da própria empresa.

Deep Research pode levar até 30 minutos para gerar análise, mas aponta as fontes usadas (imagem: Felipe Freitas/Tecnoblog)

Por exemplo, se você quer uma análise da evolução da logística nos últimos anos, basta pedir que o Deep Research realize essa pesquisa. A IA pesquisa fontes online, usando páginas da web, PDFs e até imagens — o usuário também pode subir arquivos para complementar a pesquisa. Basicamente, o Deep Research funciona nesse cenário como um analista de mercado.

Para chegar no Deep Research, a OpenAI desenvolveu esse novo LLM o3, focado justamente na realização dessas tarefas de análise de dados e navegação em páginas da web. De acordo com a OpenAI, este LLM é mais um passo da empresa na busca pela inteligência artificial geral (AGI).

Deep Research não é 100% confiável

OpenAI diz que o Deep Research pode sofrer com alucinações (ilustração: Vitor Pádua/Tecnoblog)

Naturalmente, como ocorre com os resultados das respostas das inteligências artificiais, a análise gerada pela Deep Research não é completamente confiável. Na própria página do anúncio da ferramenta, a OpenAI destaca que ela pode alucinar ou gerar inferências erradas sobre o tópico desejado.

O Deep Research pode ter dificuldades em diferenciar rumores de informações precisas. Sendo uma ferramenta em estágio inicial, é natural existir problemas desse tipo. Contudo, a OpenAI afirma que os casos de alucinações e inferências erradas são menores do que os modelos no ChatGPT.

Por enquanto, os usuários do ChatGPT Pro podem usar 100 prompts do Deep Research por mês. A OpenAI reforça que seguirá aprimorando o recurso continuamente nos próximos meses.
OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado
Fonte: Tecnoblog

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT(Imagem: Vitor Pádua / Tecnoblog)

A OpenAI lançou, nesta sexta-feira (31/01), o modelo de inteligência artificial o3-mini, e usuários do plano gratuito do ChatGPT poderão testar o recurso de pensamento lógico da ferramenta.

O o3-mini é a mais recente iteração da família “o” da empresa, dedicada a tecnologias que simulam a capacidade de raciocínio, prometendo se sair melhor em pedidos que envolvem programação, ciências e matemática. Segundo a companhia, o o3-mini deve ser mais “potente” e “acessível”.

ChatGPT poderá “pensar” antes de responder (foto: Giovanni Santa Rosa/Tecnoblog)

A companhia anuncia seu novo modelo ao fim de uma semana em que a chinesa DeepSeek causou impacto no setor tecnológico, com a Nvidia perdendo quase US$ 600 bilhões de valor de mercado em um dia e a própria OpenAI acusando a DeepSeek de “destilar” seus modelos de IA.

Quem poderá usar o o3-mini?

A OpenAI vai liberar o modelo o3-mini para quase todos os usuários do ChatGPT nesta sexta (31/01). Quem não paga, porém, terá acesso limitado, apenas para conhecer o produto. Para isso, basta clicar no botão “Reason”.

A OpenAI destaca que é a primeira vez que um modelo de raciocínio é disponibilizado para clientes do plano grátis. Coincidência ou não, o DeepSeek também dá acesso gratuito ao R1, seu modelo de raciocínio lógico.

DeepSeek chegou ao topo das listas de apps mais baixados em janeiro de 2025 (foto: Giovanni Santa Rosa/Tecnoblog)

Assinantes dos planos pagos Plus e Team terão um limite maior de uso, com 150 pedidos por dia, e usuários do plano Pro ganharão uso ilimitado. Os pacotes Enterprise e Edu receberão o novo modelo apenas na semana que vem.

Para que serve o o3-mini?

A OpenAI diz que o o3-mini, assim como outros modelos de raciocínio, se saem melhor em tarefas que envolvem ciências, matemática e programação.

Assim como seu antecessor, o o1-mini, e concorrentes (como o DeepSeek R1), as IAs deste tipo simulam um pensamento lógico, checando se suas respostas estão corretas antes de apresentá-las ao usuário. Por isso, elas levam mais tempo para atender aos pedidos.

Quais são as novidades do o3-mini?

De acordo com a desenvolvedora do ChatGPT, em “questões difíceis do mundo real”, o o3-mini comete “grandes erros” com uma frequência 39% menor que o o1-mini, e produz respostas mais “claras” e 24% mais rápidas.

Outra diferença importante não é tecnológica, mas sim comercial. O acesso ao o3-mini via API será 63% mais barato que o de o1-mini, custando US$ 1,10 por milhão de tokens de entrada e US$ 4,40 de saída. Apesar disso, ainda são valores mais altos que os da DeepSeek, que cobra, respectivamente, US$ 0,14 e US$ 2,19.

Com informações da OpenAI, TechCrunch e Wired
ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini
Fonte: Tecnoblog

Google começa a liberar Gemini 2.0 Flash para todo mundo

Google começa a liberar Gemini 2.0 Flash para todo mundo

Google começa a liberar Gemini 2.0 Flash para todo mundo (imagem: divulgação/Google)

O Google finalizou janeiro liberando o modelo de inteligência artificial Gemini 2.0 Flash para todo mundo que usa o aplicativo móvel do Gemini ou a sua versão web. A nova versão promete ajudar o usuário a lidar melhor com tarefas que envolvem escrita ou aprendizado, por exemplo.

O Gemini segue uma dinâmica de funcionamento ligeiramente diferente na comparação com o ChatGPT, o Copilot ou o recém-chegado DeepSeek. Em linhas gerais, basta abrir esses serviços e começar a interagir com eles. O Gemini também é assim, mas dá mais abertura para que o usuário defina o modelo de IA que servirá de base para essa interação.

É aí que o Gemini 2.0 Flash entra em cena. Esse modelo não é tão avançado quanto as versões Pro, por exemplo, mas promete ser versátil o suficiente para as tarefas mais cotidianas.

Como usar o Gemini 2.0 Flash?

O Google está liberando o Gemini 2.0 Flash para todo mundo que usa o app do serviço no Android, iPhone ou, ainda, a sua versão web, automática e gratuitamente. É possível escolher o modelo no topo do aplicativo. Se a versão 2.0 ainda não aparece para você, é só aguardar pela atualização.

Gemini 2.0 Flash na versão web (imagem: Emerson Alecrim/Tecnoblog)

A novidade vem para substituir o Gemini 1.5 Flash, embora a companhia afirme que essa versão, bem como o Gemini 1.5 Pro, ainda estarão disponíveis por algum tempo. Vale lembrar que o Google anunciou o Gemini 2.0 Flash em dezembro de 2024, mas em fase experimental.

Embora a liberação para todo mundo tenha começado agora, naquele período, a companhia já destacava que o Gemini 2.0 Flash é superior em relação ao Gemini 1.5 Flash em aspectos como geração de códigos de programação e capacidade de fornecer respostas corretas.

De modo complementar, o Google também está atualizando o recurso de geração de imagens do Gemini por meio da implementação do modelo Imagen 3, que “fornece detalhes e texturas mais interessantes e segue instruções com mais precisão para ajudar a dar vida à sua visão criativa”.
Google começa a liberar Gemini 2.0 Flash para todo mundo

Google começa a liberar Gemini 2.0 Flash para todo mundo
Fonte: Tecnoblog

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft anunciou integração com modelos da DeepSeek, mas investiga se empresa copiou modelos da OpenAI (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Microsoft anunciou que o modelo de IA DeepSeek R1 estará disponível nas plataformas Azure AI Foundry e GitHub.
Após o sucesso repentino do chatbot da DeepSeek, a big tech rapidamente incluiu o modelo, apesar das suspeitas de que a startup chinesa teria extraído indevidamente dados da OpenAI.
A Microsoft também planeja lançar versões “destiladas” do DeepSeek R1 para PCs com certificação Copilot+.

A Microsoft anunciou, nesta quarta-feira (29/01), que o modelo de inteligência artificial R1, da DeepSeek, estará disponível nas plataformas profissionais Azure AI Foundry e no GitHub. Além disso, a companhia prometeu que haverá versões “destiladas” da tecnologia para computadores com o selo Copilot+.

O Azure AI Foundry é uma plataforma de computação em nuvem que oferece diversos serviços de inteligência artificial, com acesso a APIs de mais de 1.800 modelos de variados tipos. Já o GitHub é uma plataforma para desenvolvedores. Nela, a Microsoft incluirá recursos adicionais e guias para integrar o DeepSeek R1 aos aplicativos criados por profissionais.

Por que esta integração é relevante?

O movimento da Microsoft chama a atenção por dois motivos. Um deles é que a empresa foi rápida para incluir o DeepSeek R1 entre os modelos disponíveis no Azure AI Foundry e no GitHub. Vale dizer que o R1 tem código aberto.

O outro é que a própria Microsoft revelou ter identificado um movimento de extração indevida de grandes volumes de dados da OpenAI. Agora, a gigante de Redmond investiga se o caso tem ligação com a DeepSeek. Vale lembrar que a Microsoft é uma das principais investidoras da OpenAI.

DeepSeek chegou ao topo das listas de apps mais baixados em janeiro de 2025 (foto: Giovanni Santa Rosa/Tecnoblog)

Nesta quarta-feira (29/01), a desenvolvedora do ChatGPT disse ter encontrado evidências de que a companhia chinesa usou técnicas de “destilação”, ou seja, treinou seus modelos a partir de perguntas e respostas de outros modelos — no caso, modelos da OpenAI.

Qual o próximo passo do DeepSeek R1 na Microsoft?

No mesmo comunicado, a Microsoft afirmou que, em breve, consumidores poderão usar versões “destiladas” do DeepSeek R1 em PCs com a certificação Copilot+, com execução local. Este “selo” identifica computadores que cumprem certos requisitos para bom desempenho em tarefas de IA, como 16 GB de RAM e NPU de 40 TOPS ou mais.

Por versões “destiladas”, entenda modelos menores derivados do R1, mais adequados para rodar com recursos limitados. A Microsoft não deu mais detalhes de como seriam estes modelos.

Com informações da Microsoft, Verge, TechCrunch e Reuters
Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub
Fonte: Tecnoblog

Nova IA da Alibaba promete superar DeepSeek e ChatGPT

Nova IA da Alibaba promete superar DeepSeek e ChatGPT

IA Qwen2, da Alibaba, ganha nova atualização (imagem: Divulgação/Alibaba)

A Alibaba anunciou, nesta quarta-feira (29), a nova versão do seu modelo de inteligência artificial: o Qwen 2.5-Max. Conforme a empresa de tecnologia chinesa, a nova IA é superior ao recente fenômeno DeepSeek e ao popular ChatGPT da OpenAI.

“O Qwen 2.5-Max supera quase todos os aspectos do GPT-4o, DeepSeek-V3 e Llama-3.1-405B [da Meta]”, destaca o anúncio sobre a nova IA publicado na conta oficial da empresa na rede social chinesa WeChat.

O modelo de código aberto da Alibaba mantém o foco na experiência de IA generativa. Em destaque, a nova versão deve aprimorar as ferramentas de texto para vídeo e aumentar a competitividade com outras empresas que investem na tecnologia.

Alibaba antecipa lançamento de modelo de IA para competir com a DeepSeek (imagem: Reprodução/Free Malaysian Today)

Curiosamente, a Alibaba está lançando o Qwen 2.5-Max no primeiro dia do Ano Novo Lunar. A data é um importante feriado do calendário chinês, quando grande parte dos chineses estão de folga e aproveitando momentos de descanso com a família.

Entretanto, a rápida ascensão da DeepSeek deve ter apressado os planos da revelação do modelo de IA da big tech. Lembrando que o sucesso da startup chinesa tem mexido tanto com as empresas do Vale do Silício quanto com as companhias asiáticas.

A estreia do modelo R1 da DeepSeek, no último dia 20 de janeiro, afetou diretamente as ações da Nvidia. A IA que usa menos dados e tem menor custo também colocou em xeque os investimentos bilionários feitos pelas empresas norte-americanas OpenAI e Microsoft.

Entre os concorrentes domésticos, a chinesa ByteDance, dona do TikTok, anunciou uma atualização do seu principal modelo de IA no dia 22 de janeiro. Testes de benchmark indicam que a IA tem um desempenho superior ao o1 da OpenAI ao atender e responder a instruções complexas.

DeepSeek deseja atingir a Inteligência Artificial Geral (ilustração: Vitor Pádua/Tecnoblog)

Em busca da Inteligência Artificial Geral

Em entrevista ao portal chinês Waves em julho de 2024, o fundador da DeepSeek Lian Wenfeng disse que o objetivo da startup é atingir a Inteligência Artificial Geral (AGI). Isso significa um modelo de sistema autônomo que supera os humanos na maioria das tarefas “economicamente valiosas”.

Além disso, Wenfeng pontuou que as big tech chinesas não têm potencial para se adequar ao futuro da indústria de IA devido aos altos custos e o formato de liderança vertical. Vale dizer que a startup tem uma operação enxuta, composta por jovens graduados e doutorandos das principais universidades chinesas.

“Grandes modelos fundamentais exigem inovação contínua, as capacidades dos gigantes da tecnologia têm seus limites”, declarou Wenfeng ao Waves.

Com informações da Reuters.
Nova IA da Alibaba promete superar DeepSeek e ChatGPT

Nova IA da Alibaba promete superar DeepSeek e ChatGPT
Fonte: Tecnoblog

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek promete abalar mercado de IA novamente com novo LLM para geração de imagens (foto: Giovanni Santa Rosa/Tecnoblog)

A DeepSeek lançou nesta semana o Janus-Pro-7B, seu modelo de IA generativa de imagens. Segundo a empresa, com dados de benchmarkings, o desempenho da sua IA para imagens supera concorrentes como Dall-E 3 da OpenAI e Stable Diffusion da Stable AI. O Janus-Pro-7B é uma atualização do Janus, lançado pela DeepSeek no passado — e mostrando um grande salto de desempenho.

O modelo de imagem generativa da DeepSeek pode ser baixado no Hugging Face, uma espécie de GitHub para projetos de inteligência artificial e machine learning. É necessário ter um certo conhecimento de programação para rodar o Janus-Pro-7B, visto que ele não é disponibilizado em uma interface fácil de ser usada como DeepSeek, ChatGPT e Copilot.

DeepSeek mostrou comparitivo entre primeira versão do Janus e Janus-Pro-7B (imagem: divulgação)

Além de gerar imagens, o Janus-Pro-7B é capaz de analisar arquivos visuais. Essa funcionalidade é similar ao que faz o Gemini Live e o Google Lens, permitindo que você traduza um texto ou compreenda aquele placa com uma fonte de péssima legibilidade.

Como o Janus-Pro-7B foi treinado?

Segundo a Reuters, que teve acesso à parte da documentação técnica do Janus-Pro-7B, parte do treinamento do modelo usou 72 milhões de imagens sintéticas de alta qualidade. A equipe da DeepSeek então combinou a análise dessas fotos geradas por IA com dados reais.

A empresa destaca que esse método permite a criação de imagens mais realistas e mais ricas em detalhes.

O que é a DeepSeek?

A DeepSeek é uma empresa de inteligência artificial chinesa que está abalando o mercado dessa tecnologia. A empresa afirma que desenvolveu a sua IA generativa gastando menos de US$ 6 milhões (R$ 36 milhões). Esse valor é muito inferior aos US$ 100 milhões (R$ 600 milhões) captados pela OpenAI para desenvolver o LLM GPT-4.

LLM R1 da DeepSeek balançou as estruturas do mercado de IA e derrubou ações de empresas americanas (foto: Giovanni Santa Rosa/Tecnoblog)

O LLM usado pela DeepSeek é o R1, que teve seu código aberto. A empresa chinesa diz que o desempenho do modelo está no mesmo nível dos LLM da OpenAI e Anthropic (criadora do Claude). Porém, assim como as IAs continuam engatinhando (apesar dos avanços nos últimos anos), os sistemas de benchmarking não são padronizados, o que afeta a confiabilidade de testes — não é como pegar uma GPU e rodar o 3DMark.

Esses relatos de menor custo na fabricação fez cair as ações de diversas empresas americanas, principalmente da Nvidia. A fabricante é a maior fornecedora de placas aceleradoras para o desenvolvimento de IAs, o que a tornou uma das empresas mais valiosas do ramo.

Com a possibilidade de gerar LLMs mais baratos levantada pela DeepSeek, o mercado entendeu que a Nvidia pode não ter todo esse poderio no ramo de placas para IAs.

Com informações de Live Science e Reuters
DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA
Fonte: Tecnoblog

DeepSeek é alvo de ataque cibernético em larga escala

DeepSeek é alvo de ataque cibernético em larga escala

DeepSeek promete rivalizar com ChatGPT e Gemini (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A DeepSeek relatou um ataque cibernético em larga escala nesta segunda-feira (27/01), logo após alcançar o primeiro lugar entre os apps mais baixados da App Store nos EUA.
Em consequência do ataque, a empresa suspendeu temporariamente o cadastro de novos usuários, mas retomou as inscrições nesta terça-feira (28/01), exibindo uma mensagem de congestionamento no registro.
A startup chinesa revelou que o DeepSeek recebeu um investimento de US$ 6 milhões e usou 2 mil chips H800 da Nvidia para treinar seu modelo de “raciocínio” R1.
A notícia provocou uma queda de 17% nas ações da Nvidia, resultando em uma perda de cerca de US$ 600 bilhões em valor de mercado.

A startup chinesa DeepSeek relatou ter sofrido um ataque cibernético de larga escala nesta segunda-feira (27/01). Pouco antes, no mesmo dia, o aplicativo de inteligência artificial da companhia atingiu o primeiro lugar entre os apps mais baixados da App Store nos Estados Unidos, provocando impactos no mercado financeiro.

A ação levou a empresa a suspender temporariamente o cadastro de novos usuários nessa segunda — quem já tinha um login e senha, por outro lado, podia entrar e usar o chatbot normalmente. Nesta terça-feira (28/01), a DeepSeek mostra um aviso em sua homepage, dizendo que o registro pode estar congestionado e que, em caso de erro ou indisponibilidade, os interessados devem aguardar e tentar novamente.

Cadastro foi liberado, mas DeepSeek avisa que pode haver erros (imagem: Giovanni Santa Rosa/Tecnoblog)

Por enquanto, não há mais informações sobre o ataque, como quem estaria por trás da ação ou quais os métodos utilizados.

O que é o DeepSeek?

O DeepSeek é um assistente virtual com inteligência artificial, criado pela startup chinesa de mesmo nome. Ele funciona de modo similar ao ChatGPT, ao Gemini e a outros softwares do tipo, entendendo pedidos dos usuários em linguagem natural, sem que eles precisem seguir uma estrutura pré-definida.

A IA se popularizou na última semana, após o lançamento do aplicativo para Android e iOS e do modelo de “raciocínio” R1, que promete ter uma capacidade maior para lidar com questões complexas, testando diferentes abordagens para chegar a uma solução.

DeepSeek lembra outros chatbots com IA (foto: Giovanni Santa Rosa/Tecnoblog)

O DeepSeek é totalmente gratuito, enquanto OpenAI e Google cobram pelo acesso a modelos de IA mais avançados. Por outro lado, o assistente da startup chinesa não conta com alguns recursos já presentes nos concorrentes, como uma memória para armazenar informações sobre o usuário e suas preferências, que poderia ser consultada para dar respostas mais adequadas.

Por que o DeepSeek gerou tanto impacto?

A startup DeepSeek afirma que gastou cerca de US$ 6 milhões e usou 2 mil chips H800, da Nvidia, para treinar o modelo R1. Caso estes números sejam verdadeiros, isso representa um custo muito mais baixo e um uso de hardware muito menor que os de empresas como OpenAI, Google, Meta e Anthropic.

Para o mercado, isso leva à possibilidade de que menos chips dedicados à IA sejam vendidos nos próximos anos — afinal, pode existir uma forma mais eficiente de desenvolver a tecnologia, sem depender de tanto poder de processamento. Essa é uma má notícia para o setor de semicondutores.

A empresa mais afetada foi a Nvidia, com queda de 17% no preço das ações na segunda-feira (27/01), apagando cerca de US$ 600 bilhões de seu valor de mercado. A companhia teve uma recuperação parcial de cerca de 7% nesta terça-feira (28/01), mas ainda está valendo 7,7% menos que no começo do ano.

Com informações da Associated Press, Android Authority e CNBC
DeepSeek é alvo de ataque cibernético em larga escala

DeepSeek é alvo de ataque cibernético em larga escala
Fonte: Tecnoblog

Meta AI vai usar Reels que você viu para personalizar respostas

Meta AI vai usar Reels que você viu para personalizar respostas

Meta AI funciona no WhatsApp, Messenger, Instagram e Facebook (ilustração: Vitor Pádua/Tecnoblog)

A Meta anunciou que seu chatbot com inteligência artificial, a Meta AI, poderá usar dados do Facebook e do Instagram para dar respostas mais adequadas aos pedidos. Além disso, a ferramenta terá uma memória para armazenar detalhes sobre o usuário, como preferências alimentares e interesses.

A memória da Meta AI estava em testes desde o ano passado. Agora, o recurso será disponibilizado inicialmente no Facebook, Messenger e WhatsApp para Android e iOS nos Estados Unidos e no Canadá. Não há previsão de chegada a outros mercados, como o Brasil.

Meta AI vai “decorar” informações de conversas (imagem: divulgação)

Como a Meta AI vai usar informações de Facebook e Instagram?

A Meta usará as informações coletadas do Facebook e do Instagram para dar respostas mais adequadas. No exemplo dado pela empresa, caso o usuário pergunte o que fazer no fim de semana, a Meta AI pode usar a localização cadastrada no perfil do Facebook para dar recomendações naquele lugar.

Isso também vale para interações com conteúdo: se você viu reels de artistas country, diz a Meta, o chatbot pode recomendar um show de música country.

Como funciona a memória da Meta AI?

A memória da Meta AI armazena informações sobre o usuário obtidas durante as conversas. Estas informações podem ser as principais de uma mensagem escrita, mas também podem ser detalhes mencionados durante o bate-papo com a IA.

No exemplo dado pela Meta, a pessoa pede uma receita para o café da manhã, e a Meta AI sugere omelete. O usuário, então, diz ser vegano, e a inteligência artificial armazena esta informação na memória. Futuramente, quando tiver que recomendar alimentos, o chatbot saberá desta preferência. Os usuários poderão acessar a memória e apagar as informações indesejadas.

O recurso de memória da IA, porém, não é uma novidade. O ChatGPT conta com uma ferramenta idêntica há quase um ano.

Questionada pelo Verge, a Meta disse que, no momento, não oferecerá opções para desativar estes recursos. “Acreditamos que as melhores experiências são personalizadas”, disse o porta-voz da companhia.

Com informações da Meta, Verge e TechCrunch
Meta AI vai usar Reels que você viu para personalizar respostas

Meta AI vai usar Reels que você viu para personalizar respostas
Fonte: Tecnoblog