Category: DeepSeek

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT(Imagem: Vitor Pádua / Tecnoblog)

A OpenAI lançou, nesta sexta-feira (31/01), o modelo de inteligência artificial o3-mini, e usuários do plano gratuito do ChatGPT poderão testar o recurso de pensamento lógico da ferramenta.

O o3-mini é a mais recente iteração da família “o” da empresa, dedicada a tecnologias que simulam a capacidade de raciocínio, prometendo se sair melhor em pedidos que envolvem programação, ciências e matemática. Segundo a companhia, o o3-mini deve ser mais “potente” e “acessível”.

ChatGPT poderá “pensar” antes de responder (foto: Giovanni Santa Rosa/Tecnoblog)

A companhia anuncia seu novo modelo ao fim de uma semana em que a chinesa DeepSeek causou impacto no setor tecnológico, com a Nvidia perdendo quase US$ 600 bilhões de valor de mercado em um dia e a própria OpenAI acusando a DeepSeek de “destilar” seus modelos de IA.

Quem poderá usar o o3-mini?

A OpenAI vai liberar o modelo o3-mini para quase todos os usuários do ChatGPT nesta sexta (31/01). Quem não paga, porém, terá acesso limitado, apenas para conhecer o produto. Para isso, basta clicar no botão “Reason”.

A OpenAI destaca que é a primeira vez que um modelo de raciocínio é disponibilizado para clientes do plano grátis. Coincidência ou não, o DeepSeek também dá acesso gratuito ao R1, seu modelo de raciocínio lógico.

DeepSeek chegou ao topo das listas de apps mais baixados em janeiro de 2025 (foto: Giovanni Santa Rosa/Tecnoblog)

Assinantes dos planos pagos Plus e Team terão um limite maior de uso, com 150 pedidos por dia, e usuários do plano Pro ganharão uso ilimitado. Os pacotes Enterprise e Edu receberão o novo modelo apenas na semana que vem.

Para que serve o o3-mini?

A OpenAI diz que o o3-mini, assim como outros modelos de raciocínio, se saem melhor em tarefas que envolvem ciências, matemática e programação.

Assim como seu antecessor, o o1-mini, e concorrentes (como o DeepSeek R1), as IAs deste tipo simulam um pensamento lógico, checando se suas respostas estão corretas antes de apresentá-las ao usuário. Por isso, elas levam mais tempo para atender aos pedidos.

Quais são as novidades do o3-mini?

De acordo com a desenvolvedora do ChatGPT, em “questões difíceis do mundo real”, o o3-mini comete “grandes erros” com uma frequência 39% menor que o o1-mini, e produz respostas mais “claras” e 24% mais rápidas.

Outra diferença importante não é tecnológica, mas sim comercial. O acesso ao o3-mini via API será 63% mais barato que o de o1-mini, custando US$ 1,10 por milhão de tokens de entrada e US$ 4,40 de saída. Apesar disso, ainda são valores mais altos que os da DeepSeek, que cobra, respectivamente, US$ 0,14 e US$ 2,19.

Com informações da OpenAI, TechCrunch e Wired
ChatGPT terá acesso grátis a modelo de raciocínio o3-mini

ChatGPT terá acesso grátis a modelo de raciocínio o3-mini
Fonte: Tecnoblog

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft anunciou integração com modelos da DeepSeek, mas investiga se empresa copiou modelos da OpenAI (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Microsoft anunciou que o modelo de IA DeepSeek R1 estará disponível nas plataformas Azure AI Foundry e GitHub.
Após o sucesso repentino do chatbot da DeepSeek, a big tech rapidamente incluiu o modelo, apesar das suspeitas de que a startup chinesa teria extraído indevidamente dados da OpenAI.
A Microsoft também planeja lançar versões “destiladas” do DeepSeek R1 para PCs com certificação Copilot+.

A Microsoft anunciou, nesta quarta-feira (29/01), que o modelo de inteligência artificial R1, da DeepSeek, estará disponível nas plataformas profissionais Azure AI Foundry e no GitHub. Além disso, a companhia prometeu que haverá versões “destiladas” da tecnologia para computadores com o selo Copilot+.

O Azure AI Foundry é uma plataforma de computação em nuvem que oferece diversos serviços de inteligência artificial, com acesso a APIs de mais de 1.800 modelos de variados tipos. Já o GitHub é uma plataforma para desenvolvedores. Nela, a Microsoft incluirá recursos adicionais e guias para integrar o DeepSeek R1 aos aplicativos criados por profissionais.

Por que esta integração é relevante?

O movimento da Microsoft chama a atenção por dois motivos. Um deles é que a empresa foi rápida para incluir o DeepSeek R1 entre os modelos disponíveis no Azure AI Foundry e no GitHub. Vale dizer que o R1 tem código aberto.

O outro é que a própria Microsoft revelou ter identificado um movimento de extração indevida de grandes volumes de dados da OpenAI. Agora, a gigante de Redmond investiga se o caso tem ligação com a DeepSeek. Vale lembrar que a Microsoft é uma das principais investidoras da OpenAI.

DeepSeek chegou ao topo das listas de apps mais baixados em janeiro de 2025 (foto: Giovanni Santa Rosa/Tecnoblog)

Nesta quarta-feira (29/01), a desenvolvedora do ChatGPT disse ter encontrado evidências de que a companhia chinesa usou técnicas de “destilação”, ou seja, treinou seus modelos a partir de perguntas e respostas de outros modelos — no caso, modelos da OpenAI.

Qual o próximo passo do DeepSeek R1 na Microsoft?

No mesmo comunicado, a Microsoft afirmou que, em breve, consumidores poderão usar versões “destiladas” do DeepSeek R1 em PCs com a certificação Copilot+, com execução local. Este “selo” identifica computadores que cumprem certos requisitos para bom desempenho em tarefas de IA, como 16 GB de RAM e NPU de 40 TOPS ou mais.

Por versões “destiladas”, entenda modelos menores derivados do R1, mais adequados para rodar com recursos limitados. A Microsoft não deu mais detalhes de como seriam estes modelos.

Com informações da Microsoft, Verge, TechCrunch e Reuters
Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub

Microsoft coloca modelo de IA da DeepSeek no Azure e no GitHub
Fonte: Tecnoblog

Nova IA da Alibaba promete superar DeepSeek e ChatGPT

Nova IA da Alibaba promete superar DeepSeek e ChatGPT

IA Qwen2, da Alibaba, ganha nova atualização (imagem: Divulgação/Alibaba)

A Alibaba anunciou, nesta quarta-feira (29), a nova versão do seu modelo de inteligência artificial: o Qwen 2.5-Max. Conforme a empresa de tecnologia chinesa, a nova IA é superior ao recente fenômeno DeepSeek e ao popular ChatGPT da OpenAI.

“O Qwen 2.5-Max supera quase todos os aspectos do GPT-4o, DeepSeek-V3 e Llama-3.1-405B [da Meta]”, destaca o anúncio sobre a nova IA publicado na conta oficial da empresa na rede social chinesa WeChat.

O modelo de código aberto da Alibaba mantém o foco na experiência de IA generativa. Em destaque, a nova versão deve aprimorar as ferramentas de texto para vídeo e aumentar a competitividade com outras empresas que investem na tecnologia.

Alibaba antecipa lançamento de modelo de IA para competir com a DeepSeek (imagem: Reprodução/Free Malaysian Today)

Curiosamente, a Alibaba está lançando o Qwen 2.5-Max no primeiro dia do Ano Novo Lunar. A data é um importante feriado do calendário chinês, quando grande parte dos chineses estão de folga e aproveitando momentos de descanso com a família.

Entretanto, a rápida ascensão da DeepSeek deve ter apressado os planos da revelação do modelo de IA da big tech. Lembrando que o sucesso da startup chinesa tem mexido tanto com as empresas do Vale do Silício quanto com as companhias asiáticas.

A estreia do modelo R1 da DeepSeek, no último dia 20 de janeiro, afetou diretamente as ações da Nvidia. A IA que usa menos dados e tem menor custo também colocou em xeque os investimentos bilionários feitos pelas empresas norte-americanas OpenAI e Microsoft.

Entre os concorrentes domésticos, a chinesa ByteDance, dona do TikTok, anunciou uma atualização do seu principal modelo de IA no dia 22 de janeiro. Testes de benchmark indicam que a IA tem um desempenho superior ao o1 da OpenAI ao atender e responder a instruções complexas.

DeepSeek deseja atingir a Inteligência Artificial Geral (ilustração: Vitor Pádua/Tecnoblog)

Em busca da Inteligência Artificial Geral

Em entrevista ao portal chinês Waves em julho de 2024, o fundador da DeepSeek Lian Wenfeng disse que o objetivo da startup é atingir a Inteligência Artificial Geral (AGI). Isso significa um modelo de sistema autônomo que supera os humanos na maioria das tarefas “economicamente valiosas”.

Além disso, Wenfeng pontuou que as big tech chinesas não têm potencial para se adequar ao futuro da indústria de IA devido aos altos custos e o formato de liderança vertical. Vale dizer que a startup tem uma operação enxuta, composta por jovens graduados e doutorandos das principais universidades chinesas.

“Grandes modelos fundamentais exigem inovação contínua, as capacidades dos gigantes da tecnologia têm seus limites”, declarou Wenfeng ao Waves.

Com informações da Reuters.
Nova IA da Alibaba promete superar DeepSeek e ChatGPT

Nova IA da Alibaba promete superar DeepSeek e ChatGPT
Fonte: Tecnoblog

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek promete abalar mercado de IA novamente com novo LLM para geração de imagens (foto: Giovanni Santa Rosa/Tecnoblog)

A DeepSeek lançou nesta semana o Janus-Pro-7B, seu modelo de IA generativa de imagens. Segundo a empresa, com dados de benchmarkings, o desempenho da sua IA para imagens supera concorrentes como Dall-E 3 da OpenAI e Stable Diffusion da Stable AI. O Janus-Pro-7B é uma atualização do Janus, lançado pela DeepSeek no passado — e mostrando um grande salto de desempenho.

O modelo de imagem generativa da DeepSeek pode ser baixado no Hugging Face, uma espécie de GitHub para projetos de inteligência artificial e machine learning. É necessário ter um certo conhecimento de programação para rodar o Janus-Pro-7B, visto que ele não é disponibilizado em uma interface fácil de ser usada como DeepSeek, ChatGPT e Copilot.

DeepSeek mostrou comparitivo entre primeira versão do Janus e Janus-Pro-7B (imagem: divulgação)

Além de gerar imagens, o Janus-Pro-7B é capaz de analisar arquivos visuais. Essa funcionalidade é similar ao que faz o Gemini Live e o Google Lens, permitindo que você traduza um texto ou compreenda aquele placa com uma fonte de péssima legibilidade.

Como o Janus-Pro-7B foi treinado?

Segundo a Reuters, que teve acesso à parte da documentação técnica do Janus-Pro-7B, parte do treinamento do modelo usou 72 milhões de imagens sintéticas de alta qualidade. A equipe da DeepSeek então combinou a análise dessas fotos geradas por IA com dados reais.

A empresa destaca que esse método permite a criação de imagens mais realistas e mais ricas em detalhes.

O que é a DeepSeek?

A DeepSeek é uma empresa de inteligência artificial chinesa que está abalando o mercado dessa tecnologia. A empresa afirma que desenvolveu a sua IA generativa gastando menos de US$ 6 milhões (R$ 36 milhões). Esse valor é muito inferior aos US$ 100 milhões (R$ 600 milhões) captados pela OpenAI para desenvolver o LLM GPT-4.

LLM R1 da DeepSeek balançou as estruturas do mercado de IA e derrubou ações de empresas americanas (foto: Giovanni Santa Rosa/Tecnoblog)

O LLM usado pela DeepSeek é o R1, que teve seu código aberto. A empresa chinesa diz que o desempenho do modelo está no mesmo nível dos LLM da OpenAI e Anthropic (criadora do Claude). Porém, assim como as IAs continuam engatinhando (apesar dos avanços nos últimos anos), os sistemas de benchmarking não são padronizados, o que afeta a confiabilidade de testes — não é como pegar uma GPU e rodar o 3DMark.

Esses relatos de menor custo na fabricação fez cair as ações de diversas empresas americanas, principalmente da Nvidia. A fabricante é a maior fornecedora de placas aceleradoras para o desenvolvimento de IAs, o que a tornou uma das empresas mais valiosas do ramo.

Com a possibilidade de gerar LLMs mais baratos levantada pela DeepSeek, o mercado entendeu que a Nvidia pode não ter todo esse poderio no ramo de placas para IAs.

Com informações de Live Science e Reuters
DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA
Fonte: Tecnoblog

DeepSeek é alvo de ataque cibernético em larga escala

DeepSeek é alvo de ataque cibernético em larga escala

DeepSeek promete rivalizar com ChatGPT e Gemini (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A DeepSeek relatou um ataque cibernético em larga escala nesta segunda-feira (27/01), logo após alcançar o primeiro lugar entre os apps mais baixados da App Store nos EUA.
Em consequência do ataque, a empresa suspendeu temporariamente o cadastro de novos usuários, mas retomou as inscrições nesta terça-feira (28/01), exibindo uma mensagem de congestionamento no registro.
A startup chinesa revelou que o DeepSeek recebeu um investimento de US$ 6 milhões e usou 2 mil chips H800 da Nvidia para treinar seu modelo de “raciocínio” R1.
A notícia provocou uma queda de 17% nas ações da Nvidia, resultando em uma perda de cerca de US$ 600 bilhões em valor de mercado.

A startup chinesa DeepSeek relatou ter sofrido um ataque cibernético de larga escala nesta segunda-feira (27/01). Pouco antes, no mesmo dia, o aplicativo de inteligência artificial da companhia atingiu o primeiro lugar entre os apps mais baixados da App Store nos Estados Unidos, provocando impactos no mercado financeiro.

A ação levou a empresa a suspender temporariamente o cadastro de novos usuários nessa segunda — quem já tinha um login e senha, por outro lado, podia entrar e usar o chatbot normalmente. Nesta terça-feira (28/01), a DeepSeek mostra um aviso em sua homepage, dizendo que o registro pode estar congestionado e que, em caso de erro ou indisponibilidade, os interessados devem aguardar e tentar novamente.

Cadastro foi liberado, mas DeepSeek avisa que pode haver erros (imagem: Giovanni Santa Rosa/Tecnoblog)

Por enquanto, não há mais informações sobre o ataque, como quem estaria por trás da ação ou quais os métodos utilizados.

O que é o DeepSeek?

O DeepSeek é um assistente virtual com inteligência artificial, criado pela startup chinesa de mesmo nome. Ele funciona de modo similar ao ChatGPT, ao Gemini e a outros softwares do tipo, entendendo pedidos dos usuários em linguagem natural, sem que eles precisem seguir uma estrutura pré-definida.

A IA se popularizou na última semana, após o lançamento do aplicativo para Android e iOS e do modelo de “raciocínio” R1, que promete ter uma capacidade maior para lidar com questões complexas, testando diferentes abordagens para chegar a uma solução.

DeepSeek lembra outros chatbots com IA (foto: Giovanni Santa Rosa/Tecnoblog)

O DeepSeek é totalmente gratuito, enquanto OpenAI e Google cobram pelo acesso a modelos de IA mais avançados. Por outro lado, o assistente da startup chinesa não conta com alguns recursos já presentes nos concorrentes, como uma memória para armazenar informações sobre o usuário e suas preferências, que poderia ser consultada para dar respostas mais adequadas.

Por que o DeepSeek gerou tanto impacto?

A startup DeepSeek afirma que gastou cerca de US$ 6 milhões e usou 2 mil chips H800, da Nvidia, para treinar o modelo R1. Caso estes números sejam verdadeiros, isso representa um custo muito mais baixo e um uso de hardware muito menor que os de empresas como OpenAI, Google, Meta e Anthropic.

Para o mercado, isso leva à possibilidade de que menos chips dedicados à IA sejam vendidos nos próximos anos — afinal, pode existir uma forma mais eficiente de desenvolver a tecnologia, sem depender de tanto poder de processamento. Essa é uma má notícia para o setor de semicondutores.

A empresa mais afetada foi a Nvidia, com queda de 17% no preço das ações na segunda-feira (27/01), apagando cerca de US$ 600 bilhões de seu valor de mercado. A companhia teve uma recuperação parcial de cerca de 7% nesta terça-feira (28/01), mas ainda está valendo 7,7% menos que no começo do ano.

Com informações da Associated Press, Android Authority e CNBC
DeepSeek é alvo de ataque cibernético em larga escala

DeepSeek é alvo de ataque cibernético em larga escala
Fonte: Tecnoblog