Category: Nvidia

AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA

AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA

Parceria garante à OpenAI o poder computacional para seus futuros modelos de IA (Imagem: Vitor Pádua/Tecnoblog)

Resumo

A AMD anunciou nesta segunda-feira (06/10) uma parceria estratégica com a OpenAI, posicionando a empresa como grande fornecedora de unidades de processamento gráfico (GPUs) para a dona do ChatGPT e intensificando a concorrência com a Nvidia, atual líder do setor.

O acordo, que se estenderá por vários anos e gerações de produtos, estabelece a entrega de 6 gigawatts em GPUs, começando pela implantação de 1 gigawatt de chips da série AMD Instinct MI450. A meta é fornecer a capacidade computacional necessária para o desenvolvimento e operação de modelos de IA cada vez mais complexos, que também alimentam outras aplicações de IA generativa.

AMD será mais que um fornecedor

A AMD também concedeu à OpenAI o direito de adquirir até 160 milhões de ações ordinárias, volume que representa cerca de 10% de participação na empresa. A aquisição, no entanto, está condicionada ao cumprimento de alguns requisitos. Entre eles, a gigante da IA deve atingir os marcos técnicos e comerciais necessários para implantar os chips da AMD em larga escala.

Segundo Jean Hu, vice-presidente executiva e diretora financeira da AMD, “este acordo cria um alinhamento estratégico significativo e valor para os acionistas de ambas as empresas”. Lisa Su, presidente e CEO da AMD, destacou a natureza colaborativa do acordo.

Lisa Su, CEO da AMD, com um chip Ryzen 7000 (imagem: divulgação/AMD)

“Esta parceria reúne o melhor da AMD e da OpenAI para criar uma situação vantajosa para todos, possibilitando o avanço de todo o ecossistema de IA”, afirmou a executiva. A colaboração técnica entre as empresas também será aprofundada para otimizar hardware e software de futuras gerações de produtos.

Em comunicado, a AMD projetou que a parceria deve gerar “dezenas de bilhões de dólares em receita”, notícia que foi bem recebida pelo mercado financeiro, com as ações da companhia registrando alta de 24% nas negociações pré-mercado.

Parceria pode movimentar o mercado

Com o acordo, a OpenAI diversifica suas apostas (ilustração: Vitor Pádua/Tecnoblog)

O anúncio ocorre em um momento em que a demanda por poder computacional tem superado a oferta no setor de IA. A parceria com a AMD oferece à OpenAI uma estratégia de diversificação de fornecedores, reduzindo sua dependência da Nvidia, que domina o fornecimento de hardware para data centers de IA.

Curiosamente, a companhia controlada por Sam Altman também anunciou no mês passado uma “parceria estratégica” com a Nvidia para a implantação de pelo menos 10 gigawatts em GPUs. No entanto, o acordo ainda não foi finalizado. Essa diversificação só foi possibilitada por um ajuste no acordo de exclusividade que a OpenAI mantinha com a Microsoft, modificado para permitir que a empresa de IA também buscasse acordos com outros fornecedores.

Com informações da AMD e The Verge
AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA

AMD e OpenAI firmam parceria que desafia domínio da Nvidia em IA
Fonte: Tecnoblog

Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI

Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI

Nvidia vai investir US$ 100 bilhões na OpenAI (imagem: reprodução/Nvidia)

Resumo

Nvidia investirá até US$ 100 bilhões na OpenAI para apoiar avanço da inteligência artificial, incluindo a construção de infraestrutura com 10 gigawatts de energia;

Parceria permitirá que OpenAI utilize chips da Nvidia para expandir sua tecnologia de IA, enquanto Nvidia ganha participação em uma das líderes do setor;

Acordo segue o recente anúncio de uma parceria entre Nvidia e Intel, com foco em chips para datacenters e PCs.

Por mais que os consumidores vejam a Nvidia como uma empresa que desenvolve placas de vídeo para jogos, o principal negócio da companhia atualmente é a inteligência artificial. Prova disso é que a Nvidia revelou um plano para investir até US$ 100 bilhões na OpenAI, o nome por trás do ChatGPT.

O acordo prevê a implantação de uma gigantesca infraestrutura de pelo menos 10 gigawatts (suficiente para fornecer energia para cerca de 8 milhões de residências nos Estados Unidos) para treinar e executar a próxima geração de modelos de IA da OpenAI.

Os detalhes dessa parceria ainda estão sendo elaborados, mas já se sabe que as soluções correspondentes ao primeiro gigawatt, que consistem principalmente em datacenters e fornecimento de energia, deverão ser implantados no segundo semestre de 2026.

Isso deixa claro que esta é uma parceria de longo prazo. De fato, no anúncio oficial, Nvidia e OpenAI informam que o investimento de até US$ 100 bilhões (R$ 534 bilhões na conversão direta) será feito de modo progressivo.

A intenção, um tanto óbvia, é a de que essa seja uma relação “ganha-ganha”. De um lado, a parceria permitirá à OpenAI ter acesso a uma infraestrutura de ponta, que inclui os chips avançados da Nvidia para processamento de tarefas de IA, para desenvolver a sua tecnologia. No outro, a Nvidia terá uma participação em uma das companhias que lideram o setor.

Os CEOs das duas companhias comentaram o acordo:

A Nvidia e a OpenAI têm se impulsionado mutuamente há uma década, desde o primeiro supercomputador DGX até o avanço do ChatGPT. Este investimento e a parceria em infraestrutura marcam o próximo salto — implementando 10 gigawatts para impulsionar a próxima era da inteligência.

Jensen Huang, CEO da Nvidia

Jensen Huang, CEO da Nvidia (imagem: divulgação/Nvidia)

Tudo começa com a computação. A infraestrutura computacional será a base da economia do futuro, e utilizaremos o que estamos construindo com a Nvidia para trazer mais avanços em IA e capacitar pessoas e empresas com eles de modo escalonado.

Sam Altman, CEO da OpenAI

Sam Altman, CEO da OpenAI (imagem: reprodução/OpenAI)

Acordo chega após parceria da Nvidia com a Intel

O acordo com a OpenAI foi revelado menos de uma semana depois de a Nvidia anunciar uma parceria com a Intel. Nela, a Nvidia investirá US$ 5 bilhões na Intel na forma de compra de ações desta última.

Nvidia e Intel trabalharão em conjunto no desenvolvimento de soluções com arquitetura x86 direcionadas a datacenters, bem como na criação de chips para PCs que reúnem CPUs x86 e GPUs RTX.
Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI

Depois de investir na Intel, Nvidia vai injetar US$ 100 bilhões na OpenAI
Fonte: Tecnoblog

Intel promete manter GPUs Arc após parceria com Nvidia

Intel promete manter GPUs Arc após parceria com Nvidia

Placa de vídeo Arc B580 (imagem: divulgação/Intel)

Resumo

Intel afirma que acordo com a Nvidia não altera seu roadmap de produtos;

Parceria entre Nvidia e Intel envolve investimento de US$ 5 bilhões e prevê lançamento de chips x86 com GPU RTX;

Futuro da linha Arc permanece incerto no longo prazo, porém.

O surpreendente acordo da Nvidia com a Intel anunciado na quinta-feira (18/09) vai resultar no lançamento de processadores x86 que contam com GPUs integradas da série RTX. Depois do anúncio, ficou a dúvida: será que a parceria fará a Intel desistir das GPUs Arc? A companhia deu a entender que não.

A dúvida é pertinente porque, desde 2021, quando a Intel introduziu as GPUs Arc, elas nunca tiveram grande destaque em termos de desempenho. Não por acaso, as placas de vídeo dedicadas da família Arc têm participação quase inexpressiva no mercado, que continua dominado pelas GPUs Nvidia GeForce e AMD Radeon.

Como a Intel enfrenta uma crise, não seria espantoso se a companhia desistisse das GPUs Arc para reduzir custos ou priorizar produtos mais rentáveis. Com o recém-anunciado acordo com a Nvidia, essa possibilidade ganhou força.

Mas não parece ser o caso. Ao site PCWorld, um representante da Intel declarou o seguinte:

Não estamos discutindo roadmaps específicos neste momento, mas a colaboração [com a Nvidia] é complementar ao roadmap da Intel, e a companhia continuará a oferecer produtos de GPU.

O que a declaração informa é que a Intel tinha uma programação de lançamentos definida antes da parceria com a Nvidia, que pretende mantê-la, e que o que vier com base no acordo será complementar.

No entanto, a declaração não deixa claro o que acontecerá com as GPUs Arc no longo prazo, isto é, após a programação definida atualmente ser cumprida.

Uma hipótese é a de que a Intel continue desenvolvendo a sua tecnologia própria de GPUs, mas para atender a segmentos do mercado focados em custo-benefício, deixando as opções com GPU Nvidia RTX para aplicações que demandam mais desempenho. Mas, de novo, essa é só uma hipótese.

Como é a parceria da Nvidia com a Intel?

Nvidia anuncia acordo com a Intel (imagem: divulgação/Nvidia)

A Nvidia irá investir US$ 5 bilhões na Intel. Esse investimento será feito por meio da aquisição de ações ordinárias desta última.

O acordo determina que Nvidia e Intel trabalhem juntas no desenvolvimento de soluções com arquitetura x86 direcionadas a datacenters, bem como na criação de chips para PCs que reúnem CPUs x86 e GPUs RTX.
Intel promete manter GPUs Arc após parceria com Nvidia

Intel promete manter GPUs Arc após parceria com Nvidia
Fonte: Tecnoblog

Nvidia vai investir US$ 5 bilhões na Intel para criar chips x86 com GPU RTX

Nvidia vai investir US$ 5 bilhões na Intel para criar chips x86 com GPU RTX

Nvidia anuncia acordo com a Intel (imagem: divulgação/Nvidia)

Resumo

Nvidia vai investir US$ 5 bilhões na Intel para desenvolver chips x86 com GPU RTX;

Parceria prevê desenvolvimento de soluções para datacenters e PCs;

Jensen Huang (CEO da Nvidia) e Lip-Bu Tan (CEO da Intel) destacam impacto histórico da colaboração.

Já imaginou se deparar com um chip que combina CPU Intel com GPU Nvidia? Essa possibilidade é factível: a Nvidia acaba de anunciar um investimento de US$ 5 bilhões (R$ 26,4 bilhões, na conversão direta) na Intel justamente para que as duas companhias possam desenvolver chips em conjunto.

Do ponto de vista técnico, a base dessa parceria será a tecnologia Nvidia NVLink, que permite que GPUs se comuniquem rapidamente entre si, e possibilita também que essa comunicação ocorra entre GPUs e CPUs.

Em seu comunicado, a Nvidia explica que a parceria com a Intel será direcionada a soluções para datacenters, bem como para produtos de computação pessoal, isto é, para PCs.

Para datacenters, o acordo prevê que a Intel produza CPUs com arquitetura x86 sob medida para a Nvidia que, por sua vez, integrará essas unidades às suas plataformas de infraestrutura direcionadas à inteligência artificial.

Já no segmento de PCs, a parceria permitirá o desenvolvimento de SoCs que reúnem núcleos de CPU de arquitetura x86 com chiplets de GPUs RTX. Explicando de maneira mais clara: em breve, veremos processadores x86 com gráficos Nvidia RTX integrados serem lançados.

CEO da Nvidia fala em “colaboração histórica”

O acordo é interessante para a Nvidia, pois dá abertura para que a companhia incorpore mais uma arquitetura (x86) ao seu rol de soluções tecnológicas. É o que a declaração do CEO da companhia dá a entender:

Esta histórica colaboração une firmemente a IA e a pilha de computação acelerada da Nvidia com as CPUs da Intel e o vasto ecossistema x86 — uma fusão de duas plataformas de alcance mundial. Juntos, expandiremos nossos ecossistemas e lançaremos as bases para a próxima era da computação.

Jensen Huang, CEO da Nvidia

Jensen Huang, CEO da Nvidia (foto: Thássius Veloso/Tecnoblog)

O líder da Intel também comentou a parceria:

A arquitetura x86 da Intel tem sido fundamental para a computação moderna por décadas — e estamos inovando em todo o nosso portfólio para habilitar as cargas de trabalho do futuro.

Lip-Bu Tan, CEO da Intel

Tan não comentou nada a respeito, mas é impossível não imaginar que o acordo, se devidamente aprovado pelos órgãos reguladores, ajudará a Intel a sair da grave crise que a companhia enfrenta pelo menos desde o ano passado.

A Nvidia fará o investimento de US$ 5 bilhões por meio da compra de ações ordinárias da Intel ao custo de US$ 23,28 por papel.
Nvidia vai investir US$ 5 bilhões na Intel para criar chips x86 com GPU RTX

Nvidia vai investir US$ 5 bilhões na Intel para criar chips x86 com GPU RTX
Fonte: Tecnoblog

O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia

O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia

Saiba o que é e como funcona a tecnologia de upscaling Nvidia DLSS (imagem: Reprodução/Nvidia)

O Nvidia DLSS é uma tecnologia de upscaling de imagem baseada em inteligência artificial que aumenta o desempenho em jogos. Ele usa os núcleos Tensor Core, exclusivos das placas de vídeo GeForce RTX, para melhorar a taxa de quadros por segundo (FPS) sem sacrificar a qualidade.

Ela funciona renderizando o jogo em uma resolução menor e, em seguida, usa um modelo de IA para reconstruir a imagem para uma resolução mais alta. O resultado é uma imagem nítida e detalhada com desempenho significativamente melhor, proporcionando uma experiência de jogo mais fluida.

Além disso, o DLSS oferece recursos como o Frame Generation, que cria quadros adicionais para até quadruplicar a taxa de quadros em jogos selecionados. Outra ferramenta é o Ray Reconstruction, que aprimora o Ray Tracing em títulos com a tecnologia.

A seguir, entenda melhor o que o Nvidia DLSS, suas principais características, suas vantagens e desvantagens.

ÍndiceO que é DLSS?O que significa DLSS?Para que serve o DLSS da Nvidia?Como funciona o DLSS?Quais são as características do DLSS da Nvidia?É possível saber quais jogos são compatíveis com o DLSS?Quais são as vantagens do Nvidia DLSS?Quais são as desvantagens do Nvidia DLSS?Qual é a diferença entre Nvidia DLSS e AMD FidelityFX?Qual é a diferença entre Nvidia DLSS e Intel XeSS?Dá para saber se meu PC tem o Nvidia DLSS?Tem como ativar o DLSS na minha placa de vídeo?

O que é DLSS?

DLSS é uma tecnologia de upscaling de imagem da Nvidia que usa inteligência artificial para aumentar o desempenho gráfico em jogos. Ela usa algoritmos de Machine Learning para gerar imagens de alta resolução a partir de resoluções mais baixas, elevando a taxa de quadros por segundo (FPS) sem comprometer a qualidade visual.

O que significa DLSS?

DLSS é a sigla para Deep Learning Super Sampling, ou “Superamostragem de aprendizado profundo” em português. Ele se refere a tecnologia que usa modelo de IA para analisar as imagens em baixa resolução e reconstruí-las em alta definição.

Desempenho do jogo Red Dead Redemption 2 com e sem DLSS (imagem: Divulgação/Nvidia)

Para que serve o DLSS da Nvidia?

O DLSS da Nvidia serve para melhorar o desempenho gráfico dos jogos ao rodá-los com resoluções mais altas. Em essência, a tecnologia de upscaling atua como uma ferramenta para otimizar a performance e garantir a melhor experiência visual e de jogabilidade possível.

Ele usa IA para renderizar quadros em uma resolução menor e, em seguida, os escala para a resolução nativa do monitor usando redes neurais. O resultado é um aumento na taxa de FPS, proporcionando gráficos de alta qualidade com mais fluidez, sem a necessidade de uma placa de vídeo mais potente.

Como funciona o DLSS?

O DLSS usa IA e Machine Learning para melhorar o desempenho e a qualidade visual em jogos. Ele permite que a placa de vídeo (GPU) renderize os quadros do jogo em uma resolução mais baixa, enquanto a rede neural reconstrói a imagem final para uma resolução mais alta.

Para isso, a Nvidia treina a IA do DLSS com uma vasta biblioteca de imagens e vídeos de jogos em altíssima qualidade. O algoritmo aprende a mapear e replicar os detalhes de uma cena, reconstruindo os quadros de baixa resolução para que se assemelhem a imagens de alta resolução, com uma ampla fidelidade visual.

O DLSS também usa técnicas como anti-aliasing para suavizar as bordas irregulares e remover o desfoque, garantindo uma imagem sem serrilhado. Outro destaque é o recurso Frame Generation, que cria quadros adicionais para aumentar a taxa de FPS e oferecer uma experiência mais fluida.

Detalhes do jogo Deliver Us The Moon sem e com o DLSS ativado (imagem: Reprodução/Nvidia)

Quais são as características do DLSS da Nvidia?

O DLSS é uma tecnologia de upscaling da Nvidia que possui algumas características para a melhoria do desempenho e qualidade visual dos jogos. Por exemplo:

Super Resolução por IA: usa modelos de IA treinados em milhões de imagens de alta resolução para reconstruir frames de baixa resolução, resultando em imagens nítidas com mais detalhes;

DLAA (Deep Learning Anti-Aliasing): utiliza a mesma tecnologia de IA do DLSS para aplicar um anti-aliasing de alta qualidade, aprimorando a nitidez sem aumentar o desempenho;

Aumento de desempenho: renderiza jogos em uma resolução interna menor e depois os amplia, aumentando a taxa de quadros por segundo (FPS) sem perder a qualidade visual;

Análise de movimento: analisa dados de movimento e frames anteriores para criar imagens de alta qualidade e com estabilidade, reduzindo artefatos como o “ghosting”;

Aceleração de hardware: usa os Tensor Cores, núcleos exclusivos das placas de vídeo GeForce RTX da Nvidia, para processar os cálculos da IA com alta eficiência;

Aprimoramento de Ray Tracing: permite que jogos com Ray Tracing ativado rodem de forma mais fluída, entregando reflexos, sombras e iluminação mais realistas com alto desempenho;

Ampla compatibilidade: é suportado por uma grande variedade de jogos e resoluções, de 1080p a 8K, além de ser facilmente integrado a diversas engines de jogos.

É possível saber quais jogos são compatíveis com o DLSS?

Sim, a Nvidia mantém uma lista completa e atualizada de jogos que suportam a tecnologia DLSS em seu site oficial. Por lá, é possível verificar todos os títulos compatíveis com as placas de vídeo GeForce RTX.

Outra maneira confiável de verificar a compatibilidade é acessando a página oficial do jogo em plataformas como Steam, Epic Games Store ou o site da desenvolvedora. As especificações técnicas geralmente indicam se o DLSS é um recurso suportado pelo título.

Uma das principais caracteristicas do DLSS é o amplo aumento de FPS (imagem: Reprodução/Nvidia)

Quais são as vantagens do Nvidia DLSS?

Estes são os pontos fortes do Nvidia DLSS:

Qualidade de imagem aprimorada: usa IA para reconstruir e aprimorar imagens, tornando-as mais nítidas e detalhadas do que a renderização nativa em certas situações;

FPS mais altos: aumenta o número de quadros por segundo (FPS), o que garante uma experiência de jogo mais fluida e responsiva, especialmente em monitores de alta taxa de atualização;

Compatibilidade com monitores de alta resolução: é ideal para jogar em monitores 4K onde a demanda por processamento é alta. O DLSS permite jogar nessa resolução com um desempenho que, de outra forma, seria impossível;

Melhor desempenho com Ray Tracing: permite usar o Ray Tracing em sua máxima qualidade, proporcionando iluminação e reflexos ultrarrealistas sem sacrificar o desempenho;

Desempenho otimizado em jogos: reduz a carga sobre a GPU ao renderizar imagens em uma resolução menor e depois escalá-las, o que libera recursos para rodar jogos com as configurações gráficas no máximo;

Maior vida útil do hardware: ajuda a placa de vídeo a manter um bom desempenho em títulos futuros, adiando a necessidade de um upgrade e prolongando a vida útil do componente.

Quais são as desvantagens do Nvidia DLSS?

Estes são os pontos fracos do Nvidia DLSS:

Artefatos visuais: ocasionalmente pode gerar anomalias como desfoque em objetos em movimento e o efeito “ghosting”, onde rastros da imagem anterior permanecem na tela;

Problemas em superfícies finas: pode ter dificuldade em reconstruir imagens com detalhes muitos finos ou geometria complexa, como grades, o que pode resultar em cintilação ou tremulação;

Impacto no input lag: a funcionalidade Frame Generation pode aumentar a latência (input lag) entre o comando do jogador e a ação na tela, um problema crítico em jogos competitivos;

Compatibilidade restrita: a tecnologia é exclusiva das placas de vídeo Nvidia GeForce RTX e sua implementação depende do suporte específico de cada jogo;

Qualidade inconsistente: o resultado da tecnologia varia muito conforme o jogo, a versão do DLSS usada e o motor gráfico, podendo apresentar resultados insatisfatórios em alguns títulos.

O DLSS aprimora a qualidade da imagem, mas é um recurso exclusivo das GPUs GeForce RTX da Nvidia (imagem: Reprodução/Nvidia)

Qual é a diferença entre Nvidia DLSS e AMD FidelityFX?

O DLSS é uma tecnologia de upscaling exclusiva da Nvidia, que usa IA para reconstruir quadros de jogos em resoluções mais altas. Ela usa os núcleos Tensor Core das placas de vídeo GeForece RTX para executar algoritmos de Machine Learning, aprimorando a imagem para melhor desempenho e estabilidade visual.

Já o AMD FidelityFX é um conjunto de tecnologias de código aberto, que aumenta a resolução dos jogos usando um algoritmo de upscaling. Ao contrário do DLSS, ele não exige um hardware dedicado e é compatível com vários modelos de GPUs da AMD, Intel e da própria Nvidia.

Qual é a diferença entre Nvidia DLSS e Intel XeSS?

O DLSS é uma tecnologia proprietária da Nvidia para aumentar a resolução de imagens de jogos. Ele usa a IA dos núcleos Tensor Cores, presente nas GPUs GeForce RTX, para renderizar o jogo em uma resolução mais baixa e, depois, aumentar a qualidade e o desempenho sem sacrificar a imagem.

O XeSS (Xe Super Sampling) é a tecnologia de upscaling da Intel. Similar ao DLSS, ele usa a IA dos núcleos Intel XMX nas GPUs Intel Arc para melhorar a qualidade da imagem em jogos, mas o desempenho pode variar conforme a potência do hardware.

Dá para saber se meu PC tem o Nvidia DLSS?

Sim, o DLSS está presente apenas em PCs com placas de vídeo da linha GeForce RTX da Nvidia. Essa tecnologia é exclusiva dessas GPUs, que contam com Tensor Cores, núcleos dedicados a tarefas de IA que aceleram o processamento do DLSS.

Portanto, é fundamental verificar se a placa de vídeo é da série RTX para ter acesso ao DLSS. Ter essa informação pode fazer toda a diferença na hora de escolher uma placa de vídeo, caso a pessoa esteja montando um PC especialmente para jogos e queira usufruir da tecnologia.

Tem como ativar o DLSS na minha placa de vídeo?

Não tem como ativar o DLSS automaticamente em todos os jogos, pois a tecnologia precisa ser implementada pelos desenvolvedores. É necessário acessar às configurações de vídeo do jogo compatível e procurar a opção DLSS para ativar a tecnologia.

Uma vez ativado, o jogador pode escolher entre as configurações predefinidas: “Desempenho”, que prioriza a taxa de quadros, ou “Qualidade”, que busca a melhor fidelidade de imagem. Há também um modo “Equilibrado” que busca o meio-termo entre os recursos.
O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia

O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia
Fonte: Tecnoblog

Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070

Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070

Novo chip deve vir de parceria entre Nvidia e MediaTek (imagem: divulgação/Nvidia)

Resumo

O chip N1X da Nvidia pode contar com 20 núcleos de CPU e GPU similar à RTX 5070, segundo teste no Geekbench 6.4.
A GPU aparece com 48 unidades computacionais e 6.144 núcleos CUDA, segundo o relatório.
O lançamento é esperado para o início de 2026, possivelmente em parceria com a MediaTek.

É pouco provável que a Nvidia anuncie a sua CPU para PCs ainda em 2025. Apesar disso, o assunto vem ganhando força. Os burburinhos mais recentes envolvem o vazamento das especificações do N1X, suposto codinome da novidade. Os dados sugerem que o chip terá gráficos integrados equivalentes à GPU GeForce RTX 5070.

O vazamento em questão vem de um teste de benchmark feito no Geekbench 6.4 a partir de um computador com Windows 11 Enterprise. O primeiro detalhe que chama a atenção no resultado do teste é o que indica que o chip terá 20 núcleos de CPU.

São dois clusters de dez núcleos trabalhando à frequência padrão de 4 GHz, para ser preciso, todos construídos com base na arquitetura Grace, da própria Nvidia.

Mas o detalhe que mais chama a atenção aparece na sequência: o relatório do Geekbench indica que o chip conta com uma GPU com 48 unidades computacionais, o que equivale a 6.144 núcleos CUDA. Esse é exatamente o número de núcleos CUDA existente na GeForce RTX 5070.

Como bem observa o Tom’s Hardware, as especificações do N1X também são parecidas com as do GB10, chip que comanda o supercomputador de IA Nvidia Project Digits.

O N1X poderá corresponder a uma versão adaptada do GB10, portanto. Isso reforça a possibilidade de o novo chip ser fruto de uma parceria entre a Nvidia e MediaTek, afinal, o GB10 é resultado de um acordo entre as duas companhias.

A pontuação no Geekbench (46.361 no OpenCL) não foi das mais elevadas, porém. O Tom’s Hardware sinaliza que o resultado é equivalente ao de uma GPU RTX 2050. Mas, como estamos falando de uma unidade que provavelmente é um protótipo, esse número não deve ser levado muito a sério.

Resultado do Nvidia N1X no Geekbench (imagem: reprodução)

Quando o chip N1X será lançado?

A expectativa é de que o anúncio oficial ocorresse ainda em 2025. Mas há rumores de que a Nvidia enfrenta alguns problemas, portanto, o chip N1X só deve ser lançado no começo de 2026. Espera-se também que Nvidia e MediaTek anunciem um modelo um pouco mais simples, de codinome N1.
Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070

Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070
Fonte: Tecnoblog

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA

Projeto utiliza tecnologias da Nvidia, Intel e AMD (imagem: reprodução/Sistema de Computação Petaflópica do SINAPAD)

O supercomputador brasileiro Santos Dumont, operado pelo Laboratório Nacional de Computação Científica (LNCC) no Rio de Janeiro, recebeu uma grande atualização na sua capacidade de processamento. A máquina agora atinge 18,85 petaflops (quadrilhões de operações por segundo), um aumento de aproximadamente 575% em relação à especificação original de 2015.

A expansão é o primeiro grande investimento realizado dentro do recém-lançado Plano Brasileiro de Inteligência Artificial (PBIA). O projeto de atualização foi desenvolvido e integrado pela Eviden (empresa do Grupo Atos), utilizando uma combinação de tecnologias da Nvidia, Intel e AMD, para ampliar a capacidade de uso em aplicações de IA.

Hardware para pesquisa em IA

Segundo o presidente do laboratório, Fábio Borges, além de ampliar a capacidade de processamento, a nova atualização tem como objetivo permitir “maior robustez nos cálculos destinados à pesquisa, especialmente com o uso de inteligência artificial”.

Para isso, o Santos Dumont foi dividido em cinco partições diferentes. Os blades (“gavetas” de servidores), contêm vários nós (computadores individuais trabalhando em conjunto), cada qual com uma configuração específica de hardware.

Todas as partições são baseadas na arquitetura BullSequena XH3000 da Eviden, sendo interconectadas por uma malha Nvidia Infiniband NDR de 400 Gb/s. Os principais componentes incluem:

Partição 1: 62 blades equipados com processadores Intel Xeon Scalable de 4ª geração e 4 GPUs Nvidia H100 por blade.

Partição 2: 20 blades totalizando 60 nós, cada um com 2 processadores AMD EPYC 9684X.

Partição 3: 36 blades equipados com 4 Superchips Nvidia Grace Hopper por blade.

Partição 4: 6 blades totalizando 18 nós, cada um com 2 APUs AMD Instinct MI300A.

Nós adicionais: 4 nós equipados com a CPU Nvidia Grace Superchip.

Foco em eficiência energética

Sistema de resfriamento foi atualizado para melhorar eficiência energética (imagem: reprodução/LNCC)

Para além do ganho de performance, a maior parte dos novos nós de processamento está instalada em uma configuração que visa eficiência energética: os seis racks ocupam mais de 7 m² e utilizam um sistema de resfriamento por líquido, que capta mais de 98% do calor gerado, segundo a Eviden.

A tecnologia usa água em temperatura ambiente (entre 26 ºC e 30ºC na entrada) para capturar o calor gerado por todos os componentes, incluindo processadores, GPUs, fontes e dispositivos de rede. De acordo com a empresa, o sistema é mais eficiente que a versão de 2015 do supercomputador, que dissipava cerca de 80% do calor por meio da água.

Plano Nacional para IA

O Plano Brasileiro de Inteligência Artificial (PBIA) prevê um investimento de R$ 23 bilhões ao longo de quatro anos, visando garantir a soberania tecnológica do país quando se trata de inovação e uso de IA através da exploração da máquina.

O supercomputador — que chegou a ser desligado por falta de dinheiro para conta de luz quase uma década atrás — pode ser solicitado para uso por qualquer pesquisador ou instituição do país. A máquina ganhou ainda mais atenção durante a pandemia, quando fez parte do projeto que fez o sequenciamento do genoma da covid-19 em 2020.

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA
Fonte: Tecnoblog

Por que a Nvidia pode se tornar a empresa mais valiosa da história?

Por que a Nvidia pode se tornar a empresa mais valiosa da história?

Por que a Nvidia pode se tornar a empresa mais valiosa da história? (imagem ilustrativa: Vitor Pádua/Tecnoblog)

Expressões como “maior do mundo” ou “maior da história” costumam ter algum nível de exagero. Mas não é o caso da Nvidia. Nesta semana, a companhia atingiu, brevemente, um valor de mercado de US$ 3,92 trilhões (R$ 21,25 bilhões). Isso abre caminho para a empresa se tornar a mais valiosa da história.

A Apple defende essa posição atualmente. A companhia de Cupertino fechou o dia 26 de dezembro de 2024 com um valor de mercado recorde de US$ 3,915 trilhões.

Ao atingir o patamar de US$ 3,92 trilhões, a Nvidia ultrapassou a Apple, correto? Só por um breve período. Esse valor de mercado foi registrado na quinta-feira (03/07), mas não foi sustentado durante o dia. A Nvidia acabou encerrando a data valendo US$ 3,89 trilhões, razão pela qual a Apple ainda detém o recorde.

Mas esse não é um balde de água fria. A Nvidia continua em um momento excelente. A companhia lidera a atual lista das companhias mais valiosas, ficando à frente da Microsoft (US$ 3,7 trilhões) e da Apple (US$ 3,19 trilhões).

O que faz a Nvidia valer tanto?

Inteligência artificial, basicamente. Para o público em geral, a Nvidia continua sendo referência em placas de vídeo para jogos, com a série GeForce RTX 50 se destacando na atualidade. Mas, no âmbito corporativo, a companhia se destaca por oferecer chips que viabilizam aplicações de IA.

Não por acaso, a Nvidia fornece chips para IA às gigantes do setor, como Alphabet (Google), Amazon, Meta, Microsoft e OpenAI.

Jensen Huang, CEO da Nvidia (imagem: Flickr/Nvidia)

Como a demanda por tecnologias de IA tende a crescer, parece ser questão de tempo para a Nvidia superar o recorde da Apple registrado em dezembro e, assim, se tornar a companhia que atingiu o maior valor de mercado da história.

Na verdade, a Nvidia já poderia ter superado o recorde da Apple. Os embates comerciais e políticos que o governo dos Estados Unidos tem travado com a China restringem o fornecimento de chips a companhias chinesas, e isso impacta o volume de vendas da Nvidia.

No final de maio, o próprio CEO da Nvidia, Jensen Huang, reconheceu que as restrições de exportação impostas pela administração Trump à China fizeram empresas americanas ficarem de fora de um mercado de US$ 50 bilhões.

Apesar disso, o clima é de “ninguém segura a Nvidia”.

Com informações da Reuters
Por que a Nvidia pode se tornar a empresa mais valiosa da história?

Por que a Nvidia pode se tornar a empresa mais valiosa da história?
Fonte: Tecnoblog

Nvidia e Foxconn querem usar robôs humanoides em nova fábrica

Nvidia e Foxconn querem usar robôs humanoides em nova fábrica

Os testes com robôs humanoides já estão em andamento (imagem: divulgação/Nvidia)

Resumo

Nvidia e Foxconn negociam o uso de robôs humanoides em uma nova fábrica em Houston, nos EUA, para produzir servidores de IA.

Testes com robôs da UBTech e modelos próprios da Foxconn já estão em andamento, mas detalhes ainda não foram revelados.

Segundo a Reuters, os robôs humanoides estão sendo treinados para tarefas de montagem.

A Nvidia e a Foxconn estão em negociações para empregar robôs humanoides na linha de produção de uma nova fábrica em Houston, nos Estados Unidos. A unidade será responsável por montar os servidores de inteligência artificial GB300 da Nvidia, e tem início das operações previsto para o primeiro trimestre de 2026.

De acordo com a Reuters, os testes com robôs já estão em andamento. A Foxconn, que é uma das maiores fabricantes de eletrônicos no mundo, desenvolve suas próprias soluções com apoio da Nvidia e também já experimentou modelos fabricados pela chinesa UBTech. Ainda não se sabe qual modelo será adotado na fábrica americana, nem quantas unidades serão utilizadas no início da operação.

Mas, caso se confirme, esta será a primeira vez que um produto da empresa será fabricado com o apoio direto desse tipo de robô, além de marcar a estreia da Foxconn no uso de humanoides em uma linha de montagem.

Como os robôs devem funcionar?

Embora os detalhes sobre as tarefas exatas ainda não tenham sido revelados, a Foxconn já apresentou exemplos de uso de robôs humanoides em treinamentos realizados anteriormente.

Segundo informações da empresa, divulgadas em maio, esses robôs são treinados para executar funções como pegar e posicionar peças, conectar cabos e realizar etapas de montagem.

A nova instalação da Foxconn em Houston foi considerada ideal para receber esse tipo de automação por ser um espaço mais amplo e moderno da empresa, diferente das outras fábricas.

A expectativa é que os robôs comecem a operar junto com o início da produção dos servidores de IA da Nvidia, que serão construídos nas novas unidades da companhia em parceria com a Wistron, outra fabricante de eletrônicos, em Dallas.

Robôs devem começar a operar no primeiro trimestre de 2026 (imagem: reprodução)

Humanoides ganham espaço nas linhas de montagem

A adoção de robôs com aparência e capacidades humanas é uma aposta na indústria. Em março, Jensen Huang, CEO da Nvidia, afirmou que o uso amplo de robôs humanoides em ambientes industriais pode se tornar realidade em menos de cinco anos. A empresa, além de utilizar essa tecnologia, fornece plataformas de hardware e software que servem de base para o desenvolvimento da tecnologia por outras fabricantes.

Durante um evento recente em Taipei, o executivo Leo Guo, da Foxconn Industrial Internet — divisão do grupo especializada em servidores de IA —, afirmou que a empresa pretende apresentar dois modelos próprios de robôs humanoides ainda este ano. Um deles terá pernas e será mais caro; o outro será baseado em uma plataforma com rodas (do tipo AMR), o que reduziria os custos de produção.

A Foxconn e a Nvidia preferiram não comentar oficialmente sobre o projeto à Reuters, mas a movimentação reforça a tendência de automação avançada no setor de tecnologia. Montadoras como Tesla, BMW e Mercedes-Benz já experimentam humanoides em suas linhas de produção, e o governo da China também tem apostado fortemente nesse tipo de solução.

Caso o projeto em Houston avance conforme o planejado, ele poderá servir como modelo para a implementação desses robôs em outras fábricas ao redor do mundo, e pode alterar o perfil da força de trabalho na indústria.

Com informações da Reuters
Nvidia e Foxconn querem usar robôs humanoides em nova fábrica

Nvidia e Foxconn querem usar robôs humanoides em nova fábrica
Fonte: Tecnoblog

Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox

Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox

Mozilla teve que lançar patch de emergência para conter problemas no navegador (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Mozilla lançou o patch 139.0.1 para corrigir falhas gráficas no Firefox, com aparição de glitches.
O erro afetou especificamente usuários com placas de vídeos Nvidia e setups com dois ou mais monitores de diferentes taxas de atualização.
Segundo a Mozilla, o bug surgiu após a remoção de uma blocklist para o recurso DirectComposition, causando distorções visuais na reprodução de vídeos.

A Mozilla lançou uma atualização emergencial para o navegador Firefox após relatos de falhas gráficas em PCs com placas Nvidia. O bug surgia quando monitores com taxas de atualização diferentes eram usados no mesmo setup — algo comum em configurações com dois ou mais monitores.

O problema foi identificado na versão 139.0, liberada em 27 de maio, e causava distorções visuais — como artefatos e glitches — especialmente ao exibir vídeos em monitores secundários de 60 Hz, enquanto o principal operava em 120 Hz ou 144 Hz. Segundo a Mozilla, o patch 139.0.1 corrige o defeito.

Como ocorreu o erro?

O bug estava diretamente ligado a usuários que utilizavam placas gráficas da Nvidia em conjunto com múltiplos monitores configurados com diferentes taxas de atualização. Nessas situações, bastava assistir a um vídeo em um monitor de 60 Hz e interagir com outro, de taxa mais alta, para que surgissem os erros visuais na tela.

De acordo com desenvolvedores da Mozilla, o problema aconteceu após a remoção de uma blocklist — uma lista de restrições — que, até então, impedia o uso do recurso DirectComposition em determinadas configurações com GPUs da Nvidia. Essa mudança visava melhorar o desempenho gráfico do navegador, mas acabou resultando no efeito colateral não previsto.

A própria Mozilla reconheceu que o Firefox gerencia seus buffers gráficos de forma diferente de outros navegadores, adotando o conceito de “Surfaces” em vez de “Swapchains” no ambiente DirectComposition do Windows.

Além disso, segundo o site Tom’s Hardware, estão em desenvolvimento melhorias no sistema de composição de camadas, o que pode ter motivado a alteração da blocklist. Ainda assim, a Mozilla não deixou claro por que a remoção da blocklist ocorreu em primeiro lugar.

Como resolver o bug no Firefox?

Firefox solucionou o bug rapidamente (foto: Michele Ursino/Flickr)

A Mozilla foi rápida em lançar o patch 139.0.1, que soluciona especificamente essa falha. A correção não traz nenhuma nova funcionalidade além desse ajuste. Usuários que ainda não atualizaram podem fazer isso manualmente acessando o menu do navegador (os três traços no canto superior direito), escolhendo “Ajuda” e depois “Sobre o Firefox”. O programa, então, buscará automaticamente a versão mais recente e instalará a atualização.

Para quem não deseja atualizar de imediato, a comunidade Bugzilla encontrou uma solução alternativa: bastava acessar as configurações avançadas do navegador e desativar a opção gfx.webrender.dcomp-video-hw-overlay-win. Com o novo patch, esse ajuste manual não é mais necessário.

Vale destacar que usuários com placas de vídeo da Intel ou AMD, ou aqueles que usam apenas um monitor, não foram impactados por esse problema.

Com informações do PCWorld e Tom’s Hardware
Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox

Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox
Fonte: Tecnoblog