Category: Nvidia

O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia

O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia

Saiba o que é e como funcona a tecnologia de upscaling Nvidia DLSS (imagem: Reprodução/Nvidia)

O Nvidia DLSS é uma tecnologia de upscaling de imagem baseada em inteligência artificial que aumenta o desempenho em jogos. Ele usa os núcleos Tensor Core, exclusivos das placas de vídeo GeForce RTX, para melhorar a taxa de quadros por segundo (FPS) sem sacrificar a qualidade.

Ela funciona renderizando o jogo em uma resolução menor e, em seguida, usa um modelo de IA para reconstruir a imagem para uma resolução mais alta. O resultado é uma imagem nítida e detalhada com desempenho significativamente melhor, proporcionando uma experiência de jogo mais fluida.

Além disso, o DLSS oferece recursos como o Frame Generation, que cria quadros adicionais para até quadruplicar a taxa de quadros em jogos selecionados. Outra ferramenta é o Ray Reconstruction, que aprimora o Ray Tracing em títulos com a tecnologia.

A seguir, entenda melhor o que o Nvidia DLSS, suas principais características, suas vantagens e desvantagens.

ÍndiceO que é DLSS?O que significa DLSS?Para que serve o DLSS da Nvidia?Como funciona o DLSS?Quais são as características do DLSS da Nvidia?É possível saber quais jogos são compatíveis com o DLSS?Quais são as vantagens do Nvidia DLSS?Quais são as desvantagens do Nvidia DLSS?Qual é a diferença entre Nvidia DLSS e AMD FidelityFX?Qual é a diferença entre Nvidia DLSS e Intel XeSS?Dá para saber se meu PC tem o Nvidia DLSS?Tem como ativar o DLSS na minha placa de vídeo?

O que é DLSS?

DLSS é uma tecnologia de upscaling de imagem da Nvidia que usa inteligência artificial para aumentar o desempenho gráfico em jogos. Ela usa algoritmos de Machine Learning para gerar imagens de alta resolução a partir de resoluções mais baixas, elevando a taxa de quadros por segundo (FPS) sem comprometer a qualidade visual.

O que significa DLSS?

DLSS é a sigla para Deep Learning Super Sampling, ou “Superamostragem de aprendizado profundo” em português. Ele se refere a tecnologia que usa modelo de IA para analisar as imagens em baixa resolução e reconstruí-las em alta definição.

Desempenho do jogo Red Dead Redemption 2 com e sem DLSS (imagem: Divulgação/Nvidia)

Para que serve o DLSS da Nvidia?

O DLSS da Nvidia serve para melhorar o desempenho gráfico dos jogos ao rodá-los com resoluções mais altas. Em essência, a tecnologia de upscaling atua como uma ferramenta para otimizar a performance e garantir a melhor experiência visual e de jogabilidade possível.

Ele usa IA para renderizar quadros em uma resolução menor e, em seguida, os escala para a resolução nativa do monitor usando redes neurais. O resultado é um aumento na taxa de FPS, proporcionando gráficos de alta qualidade com mais fluidez, sem a necessidade de uma placa de vídeo mais potente.

Como funciona o DLSS?

O DLSS usa IA e Machine Learning para melhorar o desempenho e a qualidade visual em jogos. Ele permite que a placa de vídeo (GPU) renderize os quadros do jogo em uma resolução mais baixa, enquanto a rede neural reconstrói a imagem final para uma resolução mais alta.

Para isso, a Nvidia treina a IA do DLSS com uma vasta biblioteca de imagens e vídeos de jogos em altíssima qualidade. O algoritmo aprende a mapear e replicar os detalhes de uma cena, reconstruindo os quadros de baixa resolução para que se assemelhem a imagens de alta resolução, com uma ampla fidelidade visual.

O DLSS também usa técnicas como anti-aliasing para suavizar as bordas irregulares e remover o desfoque, garantindo uma imagem sem serrilhado. Outro destaque é o recurso Frame Generation, que cria quadros adicionais para aumentar a taxa de FPS e oferecer uma experiência mais fluida.

Detalhes do jogo Deliver Us The Moon sem e com o DLSS ativado (imagem: Reprodução/Nvidia)

Quais são as características do DLSS da Nvidia?

O DLSS é uma tecnologia de upscaling da Nvidia que possui algumas características para a melhoria do desempenho e qualidade visual dos jogos. Por exemplo:

Super Resolução por IA: usa modelos de IA treinados em milhões de imagens de alta resolução para reconstruir frames de baixa resolução, resultando em imagens nítidas com mais detalhes;

DLAA (Deep Learning Anti-Aliasing): utiliza a mesma tecnologia de IA do DLSS para aplicar um anti-aliasing de alta qualidade, aprimorando a nitidez sem aumentar o desempenho;

Aumento de desempenho: renderiza jogos em uma resolução interna menor e depois os amplia, aumentando a taxa de quadros por segundo (FPS) sem perder a qualidade visual;

Análise de movimento: analisa dados de movimento e frames anteriores para criar imagens de alta qualidade e com estabilidade, reduzindo artefatos como o “ghosting”;

Aceleração de hardware: usa os Tensor Cores, núcleos exclusivos das placas de vídeo GeForce RTX da Nvidia, para processar os cálculos da IA com alta eficiência;

Aprimoramento de Ray Tracing: permite que jogos com Ray Tracing ativado rodem de forma mais fluída, entregando reflexos, sombras e iluminação mais realistas com alto desempenho;

Ampla compatibilidade: é suportado por uma grande variedade de jogos e resoluções, de 1080p a 8K, além de ser facilmente integrado a diversas engines de jogos.

É possível saber quais jogos são compatíveis com o DLSS?

Sim, a Nvidia mantém uma lista completa e atualizada de jogos que suportam a tecnologia DLSS em seu site oficial. Por lá, é possível verificar todos os títulos compatíveis com as placas de vídeo GeForce RTX.

Outra maneira confiável de verificar a compatibilidade é acessando a página oficial do jogo em plataformas como Steam, Epic Games Store ou o site da desenvolvedora. As especificações técnicas geralmente indicam se o DLSS é um recurso suportado pelo título.

Uma das principais caracteristicas do DLSS é o amplo aumento de FPS (imagem: Reprodução/Nvidia)

Quais são as vantagens do Nvidia DLSS?

Estes são os pontos fortes do Nvidia DLSS:

Qualidade de imagem aprimorada: usa IA para reconstruir e aprimorar imagens, tornando-as mais nítidas e detalhadas do que a renderização nativa em certas situações;

FPS mais altos: aumenta o número de quadros por segundo (FPS), o que garante uma experiência de jogo mais fluida e responsiva, especialmente em monitores de alta taxa de atualização;

Compatibilidade com monitores de alta resolução: é ideal para jogar em monitores 4K onde a demanda por processamento é alta. O DLSS permite jogar nessa resolução com um desempenho que, de outra forma, seria impossível;

Melhor desempenho com Ray Tracing: permite usar o Ray Tracing em sua máxima qualidade, proporcionando iluminação e reflexos ultrarrealistas sem sacrificar o desempenho;

Desempenho otimizado em jogos: reduz a carga sobre a GPU ao renderizar imagens em uma resolução menor e depois escalá-las, o que libera recursos para rodar jogos com as configurações gráficas no máximo;

Maior vida útil do hardware: ajuda a placa de vídeo a manter um bom desempenho em títulos futuros, adiando a necessidade de um upgrade e prolongando a vida útil do componente.

Quais são as desvantagens do Nvidia DLSS?

Estes são os pontos fracos do Nvidia DLSS:

Artefatos visuais: ocasionalmente pode gerar anomalias como desfoque em objetos em movimento e o efeito “ghosting”, onde rastros da imagem anterior permanecem na tela;

Problemas em superfícies finas: pode ter dificuldade em reconstruir imagens com detalhes muitos finos ou geometria complexa, como grades, o que pode resultar em cintilação ou tremulação;

Impacto no input lag: a funcionalidade Frame Generation pode aumentar a latência (input lag) entre o comando do jogador e a ação na tela, um problema crítico em jogos competitivos;

Compatibilidade restrita: a tecnologia é exclusiva das placas de vídeo Nvidia GeForce RTX e sua implementação depende do suporte específico de cada jogo;

Qualidade inconsistente: o resultado da tecnologia varia muito conforme o jogo, a versão do DLSS usada e o motor gráfico, podendo apresentar resultados insatisfatórios em alguns títulos.

O DLSS aprimora a qualidade da imagem, mas é um recurso exclusivo das GPUs GeForce RTX da Nvidia (imagem: Reprodução/Nvidia)

Qual é a diferença entre Nvidia DLSS e AMD FidelityFX?

O DLSS é uma tecnologia de upscaling exclusiva da Nvidia, que usa IA para reconstruir quadros de jogos em resoluções mais altas. Ela usa os núcleos Tensor Core das placas de vídeo GeForece RTX para executar algoritmos de Machine Learning, aprimorando a imagem para melhor desempenho e estabilidade visual.

Já o AMD FidelityFX é um conjunto de tecnologias de código aberto, que aumenta a resolução dos jogos usando um algoritmo de upscaling. Ao contrário do DLSS, ele não exige um hardware dedicado e é compatível com vários modelos de GPUs da AMD, Intel e da própria Nvidia.

Qual é a diferença entre Nvidia DLSS e Intel XeSS?

O DLSS é uma tecnologia proprietária da Nvidia para aumentar a resolução de imagens de jogos. Ele usa a IA dos núcleos Tensor Cores, presente nas GPUs GeForce RTX, para renderizar o jogo em uma resolução mais baixa e, depois, aumentar a qualidade e o desempenho sem sacrificar a imagem.

O XeSS (Xe Super Sampling) é a tecnologia de upscaling da Intel. Similar ao DLSS, ele usa a IA dos núcleos Intel XMX nas GPUs Intel Arc para melhorar a qualidade da imagem em jogos, mas o desempenho pode variar conforme a potência do hardware.

Dá para saber se meu PC tem o Nvidia DLSS?

Sim, o DLSS está presente apenas em PCs com placas de vídeo da linha GeForce RTX da Nvidia. Essa tecnologia é exclusiva dessas GPUs, que contam com Tensor Cores, núcleos dedicados a tarefas de IA que aceleram o processamento do DLSS.

Portanto, é fundamental verificar se a placa de vídeo é da série RTX para ter acesso ao DLSS. Ter essa informação pode fazer toda a diferença na hora de escolher uma placa de vídeo, caso a pessoa esteja montando um PC especialmente para jogos e queira usufruir da tecnologia.

Tem como ativar o DLSS na minha placa de vídeo?

Não tem como ativar o DLSS automaticamente em todos os jogos, pois a tecnologia precisa ser implementada pelos desenvolvedores. É necessário acessar às configurações de vídeo do jogo compatível e procurar a opção DLSS para ativar a tecnologia.

Uma vez ativado, o jogador pode escolher entre as configurações predefinidas: “Desempenho”, que prioriza a taxa de quadros, ou “Qualidade”, que busca a melhor fidelidade de imagem. Há também um modo “Equilibrado” que busca o meio-termo entre os recursos.
O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia

O que é DLSS? Conheça a tecnologia de aprimoramento da Nvidia
Fonte: Tecnoblog

Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070

Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070

Novo chip deve vir de parceria entre Nvidia e MediaTek (imagem: divulgação/Nvidia)

Resumo

O chip N1X da Nvidia pode contar com 20 núcleos de CPU e GPU similar à RTX 5070, segundo teste no Geekbench 6.4.
A GPU aparece com 48 unidades computacionais e 6.144 núcleos CUDA, segundo o relatório.
O lançamento é esperado para o início de 2026, possivelmente em parceria com a MediaTek.

É pouco provável que a Nvidia anuncie a sua CPU para PCs ainda em 2025. Apesar disso, o assunto vem ganhando força. Os burburinhos mais recentes envolvem o vazamento das especificações do N1X, suposto codinome da novidade. Os dados sugerem que o chip terá gráficos integrados equivalentes à GPU GeForce RTX 5070.

O vazamento em questão vem de um teste de benchmark feito no Geekbench 6.4 a partir de um computador com Windows 11 Enterprise. O primeiro detalhe que chama a atenção no resultado do teste é o que indica que o chip terá 20 núcleos de CPU.

São dois clusters de dez núcleos trabalhando à frequência padrão de 4 GHz, para ser preciso, todos construídos com base na arquitetura Grace, da própria Nvidia.

Mas o detalhe que mais chama a atenção aparece na sequência: o relatório do Geekbench indica que o chip conta com uma GPU com 48 unidades computacionais, o que equivale a 6.144 núcleos CUDA. Esse é exatamente o número de núcleos CUDA existente na GeForce RTX 5070.

Como bem observa o Tom’s Hardware, as especificações do N1X também são parecidas com as do GB10, chip que comanda o supercomputador de IA Nvidia Project Digits.

O N1X poderá corresponder a uma versão adaptada do GB10, portanto. Isso reforça a possibilidade de o novo chip ser fruto de uma parceria entre a Nvidia e MediaTek, afinal, o GB10 é resultado de um acordo entre as duas companhias.

A pontuação no Geekbench (46.361 no OpenCL) não foi das mais elevadas, porém. O Tom’s Hardware sinaliza que o resultado é equivalente ao de uma GPU RTX 2050. Mas, como estamos falando de uma unidade que provavelmente é um protótipo, esse número não deve ser levado muito a sério.

Resultado do Nvidia N1X no Geekbench (imagem: reprodução)

Quando o chip N1X será lançado?

A expectativa é de que o anúncio oficial ocorresse ainda em 2025. Mas há rumores de que a Nvidia enfrenta alguns problemas, portanto, o chip N1X só deve ser lançado no começo de 2026. Espera-se também que Nvidia e MediaTek anunciem um modelo um pouco mais simples, de codinome N1.
Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070

Processador N1X da Nvidia para PCs pode ter GPU similar à RTX 5070
Fonte: Tecnoblog

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA

Projeto utiliza tecnologias da Nvidia, Intel e AMD (imagem: reprodução/Sistema de Computação Petaflópica do SINAPAD)

O supercomputador brasileiro Santos Dumont, operado pelo Laboratório Nacional de Computação Científica (LNCC) no Rio de Janeiro, recebeu uma grande atualização na sua capacidade de processamento. A máquina agora atinge 18,85 petaflops (quadrilhões de operações por segundo), um aumento de aproximadamente 575% em relação à especificação original de 2015.

A expansão é o primeiro grande investimento realizado dentro do recém-lançado Plano Brasileiro de Inteligência Artificial (PBIA). O projeto de atualização foi desenvolvido e integrado pela Eviden (empresa do Grupo Atos), utilizando uma combinação de tecnologias da Nvidia, Intel e AMD, para ampliar a capacidade de uso em aplicações de IA.

Hardware para pesquisa em IA

Segundo o presidente do laboratório, Fábio Borges, além de ampliar a capacidade de processamento, a nova atualização tem como objetivo permitir “maior robustez nos cálculos destinados à pesquisa, especialmente com o uso de inteligência artificial”.

Para isso, o Santos Dumont foi dividido em cinco partições diferentes. Os blades (“gavetas” de servidores), contêm vários nós (computadores individuais trabalhando em conjunto), cada qual com uma configuração específica de hardware.

Todas as partições são baseadas na arquitetura BullSequena XH3000 da Eviden, sendo interconectadas por uma malha Nvidia Infiniband NDR de 400 Gb/s. Os principais componentes incluem:

Partição 1: 62 blades equipados com processadores Intel Xeon Scalable de 4ª geração e 4 GPUs Nvidia H100 por blade.

Partição 2: 20 blades totalizando 60 nós, cada um com 2 processadores AMD EPYC 9684X.

Partição 3: 36 blades equipados com 4 Superchips Nvidia Grace Hopper por blade.

Partição 4: 6 blades totalizando 18 nós, cada um com 2 APUs AMD Instinct MI300A.

Nós adicionais: 4 nós equipados com a CPU Nvidia Grace Superchip.

Foco em eficiência energética

Sistema de resfriamento foi atualizado para melhorar eficiência energética (imagem: reprodução/LNCC)

Para além do ganho de performance, a maior parte dos novos nós de processamento está instalada em uma configuração que visa eficiência energética: os seis racks ocupam mais de 7 m² e utilizam um sistema de resfriamento por líquido, que capta mais de 98% do calor gerado, segundo a Eviden.

A tecnologia usa água em temperatura ambiente (entre 26 ºC e 30ºC na entrada) para capturar o calor gerado por todos os componentes, incluindo processadores, GPUs, fontes e dispositivos de rede. De acordo com a empresa, o sistema é mais eficiente que a versão de 2015 do supercomputador, que dissipava cerca de 80% do calor por meio da água.

Plano Nacional para IA

O Plano Brasileiro de Inteligência Artificial (PBIA) prevê um investimento de R$ 23 bilhões ao longo de quatro anos, visando garantir a soberania tecnológica do país quando se trata de inovação e uso de IA através da exploração da máquina.

O supercomputador — que chegou a ser desligado por falta de dinheiro para conta de luz quase uma década atrás — pode ser solicitado para uso por qualquer pesquisador ou instituição do país. A máquina ganhou ainda mais atenção durante a pandemia, quando fez parte do projeto que fez o sequenciamento do genoma da covid-19 em 2020.

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA

Supercomputador brasileiro Santos Dumont recebe atualização e suporte à IA
Fonte: Tecnoblog

Por que a Nvidia pode se tornar a empresa mais valiosa da história?

Por que a Nvidia pode se tornar a empresa mais valiosa da história?

Por que a Nvidia pode se tornar a empresa mais valiosa da história? (imagem ilustrativa: Vitor Pádua/Tecnoblog)

Expressões como “maior do mundo” ou “maior da história” costumam ter algum nível de exagero. Mas não é o caso da Nvidia. Nesta semana, a companhia atingiu, brevemente, um valor de mercado de US$ 3,92 trilhões (R$ 21,25 bilhões). Isso abre caminho para a empresa se tornar a mais valiosa da história.

A Apple defende essa posição atualmente. A companhia de Cupertino fechou o dia 26 de dezembro de 2024 com um valor de mercado recorde de US$ 3,915 trilhões.

Ao atingir o patamar de US$ 3,92 trilhões, a Nvidia ultrapassou a Apple, correto? Só por um breve período. Esse valor de mercado foi registrado na quinta-feira (03/07), mas não foi sustentado durante o dia. A Nvidia acabou encerrando a data valendo US$ 3,89 trilhões, razão pela qual a Apple ainda detém o recorde.

Mas esse não é um balde de água fria. A Nvidia continua em um momento excelente. A companhia lidera a atual lista das companhias mais valiosas, ficando à frente da Microsoft (US$ 3,7 trilhões) e da Apple (US$ 3,19 trilhões).

O que faz a Nvidia valer tanto?

Inteligência artificial, basicamente. Para o público em geral, a Nvidia continua sendo referência em placas de vídeo para jogos, com a série GeForce RTX 50 se destacando na atualidade. Mas, no âmbito corporativo, a companhia se destaca por oferecer chips que viabilizam aplicações de IA.

Não por acaso, a Nvidia fornece chips para IA às gigantes do setor, como Alphabet (Google), Amazon, Meta, Microsoft e OpenAI.

Jensen Huang, CEO da Nvidia (imagem: Flickr/Nvidia)

Como a demanda por tecnologias de IA tende a crescer, parece ser questão de tempo para a Nvidia superar o recorde da Apple registrado em dezembro e, assim, se tornar a companhia que atingiu o maior valor de mercado da história.

Na verdade, a Nvidia já poderia ter superado o recorde da Apple. Os embates comerciais e políticos que o governo dos Estados Unidos tem travado com a China restringem o fornecimento de chips a companhias chinesas, e isso impacta o volume de vendas da Nvidia.

No final de maio, o próprio CEO da Nvidia, Jensen Huang, reconheceu que as restrições de exportação impostas pela administração Trump à China fizeram empresas americanas ficarem de fora de um mercado de US$ 50 bilhões.

Apesar disso, o clima é de “ninguém segura a Nvidia”.

Com informações da Reuters
Por que a Nvidia pode se tornar a empresa mais valiosa da história?

Por que a Nvidia pode se tornar a empresa mais valiosa da história?
Fonte: Tecnoblog

Nvidia e Foxconn querem usar robôs humanoides em nova fábrica

Nvidia e Foxconn querem usar robôs humanoides em nova fábrica

Os testes com robôs humanoides já estão em andamento (imagem: divulgação/Nvidia)

Resumo

Nvidia e Foxconn negociam o uso de robôs humanoides em uma nova fábrica em Houston, nos EUA, para produzir servidores de IA.

Testes com robôs da UBTech e modelos próprios da Foxconn já estão em andamento, mas detalhes ainda não foram revelados.

Segundo a Reuters, os robôs humanoides estão sendo treinados para tarefas de montagem.

A Nvidia e a Foxconn estão em negociações para empregar robôs humanoides na linha de produção de uma nova fábrica em Houston, nos Estados Unidos. A unidade será responsável por montar os servidores de inteligência artificial GB300 da Nvidia, e tem início das operações previsto para o primeiro trimestre de 2026.

De acordo com a Reuters, os testes com robôs já estão em andamento. A Foxconn, que é uma das maiores fabricantes de eletrônicos no mundo, desenvolve suas próprias soluções com apoio da Nvidia e também já experimentou modelos fabricados pela chinesa UBTech. Ainda não se sabe qual modelo será adotado na fábrica americana, nem quantas unidades serão utilizadas no início da operação.

Mas, caso se confirme, esta será a primeira vez que um produto da empresa será fabricado com o apoio direto desse tipo de robô, além de marcar a estreia da Foxconn no uso de humanoides em uma linha de montagem.

Como os robôs devem funcionar?

Embora os detalhes sobre as tarefas exatas ainda não tenham sido revelados, a Foxconn já apresentou exemplos de uso de robôs humanoides em treinamentos realizados anteriormente.

Segundo informações da empresa, divulgadas em maio, esses robôs são treinados para executar funções como pegar e posicionar peças, conectar cabos e realizar etapas de montagem.

A nova instalação da Foxconn em Houston foi considerada ideal para receber esse tipo de automação por ser um espaço mais amplo e moderno da empresa, diferente das outras fábricas.

A expectativa é que os robôs comecem a operar junto com o início da produção dos servidores de IA da Nvidia, que serão construídos nas novas unidades da companhia em parceria com a Wistron, outra fabricante de eletrônicos, em Dallas.

Robôs devem começar a operar no primeiro trimestre de 2026 (imagem: reprodução)

Humanoides ganham espaço nas linhas de montagem

A adoção de robôs com aparência e capacidades humanas é uma aposta na indústria. Em março, Jensen Huang, CEO da Nvidia, afirmou que o uso amplo de robôs humanoides em ambientes industriais pode se tornar realidade em menos de cinco anos. A empresa, além de utilizar essa tecnologia, fornece plataformas de hardware e software que servem de base para o desenvolvimento da tecnologia por outras fabricantes.

Durante um evento recente em Taipei, o executivo Leo Guo, da Foxconn Industrial Internet — divisão do grupo especializada em servidores de IA —, afirmou que a empresa pretende apresentar dois modelos próprios de robôs humanoides ainda este ano. Um deles terá pernas e será mais caro; o outro será baseado em uma plataforma com rodas (do tipo AMR), o que reduziria os custos de produção.

A Foxconn e a Nvidia preferiram não comentar oficialmente sobre o projeto à Reuters, mas a movimentação reforça a tendência de automação avançada no setor de tecnologia. Montadoras como Tesla, BMW e Mercedes-Benz já experimentam humanoides em suas linhas de produção, e o governo da China também tem apostado fortemente nesse tipo de solução.

Caso o projeto em Houston avance conforme o planejado, ele poderá servir como modelo para a implementação desses robôs em outras fábricas ao redor do mundo, e pode alterar o perfil da força de trabalho na indústria.

Com informações da Reuters
Nvidia e Foxconn querem usar robôs humanoides em nova fábrica

Nvidia e Foxconn querem usar robôs humanoides em nova fábrica
Fonte: Tecnoblog

Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox

Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox

Mozilla teve que lançar patch de emergência para conter problemas no navegador (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Mozilla lançou o patch 139.0.1 para corrigir falhas gráficas no Firefox, com aparição de glitches.
O erro afetou especificamente usuários com placas de vídeos Nvidia e setups com dois ou mais monitores de diferentes taxas de atualização.
Segundo a Mozilla, o bug surgiu após a remoção de uma blocklist para o recurso DirectComposition, causando distorções visuais na reprodução de vídeos.

A Mozilla lançou uma atualização emergencial para o navegador Firefox após relatos de falhas gráficas em PCs com placas Nvidia. O bug surgia quando monitores com taxas de atualização diferentes eram usados no mesmo setup — algo comum em configurações com dois ou mais monitores.

O problema foi identificado na versão 139.0, liberada em 27 de maio, e causava distorções visuais — como artefatos e glitches — especialmente ao exibir vídeos em monitores secundários de 60 Hz, enquanto o principal operava em 120 Hz ou 144 Hz. Segundo a Mozilla, o patch 139.0.1 corrige o defeito.

Como ocorreu o erro?

O bug estava diretamente ligado a usuários que utilizavam placas gráficas da Nvidia em conjunto com múltiplos monitores configurados com diferentes taxas de atualização. Nessas situações, bastava assistir a um vídeo em um monitor de 60 Hz e interagir com outro, de taxa mais alta, para que surgissem os erros visuais na tela.

De acordo com desenvolvedores da Mozilla, o problema aconteceu após a remoção de uma blocklist — uma lista de restrições — que, até então, impedia o uso do recurso DirectComposition em determinadas configurações com GPUs da Nvidia. Essa mudança visava melhorar o desempenho gráfico do navegador, mas acabou resultando no efeito colateral não previsto.

A própria Mozilla reconheceu que o Firefox gerencia seus buffers gráficos de forma diferente de outros navegadores, adotando o conceito de “Surfaces” em vez de “Swapchains” no ambiente DirectComposition do Windows.

Além disso, segundo o site Tom’s Hardware, estão em desenvolvimento melhorias no sistema de composição de camadas, o que pode ter motivado a alteração da blocklist. Ainda assim, a Mozilla não deixou claro por que a remoção da blocklist ocorreu em primeiro lugar.

Como resolver o bug no Firefox?

Firefox solucionou o bug rapidamente (foto: Michele Ursino/Flickr)

A Mozilla foi rápida em lançar o patch 139.0.1, que soluciona especificamente essa falha. A correção não traz nenhuma nova funcionalidade além desse ajuste. Usuários que ainda não atualizaram podem fazer isso manualmente acessando o menu do navegador (os três traços no canto superior direito), escolhendo “Ajuda” e depois “Sobre o Firefox”. O programa, então, buscará automaticamente a versão mais recente e instalará a atualização.

Para quem não deseja atualizar de imediato, a comunidade Bugzilla encontrou uma solução alternativa: bastava acessar as configurações avançadas do navegador e desativar a opção gfx.webrender.dcomp-video-hw-overlay-win. Com o novo patch, esse ajuste manual não é mais necessário.

Vale destacar que usuários com placas de vídeo da Intel ou AMD, ou aqueles que usam apenas um monitor, não foram impactados por esse problema.

Com informações do PCWorld e Tom’s Hardware
Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox

Mozilla lança atualização emergencial para corrigir falhas gráficas no Firefox
Fonte: Tecnoblog

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025 (imagem: divulgação/Nvidia)

No embalo da CES 2025, Jensen Huang, CEO da Nvidia, confirmou que a companhia planeja lançar CPUs com arquitetura Arm direcionadas a PCs. O executivo não deu detalhes sobre o plano, mas rumores a respeito já aparecem. Eles dizem que o primeiro chip do projeto chegará no final de 2025.

Serão dois chips, se esses burburinhos estiverem certos. Um modelo de nome N1X é o que deverá ser anunciado no último trimestre de 2025, com um chip batizado como N1 devendo aparecer em 2026.

As diferenças entre eles ainda não estão claras, muito menos sabe-se quais serão as suas especificações. Mas é de se esperar que ambos tenham a arquitetura Arm como base e sejam frutos de uma parceira com a MediaTek, que receberá US$ 2 bilhões pela fase inicial do acordo.

Fala-se também que a Nvidia planeja produzir, inicialmente, 3 milhões de unidades do N1X, bem como 13 milhões de unidades do N1. Pelo volume de vendas esperado, é possível que este último venha a ser o modelo mais simples da dupla, portanto.

Pelo menos é o que revela o perfil HaYaO no X, que tem um histórico de vazamentos de projetos de empresas de tecnologia.

Jensen Huang, CEO da Nvidia (foto: divulgação/Nvidia)

Parceria com a MediaTek não será surpresa

Se a parceria com a MediaTek for confirmada, não causará espanto. Além de revelar as GPU RTX GeForce 50, a Nvidia usou a CES 2025 para anunciar o Project Digits, um supercomputador de IA comandado por um chip desenvolvido justamente em conjunto com a MediaTek: o GB10 Grace Blackwell, que conta com CPU de 20 núcleos e GPU com núcleos Cuda e Tensor.

Quando Jensen Huang confirmou que a Nvidia pretende lançar CPUs para PCs, explicou também que a MediaTek foi escolhida como parceira para um projeto de uma CPU otimizada para eficiência energética e passível de ser produzida em larga escala. Há boas chances de que ele estivesse falando do N1X e do N1, portanto.

Se a Nvidia lançar mesmo CPUs Arm para PCs, não deixará somente a Intel e a AMD em alerta, mas também a Qualcomm, afinal, esta última já tem chips com essa arquitetura para computadores baseados no Windows. Aliás, um deles foi anunciado na CES 2025: um modelo Snapdragon X para PCs mais baratos.

Com informações: Tom’s Hardware
Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025
Fonte: Tecnoblog

Nvidia está mais perto de lançar uma CPU para PCs

Nvidia está mais perto de lançar uma CPU para PCs

Jensen Huang, CEO da Nvidia (foto: divulgação/Nvidia)

E se você tivesse um PC com CPU da Nvidia, em vez de um chip Intel ou AMD? Essa possibilidade não está longe de se tornar real. Na esteira da CES 2025, Jensen Huang, CEO da Nvidia, deu a entender que a companhia tem planos para uma CPU baseada na arquitetura Arm voltada justamente a PCs.

Embora ainda não haja nenhum anúncio oficial a respeito, os primeiros passos para isso já foram dados. Na CES 2025, a Nvidia anunciou o supercomputador para IA Project Digits. O equipamento é baseado em um chip desenvolvido pela Nvidia em parceria com a MediaTek.

O tal chip foi batizado como Nvidia GB10 Grace Blackwell Superchip. Ele conta com uma GPU Blackwell com núcleos Cuda e Tensor, o que faz sentido, afinal, esse é um tipo de tecnologia que a Nvidia domina.

Mas o GB10 também conta com uma CPU de 20 núcleos e arquitetura Arm. É neste ponto que a história começa a ficar mais interessante. Apesar de ser fruto de uma parceria com a MediaTek, esse chip pode ser um passo verdadeiro da Nvidia rumo ao segmento de CPUs para PCs.

Durante uma apresentação para investidores, Huang explicou que a Nvidia escolheu a MediaTek como parceira para o projeto de uma CPU otimizada para eficiência energética e passível de ser produzida em larga escala. Esse é um forte sinal de que a Nvidia tem planos consistentes para esse chip.

O executivo não explicou se essa CPU será direcionada ao segmento de PCs, mas, quando questionado a respeito, reforçou “você sabe, obviamente temos planos [para isso]”.

Project Digits é um supercomputador de IA (imagem: reprodução/Nvidia)

Nvidia brigaria diretamente com a Qualcomm

Se realmente ingressar no mercado de CPUs para PCs, a Nvidia terá como principal rival a Qualcomm, e não exatamente a Intel e a AMD. Isso porque a Qualcomm já tem chips de arquitetura Arm voltados a PCs. Na CES 2025, a companhia chegou a anunciar um Snapdragon X para computadores mais acessíveis.

Um detalhe interessante é que Huang reconheceu que até a MediaTek pode lançar uma CPU de arquitetura Arm para PCs, por conta própria. Faria sentido. A MediaTek poderia direcionar seus chips ao segmento doméstico, enquanto a Nvidia focaria seus esforços nos segmentos profissionais, como já vem fazendo.

O Project Digits é um bom exemplo disso. Apesar de ter o tamanho de um Mac Mini, a novidade é um supercomputador direcionado a projetos de inteligência artificial. Não por acaso, o seu preço inicial gira em torno dos US$ 3.000 (R$ 18.270).

Por ora, tudo está no campo das especulações. De todo modo, os próximos meses prometem ser interessantes. Huang deixou expectativas no ar.

Enquanto isso, as rivais da Nvidia seguem o seu caminho. Aproveitando a CES 2025:

a Qualcomm lançou um Snapdragon X mais simples, como já informado;

a AMD anunciou uma grande quantidade de CPUs Ryzen, principalmente para notebooks;

a Intel revelou mais chips Core Ultra de alto desempenho para notebooks.

Com informações: Reuters
Nvidia está mais perto de lançar uma CPU para PCs

Nvidia está mais perto de lançar uma CPU para PCs
Fonte: Tecnoblog

Nvidia GeForce RTX 5090 chega com 32 GB de VRAM e nova arquitetura

Nvidia GeForce RTX 5090 chega com 32 GB de VRAM e nova arquitetura

Nvidia GeForce RTX 5000 é lançada com quatro novas GPUs e arquitetura Blackwell (Imagem: Divulgação)

A Nvidia anunciou na noite desta segunda-feira (6) a linha de placas de vídeo GeForce RTX 5000, a nova geração das suas GPUs para gamers. Seguindo a tradição dos últimos lançamentos, o CEO Jensen Huang apresentou quatro placas de vídeo: RTX 5090, RTX 5080, RTX 5070 Ti e RTX 5070 (listadas pela ordem de desempenho). As duas primeiras chegam ainda em janeiro, com as GPUs de final 70 esperadas para fevereiro.

Nos Estados Unidos as novas placas de vídeo da Nvidia chegarão com os seguintes preços sugeridos:

RTX 5090: US$ 1.999 (R$ 12.224)

RTX 5080: US$ 999 (R$ 6.071)

RTX 5070 Ti: US$ 749 (R$ 4.552)

RTX 5070: US$ 549 (R$ 3.336)

O que há de novo na Nvidia GeForce RTX 5090?

Nvidia GeForce RTX 5090 é placa de vídeo “ultra premium” (Imagem: Divulgação)

A RTX 5090 estreia a arquitetura Blackwell para as placas de vídeo para consumidores — assim como os outros modelos anunciados nesta semana. A GPU tem 32 GB de memória VRAM do tipo GDDR7, com largura da banda de 1.792 GB/s. Esse valor representa um aumento de 78% em relação à RTX 4090. Os núcleos CUDA saíram de 16.384 para 21.760.

Segundo a Nvidia, a RTX 5090 é duas vezes mais rápida que a RTX 4090 no processamento gráfico. Em compensação, o consumo energético é de 575 W em capacidade máxima e a empresa recomenda uma fonte de 1.000 W.

Por outro lado, as inovações da arquitetura Blackwell prometem uma maior eficiência energética. Assim, a expectativa é que em raríssimas ocasiões ela atinja o consumo de 575 W (insira aqui uma piada com Crisis, leitor).

A RTX 5090, assim como as outras GPUs da linha, estreiam a quarta geração da Nvidia DLSS e trazem a quarta geração dos núcleos de ray tracing. Uma boa melhoria da placa de vídeo está no seu tamanho, menor que a RTX 4090 e capaz de caber em gabinetes menores — pelo menos no caso da Founders Edition.

RTX 5080, RTX 5070 Ti e RTX 5070

Comparativo da Nvidia GeForce RTX 5080 e GeForce RTX 4080 (Imagem: Divulgação)

A RTX 5080 também é vendida como uma GPU duas vezes mais rápida que a sua antecessora (RTX 4080). Essa nova GPU possui 16 GB de memória VRAM GDDR7 e largura da banda de 960 GB/s. Ao contrário da geração passada, a Nvidia não lançou versões com duas configurações de memória.

A RTX 5080 tem 10.572 núcleos CUDA e um consumo energético de 360 W. A Nvidia recomenda o uso de uma fonte de 850 W.

As RTX 5070 Ti e 5070 são as mais “modestas” da nova geração — enquanto a Nvidia não lançar a RTX 5060 para desktop e a RTX 5050 para laptops. As especificações dessas GPUs são as seguintes:

 RTX 5070 TiRTX 5070Memória16 GB de memória VRAM GDDR712 GB de memória VRAM GDDR7Largura de banda de memória896 GB/s672 GB/sNúcleos CUDA8.9606.144Versão do DLSSDLSS 4DLSS 4Consumo energético e fonte recomendada300 W e fonte de 750 W250 W e fonte de 650 W

Houve mudanças no preço de lançamento das RTX 5000?

Nvidia GeForce RTX 5090, GeForce 5070 Ti e GeForce RTX 4070 estão mais caras (Imagem: Divulgação)

Com exceção da RTX 5080, que teve uma queda de preço de US$ 200 em relação a sua antecessora, todas as novas GPUs estão mais caras que a geração passada, lançada em 2022. O preço de lançamento da RTX 5090 é US$ 400 mais caro que a RTX 4090. A RTX 5070 Ti e RTX 5070 subiram US$ 50 em seus valores.

Por mais que muita coisa tenha mudado na economia e no foco da Nvidia nos últimos dois anos, o aumento de US$ 400 na RTX 5090 espanta. A justificativa para isso está no salto de desempenho da arquitetura Blackwell e sua maior memória GDDR7, que foi de 24 GB para 32 GB.

Curiosamente, a queda de preço da RTX 5080 é acompanhada de uma atualização no tipo de memória VRAM, que usava memórias GDDR6X e foi para GDDR7 (presente em toda a linha).

O Tecnoblog entrou em contato com a Nvidia para saber sobre a previsão de lançamento e preço no Brasil. A matéria será atualizada com a resposta da empresa assim que for recebida.

Notebooks com GPUs RTX 5000 chegam em março

Notebooks com Nvidia GeForce 5000 serão lançados em março, incluindo modelos com a RTX 5090 mobile (Imagem: Divulgação)

A Nvidia divulgou que os primeiros notebooks equipados com GPUs RTX 5000 chegam ao mercado em março. Assim como a geração passada, a top das tops RTX 5090 terá uma versão mobile. No entanto, a RTX 5090 para laptops terá “apenas” 24 GB de memória VRAM GDDR7. Acer, ASUS, Dell, GIGABYTE, HP, Lenovo, MECHREVO, MSI e Razer serão as primeiras empresas a usar a linha RTX 5000 em seus notebooks.

Com informações de The Verge
Nvidia GeForce RTX 5090 chega com 32 GB de VRAM e nova arquitetura

Nvidia GeForce RTX 5090 chega com 32 GB de VRAM e nova arquitetura
Fonte: Tecnoblog

Nvidia Digits é um supercomputador de IA que lembra um Mac Mini

Nvidia Digits é um supercomputador de IA que lembra um Mac Mini

Project Digits é um supercomputador de IA (imagem: reprodução/Nvidia)

Já pensou em ter um “supercomputador de IA” para uso próprio? Revelado na CES 2025, o Project Digits é uma iniciativa da Nvidia que tem essa proposta. Trata-se de uma máquina desenvolvida para execução de tarefas de inteligência artificial. As suas dimensões reduzidas remetem a um Mac Mini.

A Nvidia dá a entender que o Project Digits é direcionado a pesquisadores, cientistas de dados e estudantes que desenvolvem trabalhos que se beneficiam da IA.

Nesse sentido, o equipamento pode ser instalado não só em laboratórios ou centros de pesquisa, como também no conforto do lar, como se a novidade fosse um PC convencional. Basta conectar monitor, teclado e mouse ao equipamento para usufruir dele.

Interior do Project Digits (imagem: reprodução/Nvidia)

Project Digits é pequeno, mas poderoso

Não se deixe enganar pelo tamanho compacto do Project Digits. O equipamento tem um conjunto de hardware bastante potente. Começa pela implementação do também novo Nvidia GB10 Grace Blackwell Superchip. Esse SoC conta com uma CPU Nvidia Grace de 20 núcleos e arquitetura Arm, bem como com uma GPU Blackwell com núcleos Cuda e Tensor.

Desenvolvido em conjunto com a MediaTek, o GB10 oferece desempenho de até 1 petaflop, ou seja, pode executar 1 quatrilhão de operações matemáticas por segundo seguindo o modelo de precisão FP4, sem abrir mão da eficiência energética. Para tanto, o chip trabalha em conjunto com 128 GB de memória DDR5X e até 4 TB de armazenamento flash.

Tudo isso permite que o Project Digits execute modelos de linguagem de larga escala com até 200 bilhões de parâmetros, explica a Nvidia. Pode-se ainda combinar duas unidades do equipamento via tecnologia Nvidia ConnectX para a execução de modelos com até 405 bilhões de parâmetros.

Só para constar, o sistema operacional padrão da máquina é o Nvidia DGX, que é baseado No Ubuntu Linux.

Project Digits é um supercomputador de IA (imagem: reprodução/Nvidia)

Tudo isso tem seu preço

É claro que um equipamento como esse não seria acessível. A Nvidia informa que o Project Digits será lançado oficialmente em maio de 2025 com preços a partir de US$ 3.000 (R$ 18.270 na conversão atual).

Vale destacar que o Project Digits não é a única novidade da Nvidia na CES 2025. Outros anúncios no evento incluem a aguardada linha de chips gráficos RTX GeForce 50.
Nvidia Digits é um supercomputador de IA que lembra um Mac Mini

Nvidia Digits é um supercomputador de IA que lembra um Mac Mini
Fonte: Tecnoblog