Category: Computador

Boeing usa computação quântica da IBM para estudar corrosão em aviões

Boeing usa computação quântica da IBM para estudar corrosão em aviões

IBM Quantum System One (imagem: divulgação/IBM)

Computação quântica é um assunto com ar futurista, mas o conceito já é funcional atualmente, ainda que de modo preliminar. Prova disso é a Boeing, que vem utilizando a plataforma IBM Quantum para descobrir formas de minimizar corrosões na estrutura de suas aeronaves. O problema é tão complexo que requer simulações avançadas. É aí que o computador quântico entra em cena.

A corrosão em metais é um processo de deterioração que ocorre quando o material passa por reações químicas ao entrar em contato com a umidade. Em um avião, cuja estrutura é predominantemente metálica, o fenômeno pode resultar em danos que, se não forem reparados ou prevenidos, podem até causar acidentes.

O uso de materiais ou técnicas de construção que amenizam ou previnem totalmente a corrosão é pesquisado pela indústria aeroespacial não só para tornar as aeronaves mais seguras, como também para reduzir os custos de manutenção relacionados a elas.

Simular é preciso

O desenvolvimento de uma solução satisfatória requer, antes, o conhecimento a fundo do problema. Nam Nguyen e Kristen Williams, pesquisadores da Boeing, contam à IBM que focam seus esforços em compreender as reações que impulsionam a corrosão em nível microscópico.

Para tanto, eles desenvolveram duas técnicas para realizar simulações via computação quântica de um processo chamado “redução de água”, que consiste em dividir uma molécula de água em uma superfície de magnésio.

Isso é importante porque esse processo é o que inicia a cadeia de reações da corrosão, razão pela qual simulá-lo é um passo importante para o momento em que será possível fazer simulação completa da corrosão, como explica Mario Motta, pesquisador da IBM.

O desafio é grande, mas já dá resultado. De acordo com a Nguyen, o trabalho em conjunto com a IBM permitiu à Boeing desenvolver um software que roda de maneira eficiente na plataforma IBM Quantum. Com esse avanço, os pesquisadores já conseguem resolver alguns problemas avançados.

No atual estágio, os computadores quânticos não oferecem o nível de tolerância a falhas necessário para resolver problemas muito complexos. É por isso que o conceito ainda não pode ser usado para resolver totalmente o problema da corrosão. Mas o caminho rumo a esse objetivo está sendo trilhado, como Nguyen dá a entender:

A ideia é que, embora eles [computadores quânticos] não possam resolver totalmente o problema da corrosão, como um computador quântico ideal e tolerante a falhas provavelmente poderia fazer, eles estão chegando lá e já nos ajudam a fazer algumas previsões úteis.

Avião Boeing 737 Max 8 (imagem: divulgação/Boeing)

Computador quântico de 1.121 qubits

No lado da IBM, as pesquisas para aprimorar a computação quântica continuam. Atualmente, a companhia desenvolve o Condor, computador quântico com 1.121 qubits. Além dele, um computador com mais de 4.000 qubits vem aí.

Quanto maior o número de qubits (bits quânticos), melhor. Um qubit pode assumir 0, 1 ou uma superposição de ambos os valores. Essa abordagem é mais abrangente que a computação atual, baseada na lógica binária, que faz um bit assumir um estado representado por 0 ou 1, mas não ambos ao mesmo tempo.

Cronograma de processadores quânticos da IBM (imagem: divulgação/IBM)

Com o conceito de bits quânticos, problemas que demandam horas, dias ou até meses para serem resolvidos por um computador convencional poderão ser solucionados rapidamente ou com resultados mais precisos.

Os detalhes sobre a pesquisa da Boeing e IBM estão disponíveis na revista científica Nature.
Boeing usa computação quântica da IBM para estudar corrosão em aviões

Boeing usa computação quântica da IBM para estudar corrosão em aviões
Fonte: Tecnoblog

Notebook Acer tem GPU Nvidia com Ray Tracing e desconto histórico em oferta

Notebook Acer tem GPU Nvidia com Ray Tracing e desconto histórico em oferta

Precisa de um notebook novo para trabalho, estudos, ou para jogar jogos mais modernos? Então essa é a sua chance de comprar um Acer Nitro 5 com Intel Core de 12ª Geração e RTX 3050 da Nvidia por apenas R$ 4.499 à vista. Dentre os destaques do dispositivo, está o suporte a Ray Tracing e DLSS.

Notebook Acer Nitro 5 (Imagem: Divulgação/Acer)

Segundo o histórico de preços no varejo, o valor médio do Acer Nitro 5 (AN515-58-54UH) foi de R$ 5.100 nos últimos tempos. Mas nessa oferta do Compra Certa, você compra o Acer Nitro 5 por apenas R$ 4.499. Este é o melhor desconto já registrado pelo notebook no comparador de preços do Zoom. Com essa economia de R$ 600, você pode até comprar um kit gamer com headset, mouse e teclado para acompanhar a jogatina.

Mais ofertas para você!
E para continuar economizando nos periféricos, participe dos grupos do Achados no Telegram ou WhatsApp. Por lá, você encontra as melhores promoções em itens de tecnologia no varejo, selecionadas pela curadoria de ofertas do Tecnoblog. Participe e aproveite!

O que o Acer Nitro 5 tem de legal?

Como dito no início do post, um dos principais destaques desse notebook é a GPU dedicada da Nvidia. A RTX 3050 é a placa de vídeo da marca mais barata com suporte às tecnologias de Ray Tracing e DLSS. Enquanto o Ray Tracing torna “reflexos, refrações e iluminações de gráficos 3D mais realistas”, o DLSS faz upscalling de imagens usando deep learning. Permitindo que o notebook suporte jogos mais modernos, como Doom Eternal.

Além disso, o Acer Nitro 5 na versão AN515-58-54UH traz o processador Intel Core i5 de 12ª Geração. Apesar de não ser um Core i7, a configuração já deve atender bem jogadores menos exigentes. Assim como o SSD de 512 GB e memória RAM de 8 GB. Já o sistema operacional Windows 11 pré-instalado deve facilitar a sua vida se pretender usar o notebook para trabalho ou estudos.

Por fim, vale ainda dizer que o Acer Nitro 5 traz uma tela Full HD com antirreflexo e taxa de atualização de 144 Hz. Assim como teclado retroiluminado, que combina com o estilo gamer, e áudio DTS:X que oferece uma experiência de áudio 3D personalizável.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Notebook Acer tem GPU Nvidia com Ray Tracing e desconto histórico em oferta

Notebook Acer tem GPU Nvidia com Ray Tracing e desconto histórico em oferta
Fonte: Tecnoblog

Lenovo lança novos notebooks ThinkPad com processador AMD Ryzen PRO

Lenovo lança novos notebooks ThinkPad com processador AMD Ryzen PRO

A Lenovo anunciou na última terça-feira (29) novos notebooks da linha ThinkPad. Os laptops P16v, P16s e P14s chegam com processadores AMD Ryzen PRO 7040, anunciados em junho deste ano. As linhas ThinkStation e ThinkPad da Lenovo são voltadas para PCs e notebooks profissionais (respectivamente), que demandam tarefas de alto desempenho.

Lenovo anunciou novos notebooks ThinkPad nesta semana (Imagem: Divulgação/Lenovo)

Essas novas workstations, como também são chamadas esses laptos e desktops para empresas, ainda podem ser equipadas com placas de vídeo Nvidia ou AMD. A P16v é o único notebook que pode receber uma GPU da Nvidia, com opção de escolha entre modelos da linha RTX 2000. Os outros laptops usam GPUs AMD Radeon 700M, modelo de placa gráfica para uso em dispositivos mobile.

O processador AMD Ryzen PRO 7 7040 equipa os modelos com final s (ThinkPad P16s e P14s). Este CPU possui 8 núcleos, 16 threads e clock máximo de 5,1 GHz com boost ativado. Já o P16v utiliza um Ryzen PRO 9 7940 HS, com a mesma configuração de núcleos e threads. O clock com boost ativado fica com 5,2 GHz (sim, 0,1 a mais). Os dois CPUs possuem 16 MB de cache L3.

Lenovo ThinkPad tem duas opções de sistema operacional

Novos ThinkPads possuem opções de Windows 11 ou Ubuntu para sistema operacional (Imagem: Divulgação/Lenovo)

Os três novos notebooks da linha ThinkPad têm as opções de saírem de fábrica com diferentes versões da distro Linux Ubuntu ou Windows 11 — desse modo, os laptops podem desempenhar melhor de acordo com as tarefas esperadas.

Outro opcional desses novos ThinkPad é a webcam de 5 MP, que está disponível para os notebooks ThinkPad P14s e P16s. Caso o comprador queira, também pode escolher por uma tela OLED nesses laptops e diferentes tamanhos de bateria.

De acordo com a Lenovo, os três ThinkPads já estão à venda no site oficial da fabricante — apesar de não ter encontrado os modelos no site brasileiro durante a minha busca. Os preços começam em R$ 14.999.
Lenovo lança novos notebooks ThinkPad com processador AMD Ryzen PRO

Lenovo lança novos notebooks ThinkPad com processador AMD Ryzen PRO
Fonte: Tecnoblog

Notebook Lenovo com Nvidia GTX 1650 tem menor preço histórico na Amazon

Notebook Lenovo com Nvidia GTX 1650 tem menor preço histórico na Amazon

Ele pode não ser o modelo mais avançado entre os notebooks gamers atualmente, mas deve dar conta do recado. Durante o festival gamer da Intel, você encontra o Lenovo Ideapad Gaming 3i por R$ 3.402 à vista com o cupom INTEL10. Além da GPU da Nvidia, o notebook ainda vem equipado com um processador da linha Intel Core de 11ª Geração.

Notebook Lenovo IdeaPad Gaming 3i (Imagem: Divulgação/Lenovo)

Achados do TB
Mas quem compra um notebook, ainda mais para jogos, uma hora ou outra precisa dos acessórios. Headset, mouse, teclado, webcam… E de nada adianda economizar em um e não no resto, certo?Por isso, a minha dica para você é participar do Achados no TB pelo Telegram ou WhatsApp. Nos nossos grupos, as ofertas de periféricos são recorrentes, e às vezes rola até uma dica da galera ou review de alguém do time que já testou. É só vir e aproveitar!

Segundo o histórico de preços do Zoom, o preço médio no varejo pelo Ideapad Gaming 3i (82MG0009BR) é de R$ 3.600. Enquanto nessa oferta da Amazon, o notebook da Lenovo já sai por quase R$ 3.400 com o cupom INTEL10 — desconto aplicado na finalização da compra, via Pix ou boleto. Mas o principal destaque da promoção é este ser o menor preço histórico do notebook, que está mais barato até que na Black Friday!

Lenovo Ideapad Gaming 3i: o que ele tem de legal?

Quando olhamos para a ficha técnica, um dos principais chamarizes é a placa de vídeo dedicada da Nvidia. O modelo, GTX 1650, inclusive, é o mais utilizado entre os jogadores da Steam. Junto com ele, temos o processador Intel Core i5 de 11ª Geração, que assim como a GPU não o último dos lançamentos, mas ainda oferece bom desempenho.

Além disso, o notebook ainda traz um SSD com 512 GB de armazenamento, que em geral aparece mais em modelos mais caros (ponto para o custo-benefício). E 8 GB de memória RAM — padrão de notebooks gamer mais “modestos” ou dispositivos para trabalho — expansíveis até 32 GB.

E quem vai usá-lo para trabalho ou estudos também deve ficar satisfeito com o sistema operacional Windows 11 de fábrica, que facilita o acesso às ferramentas Microsoft. Por fim, uma última característica legal do Ideapad Gaming 3i é o teclado retroiluminado, que combina bem com a estética de setup gamer e ainda pode ser útil em viagens à noite, por exemplo.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Notebook Lenovo com Nvidia GTX 1650 tem menor preço histórico na Amazon

Notebook Lenovo com Nvidia GTX 1650 tem menor preço histórico na Amazon
Fonte: Tecnoblog

Bit ou byte? Entenda as diferenças entre as unidades de medida de dados

Bit ou byte? Entenda as diferenças entre as unidades de medida de dados

Bit (b) e byte (B) são as menores unidades de medida de dados na computação. Eles são usados para representar arquiteturas de processadores, quantidades de memória, velocidades de conexão, tamanhos de chaves criptográficas, entre outras aplicações.

Bits e bytes, duas unidades de medida de dados (Imagem: Vitor Pádua/Tecnoblog)

Os múltiplos do byte, como megabyte (MB), gigabyte (GB) e terabyte (TB), são empregados com frequência e podem representar quantidades diferentes de informação, dependendo do padrão adotado. A seguir, entenda as unidades de medida e saiba por que um megabyte nem sempre tem 1.048.576 bytes.

ÍndiceO que é bit?O que é byte?O que é um octeto?Qual é a diferença entre byte binário e byte decimal?Por que meu HD de 1 TB tem só 931 GB?Quais são os múltiplos de byte?Quanto é um petabyte (PB)?Quanto é um exabyte (EB)?Quanto é um zettabyte (ZB)?Quanto é um yottabyte (YB)?O que são ronnabyte (RB) e quettabyte (QB)?Como saber quando é bit ou byte?Qual é a velocidade de uma internet de 300 megas?Qual a diferença entre um processador de 32 e 64 bits?O que é uma placa de vídeo de 256 bits?O que são os bits na criptografia?

O que é bit?

Bit é uma abreviação de binary digit (dígito binário). É a menor unidade de informação em sistemas digitais e pode ter apenas dois valores possíveis (0 ou 1). Sua sigla é o “b” minúsculo.

O que é byte?

Byte é um conjunto de 8 bits de dados. É a unidade básica para representar caracteres, como letras e números. Como um único byte conta com 28 combinações de bits, pode representar até 256 símbolos diferentes. Sua sigla é o “B” maiúsculo.

O que é um bit? E o que é um byte? (Imagem: Vitor Pádua/Tecnoblog)

O que é um octeto?

Octeto é um conjunto de 8 bits de dados. Sua sigla é o “o” minúsculo. O termo foi criado na década de 1970, quando o byte ainda não era padronizado e podia representar um valor diferente de 8 bits. Atualmente, octeto e byte são sinônimos no contexto da computação.

O termo octeto ainda é usado em alguns países, como França e Romênia, em detrimento do byte. Por isso, é possível encontrar embalagens de HDs que fazem referências a capacidades em Go (gigaoctetos) e To (teraoctetos).

Teraocteto (To) é atualmente um sinônimo de terabyte (TB) usado em alguns países (Imagem: Paulo Higa/Tecnoblog)

Qual é a diferença entre byte binário e byte decimal?

Byte binário e byte decimal são formados por 8 bits, mas seguem bases numéricas diferentes para definir seus múltiplos. O byte binário usa potências de 2, enquanto o byte decimal é baseado em potências de 10.

O byte binário é definido pelo padrão ISO/IEC 80000-13. Um kilobyte binário, também chamado de kibibyte, tem 1.024 bytes (210 bytes). Os múltiplos do byte binário seguem a base 2, como o mebibyte (1.048.576 bytes, ou 220 bytes) e o gibibyte (1.073.741.824 bytes, ou 230 bytes).

Já o byte decimal é definido no Sistema Internacional de Unidades (SI). Um kilobyte decimal tem 1.000 bytes (103 bytes). Os múltiplos do byte decimal seguem a base 10, como o megabyte (1.000.000 bytes, ou 106 bytes) e o gigabyte (1.000.000.000 bytes, ou 109 bytes).

Por que meu HD de 1 TB tem só 931 GB?

Porque as fabricantes de memórias seguem o padrão decimal, no qual 1 terabyte corresponde a 1.000.000.000.000 bytes (1012 bytes), enquanto o Windows adota o padrão binário, em que 1 terabyte deve possuir 1.099.511.627.776 bytes (240 bytes). Pelo padrão binário, 1012 bytes representam aproximadamente 931,3 GB.

Sistemas operacionais que adotam o padrão decimal, como o macOS, exibem a mesma quantidade de armazenamento informada pela fabricante, ou seja, um HD com especificação de 1 TB será representado como tendo 1 TB.

Quais são os múltiplos de byte?

A computação moderna lida com grandes quantidades de dados, por isso, as unidades de medida mais usadas atualmente são múltiplos de bytes, como:

Unidade de medidaSiglaQuantidade de bytes (decimal)Quantidade de bytes (binário)byteB8 bits (1 byte)8 bits (1 byte)kilobytekB1.000 (103) bytes1.024 (210) bytesmegabyteMB1.000.000 (106) bytes1.048.576 (220) bytesgigabyteGB1.000.000.000 (109) bytes1.073.741.824 (230) bytesterabyteTB1.000.000.000.000 (1012) bytes1.099.511.627.776 (240) bytespetabytePB1015 bytes250 bytesexabyteEB1018 bytes260 byteszettabyteZB1021 bytes270 bytesyottabyteYB1024 bytes280 bytesronnabyteRB1027 bytesNão definidoquettabyteQB1030 bytesNão definido

Seguindo o padrão matemático, as unidades de ronnabyte e quettabyte em base binária teriam 290 bytes e 2100 bytes, respectivamente. No entanto, essa definição é tecnicamente incorreta porque o padrão ISO/IEC 80000, atualizado pela última vez em 2008, ainda não adota os novos termos.

Quanto é um petabyte (PB)?

Um petabyte (PB) equivale a 1.000 terabytes no padrão decimal ou 1.024 terabytes no padrão binário. O processo de renderização do filme Avatar (2009) gastou mais de 1 PB de armazenamento para ser realizado, segundo a BBC.

Quanto é um exabyte (EB)?

Um exabyte (EB) equivale a 1.000 petabytes no padrão decimal ou 1.024 petabytes no padrão binário. A Apple atingiu 8 EB em dados salvos no Google Cloud em 2021, quando era a maior cliente de armazenamento do serviço de nuvem do Google, de acordo com o The Information.

Quanto é um zettabyte (ZB)?

Um zettabyte (ZB) equivale a 1.000 exabytes no padrão decimal ou 1.024 exabytes no padrão binário. A quantidade de dados trafegados na internet mundial ultrapassou 1 ZB em 2016, segundo uma pesquisa da Cisco.

Quanto é um yottabyte (YB)?

Um yottabyte (YB) equivale a 1.000 zettabytes no padrão decimal ou 1.024 zettabytes no padrão binário. O mundo irá gerar 1 YB de dados por ano até 2030, de acordo com uma estimativa da Huawei.

O que são ronnabyte (RB) e quettabyte (QB)?

Ronnabyte (RB) e quettabyte (QB) são os nomes usados para se referir a 1027 bytes e 1030 bytes, respectivamente.

Os prefixos ronna (R) e quetta (Q) foram anunciados em novembro de 2022 na 27ª Conferência Geral de Pesos e Medidas (CGPM), que organiza o Sistema Internacional de Unidades (SI). Essa foi a primeira expansão de prefixos desde 1991, quando foram lançados os termos zetta (1021) e yotta (1024).

Como saber quando é bit ou byte?

Bits (b) devem ser representados com “b” minúsculo e geralmente são usados em transmissão de dados, algoritmos de criptografia e arquitetura de processadores. Já bytes (B) são o padrão adotado em armazenamento de dados e são grafados com “B” maiúsculo.

Qual é a velocidade de uma internet de 300 megas?

O termo “megas” em velocidade de internet é popularmente usado para se referir à taxa de transmissão, medida em megabits por segundo (Mb/s). Uma conexão com velocidade de download de 300 Mb/s é capaz de baixar arquivos a 37,5 megabytes por segundo (MB/s).

As medidas de Mb/s e Gb/s (por vezes grafadas como Mbps e Gbps) podem ser convertidas para MB/s e GB/s com a divisão por 8. Assim, 100 Mb/s equivalem a 12,5 MB/s.

Qual a diferença entre um processador de 32 e 64 bits?

Os números de 32 e 64 bits no processador se referem à quantidade de dados que um chip pode processar por vez. Se um computador tiver CPU de 32 bits, ele gastará 2 etapas para executar uma operação de 50 bits, enquanto um processador de 64 bits poderá realizá-la de uma só vez.

Quanto mais bits um processador suportar, mais desempenho o computador tende a ter. No entanto, esse aspecto deve ser analisado com cuidado, pois a velocidade de uma CPU também é influenciada por fatores como clock (frequência), número de núcleos e otimização da arquitetura.

O que é uma placa de vídeo de 256 bits?

Os bits em placas de vídeo são usados para definir o barramento da memória. Ou seja, diferente do que acontece em CPUs, não há uma relação direta dos bits com a arquitetura do processador gráfico (GPU).

O padrão de memória mais usado em placas de vídeo é o GDDR. Uma memória GDDR7 da Samsung oferece até 32 Gb/s por pino. Isso significa que um módulo GDDR7 de 256 bits atinge velocidade máxima teórica de 8.192 Gb/s (32×256), ou 1 TB/s.

O que são os bits na criptografia?

Os bits na criptografia se referem ao tamanho da chave do algoritmo. Um arquivo protegido com AES-256, por exemplo, possui uma “senha” de 256 bits. Isso significa que há 2256 combinações de chaves possíveis.

Quanto maior o tamanho da chave, mais difícil é quebrar a proteção das informações por meio de ataques de força bruta. Mesmo uma chave de 128 bits levaria bilhões de anos para ser quebrada com um processador comum.

Padrões de criptografia como RSA-2048, RSA-3072 e RSA-4096 (com chaves de 2.048, 3.072 e 4.096 bits, respectivamente) são recomendados em situações nas quais seja necessário manter uma informação segura após o ano de 2030, segundo o Instituto Nacional de Padrões e Tecnologia (NIST) dos Estados Unidos.
Bit ou byte? Entenda as diferenças entre as unidades de medida de dados

Bit ou byte? Entenda as diferenças entre as unidades de medida de dados
Fonte: Tecnoblog

Samsung anuncia o primeiro SSD do mundo com 256 TB (sim, terabytes)

Samsung anuncia o primeiro SSD do mundo com 256 TB (sim, terabytes)

Eu não sei quanto de memória tem o celular ou computador que você está usando para ler esta matéria, mas tenho certeza de uma coisa: é menos, bem menos que o novo SSD da Samsung. A fabricante sul-coreana criou um drive de 256 TB. Não é erro de digitação, não — são 256 terabytes mesmo.

Samsung (Imagem: Vitor Pádua/Tecnoblog)

O anúncio foi feito durante o Flash Memory Summit (FMS), maior evento da indústria de memórias, realizado em agosto de 2023 na Califórnia (EUA). O Quad Level Cell (QLC) NAND SSD é o primeiro do mundo a atingir a marca de 256 TB.

Conseguir essa densidade de armazenamento tem suas vantagens. A primeira, obviamente, é espaço físico: servidores não precisariam de mais máquinas e prédios para oferecer mais memória para clientes e empresas, diminuindo o custo de operação.

Outro ponto positivo é o consumo de energia. Segundo a Samsung, o novo SSD de 256 TB gasta sete vezes menos energia do que oito SSDs de 32 TB empilhados. Mais uma vez, economia no bolso, e o planeta agradece.

A Samsung divulgou poucos detalhes sobre seu novo SSD. Como ele é voltado a data centers, o site SamMobile especula que ele deve usar os formatos ESDFF ou NGSFF, voltados para esse uso corporativo.

“Com o crescimento exponencial dos dados e suas muitas aplicações, as exigências dos consumidores que operam servidores e data centers estão se expandindo”, escreve a Samsung em seu site. “Para se antecipar à era da inteligência artificial, a Samsung deve elevar os limites do mercado de memórias de armazenamento para servidores.”

Outras novidades da Samsung em SSDs

A Samsung aproveitou o Flash Memory Summit para apresentar outros lançamentos no mercado de memórias. Um deles é o SSD PM9D3a, também voltado a data centers.

Segundo a marca, o PM9D3a oferece velocidade de leitura sequencial 2,3 vezes mais rápida que o PM9D3, modelo antigo. Na velocidade de gravação aleatória, a velocidade é 2 vezes maior que o anterior. Já a eficiência energética teve um salto de 60%.

O PM9D3a usa o padrão PCIe 5.0. Ele chega no primeiro semestre de 2024, com capacidades que variam entre 3,84 TB e 30,72 TB.

Já o SSD PM1743, revelado na FMS do ano passado, deve começar a ser usado em 2023. Ele promete o dobro de eficiência de outros SSDs de servidores e é voltado a usos de inteligência artificial, como o ChatGPT.

Com informações: Samsung, SamMobile
Samsung anuncia o primeiro SSD do mundo com 256 TB (sim, terabytes)

Samsung anuncia o primeiro SSD do mundo com 256 TB (sim, terabytes)
Fonte: Tecnoblog

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

O monitoramento do uso da GPU pode ser feito com ferramentas nativas do sistema operacional ou com aplicativos de terceiros. Esse procedimento permite descobrir quais atividades exigem mais recursos da placa de vídeo e a fazem demandar mais energia. Confira o passo a passo no Windows.

GPU Nvidia (imagem: Emerson Alecrim/Tecnoblog)

ÍndiceComo ver o uso da GPU no Windows?O que é memória compartilhada da GPU?O que é memória dedicada da GPU?O que são 3D, Copy, Video Decode e Video Processing de GPU no Gerenciador de Tarefas?O que fazer se o Gerenciador de Tarefas não mostra a minha GPU?Como monitorar o uso da placa de vídeo enquanto joga?GPU com 100% de uso é normal?Baixo uso de GPU em jogos é normal?Como ver a temperatura da GPU?

Como ver o uso da GPU no Windows?

Se você usa o Windows 10 ou 11, pode monitorar a GPU a partir do Gerenciador de Tarefas do sistema operacional. As etapas necessárias para isso são descritas a seguir.

Abra o Gerenciador de Tarefas Busque por “Gerenciador de Tarefas” na barra de pesquisa do Windows 10 ou no Menu Iniciar do Windows 11. Você também pode usar o atalho de teclado Ctrl + Shift + Esc para abrir a ferramenta. Vá em Desempenho No Gerenciador de Tarefas, vá em Desempenho. Essa parte da ferramenta mostra os recursos de hardware e conectividade que estão ativos, como atividade da CPU, quantidade de memória RAM preenchida e nível de uso da GPU. Clique em GPU Ainda na área de Desempenho, clique em GPU para obter mais detalhes sobre ela. Pode ser necessário rolar a tela para encontrar essa opção. Na sequência, a interface exibirá um conjunto de gráficos com os tipos de atividades que acionam o chip, bem como um resumo sobre os seus recursos.

O que é memória compartilhada da GPU?

Memória compartilhada é uma quantidade de RAM do computador que pode ser usada pelo chip gráfico. Esse compartilhamento é feito quando a GPU é integrada à CPU e, portanto, não conta com VRAM (memória própria).

Placas de vídeo dedicadas também podem usar memória compartilhada quando a sua quantidade de VRAM não é suficiente para a aplicação em andamento.

No Gerenciador de Tarefas do Windows, a área sobre a GPU mostra as quantidades de memória compartilhada disponíveis e em uso.

O que é memória dedicada da GPU?

A memória dedicada consiste em uma quantidade de VRAM que é usada exclusivamente pela GPU. Ela é fornecida em placas de vídeo cuja GPU ocupa todo o chip, ou seja, não está integrada à CPU.

Quanto mais avançado é o chip gráfico, maior tende a ser a sua quantidade de memória dedicada, o que favorece o desempenho. É o caso da Nvidia GeForce RTX 4090, que tem 24 GB de VRAM. Essa informação também é mostrada no Gerenciador de Tarefas do Windows.

O que são 3D, Copy, Video Decode e Video Processing de GPU no Gerenciador de Tarefas?

Por padrão, a área de monitoramento de GPU do Gerenciador de Tarefas mostra gráficos para quatro parâmetros. Outros podem ser exibidos se você clicar sobre o nome de cada um dos gráficos e selecionar a opção desejada. Os principais parâmetros são descritos a seguir:

3D: indica a porcentagem de recursos da GPU que são usados para a geração de gráficos tridimensionais;

Copy: informa a atividade de transferência de dados à GPU necessários para as tarefas de renderização;

Video Encode: mostra quando a GPU está sendo usada para codificar um vídeo, isto é, transformá-lo em um arquivo ou fluxo para ser armazenado, transmitido ou executado. Isso ocorre em tarefas como videoconferências;

Video Decode: indica quando a GPU está decodificando um vídeo, ou seja, extraindo as informações para que o conteúdo correspondente seja reproduzido;

Video Processing: reporta o nível de atividade do mecanismo de processamento de vídeos da GPU. Pode existir mais de uma unidade para esse fim, com cada uma delas sendo monitorada independentemente;

GDI Render: informa quando uma interface especial do Windows está em uso para permitir que aplicativos exibam elementos gráficos, como polígonos e linhas. Essa interface funciona como um intermediário entre o aplicativo e a GPU;

Engine: é uma referência às unidades de execução da GPU. Elas são numeradas em sequências como “Engine 1” e “Engine 2”. Cada unidade é independente, por isso, pode ter um gráfico de monitoramento exclusivo.

Monitoramento da GPU durante a execução de um vídeo (imagem: Emerson Alecrim/Tecnoblog)

O que fazer se o Gerenciador de Tarefas não mostra a minha GPU?

O driver da sua placa de vídeo pode ser incompatível ou estar desatualizado. Para mostrar dados da GPU, o Gerenciador de Tarefas requer que o driver do componente seja compatível com o WDDM (Windows Display Driver Model) versão 2.0 ou superior.

WDDM é o recurso do sistema que contém os mecanismos para coletar dados de atividade gráfica, de acordo com a Microsoft.

Para saber a versão do WDDM, digite “dxdiag” na barra de pesquisa do Windows 10 ou no menu Iniciar do Windows 11. Na tela que abrir, vá em Exibir. Na coluna Drivers, à direita, confira o campo Modelo do Driver. Se a versão do WDDM for 1.x, a coleta de dados não poderá ser feita pelo Gerenciador de Tarefas.

Geralmente, essa limitação acontece com GPUs antigas, que não têm drivers recentes. Se for o caso, a alternativa está no uso de softwares como NZXT Cam e GPU-Z. Mesmo nas versões gratuitas, eles oferecem detalhes relevantes sobre o uso do chip gráfico.

O WDDM 1.2 não permite que o Gerenciador de Tarefas monitore a GPU (imagem: Emerson Alecrim/Tecnoblog)

Como monitorar o uso da placa de vídeo enquanto joga?

É possível monitorar a placa de vídeo durante a execução de jogos com ferramentas fornecidas pelo fabricante da placa de vídeo ou da GPU. Um exemplo é o software GeForce Experience, disponível para modelos atuais da linha GeForce. Já usuários de GPUs Radeon podem usar o Adrenalin Edition para esse fim.

Também há aplicativos de terceiros que podem monitorar o uso da GPU enquanto um game é executado, como o gratuito MSI Afterburner. A ferramenta é muito usada para overclock, mas também tem funções de monitoramento. Apesar de ser mantido pela MSI, o software funciona com placas de vídeo de outras marcas.

Alguns jogos, como League of Legends, Valorant e Fortnite, podem ser configurados para exibir taxa de FPS ou outros dados de monitoramento sem depender de ferramentas externas.

Configuração de monitoramento do MSI Afterburner (imagem: Emerson Alecrim/Tecnoblog)

GPU com 100% de uso é normal?

É pouco provável que algo esteja errado se um software de monitoramento indicar que a GPU está com 100% de uso durante uma atividade gráfica exigente, como um jogo pesado em execução.

Porém, se o uso da GPU está em 100% ou com uma porcentagem próxima disso durante momentos de ociosidade ou na execução de atividades com baixa demanda gráfica, como vídeos ou jogos simples, pode haver algum problema. Entre as possíveis causas estão:

Gargalo na GPU: problema que pode ser causado por um driver desatualizado. Se a instalação de um driver recente resolver o problema, a causa era mesmo essa;

Driver novo: um driver recém-atualizado pode fazer o chip gráfico funcionar incorretamente por bug. Neste caso, o problema pode ser revertido com a instalação do driver anterior ou com o lançamento da versão seguinte;

Configuração inadequada da GPU: a tentativa de otimizar a GPU para overclock ou undervolt pode falhar e causar anormalidades funcionais. Reverter o ajuste ou ativar a configuração padrão são soluções possíveis;

Temperatura alta: se a GPU atingir uma temperatura elevada, ela pode baixar a sua frequência automaticamente. Isso pode fazer o seu uso ser mostrado como 100%. Um sistema de resfriamento mais eficiente pode ser a solução;

Malware: um vírus em segundo plano pode prejudicar todo o sistema, incluindo a parte gráfica. O problema pode ser resolvido com um antivírus. Opções gratuitas podem ser suficientes, pelo menos nos casos mais simples.

Baixo uso de GPU em jogos é normal?

Se o jogo tiver gráficos simples ou resolução baixa e estiver sendo executado sem nenhum tipo de problema, a GPU está sendo pouco usada simplesmente por ter uma carga de trabalho pequena para executar.

Mas se o monitorando indicar baixo uso da GPU ao mesmo tempo em que o game apresenta qualidade gráfica ruim ou instabilidades, algo pode estar impedindo o seu uso em plena capacidade. Entre as causas possíveis para o problema estão:

Driver desatualizado: um driver antigo ou incorreto pode prejudicar o fluxo de operações da GPU. Instale o driver mais recente a partir do site do fabricante do dispositivo;

Configuração inadequada da GPU: se o problema surgir após um ajuste aplicado manualmente, reverta o procedimento ou ative a configuração padrão no software da placa de vídeo para resolver o problema;

Configuração inadequada do jogo: se o problema surgir após uma tentativa de otimizar o game, reverta a ação ou ative a configuração padrão. Em alguns casos, pode ser necessário reinstalar o jogo;

Gargalo na CPU: o problema pode ser causado pelo uso de um processador antigo ou com baixo desempenho que, como tal, prejudica o envio de instruções à GPU. A solução está no uso de uma CPU mais recente.

Como ver a temperatura da GPU?

O Gerenciador de Tarefas do Windows pode exibir a temperatura para algumas GPUs, a exemplo dos modelos mais recentes da família Nvidia GeForce. Se essa informação não estiver disponível por lá, a alternativa é o uso de softwares de monitoramento, como NZXT Cam, GPU-Z e MSI Afterburner.

Temperatura e outros parâmetros da GPU no NZXT Cam (imagem: Emerson Alecrim/Tecnoblog)

A temperatura ideal varia de acordo com o fabricante e o modelo da GPU, mas, em geral, não deve ser superior a 100ºC. Quanto mais baixo estiver esse parâmetro, melhor. Como isso vale para toda a máquina, saiba como ver a temperatura do computador.
Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo
Fonte: Tecnoblog

O que é renderização? Saiba como funciona o processo de geração de imagens digitais

O que é renderização? Saiba como funciona o processo de geração de imagens digitais

Renderização é um processo da computação gráfica que transforma um conjunto de instruções em uma imagem digital 2D ou 3D. O procedimento gera o conteúdo visual de aplicações como jogos, simuladores e design gráfico. Entenda como o conceito funciona e quais são as suas principais técnicas.

O que é renderização? (imagem: Vitor Pádua/Tecnoblog)

ÍndiceComo funciona a renderização de uma imagem?O que é mapeamento de texturas?O que é shading?O que é anti-aliasing?O que é motion blur?O que é profundidade de campo?Quais são as principais técnicas de renderização de imagem?Rasterização de imagemImagem vetorialRay tracingRay castingPath tracingRenderização neuralEm quais áreas a renderização gráfica é usada?Como funciona a renderização no videogame?Como funciona a renderização no design gráfico?Como funciona a renderização em filmes e animações?Como funciona a renderização no navegador web?

Como funciona a renderização de uma imagem?

A renderização ocorre quando uma imagem é gerada com base em um conjunto de instruções e dados que descrevem as suas características, como formas geométricas, cores, projeção de luzes e sombras, texturas e reflexos.

As instruções são baseadas em modelos bidimensionais (2D) ou tridimensionais (3D) que definem como o conteúdo gráfico deve ser gerado. No ambiente de um jogo, por exemplo, esses dados determinam parâmetros como dimensões do cenário, texturas dos objetos, onde sombras devem projetadas e cor de cada pixel.

Embora a renderização possa ser feita com uma CPU, é mais comum o uso de uma GPU para esse fim. Isso porque a computação gráfica costuma envolver uma grande quantidade de operações. As GPUs permitem que numerosas operações sejam realizadas simultaneamente por terem estrutura para processamento paralelo.

Renderização gráfica (imagem: Vitor Pádua/Tecnoblog))

As GPUs são ainda mais importantes na geração de conteúdo 3D, que são imagens que dão noção de profundidade. Há dois tipos principais de renderização tridimensional:

Pré-renderização: o conteúdo gráfico final é gerado depois de as instruções e dados brutos serem apresentados. É usado na criação de animações detalhadas de filmes ou em trabalhos arquitetônicos, por exemplo;

Renderização em tempo real: as imagens são baseadas em modelos 2D ou 3D, mas geradas à medida que as instruções são apresentadas. É muito usado em aplicações cujo conteúdo visual depende da ação do usuário, como jogos.

O que é mapeamento de texturas?

O mapeamento de texturas é uma etapa da renderização que aplica uma ou mais superfícies 2D em um objeto tridimensional. Trata-se de um passo que adiciona contexto e detalhes a uma formação gráfica. Nos games em primeira pessoa, por exemplo, o mapa de textura forma as paredes ou os níveis de solo do ambiente.

O que é shading?

O shading é um processo da renderização que gera um efeito de iluminação sobre superfícies ou pontos específicos de elementos gráficos. Esse efeito pode variar em intensidade e alcance para aumentar a percepção de profundidade, mudar a perspectiva de um objeto ou simplesmente criar pontos de sombra.

Aplicação de shading (imagem: Vitor Pádua/Tecnoblog)

O que é anti-aliasing?

Anti-aliasing é um método que atenua ou elimina o efeito de serrilhamento que se forma em elementos gráficos, sendo mais perceptível em seu contorno. Técnicas de anti-aliasing são frequentemente aplicadas nas etapas finais da renderização para aumentar a sensação de definição da imagem.

Aplicação de anti-aliasing (imagem: Vitor Pádua/Tecnoblog)

O que é motion blur?

Motion blur é um efeito de desfoque de movimento que é aplicado sobre objetos gráficos para criar uma percepção de deslocamento. A técnica pode ser implementada com tempo de duração e extensão do rastro variadas. Com isso, é possível gerar sensação de velocidade em jogos de corrida, por exemplo.

Efeito de Motion blur (imagem: Stefans02/Flickr)

Não confunda
O desfoque de movimento gerado intencionalmente na renderização gráfica não deve ser confundido com o motion blur que ocorre em TVs e monitores. Nesses equipamentos, o efeito de borrão é causado por limitações técnicas, como tempo de resposta lento, e costuma prejudicar a qualidade da imagem.

O que é profundidade de campo?

A profundidade de campo aplica um efeito de foco ou desfoque sobre elementos gráficos em relação ao ponto de observação da imagem. Na computação gráfica, o conceito é usado para gerar uma percepção de distância, deixando um objeto em primeiro plano totalmente nítido enquanto o fundo fica desfocado, e vice-versa.

Quais são as principais técnicas de renderização de imagem?

Como a renderização é aplicada sobre elementos gráficos ou tipos de conteúdo distintos (como jogos e animações), várias técnicas foram desenvolvidas para o procedimento. As principais são descritas a seguir.

Rasterização de imagem

A rasterização é um processo no qual uma imagem bidimensional é formada pixel a pixel, com cada um deles representando uma cor. Quanto maior o número de pixels, mais detalhado é o conteúdo gerado. Imagens rasterizadas são armazenadas em formatos como PNG, JPEG e Bitmap.

Imagem vetorial

Imagem vetorial é aquela gerada a partir de linhas e pontos definidos com cálculos matemáticos. A imagem pode ter formas alteradas e dimensões ampliadas ou reduzidas sem que isso cause distorções, pois toda modificação é baseada em recálculos.

Traços e pontos de vetorização (imagem: Vitor Pádua/Tecnoblog)

Ray tracing

Ray tracing (traçado de raios) é uma técnica que reproduz a forma como raios de luz são gerados no “mundo real” para reproduzir gráficos mais realistas em jogos 3D e animações. A técnica é suportada de modo nativo em placas de vídeo de linhas como Nvidia GeForce RTX e AMD Radeon RX.

Sem e com ray tracing (imagens originais: reprodução/Nvidia)

Ray casting

Ray casting é um método de renderização que gera imagens tridimensionais a partir de raios de luz que saem de um centro de projeção. Quando essa luz alcança um objeto gráfico, parâmetros como cor e brilho mudam de modo correspondente naquele ponto, aumentando o realismo da imagem.

Path tracing

Path tracing é um método de renderização usado para definir traçados que deixam a iluminação da imagem mais próxima da realidade. Difere do ray tracing e do ray casting por projetar os raios a partir de fontes de luz distribuídas na cena, e não da posição de observação.

Comparativo entre ray tracing, path tracing e rasterização (imagem: reprodução/Nvidia)

Renderização neural

A renderização neural é um método que usa redes neurais, um conceito atrelado à inteligência artificial, para gerar imagens a partir de um conjunto de cenas. O seu maior benefício é conseguir formar imagens realistas rapidamente, principalmente em chips que contam com NPU (unidade de processamento neural).

Em quais áreas a renderização gráfica é usada?

A renderização gráfica é usada em áreas como produção de jogos, design gráfico, animações e até navegação web. Confira, abaixo, as especificidades de cada aplicação.

Como funciona a renderização no videogame?

A renderização em tempo real é o método mais empregado nos jogos, pois as cenas e objetos precisam ser exibidos de acordo com a ação realizada pelo jogador. Essa dinâmica exige que o conteúdo seja produzido muito rapidamente, razão pela qual games com gráficos detalhados exigem GPUs avançadas.

Para aumentar o realismo visual ou permitir efeitos gráficos especiais, os jogos também podem aplicar técnicas de renderização como ray tracing e path tracing. Muitos títulos contam ainda com recursos que otimizam a renderização gráfica, como as tecnologias Nvidia DLSS e AMD FSR.

Jogo Call of Duty renderizado no Xbox (imagem: Ricardo Syozi/Tecnoblog)

Como funciona a renderização no design gráfico?

O design gráfico se beneficia de técnicas de pré-renderização por envolver aplicações nas quais os níveis de detalhamento importam mais do que a reprodução em tempo real, como projeto de produtos, modelagem 3D de componentes e trabalhos de comunicação visual.

Nesses segmentos, o uso de gráficos vetoriais é comum, mas imagens rasterizadas e técnicas como ray tracing também podem ser aplicadas, especialmente na fase de finalização do projeto. Como esses detalhes envolvem muito processamento, o design gráfico tende a exigir computadores com CPU e GPU de alto desempenho.

Como funciona a renderização em filmes e animações?

A renderização de vídeos baseados em computação gráfica é um processo que envolve aplicação de texturas, efeitos de movimento (como motion blur), sombras sobre objetos ou personagens, anti-aliasing, entre outros procedimentos. Nas animações mais sofisticadas, esse trabalho exige workstations avançadas.

Na produção de um longa-metragem ou de um série animada, a renderização pode demandar bilhões de arquivos e levar várias etapas para ser concluída. Por isso, estúdios como DreamWorks e Pixar usam datacenters para renderizar seus vídeos.

Processo de renderização de filme da Pixar (imagem: Museum of Science/Pixar)

Como funciona a renderização no navegador web?

Nos navegadores, a renderização consiste em transformar dados de códigos em HTML, CSS, JavaScript e outros padrões em informação visual. Dependendo do conteúdo a ser reproduzido, o navegador pode até usar aceleração por GPU para realizar esse trabalho com mais eficiência.
O que é renderização? Saiba como funciona o processo de geração de imagens digitais

O que é renderização? Saiba como funciona o processo de geração de imagens digitais
Fonte: Tecnoblog

Nvidia anuncia primeiro superchip com memória HBM3e

Nvidia anuncia primeiro superchip com memória HBM3e

A Nvidia divulgou nesta semana a próxima geração da GH200 Grace Hopper, plataforma de processamento focada em computação acelerada e desenvolvimento de IA. O produto é baseado no superchip Grace Hopper (como indica o seu nome) e une CPU e GPU. A plataforma GH200 tem suporte para a tecnologia Nvidia NVLink, que permite o trabalho em conjunto com outros chips de um supercomputador ou servidor.

Nvidia vai deixando as GPUs gamers de lado e evoluindo nos superchips para supercomputação (Imagem: Vitor Pádua/Tecnoblog)

O GH200 é a primeira plataforma de HPC (sigla em inglês para computação de alto desempenho) com memória HBM3e do mundo. Esse tipo de memória, cuja sigla significa “memória de alta largura de banda” (tradução direta), é a mais recente geração das memórias do tipo HBM. Elas são mais rápidas e eficientes que as clássicas DDR/GDDR, mas também mais caras — restringido seu uso aos supercomputadores e servidores.

Nvidia GH200 tem memória de sobra

O novo superchip GH200 da Nvidia possui 144 GB da já citada HBM3e na sua GPU. De acordo com a Nvidia, a plataforma tem desempenho de oito petaflops para atividades de inteligência artificial. No total, a GH200 conta com 144 núcleos Arm Neoverse.

Superchip Nvidia GH200 é o primeiro com memória HBM3e (Imagem: Divulgação/Nvidia)

Essas configurações significam 3,5 vezes mais largura de banda e capacidade de memória do que a atual geração. A nova plataforma será a “menina dos olhos” das empresas que estão no desenvolvimento das suas inteligências artificiais, como Google, Meta, OpenAI e Microsoft (estas duas trabalhando praticamente em conjunto) — e Elon Musk tentando recuperar o atraso da X.AI.

Sem dúvidas, a Nvidia seguirá “torcendo para a briga” na competição entre as big techs e suas inteligências artificiais. A fabricante de GPUs e equipamentos para supercomputação segue como a principal fornecedora de equipamentos para o desenvolvimento de modelos de linguagem grande.

Para o azar das big techs, a Nvidia GH 200 só chegará no segundo trimestre de 2004. Todavia, o supercomputador DGX GH200, com exaflop de desenvolvimento e voltado para IAs, chega no fim do ano.
Nvidia anuncia primeiro superchip com memória HBM3e

Nvidia anuncia primeiro superchip com memória HBM3e
Fonte: Tecnoblog

MacBook Pro com chip M3 Max pode estar a caminho

MacBook Pro com chip M3 Max pode estar a caminho

A linha de processadores próprios da Apple estreou em 2020 e está perto de chegar à terceira geração. A empresa está testando o chip M3 Max. Ele equiparia o próximo MacBook Pro, a ser lançado em 2024, mas a transição dos outros modelos pode começar ainda este ano.

MacBook Pro 2023 com chips M2 Pro e M2 Max (Imagem: Apple / Divulgação)

As informações são do jornalista Mark Gurman, da Bloomberg, especializado em cobrir a Apple, e foram obtidas com a ajuda de um desenvolvedor independente.

O M3 Max teria 16 núcleos de processamento e 40 núcleos gráficos. São quatro núcleos de processamento e pelo menos dois gráficos a mais que o M2 que equipa os laptops da Apple atualmente. Além disso, o chip teria suporte a até 48 GB de RAM.

Dos 16 núcleos de processamento do M3 Max, 12 seriam de alta performance, voltado a tarefas que demandam muito da máquina, como edição de vídeo. Os quatro restantes seriam de eficiência, com gasto de energia menor, para usos mais simples, como navegar na internet.

Esta seria apenas uma versão do M3 Max — os testes da Apple podem incluir outras combinações de núcleos.

M3 pode estrear em outubro

Vale dizer que o MacBook Pro com M3 Max que deve chegar em 2024 não será o primeiro a conta com a nova geração de chips da Apple.

Segundo Gurman, a transição começará em outubro, com o lançamento das versões atualizadas da linha de entrada dos Macs.

Os chips M3 já foram vistos em testes com iMacs, Macbooks Pro de 13 polegadas, MacBooks Air de 13 e 15 polegadas e Macs Mini.

Até o momento, alguns detalhes sobre o M3 e o M3 Pro já surgiram. O M3 teria oito núcleos de processamento e 10 núcleos gráficos, mesma combinação do M2. Já o M3 Pro terá 12 núcleos na CPU e 18 na GPU.

M3 deve ter processo de fabricação de 3 nm

O M3 deve ser o primeiro chip dos Macs fabricado com o processo de 3 nm. Quanto menor a litografia de um chip, menos espaço entre os transistores.

Isso melhora a eficiência energética e permite colocar mais transistores em menos espaço, aumentando a capacidade de processamento.

Espera-se que o A17, chip que deve equipar o iPhone 15 Pro, também conte com essa tecnologia.

Com informações: Bloomberg
MacBook Pro com chip M3 Max pode estar a caminho

MacBook Pro com chip M3 Max pode estar a caminho
Fonte: Tecnoblog