Category: Computador

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

O monitoramento do uso da GPU pode ser feito com ferramentas nativas do sistema operacional ou com aplicativos de terceiros. Esse procedimento permite descobrir quais atividades exigem mais recursos da placa de vídeo e a fazem demandar mais energia. Confira o passo a passo no Windows.

GPU Nvidia (imagem: Emerson Alecrim/Tecnoblog)

ÍndiceComo ver o uso da GPU no Windows?O que é memória compartilhada da GPU?O que é memória dedicada da GPU?O que são 3D, Copy, Video Decode e Video Processing de GPU no Gerenciador de Tarefas?O que fazer se o Gerenciador de Tarefas não mostra a minha GPU?Como monitorar o uso da placa de vídeo enquanto joga?GPU com 100% de uso é normal?Baixo uso de GPU em jogos é normal?Como ver a temperatura da GPU?

Como ver o uso da GPU no Windows?

Se você usa o Windows 10 ou 11, pode monitorar a GPU a partir do Gerenciador de Tarefas do sistema operacional. As etapas necessárias para isso são descritas a seguir.

Abra o Gerenciador de Tarefas Busque por “Gerenciador de Tarefas” na barra de pesquisa do Windows 10 ou no Menu Iniciar do Windows 11. Você também pode usar o atalho de teclado Ctrl + Shift + Esc para abrir a ferramenta. Vá em Desempenho No Gerenciador de Tarefas, vá em Desempenho. Essa parte da ferramenta mostra os recursos de hardware e conectividade que estão ativos, como atividade da CPU, quantidade de memória RAM preenchida e nível de uso da GPU. Clique em GPU Ainda na área de Desempenho, clique em GPU para obter mais detalhes sobre ela. Pode ser necessário rolar a tela para encontrar essa opção. Na sequência, a interface exibirá um conjunto de gráficos com os tipos de atividades que acionam o chip, bem como um resumo sobre os seus recursos.

O que é memória compartilhada da GPU?

Memória compartilhada é uma quantidade de RAM do computador que pode ser usada pelo chip gráfico. Esse compartilhamento é feito quando a GPU é integrada à CPU e, portanto, não conta com VRAM (memória própria).

Placas de vídeo dedicadas também podem usar memória compartilhada quando a sua quantidade de VRAM não é suficiente para a aplicação em andamento.

No Gerenciador de Tarefas do Windows, a área sobre a GPU mostra as quantidades de memória compartilhada disponíveis e em uso.

O que é memória dedicada da GPU?

A memória dedicada consiste em uma quantidade de VRAM que é usada exclusivamente pela GPU. Ela é fornecida em placas de vídeo cuja GPU ocupa todo o chip, ou seja, não está integrada à CPU.

Quanto mais avançado é o chip gráfico, maior tende a ser a sua quantidade de memória dedicada, o que favorece o desempenho. É o caso da Nvidia GeForce RTX 4090, que tem 24 GB de VRAM. Essa informação também é mostrada no Gerenciador de Tarefas do Windows.

O que são 3D, Copy, Video Decode e Video Processing de GPU no Gerenciador de Tarefas?

Por padrão, a área de monitoramento de GPU do Gerenciador de Tarefas mostra gráficos para quatro parâmetros. Outros podem ser exibidos se você clicar sobre o nome de cada um dos gráficos e selecionar a opção desejada. Os principais parâmetros são descritos a seguir:

3D: indica a porcentagem de recursos da GPU que são usados para a geração de gráficos tridimensionais;

Copy: informa a atividade de transferência de dados à GPU necessários para as tarefas de renderização;

Video Encode: mostra quando a GPU está sendo usada para codificar um vídeo, isto é, transformá-lo em um arquivo ou fluxo para ser armazenado, transmitido ou executado. Isso ocorre em tarefas como videoconferências;

Video Decode: indica quando a GPU está decodificando um vídeo, ou seja, extraindo as informações para que o conteúdo correspondente seja reproduzido;

Video Processing: reporta o nível de atividade do mecanismo de processamento de vídeos da GPU. Pode existir mais de uma unidade para esse fim, com cada uma delas sendo monitorada independentemente;

GDI Render: informa quando uma interface especial do Windows está em uso para permitir que aplicativos exibam elementos gráficos, como polígonos e linhas. Essa interface funciona como um intermediário entre o aplicativo e a GPU;

Engine: é uma referência às unidades de execução da GPU. Elas são numeradas em sequências como “Engine 1” e “Engine 2”. Cada unidade é independente, por isso, pode ter um gráfico de monitoramento exclusivo.

Monitoramento da GPU durante a execução de um vídeo (imagem: Emerson Alecrim/Tecnoblog)

O que fazer se o Gerenciador de Tarefas não mostra a minha GPU?

O driver da sua placa de vídeo pode ser incompatível ou estar desatualizado. Para mostrar dados da GPU, o Gerenciador de Tarefas requer que o driver do componente seja compatível com o WDDM (Windows Display Driver Model) versão 2.0 ou superior.

WDDM é o recurso do sistema que contém os mecanismos para coletar dados de atividade gráfica, de acordo com a Microsoft.

Para saber a versão do WDDM, digite “dxdiag” na barra de pesquisa do Windows 10 ou no menu Iniciar do Windows 11. Na tela que abrir, vá em Exibir. Na coluna Drivers, à direita, confira o campo Modelo do Driver. Se a versão do WDDM for 1.x, a coleta de dados não poderá ser feita pelo Gerenciador de Tarefas.

Geralmente, essa limitação acontece com GPUs antigas, que não têm drivers recentes. Se for o caso, a alternativa está no uso de softwares como NZXT Cam e GPU-Z. Mesmo nas versões gratuitas, eles oferecem detalhes relevantes sobre o uso do chip gráfico.

O WDDM 1.2 não permite que o Gerenciador de Tarefas monitore a GPU (imagem: Emerson Alecrim/Tecnoblog)

Como monitorar o uso da placa de vídeo enquanto joga?

É possível monitorar a placa de vídeo durante a execução de jogos com ferramentas fornecidas pelo fabricante da placa de vídeo ou da GPU. Um exemplo é o software GeForce Experience, disponível para modelos atuais da linha GeForce. Já usuários de GPUs Radeon podem usar o Adrenalin Edition para esse fim.

Também há aplicativos de terceiros que podem monitorar o uso da GPU enquanto um game é executado, como o gratuito MSI Afterburner. A ferramenta é muito usada para overclock, mas também tem funções de monitoramento. Apesar de ser mantido pela MSI, o software funciona com placas de vídeo de outras marcas.

Alguns jogos, como League of Legends, Valorant e Fortnite, podem ser configurados para exibir taxa de FPS ou outros dados de monitoramento sem depender de ferramentas externas.

Configuração de monitoramento do MSI Afterburner (imagem: Emerson Alecrim/Tecnoblog)

GPU com 100% de uso é normal?

É pouco provável que algo esteja errado se um software de monitoramento indicar que a GPU está com 100% de uso durante uma atividade gráfica exigente, como um jogo pesado em execução.

Porém, se o uso da GPU está em 100% ou com uma porcentagem próxima disso durante momentos de ociosidade ou na execução de atividades com baixa demanda gráfica, como vídeos ou jogos simples, pode haver algum problema. Entre as possíveis causas estão:

Gargalo na GPU: problema que pode ser causado por um driver desatualizado. Se a instalação de um driver recente resolver o problema, a causa era mesmo essa;

Driver novo: um driver recém-atualizado pode fazer o chip gráfico funcionar incorretamente por bug. Neste caso, o problema pode ser revertido com a instalação do driver anterior ou com o lançamento da versão seguinte;

Configuração inadequada da GPU: a tentativa de otimizar a GPU para overclock ou undervolt pode falhar e causar anormalidades funcionais. Reverter o ajuste ou ativar a configuração padrão são soluções possíveis;

Temperatura alta: se a GPU atingir uma temperatura elevada, ela pode baixar a sua frequência automaticamente. Isso pode fazer o seu uso ser mostrado como 100%. Um sistema de resfriamento mais eficiente pode ser a solução;

Malware: um vírus em segundo plano pode prejudicar todo o sistema, incluindo a parte gráfica. O problema pode ser resolvido com um antivírus. Opções gratuitas podem ser suficientes, pelo menos nos casos mais simples.

Baixo uso de GPU em jogos é normal?

Se o jogo tiver gráficos simples ou resolução baixa e estiver sendo executado sem nenhum tipo de problema, a GPU está sendo pouco usada simplesmente por ter uma carga de trabalho pequena para executar.

Mas se o monitorando indicar baixo uso da GPU ao mesmo tempo em que o game apresenta qualidade gráfica ruim ou instabilidades, algo pode estar impedindo o seu uso em plena capacidade. Entre as causas possíveis para o problema estão:

Driver desatualizado: um driver antigo ou incorreto pode prejudicar o fluxo de operações da GPU. Instale o driver mais recente a partir do site do fabricante do dispositivo;

Configuração inadequada da GPU: se o problema surgir após um ajuste aplicado manualmente, reverta o procedimento ou ative a configuração padrão no software da placa de vídeo para resolver o problema;

Configuração inadequada do jogo: se o problema surgir após uma tentativa de otimizar o game, reverta a ação ou ative a configuração padrão. Em alguns casos, pode ser necessário reinstalar o jogo;

Gargalo na CPU: o problema pode ser causado pelo uso de um processador antigo ou com baixo desempenho que, como tal, prejudica o envio de instruções à GPU. A solução está no uso de uma CPU mais recente.

Como ver a temperatura da GPU?

O Gerenciador de Tarefas do Windows pode exibir a temperatura para algumas GPUs, a exemplo dos modelos mais recentes da família Nvidia GeForce. Se essa informação não estiver disponível por lá, a alternativa é o uso de softwares de monitoramento, como NZXT Cam, GPU-Z e MSI Afterburner.

Temperatura e outros parâmetros da GPU no NZXT Cam (imagem: Emerson Alecrim/Tecnoblog)

A temperatura ideal varia de acordo com o fabricante e o modelo da GPU, mas, em geral, não deve ser superior a 100ºC. Quanto mais baixo estiver esse parâmetro, melhor. Como isso vale para toda a máquina, saiba como ver a temperatura do computador.
Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo
Fonte: Tecnoblog

O que é renderização? Saiba como funciona o processo de geração de imagens digitais

O que é renderização? Saiba como funciona o processo de geração de imagens digitais

Renderização é um processo da computação gráfica que transforma um conjunto de instruções em uma imagem digital 2D ou 3D. O procedimento gera o conteúdo visual de aplicações como jogos, simuladores e design gráfico. Entenda como o conceito funciona e quais são as suas principais técnicas.

O que é renderização? (imagem: Vitor Pádua/Tecnoblog)

ÍndiceComo funciona a renderização de uma imagem?O que é mapeamento de texturas?O que é shading?O que é anti-aliasing?O que é motion blur?O que é profundidade de campo?Quais são as principais técnicas de renderização de imagem?Rasterização de imagemImagem vetorialRay tracingRay castingPath tracingRenderização neuralEm quais áreas a renderização gráfica é usada?Como funciona a renderização no videogame?Como funciona a renderização no design gráfico?Como funciona a renderização em filmes e animações?Como funciona a renderização no navegador web?

Como funciona a renderização de uma imagem?

A renderização ocorre quando uma imagem é gerada com base em um conjunto de instruções e dados que descrevem as suas características, como formas geométricas, cores, projeção de luzes e sombras, texturas e reflexos.

As instruções são baseadas em modelos bidimensionais (2D) ou tridimensionais (3D) que definem como o conteúdo gráfico deve ser gerado. No ambiente de um jogo, por exemplo, esses dados determinam parâmetros como dimensões do cenário, texturas dos objetos, onde sombras devem projetadas e cor de cada pixel.

Embora a renderização possa ser feita com uma CPU, é mais comum o uso de uma GPU para esse fim. Isso porque a computação gráfica costuma envolver uma grande quantidade de operações. As GPUs permitem que numerosas operações sejam realizadas simultaneamente por terem estrutura para processamento paralelo.

Renderização gráfica (imagem: Vitor Pádua/Tecnoblog))

As GPUs são ainda mais importantes na geração de conteúdo 3D, que são imagens que dão noção de profundidade. Há dois tipos principais de renderização tridimensional:

Pré-renderização: o conteúdo gráfico final é gerado depois de as instruções e dados brutos serem apresentados. É usado na criação de animações detalhadas de filmes ou em trabalhos arquitetônicos, por exemplo;

Renderização em tempo real: as imagens são baseadas em modelos 2D ou 3D, mas geradas à medida que as instruções são apresentadas. É muito usado em aplicações cujo conteúdo visual depende da ação do usuário, como jogos.

O que é mapeamento de texturas?

O mapeamento de texturas é uma etapa da renderização que aplica uma ou mais superfícies 2D em um objeto tridimensional. Trata-se de um passo que adiciona contexto e detalhes a uma formação gráfica. Nos games em primeira pessoa, por exemplo, o mapa de textura forma as paredes ou os níveis de solo do ambiente.

O que é shading?

O shading é um processo da renderização que gera um efeito de iluminação sobre superfícies ou pontos específicos de elementos gráficos. Esse efeito pode variar em intensidade e alcance para aumentar a percepção de profundidade, mudar a perspectiva de um objeto ou simplesmente criar pontos de sombra.

Aplicação de shading (imagem: Vitor Pádua/Tecnoblog)

O que é anti-aliasing?

Anti-aliasing é um método que atenua ou elimina o efeito de serrilhamento que se forma em elementos gráficos, sendo mais perceptível em seu contorno. Técnicas de anti-aliasing são frequentemente aplicadas nas etapas finais da renderização para aumentar a sensação de definição da imagem.

Aplicação de anti-aliasing (imagem: Vitor Pádua/Tecnoblog)

O que é motion blur?

Motion blur é um efeito de desfoque de movimento que é aplicado sobre objetos gráficos para criar uma percepção de deslocamento. A técnica pode ser implementada com tempo de duração e extensão do rastro variadas. Com isso, é possível gerar sensação de velocidade em jogos de corrida, por exemplo.

Efeito de Motion blur (imagem: Stefans02/Flickr)

Não confunda
O desfoque de movimento gerado intencionalmente na renderização gráfica não deve ser confundido com o motion blur que ocorre em TVs e monitores. Nesses equipamentos, o efeito de borrão é causado por limitações técnicas, como tempo de resposta lento, e costuma prejudicar a qualidade da imagem.

O que é profundidade de campo?

A profundidade de campo aplica um efeito de foco ou desfoque sobre elementos gráficos em relação ao ponto de observação da imagem. Na computação gráfica, o conceito é usado para gerar uma percepção de distância, deixando um objeto em primeiro plano totalmente nítido enquanto o fundo fica desfocado, e vice-versa.

Quais são as principais técnicas de renderização de imagem?

Como a renderização é aplicada sobre elementos gráficos ou tipos de conteúdo distintos (como jogos e animações), várias técnicas foram desenvolvidas para o procedimento. As principais são descritas a seguir.

Rasterização de imagem

A rasterização é um processo no qual uma imagem bidimensional é formada pixel a pixel, com cada um deles representando uma cor. Quanto maior o número de pixels, mais detalhado é o conteúdo gerado. Imagens rasterizadas são armazenadas em formatos como PNG, JPEG e Bitmap.

Imagem vetorial

Imagem vetorial é aquela gerada a partir de linhas e pontos definidos com cálculos matemáticos. A imagem pode ter formas alteradas e dimensões ampliadas ou reduzidas sem que isso cause distorções, pois toda modificação é baseada em recálculos.

Traços e pontos de vetorização (imagem: Vitor Pádua/Tecnoblog)

Ray tracing

Ray tracing (traçado de raios) é uma técnica que reproduz a forma como raios de luz são gerados no “mundo real” para reproduzir gráficos mais realistas em jogos 3D e animações. A técnica é suportada de modo nativo em placas de vídeo de linhas como Nvidia GeForce RTX e AMD Radeon RX.

Sem e com ray tracing (imagens originais: reprodução/Nvidia)

Ray casting

Ray casting é um método de renderização que gera imagens tridimensionais a partir de raios de luz que saem de um centro de projeção. Quando essa luz alcança um objeto gráfico, parâmetros como cor e brilho mudam de modo correspondente naquele ponto, aumentando o realismo da imagem.

Path tracing

Path tracing é um método de renderização usado para definir traçados que deixam a iluminação da imagem mais próxima da realidade. Difere do ray tracing e do ray casting por projetar os raios a partir de fontes de luz distribuídas na cena, e não da posição de observação.

Comparativo entre ray tracing, path tracing e rasterização (imagem: reprodução/Nvidia)

Renderização neural

A renderização neural é um método que usa redes neurais, um conceito atrelado à inteligência artificial, para gerar imagens a partir de um conjunto de cenas. O seu maior benefício é conseguir formar imagens realistas rapidamente, principalmente em chips que contam com NPU (unidade de processamento neural).

Em quais áreas a renderização gráfica é usada?

A renderização gráfica é usada em áreas como produção de jogos, design gráfico, animações e até navegação web. Confira, abaixo, as especificidades de cada aplicação.

Como funciona a renderização no videogame?

A renderização em tempo real é o método mais empregado nos jogos, pois as cenas e objetos precisam ser exibidos de acordo com a ação realizada pelo jogador. Essa dinâmica exige que o conteúdo seja produzido muito rapidamente, razão pela qual games com gráficos detalhados exigem GPUs avançadas.

Para aumentar o realismo visual ou permitir efeitos gráficos especiais, os jogos também podem aplicar técnicas de renderização como ray tracing e path tracing. Muitos títulos contam ainda com recursos que otimizam a renderização gráfica, como as tecnologias Nvidia DLSS e AMD FSR.

Jogo Call of Duty renderizado no Xbox (imagem: Ricardo Syozi/Tecnoblog)

Como funciona a renderização no design gráfico?

O design gráfico se beneficia de técnicas de pré-renderização por envolver aplicações nas quais os níveis de detalhamento importam mais do que a reprodução em tempo real, como projeto de produtos, modelagem 3D de componentes e trabalhos de comunicação visual.

Nesses segmentos, o uso de gráficos vetoriais é comum, mas imagens rasterizadas e técnicas como ray tracing também podem ser aplicadas, especialmente na fase de finalização do projeto. Como esses detalhes envolvem muito processamento, o design gráfico tende a exigir computadores com CPU e GPU de alto desempenho.

Como funciona a renderização em filmes e animações?

A renderização de vídeos baseados em computação gráfica é um processo que envolve aplicação de texturas, efeitos de movimento (como motion blur), sombras sobre objetos ou personagens, anti-aliasing, entre outros procedimentos. Nas animações mais sofisticadas, esse trabalho exige workstations avançadas.

Na produção de um longa-metragem ou de um série animada, a renderização pode demandar bilhões de arquivos e levar várias etapas para ser concluída. Por isso, estúdios como DreamWorks e Pixar usam datacenters para renderizar seus vídeos.

Processo de renderização de filme da Pixar (imagem: Museum of Science/Pixar)

Como funciona a renderização no navegador web?

Nos navegadores, a renderização consiste em transformar dados de códigos em HTML, CSS, JavaScript e outros padrões em informação visual. Dependendo do conteúdo a ser reproduzido, o navegador pode até usar aceleração por GPU para realizar esse trabalho com mais eficiência.
O que é renderização? Saiba como funciona o processo de geração de imagens digitais

O que é renderização? Saiba como funciona o processo de geração de imagens digitais
Fonte: Tecnoblog

Nvidia anuncia primeiro superchip com memória HBM3e

Nvidia anuncia primeiro superchip com memória HBM3e

A Nvidia divulgou nesta semana a próxima geração da GH200 Grace Hopper, plataforma de processamento focada em computação acelerada e desenvolvimento de IA. O produto é baseado no superchip Grace Hopper (como indica o seu nome) e une CPU e GPU. A plataforma GH200 tem suporte para a tecnologia Nvidia NVLink, que permite o trabalho em conjunto com outros chips de um supercomputador ou servidor.

Nvidia vai deixando as GPUs gamers de lado e evoluindo nos superchips para supercomputação (Imagem: Vitor Pádua/Tecnoblog)

O GH200 é a primeira plataforma de HPC (sigla em inglês para computação de alto desempenho) com memória HBM3e do mundo. Esse tipo de memória, cuja sigla significa “memória de alta largura de banda” (tradução direta), é a mais recente geração das memórias do tipo HBM. Elas são mais rápidas e eficientes que as clássicas DDR/GDDR, mas também mais caras — restringido seu uso aos supercomputadores e servidores.

Nvidia GH200 tem memória de sobra

O novo superchip GH200 da Nvidia possui 144 GB da já citada HBM3e na sua GPU. De acordo com a Nvidia, a plataforma tem desempenho de oito petaflops para atividades de inteligência artificial. No total, a GH200 conta com 144 núcleos Arm Neoverse.

Superchip Nvidia GH200 é o primeiro com memória HBM3e (Imagem: Divulgação/Nvidia)

Essas configurações significam 3,5 vezes mais largura de banda e capacidade de memória do que a atual geração. A nova plataforma será a “menina dos olhos” das empresas que estão no desenvolvimento das suas inteligências artificiais, como Google, Meta, OpenAI e Microsoft (estas duas trabalhando praticamente em conjunto) — e Elon Musk tentando recuperar o atraso da X.AI.

Sem dúvidas, a Nvidia seguirá “torcendo para a briga” na competição entre as big techs e suas inteligências artificiais. A fabricante de GPUs e equipamentos para supercomputação segue como a principal fornecedora de equipamentos para o desenvolvimento de modelos de linguagem grande.

Para o azar das big techs, a Nvidia GH 200 só chegará no segundo trimestre de 2004. Todavia, o supercomputador DGX GH200, com exaflop de desenvolvimento e voltado para IAs, chega no fim do ano.
Nvidia anuncia primeiro superchip com memória HBM3e

Nvidia anuncia primeiro superchip com memória HBM3e
Fonte: Tecnoblog

MacBook Pro com chip M3 Max pode estar a caminho

MacBook Pro com chip M3 Max pode estar a caminho

A linha de processadores próprios da Apple estreou em 2020 e está perto de chegar à terceira geração. A empresa está testando o chip M3 Max. Ele equiparia o próximo MacBook Pro, a ser lançado em 2024, mas a transição dos outros modelos pode começar ainda este ano.

MacBook Pro 2023 com chips M2 Pro e M2 Max (Imagem: Apple / Divulgação)

As informações são do jornalista Mark Gurman, da Bloomberg, especializado em cobrir a Apple, e foram obtidas com a ajuda de um desenvolvedor independente.

O M3 Max teria 16 núcleos de processamento e 40 núcleos gráficos. São quatro núcleos de processamento e pelo menos dois gráficos a mais que o M2 que equipa os laptops da Apple atualmente. Além disso, o chip teria suporte a até 48 GB de RAM.

Dos 16 núcleos de processamento do M3 Max, 12 seriam de alta performance, voltado a tarefas que demandam muito da máquina, como edição de vídeo. Os quatro restantes seriam de eficiência, com gasto de energia menor, para usos mais simples, como navegar na internet.

Esta seria apenas uma versão do M3 Max — os testes da Apple podem incluir outras combinações de núcleos.

M3 pode estrear em outubro

Vale dizer que o MacBook Pro com M3 Max que deve chegar em 2024 não será o primeiro a conta com a nova geração de chips da Apple.

Segundo Gurman, a transição começará em outubro, com o lançamento das versões atualizadas da linha de entrada dos Macs.

Os chips M3 já foram vistos em testes com iMacs, Macbooks Pro de 13 polegadas, MacBooks Air de 13 e 15 polegadas e Macs Mini.

Até o momento, alguns detalhes sobre o M3 e o M3 Pro já surgiram. O M3 teria oito núcleos de processamento e 10 núcleos gráficos, mesma combinação do M2. Já o M3 Pro terá 12 núcleos na CPU e 18 na GPU.

M3 deve ter processo de fabricação de 3 nm

O M3 deve ser o primeiro chip dos Macs fabricado com o processo de 3 nm. Quanto menor a litografia de um chip, menos espaço entre os transistores.

Isso melhora a eficiência energética e permite colocar mais transistores em menos espaço, aumentando a capacidade de processamento.

Espera-se que o A17, chip que deve equipar o iPhone 15 Pro, também conte com essa tecnologia.

Com informações: Bloomberg
MacBook Pro com chip M3 Max pode estar a caminho

MacBook Pro com chip M3 Max pode estar a caminho
Fonte: Tecnoblog

Asus lança no Brasil notebook ultrafino Zenbook S 13 OLED

Asus lança no Brasil notebook ultrafino Zenbook S 13 OLED

A Asus lançou nesta quinta-feira (3) o Zenbook S 13 OLED no mercado brasileiro. Com 1 cm de espessura, ele é anunciado como o notebook é o mais fino do mundo entre os que têm telas OLED. Além disso, conta com processadores i5 e i7 da 13ª geração da Intel, até 32 GB de RAM e 1 TB de armazenamento. A empresa também apresentou outros três modelos: o Zenbook 14X, o Vivobook 16X e o Vivobook 15X OLED.

Asus Zenbook S 13 OLED (Imagem: Giovanni Santa Rosa/Tecnoblog)

O Zenbook S 13 OLED foi apresentado em abril de 2023 e agora faz sua estreia no Brasil.

A tela OLED de 13,3 polegadas conta com regulagem automática de brilho e temperatura de cor. Ela oferece certificação Pantone, além de 100% da gama de cores DCI-P3 e 133% da sRGB. A resolução é 2.8K.

O display também tem suporte a Dolby Vision, para filmes e séries, e tempo de resposta de 0,2 ms, melhorando a experiência em games.

A Asus aproveitou a tecnologia OLED, que permite ligar e desligar pixels individualmente, para economizar bateria. Com o Target Mode ativado, o notebook pode escurecer janelas que estão inativas, diminuindo o consumo de energia.

Asus Zenbook S 13 OLED (Imagem: Giovanni Santa Rosa/Tecnoblog)

A empresa também usa software para desligar e deslocar os pixels da tela de modo imperceptível para o usuário, como forma de tentar evitar o burn-in, nome dado às “queimaduras” das telas OLED.

Na parte de especificações técnicas, o Zenbook S 13 OLED traz opções com Core i5 e i7 de 13ª geração, gráficos Intel Iris Xe, até 32 GB de RAM, até 1 TB de armazenamento SSD e Wi-Fi 6E.

Além da espessura de apenas 1 cm, o Zenbook S 13 OLED pesa apenas 1 kg. Apesar de ser compacto, a dobradiça permite abertura de 180 graus. Além disso, ela cria uma pequena inclinação na base, com o objetivo de oferecer mais conforto.

Asus Zenbook S 13 OLED (Imagem: Giovanni Santa Rosa/Tecnoblog)

Para conseguir reduzir a espessura, a Asus passou a aplicar a tela em camadas. Os componentes internos também precisaram ser “afinados” e arranjados para otimizar o uso do espaço.

Outro aspecto de design é a resistência de nível militar MIL-STD 810H. O Zenfone S 13 OLED tem duas portas Thunderbolt 4, uma HDMI 2.1, duas USB-C 3.1 e uma saída de 3,5 mm para fonde de ouvido. O notebook conta ainda com alto-falantes Harman Kardon.

O Asus Zenbook S 13 OLED já está disponível na loja online da Asus. Ele custa a partir de R$ 9.999 à vista ou R$ 10.999 à prazo.

Informações do Zenbook S 13 OLED (Imagem: Giovanni Santa Rosa/Tecnoblog)

Asus Zenbook 14X OLED

A Asus também lançou no Brasil a nova geração do notebook Asus Zenbook 14X OLED. Com foco em performance, ele conta com processador Intel Core i9 de 13ª geração (i9-13900H) e até 32 GB de RAM LPDDR5.

Asus Zenbook 14X OLED (Imagem: Giovanni Santa Rosa/Tecnoblog)

Como o chip tem 45 W de TDP, a Asus recorreu à tecnologia IceCool, com dois tubos de calor e dutos. A empresa promete ruído menor que 40 dB.

Apesar do foco em desempenho, ele tem 1,69 cm de espessura e 1,5 kg de peso. A bateria de 70 Wh promete até 10 horas de autonomia. Além disso, o notebook conta com carregamento rápido e suporte à USB-C Easy Charge.

Na parte visual, o Asus Zenbook 14X OLED tem tela Lumina OLED HDR, resolução de 2.8K e 120 Hz de taxa de atualização. Em conectividade, o suporte a Wi-Fi 6E é o destaque.

O Asus Zenbook 14X OLED chega às lojas brasileiras até o fim de agosto. O preço ainda não foi divulgado.

Informações do Zenbook 14X OLED (Imagem: Giovanni Santa Rosa/Tecnoblog)

Asus Vivobook 16X e 15X OLED

A Asus trouxe ainda dois novos notebooks da linha Vivobook: o Vivobook 16X e o Vivobook 15X OLED.

Asus Vivobook 16X (Imagem: Giovanni Santa Rosa/Tecnoblog)

O Vivobook 16X tem como maior destaque a placa gráfica Nvidia RTX 2050, com até 4 GB de RAM GDDR6 e ray tracing. O processador é um Intel Core i5 de 12ª geração da série H.

Completando as especificações de desempenho, estão até 16 GB de RAM DDR4 e até 512 GB de armazenamento SSD.

Informações do Asus Vivobook 16X (Imagem: Giovanni Santa Rosa/Tecnoblog)

Já o Vivobook 15X OLED, como o nome indica, tem a tela como diferencial. O display Lumina OLED de 15,6 polegadas, que conta com certificação Pantone e 100% da gama DCI-P3.

Este modelo tem processador Intel Core i7 de 12ª geração, até 16 GB de RAM e até 512 GB de armazenamento SSD.

O Asus Vivobook 16X chega à loja da marca ainda em agosto. Já o Vivobook 15X OLED desembarca em setembro. Os preços ainda não foram divulgados.
Asus lança no Brasil notebook ultrafino Zenbook S 13 OLED

Asus lança no Brasil notebook ultrafino Zenbook S 13 OLED
Fonte: Tecnoblog

Samsung lança Galaxy Book 3 Ultra no Brasil com Nvidia RTX 4070; veja preço

Samsung lança Galaxy Book 3 Ultra no Brasil com Nvidia RTX 4070; veja preço

A Samsung iniciou as vendas do Galaxy Book3 Ultra no Brasil. O novo notebook topo de linha da fabricante sul-coreana é equipado com processador Intel Core i9 13ª geração e placa de vídeo Nvidia RTX 4070 — trazendo ray tracing para o laptop. O valor sugerido no lançamento é R$ 24.999.

Galaxy Book3 Ultra chega por R$ 24.999 (Imagem: Divulgação/Samsung)

Apesar de absurdamente caro, o valor do laptop é (infelizmente) “padrão” no segmento premium e “gamer” — a Samsung não chega a divulgar o produto como notebook gamer. Alguns laptops gamers e com processador e GPU de geração anteriores ao do Galaxy Book3 Ultra custam facilmente mais de R$ 14.000.

Notebook é fabricado no Brasil e traz algo “pioneiro”

Segundo a Samsung, o Galaxy Book3 Ultra é o primeiro notebook com processador Intel Core i9 13900H ( 13ª geração de codinome Raptor Lake) fabricado no Brasil. A 13ª geração dos CPUs da Intel foi lançada em outubro de 2022, mas as versões mobile só foram apresentadas em janeiro deste ano.

Assim como os processadores da 12ª geração, os Intel Core Raptor Lake utilizam a arquitetura híbrida. Essa configuração é idêntica aos SoCs de celulares, com núcleos para tarefas de alto desempenho e outros para ações menos exigentes.

No caso do i9 de 13ª geração, são 6 núcleos de performance e 8 de eficiência. O total de threads são 20, sendo que somente os núcleos para alto desempenho realizam o multi-thread.

Galaxy Book3 Ultra tem tela Dynamic Amoled 2X (Imagem: Divulgação/Samsung)

A Samsung não chegou a revelar a expectativa de duração da bateria, mas a configuração de núcleos híbridos deve dar um bom tempo de uso.

Porém, se você exigir muito dessa boa combinação entre Intel Core i9 e Nvidia RTX 4070, é bem provável que o seu tempo de uso seja bem encurtado — exemplo, jogando um Red Dead Redemption 2 com a melhor configuração possível para o Galaxy Book3 Ultra.

A Nvidia RTX 4070 possui 8 GB de memória VRAM do tipo GDDR6. Para exibir os gráficos gerados pela GPU, a Samsung equipou o Galaxy Book3 Ultra com um tela Dynamic AMOLED 2X. A resolução máxima é de 3K.

O Book3 Ultra possui 32 GB de memória RAM e sai de fábrica com um SSD de 1 TB de capacidade.
Samsung lança Galaxy Book 3 Ultra no Brasil com Nvidia RTX 4070; veja preço

Samsung lança Galaxy Book 3 Ultra no Brasil com Nvidia RTX 4070; veja preço
Fonte: Tecnoblog

O que são processadores e quais os tipos usados em celulares, PCs e câmeras?

O que são processadores e quais os tipos usados em celulares, PCs e câmeras?

Processadores servem para controlar funções e executar operações em smartphones, PCs, câmeras e outros eletrônicos. Chips especializados, como GPUs e NPUs, podem realizar cálculos, processar gráficos, treinar inteligências artificiais, entre outras tarefas, enquanto uma CPU é um processador de uso geral.

Uma placa de vídeo com GPU (acima) e um processador central (CPU) fabricado pela Intel (Imagem: Everton Favretto/Tecnoblog)

Os processadores são definidos por suas propriedades, incluindo litografia, quantidade de núcleos, velocidade do clock, arquitetura e conjunto de instruções. A seguir, entenda mais sobre os principais tipos de processadores presentes em eletrônicos de consumo, os atributos em comum e suas respectivas funções.

ÍndiceQuais são os principais tipos de processadores?Para que serve a Unidade Central de Processamento (CPU)?Para que serve a Unidade de Processamento Gráfico (GPU)?Para que serve a Unidade de Processamento Neural (NPU)?Para que serve um Processador Digital de Sinal (DSP)?Para que serve um Processador de Sinal de Imagem (ISP)?O que é a litografia de um processador?O que são nanômetros no processador?O que são transistores de um processador?O que é a arquitetura de um processador?O que é o conjunto de instruções de um processador?Qual é a diferença entre RISC e CISC?Qual é a diferença entre processador Arm e x86?Qual é a diferença entre processador 64 bits e 32 bits?O que é o clock do processador?O que é overclock do processador?Para que serve o núcleo do processador?O que é um processador multicore?O que são threads do processador?O que é a tecnologia Hyper-Threading?O que é o TDP de um processador?O que é um microprocessador?Quem inventou o primeiro microprocessador?Quais eram as especificações do primeiro microprocessador?O que diz a Lei de Moore sobre processadores?Quais são as principais linhas de processadores?Processador de notebook serve em PC (desktop)?

Quais são os principais tipos de processadores?

CPU (Unidade Central de Processamento), GPU (Unidade de Processamento Gráfico), NPU (Unidade de Processamento Neural) e ISP (Processador de Sinal de Imagem) são alguns dos principais tipos de processadores encontrados em celulares, câmeras e computadores.

Para que serve a Unidade Central de Processamento (CPU)?

A CPU serve para executar instruções gerais de programas, funcionando como o “cérebro” do computador. Ela é dividida em três componentes principais: a Unidade Lógica Aritmética (ULA), a Unidade de Controle (UC) e os Registradores. Por ser a unidade central de processamento, é muitas vezes chamada apenas de “processador”.

Para que serve a Unidade de Processamento Gráfico (GPU)?

A GPU serve para processar gráficos de forma eficiente, sendo fundamental para renderização de jogos, edição de vídeo e outras aplicações visuais. Baseia-se no processamento paralelo para executar múltiplas operações gráficas simultaneamente e pode ter centenas ou milhares de núcleos de processamento independentes.

Placa de vídeo com GPU Nvidia instalada em um desktop (Imagem: Emerson Alecrim/Tecnoblog)

Para que serve a Unidade de Processamento Neural (NPU)?

A NPU serve para acelerar tarefas relacionadas à inteligência artificial, como deep learning, redes neurais e visão computacional em celulares e computadores. Também chamada de Unidade de Processamento Inteligente (IPU), pode melhorar a qualidade de imagens em Smart TVs por meio de uma técnica conhecida como upscaling.

Para que serve um Processador Digital de Sinal (DSP)?

Um DSP serve para processar sinais digitais, como áudio e vídeo, em tempo real. É útil em aplicações como codificação e decodificação de vídeos de alta resolução, cancelamento ativo de ruído (ANC) em fones de ouvido e filtros de melhoria de qualidade de imagem.

Para que serve um Processador de Sinal de Imagem (ISP)?

Um ISP serve para processar as imagens capturadas por câmeras. Trabalha em conjunto com outros processadores do SoC (System-on-a-chip), como o DSP e a CPU, para gerenciar as cores, reduzir o ruído e melhorar a nitidez das cenas fotografadas e filmadas pelo celular, notebook, câmera digital e outros eletrônicos com sensores de imagem.

Galaxy Z Fold 5 tem ISP Spectra, do Snapdragon 8 Gen 2 for Galaxy, para processar imagens das câmeras (Imagem: Thássius Veloso/Tecnoblog)

O que é a litografia de um processador?

Litografia é a tecnologia de fabricação usada na produção de um semicondutor, como um processador de silício. Ela afeta diretamente fatores como a densidade de transistores, a velocidade de processamento, a eficiência energética e o gerenciamento de calor do chip.

O que são nanômetros no processador?

A litografia de um processador é expressa em nanômetros (nm). Quanto menor o valor em nanômetros, maior tende a ser o número de transistores dentro do processador em uma mesma área física.

O que são transistores de um processador?

Transistores são componentes semicondutores, normalmente feitos de silício, que controlam a corrente elétrica. Em um processador, transistores agem como interruptores, controlando o fluxo de eletricidade e, consequentemente, a execução das instruções e dos cálculos.

O que é a arquitetura de um processador?

A arquitetura de um processador se refere ao projeto do chip e à forma como ele processa os dados. Há dois tipos de arquiteturas: a von Neumann, mais comum em processadores modernos, e a Harvard.

Arquitetura von Neumann: usa uma memória única para armazenar tanto os dados quanto as instruções que estiverem sendo executadas. Ela consiste em um processador que realiza os cálculos, uma unidade de controle que coordena as operações e um barramento que interliga todos os componentes.

Arquitetura Harvard: tem memórias separadas para dados e programas, o que significa que o processador pode acessar instruções e manipular dados ao mesmo tempo. É mais usada em sistemas embarcados e pequenos microcontroladores, como os usados em eletrodomésticos, por ser mais eficiente para tarefas muito específicas.

O conjunto de instruções se refere às operações que o processador é capaz de executar. Pode ser do tipo RISC (Reduced Instruction Set Computer), que se baseia em instruções simplificadas e em menor quantidade, ou CISC (Complex Instruction Set Computing), que traz instruções mais complexas para aplicações específicas.

Snapdragon 865, um SoC projetado pela Qualcomm, tem uma arquitetura de conjunto de instruções do tipo Arm (Imagem: Paulo Higa/Tecnoblog)

O que é o conjunto de instruções de um processador?

O conjunto de instruções é uma parte da arquitetura que especifica quais operações um processador pode executar. Uma instrução pode ser uma operação de soma, subtração, multiplicação e divisão, ou um comando para carregar e armazenar dados.

A arquitetura do conjunto de instruções (ISA) serve como ponte entre o hardware e o software do computador. Um programa deve ser escrito de acordo com as especificações da ISA para que seja executado de maneira nativa, com a maior eficiência possível, sem necessidade de técnicas como emulação ou virtualização.

A microarquitetura é a forma como a ISA é implantada no processador. Chips diferentes podem ter a mesma ISA e entender o mesmo conjunto de instruções. No entanto, se tiverem microarquiteturas diferentes, eles executarão as instruções de maneiras diferentes, o que interferirá no desempenho e na eficiência energética.

Qual é a diferença entre RISC e CISC?

A diferença entre RISC e CISC está na abordagem do conjunto de instruções:

RISC (Computador com um conjunto reduzido de instruções): tem um conjunto de instruções simples e otimizadas. Sua ideia principal é executar mais instruções em menos tempo. Tem um pipeline mais eficiente, já que menos etapas são necessárias para cada instrução, o que tende a reduzir o consumo de energia;

CISC (Computador com um conjunto complexo de instruções): tem conjunto de instruções variadas e complexas. Sua ideia principal é minimizar o número de instruções por programa, já que uma única instrução pode executar várias operações complexas de baixo nível. Pode consumir mais energia.

Ou seja, RISC é um tipo de arquitetura de processador com um conjunto menor e mais simples de instruções, enquanto o CISC possui um conjunto maior e mais complexo de instruções.

Qual é a diferença entre processador Arm e x86?

A diferença entre Arm e x86 é o conjunto de instruções. Processadores Arm são facilmente encontrados em dispositivos móveis e são projetados com ênfase em eficiência energética, enquanto os modelos x86 são comuns em desktops e servidores, nos quais o desempenho bruto é mais importante.

Intel Pentium D, um processador dual-core com arquitetura CISC x86 (Imagem: Everton Favretto/Tecnoblog)

Qual é a diferença entre processador 64 bits e 32 bits?

A diferença entre processadores de 64 bits e 32 bits está no endereçamento de memória e no processamento de dados. Um chip de 32 bits pode endereçar até 4 GB (232 bytes) de memória e processar dados em pedaços de 32 bits. Já um chip de 64 bits pode endereçar até 18,4 EB (264 bytes) de memória e processar dados em pedaços de 64 bits, o que permite maior desempenho em operações complexas.

O que é o clock do processador?

O clock do processador estabelece o número de ciclos que o chip executa em um segundo. É medido em Hertz (Hz), geralmente na escala de megahertz (MHz) ou gigahertz (GHz). Quanto maior a frequência, mais operações um processador pode executar a cada segundo, o que tende a aumentar seu desempenho.

O que é overclock do processador?

Overclock é a prática de aumentar o clock de um processador além do limite pré-estabelecido pela fabricante. Quando uma CPU com clock base de 3 GHz é configurada pelo usuário para operar a 4 GHz, dizemos que foi realizado um overclock.

O overclock pode elevar o consumo de energia e a temperatura do processador. Se o sistema de resfriamento for insuficiente para atender à frequência mais alta, o chip pode ser danificado permanentemente.

Para que serve o núcleo do processador?

O núcleo do processador, também chamado de “core”, é responsável por executar as operações e cálculos em um computador. Cada núcleo físico ou virtual de um chip pode operar de maneira independente, o que permite executar múltiplas tarefas simultaneamente e melhora o desempenho.

O que é um processador multicore?

A tecnologia multicore permite que um processador tenha múltiplos núcleos. São exemplos os processadores quad-core (4 núcleos) e octa-core (8 núcleos), comuns em dispositivos como smartphones e notebooks. O objetivo do multicore é aumentar a velocidade de processamento ao executar mais de uma operação ao mesmo tempo.

Processador Intel Core 2 Duo T7200, uma CPU com dois núcleos (Imagem: Everton Favretto/Tecnoblog)

O que são threads do processador?

Threads de um processador são sequências de instruções que fazem parte de um processo principal. Um programa é organizado em processos, e cada processo é dividido em threads. Quando um processador suporta multithreading, ele pode executar dois ou mais threads simultaneamente, o que melhora o desempenho.

O que é a tecnologia Hyper-Threading?

Hyper-Threading (HT) é a tecnologia de multithreading simultâneo da Intel que aumenta a eficiência ao permitir que cada núcleo físico da CPU execute dois threads ao mesmo tempo. Foi lançado pela primeira vez em um processador doméstico em novembro de 2002, no Pentium 4 HT de microarquitetura Northwood.

O nome Hyper-Threading é de propriedade da Intel, mas há outras fabricantes que usam tecnologias similares, como o AMD Simultaneous Multi-Threading (SMT), presente na família de microarquiteturas Zen.

O que é o TDP de um processador?

TDP (Thermal Design Power) representa a quantidade máxima de calor que um processador gera em condições normais. É expresso em watts (W) e serve para entender as necessidades de resfriamento de um chip, como uma CPU em um notebook ou uma GPU em uma placa de vídeo. Saber o TDP é importante para evitar o superaquecimento do chip.

O que é um microprocessador?

Microprocessador é um circuito integrado compacto que executa operações lógicas e cálculos matemáticos. O nome é comumente usado para se referir à Unidade Central de Processamento (CPU), que é o principal responsável por executar programas em um computador.

Quem inventou o primeiro microprocessador?

O primeiro microprocessador, Intel 4004, foi inventado por uma equipe de engenheiros da Intel composta por Ted Hoff, Federico Faggin e Stanley Mazor.

O Intel 4004 foi anunciado em 15 de novembro de 1971. Ele foi o primeiro microprocessador vendido ao público, por US$ 60 em valores da época.

Intel 4004, o primeiro microprocessador (Imagem: Divulgação/Intel)

Quais eram as especificações do primeiro microprocessador?

O Intel 4004 tinha clock de 740 a 750 kHz (kilohertz) e arquitetura BCD de 4 bits. Era fabricado em um processo de 10 micrômetros, ou 10.000 nanômetros, e tinha 2.300 transistores mais finos que um fio de cabelo. Processadores modernos podem ter bilhões de transistores com 5 nanômetros ou menos.

O chip foi usado na calculadora Busicom 141-PF, que tinha memória, 4 funções (soma, subtração, multiplicação e divisão) e impressão de resultados com até 15 dígitos.

O que diz a Lei de Moore sobre processadores?

A Lei de Moore é uma observação feita por Gordon E. Moore, cofundador da Intel, em 1965. A versão mais atualizada da previsão dizia que o número de transistores em um processador dobraria a cada 2 anos, ou seja, o desempenho dos chips evoluiria de forma exponencial.

A previsão está sendo desafiada nos últimos anos porque a miniaturização dos transistores está se aproximando dos limites físicos. À medida que se eles se tornam tão pequenos quanto átomos, surgem problemas técnicos que dificultam a continuidade da miniaturização no mesmo ritmo das últimas décadas.

Quais são as principais linhas de processadores?

Intel Core: lançada em 2006, tem como características sua alta performance em PCs. A linha Core é subdividida em Core i3 (entrada), Core i5 (intermediário), Core i7 (alto desempenho) e Core i9 (performance extrema);

Intel Pentium: lançada originalmente em 1993, a linha Pentium se tornou voltada para o segmento de entrada, oferecendo desempenho básico a um preço menor. Era a principal marca de CPUs da Intel antes da linha Core;

Intel Xeon: é a linha de processadores da Intel para servidores e estações de trabalho (workstations). Foi lançada em 1998 e tem foco em alto desempenho, podendo operar em conjunto com outros processadores do mesmo modelo no mesmo computador;

AMD Ryzen: lançada em 2017, é a marca de processadores de alto desempenho da AMD para PCs. A linha Ryzen é subdividida em Ryzen 3 (entrada), Ryzen 5 (intermediário), Ryzen 7 (alto desempenho) e Ryzen 9 (performance extrema);

AMD Athlon: criada originalmente em 1999, a linha Athlon se tornou voltada para os segmentos de entrada e intermediário, oferecendo desempenho básico para tarefas cotidianas. O Athlon foi o principal concorrente do Intel Pentium até o final da década de 2000;

AMD Epyc: é a linha de processadores da AMD projetada para servidores de alto desempenho. Geralmente conta com um grande número de núcleos e suporte a altas quantidades de memória;

AMD Radeon: reúne os processadores gráficos (GPUs) da AMD. Foi criada em 2000 pela ATI Technologies, empresa comprada pela AMD em 2006.

Nvidia GeForce: reúne os processadores gráficos (GPUs) da Nvidia. É a principal marca da Nvidia para placas de vídeo voltadas ao usuário doméstico e muito usada em aplicações de GPGPU (Unidade de Processamento Gráfico de Propósito Geral).

Qualcomm Snapdragon: lançada em 2007, é uma linha de System-on-a-Chip (SoC) muito popular em smartphones e tablets com Android. Reúne CPU, GPU, modem e outros componentes dentro do mesmo chip;

Samsung Exynos: linha de SoCs da Samsung criada em 2010. É comum em celulares e tablets da linha Samsung Galaxy.

Apple Silicon: são os processadores da Apple usados principalmente em Macs. Os chips da linha Apple M1, M2 e sucessores têm arquitetura Arm e substituíram os processadores da Intel, com arquitetura x86, em desktops e laptops da Apple.

Processador de notebook serve em PC (desktop)?

Não, pois processadores de notebooks geralmente são soldados diretamente na placa-mãe e têm soquete diferente das CPUs para desktops, que são especificamente projetadas para serem removíveis e substituíveis.
O que são processadores e quais os tipos usados em celulares, PCs e câmeras?

O que são processadores e quais os tipos usados em celulares, PCs e câmeras?
Fonte: Tecnoblog

Turbo Boost e Turbo Core: o que é o modo turbo em processadores?

Turbo Boost e Turbo Core: o que é o modo turbo em processadores?

Turbo Boost e Turbo Core são tecnologias desenvolvidas pela Intel e AMD, respectivamente, que elevam dinamicamente a frequência (clock) dos processadores. Também conhecido como modo turbo, esse tipo de recurso faz a CPU ter aumento de desempenho em tarefas que exigem muito processamento.

O que é o modo turbo em processadores? (imagem: Emerson Alecrim/Tecnoblog)

ÍndicePara que serve o modo turbo do processador?O que é o Intel Turbo Boost?Quais são as versões do Intel Turbo Boost?O Intel Turbo Boost impulsiona todos os núcleos?Como saber se o processador tem Turbo Boost?O que é o AMD Turbo Core?O AMD Turbo Core impulsiona todos os núcleos?Como saber se o processador tem Turbo Core?É seguro usar o modo turbo no processador?Qual é a diferença entre modo turbo e overclock?

Para que serve o modo turbo do processador?

O modo turbo permite aos núcleos do processador funcionarem com uma taxa de clock acima da frequência base (padrão). O procedimento faz a CPU ter um aumento de desempenho temporário para otimizar a execução de tarefas complexas.

O ajuste do clock no modo turbo ocorre de forma dinâmica, ou seja, é aplicado proporcionalmente à demanda de processamento e somente durante o tempo necessário. Esse controle evita que o processador gaste energia desnecessariamente.

Como o modo turbo tende a aumentar o consumo energético, o chip também pode gerar mais calor. Porém, o recurso é implementando em uma margem de segurança para não haver risco de superaquecimento, mesmo que o clock atinja velocidade máxima.

Fabricantes podem adotar nomenclaturas diferentes para se referir a esse mecanismo, como o Intel Turbo Boost e o AMD Turbo Core.

O que é o Intel Turbo Boost?

Intel Turbo Boost é uma tecnologia que realiza um aumento dinâmico da velocidade de clock em determinados processadores de linhas como Intel Core e Intel Xeon. O procedimento ocorre gradativamente até alcançar a frequência adequada para a tarefa em execução ou atingir o clock máximo do chip.

Quais são as versões do Intel Turbo Boost?

O Intel Turbo Boost foi introduzido em 2008 e, com o passar do tempo, ganhou novas versões. São elas:

Turbo Boost 1.0: a primeira versão surgiu nas CPUs Core i7 (Bloomfield) lançadas no final de 2008 para aumentar a taxa de clock sob demanda, desde que os limites de TDP e temperatura não sejam excedidos;

Turbo Boost 2.0: introduzida em 2011 com os chips Sandy Bridge, adiciona um controle de tempo para a sua ativação, o que a torna mais eficiente. Também tem recursos que podem ser regulados pelos fabricantes de PCs;

Turbo Boost Max 3.0: lançada em 2019, essa é uma tecnologia que aumenta a eficiência dos núcleos mais potentes da CPU, aplicando ajustes de frequência individualmente e direcionados às cargas de trabalho mais pesadas a eles.

A tecnologia Turbo Boost Max 3.0 não substitui o Turbo Boost 2.0, mas o complementa. Por isso, muitos processadores da Intel contam com as duas tecnologias, principalmente os modelos de alto desempenho.

Os chips Intel Core de 13ª geração mais avançados têm Turbo Boost (imagem: divulgação/Intel)

O Intel Turbo Boost impulsiona todos os núcleos?

A tecnologia Intel Turbo Boost pode aumentar dinamicamente a frequência de todos os núcleos da CPU. A exceção fica para a variação Turbo Boost Max 3.0, que impulsiona somente a frequência dos núcleos mais potentes.

Para o Turbo Boost entrar em ação, parâmetros como TDP (Thermal Design Power), tensão e temperatura são monitorados. Se as medições indicarem que há margem para que esses parâmetros aumentem dentro de um patamar seguro e funcional, a frequência de cada núcleo é elevada de acordo com a distribuição da carga de trabalho.

Embora o Turbo Boost possa modificar o clock de mais de um núcleo ao mesmo tempo, esse ajuste é feito em nível single core, isto é, se limita à capacidade máxima de aumento de cada núcleo.

O processador Core i5-13600K é um exemplo. Ele tem seis núcleos de alto desempenho e oito núcleos de eficiência energética (menos potentes). As frequências máximas que esses núcleos alcançam são as seguintes:

Core i5-13600KNúcleos de alto desempenhoNúcleos de eficiência energética Quantidade68 Frequência base3,5 GHz2,6 GHz Turbo Boost máximo5,1 GHz3,9 GHz 

Como saber se o processador tem Turbo Boost?

A maneira mais prática de saber se o seu processador suporta a tecnologia Turbo Boost é pesquisando pelo nome exato do modelo do site da Intel. A página do produto informa todas as especificações do chip, incluindo se há suporte à tecnologia e em quais frequências máximas.

Para descobrir o nome do seu processador, no Windows 10 ou 11, basta acessar o Gerenciador de Tarefas a partir do campo de pesquisa da Barra de Tarefas ou com o atalho de teclado Ctrl + Shift + Esc. Vá em Desempenho e CPU. O nome da CPU aparece no canto superior da tela.

Se você usa uma distribuição Linux, pode descobrir o nome da CPU digitando o comando lscpu em um terminal.

Nome da CPU no Gerenciador de Tarefas do Windows 11 (imagem: Emerson Alecrim/Tecnoblog)

O que é o AMD Turbo Core?

Turbo Core é a tecnologia de dimensionamento de frequência dinâmica da AMD, que permite aumentar temporariamente o clock quando há cargas de trabalho exigentes, de modo a otimizar o desempenho do processador. Trata-se de uma tecnologia similar ao Intel Turbo Boost.

A tecnologia Turbo Core está presente em linhas de CPUs como AMD Ryzen e AMD Epyc, mas foi introduzida em 2010, junto com os chips Phenom II X6.

Nos chips Ryzen, mais atuais, a tecnologia traz alguns incrementos importantes, como o modo Precision Boost, uma evolução que eleva a frequência de operação para o nível mais elevado possível, mas ainda dentro de padrões de segurança.

O AMD Turbo Core impulsiona todos os núcleos?

A tecnologia AMD Turbo Core pode impulsionar o funcionando de todos os núcleos simultaneamente, dependendo das especificações de cada chip e da carga de trabalho a ser processada.

O processo é feito de modo incremental, até o clock atingir um patamar correspondente ao TDP máximo do chip. Alguns mecanismos, como o thermal throttling (redução da frequência para controle da temperatura), entram em ação para evitar que o Turbo Core ultrapasse limites de consumo ou temperatura.

Como saber se o processador tem Turbo Core?

O Turbo Core está presente em linhas como AMD Ryzen e AMD Epyc. Para ter certeza de que seu processador suporta a tecnologia, pesquise pelo nome do chip no site da AMD. Se a página do produto indicar um clock máximo em modo boost ou o uso da tecnologia Precision Boost, o Turbo Core está presente.

Se você não souber o nome exato de sua CPU, consulte o Gerenciador de Tarefas (área Desempenho / CPU) do Windows ou use o comando lscpu no Linux para obter essa informação.

Os chips Ryzen 7000 têm Turbo Core / Precision Boost (imagem: divulgação/AMD)

É seguro usar o modo turbo no processador?

As tecnologias de modo turbo são seguras, pois fazem ajuste automático da frequência. Isso permite que a velocidade de clock seja aumentada para o nível mais apropriado e evita consumo excessivo de energia e superaquecimento.

Processadores modernos também contam com mecanismos de segurança que reduzem o clock em caso de elevação exagerada de temperatura. Mesmo assim, é importante adotar alguns cuidados, como instalar um sistema de resfriamento apropriado para o chip em uso.

Qual é a diferença entre modo turbo e overclock?

O modo turbo realiza um ajuste automático que aumenta a velocidade de clock durante a execução de tarefas pesadas. O procedimento é controlado pela própria CPU e mantido dentro de seus limites de operação. Já o overclock do processador é um aumento de frequência configurado pelo próprio usuário, ou seja, é um processo manual.

Em linhas gerais, o modo turbo é mais seguro porque a tecnologia aplica apenas os acréscimos de clock necessários para a carga de trabalho em execução. O procedimento é revertido automaticamente se a temperatura do chip atingir níveis perigosos.

O overclock é mais arriscado porque toda ou parte da configuração aplicada é definida pelo usuário. Porém, o procedimento tem a vantagem de permitir ajustes mais minuciosos no clock quando feito por alguém com conhecimentos sobre o assunto e com o uso de mecanismos avançados de resfriamento.
Turbo Boost e Turbo Core: o que é o modo turbo em processadores?

Turbo Boost e Turbo Core: o que é o modo turbo em processadores?
Fonte: Tecnoblog

O que são threads do processador e quais os benefícios do multithreading?

O que são threads do processador e quais os benefícios do multithreading?

Thread (linha de execução) é uma sequência de instruções que faz parte de um processo principal. Um software é organizado em processos. Cada processo é dividido em threads, que formam tarefas independentes, mas relacionadas entre si. CPUs podem realizar multithreading simultâneo (SMT) para ter mais desempenho.

O que são os threads do processador? (imagem: Emerson Alecrim/Tecnoblog)

ÍndiceComo funcionam os threads de um processador?O que é multithreading simultâneo (SMT)?O que é a tecnologia Hyper-Threading?Quais são as vantagens das threads em computação?Quanto mais threads, melhor o processador?Como saber o número de threads do processador?Como ver o número de threads no Windows?Como descobrir a quantidade de threads da CPU no Mac?Qual comando para ver o número de threads de CPU no Linux?Qual é a diferença entre multithreading e multi-core?Qual é a diferença entre thread e processo?

Como funcionam os threads de um processador?

Os sistemas operacionais organizam as tarefas a serem executadas em processos, que são divididos em um ou mais threads.

Cada processo é uma sequência de instruções que está ligada a um software. Se um processo está sendo executado por um núcleo do processador, significa que o software ligado a ele está em execução. Os threads formam conjuntos menores de instruções dentro de uma tarefa maior.

CPUs modernas suportam multithread (ou multithreading), conceito em que dois ou mais threads são executados simultaneamente para aumentar a eficiência do sistema. Para isso, cada thread é direcionado a um núcleo do processador.

Os núcleos físicos da CPU podem ainda ser divididos em núcleos virtuais por meio da técnica de SMT.

O que é multithreading simultâneo (SMT)?

Multithreading simultâneo (SMT) é uma técnica que permite que múltiplos threads sejam executados ao mesmo tempo por um único núcleo físico do processador.

As CPUs seguem um fluxo de processamento sequencial de dados, ao contrário da GPUs (chips para processamento gráfico), que podem ter até milhares de núcleos para permitir processamento paralelo. Ao possibilitar a execução simultânea de vários threads, o SMT compensa essa limitação nas CPUs.

As técnicas de SMT fazem os núcleos físicos serem divididos em núcleos virtuais, cada um deles também chamado de thread. Assim, se um processador quad-core tiver dois threads por núcleos, ele terá quatro núcleos e oito threads. Da mesma forma, um chip octa-core terá oito núcleos e 16 threads.

Na implementação do SMT, a execução dos threads não é exatamente simultânea. Os núcleos físicos fazem seu trabalho de modo sequencial, mas alternam tão rapidamente entre os threads que é como se a execução deles ocorresse ao mesmo tempo.

Nem sempre a quantidade de threads equivale ao dobro do número de núcleos. Nos chips Core de 12ª geração e sucessores, a Intel implementou dois threads somente nos núcleos de alto desempenho, deixando os núcleos de eficiência energética (menos potentes) com um thread cada.

O que é a tecnologia Hyper-Threading?

Hyper-Threading é o mecanismo de multithreading simultâneo (SMT) da Intel. A tecnologia permite que a CPU tenha aumento de eficiência ao fazer cada núcleo físico executar dois threads ao mesmo tempo, abordagem útil principalmente erm softwares complexos, como editores de vídeo.

A tecnologia Hyper-Threading está presente em linhas de processadores como Intel Core, Intel Core vPro (com recursos corporativos) e Intel Xeon (para servidores e workstations).

Hyper-Threading (imagem: Vitor Pádua/Tecnoblog)

Quais são as vantagens das threads em computação?

O uso de threads para execução de instruções tem as seguintes vantagens:

Aumento de velocidade: a divisão de tarefas em threads é um método de paralelismo que otimiza o fluxo de instruções a serem executadas, contribuindo para o aumento de desempenho da CPU;

Maior eficiência: o uso de threads diminui o risco de núcleos ficarem ociosos à espera de dados ou instruções;

Compartilhamento de recursos: como os threads estão relacionados em si, eles compartilham determinados recursos, como endereçamento de memória e dados específicos;

Controle de custos: a abordagem dos threads pode reduzir os custos de desenvolvimento de um chip porque a otimização do fluxo de execução elimina a necessidade de mais núcleos físicos.

Quanto mais threads, melhor o processador?

O multithreading otimiza o fluxo de execução, mas nem sempre isso é o suficiente para tornar um processador melhor do que outro. Uma implementação exagerada de threads por fazer o chip demandar muita energia ou exigir uma restruturação de arquitetura.

Além disso, o desempenho geral é determinado por vários outros parâmetros, como a velocidade do clock, o tamanho do cache do processador, o processo de litografia e, claro, número de núcleos físicos.

Como saber o número de threads do processador?

Os principais sistemas operacionais para desktops e servidores têm recursos nativos que permitem verificar o número de threads do processador em uso. No Windows, essa informação aparece no Gerenciador de Tarefas. No macOS e no Linux, há comandos que revelam esse detalhe.

Como ver o número de threads no Windows?

Se você usa o Windows 10 ou 11, basta digital digitar “Gerenciador de Tarefas” no campo de busca da Barra de Tarefas. O recurso também é encontrado na tela de bloqueio do sistema ou com o atalho de teclado Ctrl + Shift + Esc.

Com o Gerenciador de Tarefas aberto, vá em “Desempenho” e “CPU”. A quantidade de threads é informada abaixo do gráfico de desempenho, no campo “Processadores Lógicos”.

Número de threads no Windows 11 (imagem: Emerson Alecrim/Tecnoblog)

Como descobrir a quantidade de threads da CPU no Mac?

Um jeito rápido de descobrir o número de threads da CPU no macOS é abrindo o terminal e digitando o seguinte comando:

sysctl -n hw.logicalcpu

O número de threads será informado na linha logo abaixo do comando.

Checandos os threads da CPU no macOS (imagem: Emerson Alecrim/Tecnoblog)

Qual comando para ver o número de threads de CPU no Linux?

Nas distribuições Linux, o número de threads e outros detalhes da CPU são informados com o seguinte comando em um terminal:

lscpu

A informação está na linha “Thread(s) por núcleo”. Já a quantidade de núcleos é informado na linha “Núcleo(s) por soquete”. Basta então multiplicar um pelo outro. Em um chip dual-core com dois threads por núcleo, o número de threads é 4 (2 x 2).

Threads da CPU em distribuição Linux (imagem: Emerson Alecrim/Tecnoblog)

Qual é a diferença entre multithreading e multi-core?

O multithreading descreve a capacidade de um processador de lidar com múltiplos threads ao mesmo tempo. Já o multi-core identifica chips que têm dois núcleos físicos ou mais.

Essa diferenciação é importante porque o núcleo físico de um processador é uma unidade de execução completa, contendo Unidade Lógica e Aritmética (ULA), registradores e outros componentes. Já os threads funcionam como núcleos virtuais, fazendo os núcleos físicos alternarem rapidamente entre eles de modo a otimizar o fluxo de execução.

Multithreading e multi-core (imagem: Vitor Pádua/Tecnoblog)

Qual é a diferença entre thread e processo?

Um processo é uma sequência de instruções que corresponde a um software ativo. Cada processo ocupa um espaço individual de memória que contém os dados necessários para a sua execução. Um software pode gerar mais de um processo, com todos eles sendo vinculados a um processo principal.

Já um thread é um segmento de um processo, como se formasse uma subtarefa. Nos sistemas operacionais convencionais, um processo sempre tem um ou mais threads. Essa abordagem melhora o aproveitamento de recursos da CPU e otimiza o fluxo de execução de instruções, dando mais eficiência à operação.
O que são threads do processador e quais os benefícios do multithreading?

O que são threads do processador e quais os benefícios do multithreading?
Fonte: Tecnoblog

O que é overclock do processador e quais os riscos dessa prática?

O que é overclock do processador e quais os riscos dessa prática?

Overclock é um procedimento que melhora o desempenho de uma CPU ou GPU com o aumento da velocidade de clock (frequência). Apesar dos benefícios, é preciso ter cautela. O overclock eleva o consumo de energia, o que pode fazer a temperatura do processador subir, causando instabilidade.

O overclock é frequente em PCs gamer (imagem: divulgação/Kingston)

A seguir, entenda quando o overclock é recomendado, e saiba quais são as vantagens e desvantagens desse procedimento.

ÍndiceQuando fazer overclock no processador?Posso fazer overclock na CPU?Posso fazer overclock na GPU?É possível fazer overclock no celular?Quais as vantagens de fazer overclock?Quantos FPS se ganha com overclock?É seguro fazer overclock no processador?Quais os riscos de fazer overclock no processador?Quantas vezes por dia posso fazer overclock?O que é preciso para fazer overclock?Qual é a diferença entre clock turbo e overclock?

Quando fazer overclock no processador?

O overclock faz os núcleos de uma CPU ou GPU funcionarem com uma frequência acima da taxa definida pelo fabricante. Esse procedimento é útil principalmente para aumentar a velocidade do processador durante a execução de jogos com gráficos 3D complexos.

Também é possível usar o overclock para que aplicativos avançados, como softwares de edição de vídeo, alcancem o melhor desempenho possível quando os recursos de hardware do computador estiverem em sua capacidade máxima.

Posso fazer overclock na CPU?

Sim, possível fazer overclock na Unidade Central de Processamento (CPU). Mas é preciso ter um processador compatível com overclock. Na Intel, os chips Core desbloqueados para isso costumam ser identificados com o sufixo “K”, a exemplo do modelo Core i9-13900K. Na AMD, o suporte a overclock é padrão na linha de CPUs Ryzen.

Para o overclock funcionar sem causar danos ao chip ou instabilidades, pode ser necessário trocar o sistema de resfriamento por um que suporte temperaturas mais elevadas. Mesmo com isso, é importante não exagerar no aumento do clock.

Posso fazer overclock na GPU?

Sim, é possível fazer overclock na Unidade de Processamento Gráfico (GPU). O overclock aumenta a frequência de trabalho da GPU de modo que aplicações gráficas rodem com mais eficiência. Nos jogos, o procedimento pode aumentar a taxa de quadros por segundo (FPS), prevenindo lentidões ou até travamentos em cenas movimentadas.

É comum que fabricantes de placa de vídeo forneçam software de overclock, a exemplo do MSI Afterburner e do Asus GPU Tweak. Por meio deles, é possível aumentar o clock e outros parâmetros de modo gradual, bem como monitorar o funcionamento da GPU após o procedimento.

PC com sistema com water cooler da Alphacool (imagem: reprodução/Intel)

É possível fazer overclock no celular?

É possível fazer overclock no celular, mas esse não é um procedimento recomendado. Isso porque, normalmente, o overclock em smartphones exige o uso de softwares ou configurações que alteram o funcionamento do aparelho, o que pode causar brechas de segurança ou instabilidades.

Para aumentar o desempenho do celular, principalmente em jogos, é mais seguro reduzir a execução de apps em segundo plano, instalar uma atualização de software do sistema assim que disponível e, nos jogos, usar configurações gráficas adequadas para o hardware do aparelho.

Quais as vantagens de fazer overclock?

A prática do overclock é motivada por benefícios como:

Aumento de desempenho: o overclock de CPU ou GPU pode melhorar a execução de aplicações gráficas exigentes. Nos jogos, o ganho de desempenho é perceptível quando ocorre aumento na média de FPS;

Redução de gargalos: aumentar a velocidade de clock pode ser uma solução contra travamentos ou lentidões em jogos e softwares pesados;

Aumento dos detalhes gráficos: quando o aumento de FPS não for o único objetivo, o overclock pode permitir que determinados jogos rodem com gráficos 3D mais detalhados;

Controle de gastos: se o overclock fizer um game ou outra aplicação funcionar com mais fluidez, o usuário não precisará fazer upgrade do processador ou trocar a placa de vídeo, por exemplo;

Testes: o overclock pode ser útil para testes de software ou de configurações de hardware específicas.

Quantos FPS se ganha com overclock?

Não há um número exato de taxa de quadros (FPS) que ganha com o overclock, pois esse fator depende de outros parâmetros, como otimizações de softwares, configurações gráficas aplicadas e demais recursos de hardware.

Em linhas gerais, o ideal é que o overclock resulte em um ganho mínimo de FPS de 10-20%. Dependendo do jogo, o mais importante é garantir que haja quadros por segundo suficientes para que não ocorra gargalos que afetam a experiência do jogador.

O overclock pode melhorar o desempenho de games, mas o ganho de FPS depende de vários fatores (imagem: Reprodução/Murilo Tunholi/Tecnoblog)

É seguro fazer overclock no processador?

O overclock é seguro se feito sem exageros e, quando for o caso, com mecanismos de resfriamento próprios para isso. Mas, mesmo com todos os cuidados, o procedimento não está livre de problemas como instabilidade do sistema ou diminuição da vida útil do processador.

Quais os riscos de fazer overclock no processador?

Entre os problemas que o overclock pode ocasionar estão:

Superaquecimento: a ausência de um mecanismo de resfriamento capaz de lidar com o aumento de calor gerado pelo overclock pode fazer o processador esquentar demais, situação capaz até de causar danos permanentes;

Consumo de energia maior: o aumento da frequência faz a CPU ou a GPU demandar mais energia elétrica. Em muitos casos, o overclock requer até o uso de uma fonte de alimentação com mais capacidade;

Instabilidade do sistema: um overclock com ajustes inadequados pode fazer o computador travar, reiniciar ou apresentar mensagens de erros;

Vida útil: fazer o chip funcionar com frequência acima do clock base por muito tempo pode causar desgaste ou danos precoces em determinados componentes;

Perda da garantia: fabricantes de CPUs, placas de vídeo e até placas-mãe podem anular a garantia do produto em caso de overclock. No entanto, essa política pode ser inexistente ou flexível dependendo da categoria do item;

Barulho: durante o overclock, os coolers (ventoinhas) do sistema de resfriamento podem trabalhar em alta rotação para dissipar o calor resultante, tornando o computador bastante barulhento.

Quantas vezes por dia posso fazer overclock?

Não existe um limite por período que valha para todas as situações. Para diminuir as chances de o overclock causar problemas, convém realizar o procedimento somente quando houver ganho real de desempenho e, se possível, monitorar temperatura e outros parâmetros com softwares específicos para isso.

O que é preciso para fazer overclock?

Fazer overclock exige recursos de hardware ou software adicionais, que variam de acordo com o dispositivo a passar pelo procedimento. Estas são as exigências mais comuns:

Processador desbloqueado: certifique-se de que a CPU não tem travas para impedir o overclock. Os chips AMD Ryzen não costumam ter bloqueio. Na Intel, os modelos Cores desbloqueados são identificados com a letra ‘K’;

Placa-mãe compatível: é preciso checar se a placa-mãe é compatível, permitindo ajustes a partir do BIOS. Modelos de baixo custo podem ser baseados em um chipset que não possibilita overclock;

Fonte de alimentação adequada: em casos extremos, a demanda por energia causada pela overclock ou exigida pelo sistema de resfriamento requer uma fonte de alimentação com mais capacidade;

Sistema de resfriamento: dependendo do overclock, o cooler que acompanha o processador não é suficiente para dissipar o calor. É necessário, então, instalar um sistema de resfriamento mais avançado, como um water cooler;

Drivers atualizados: drivers atuais podem aumentar o desempenho da GPU, tanto sem quanto com overclock. É possível obtê-los nos seguintes sites:

Drivers Nvidia GeForce

Drivers AMD Radeon

Drivers Intel Arc

Software de overclock: ferramentas como MSI Afterburner permitem fazer ajustes cuidadosos de clock e tensão, bem como definir limites de segurança para temperatura. Prefira os softwares recomendados pelo fabricante do produto;

Software de teste e monitoramento: ferramentas de testes e monitoramento não são obrigatórias, mas podem ajudar a avaliar os efeitos de um overclock e aplicar ajustes mais precisos. Uma opção conhecida é o software OCCT.

O software de overclock AMD Ryzen Master (imagem: reprodução/AMD)

Qual é a diferença entre clock turbo e overclock?

O clock turbo (ou boost) é um recurso que faz o processador funcionar com uma frequência acima do clock base (padrão), mas ainda dentro dos limites de segurança estabelecidos pelo fabricante.

Normalmente, o clock turbo é um recurso automático. Isso significa que, em chips modernos, a velocidade de clock aumenta sozinha quando a demanda por processamento é maior. Trata-se de uma abordagem diferente do overclock convencional, baseado em aumento manual da frequência do processador.
O que é overclock do processador e quais os riscos dessa prática?

O que é overclock do processador e quais os riscos dessa prática?
Fonte: Tecnoblog