Category: GPU

Nvidia bate recorde de receita e lucra US$ 6 bilhões no último trimestre

Nvidia bate recorde de receita e lucra US$ 6 bilhões no último trimestre

A Nvidia divulgou na noite da última quarta-feira (23) o balanço financeiro do segundo trimestre (Q2) do ano. Superando as expectativas que já eram altas, a empresa teve uma receita total de US$ 13,5 bilhões — um recorde para o trimestre. No período, a Nvidia lucrou absurdos US$ 6 bilhões, sendo o boom das inteligências artificiais o “líder” desse crescimento.

Nvidia divulga resultado financeiro e supera expectativas — que já eram altas (Imagem: Vitor Pádua/Tecnoblog)

Para termos um panorama de como a Nvidia teve um trimestre surpreendente, analistas financeiros esperavam uma receita de US$ 11,1 bilhões para o Q2. No entanto, só a receita da empresa com data center bateu US$ 10,3 bilhões.

Esse segmento é o responsável pelo fornecimento de “chips” (GPUs e as placas aceleradoras) para inteligência artificial — e Elon Musk comprou 10 mil GPUs da Nvidia. A receita do setor no Q2 representa um crescimento de 171% comparado ao mesmo período do ano passado. No total, o valor de US$ 13,5 bilhões significa um aumento de 101% em relação à 2022.

Resultado aponta retomada do mercado de GPUs gamers

No relatório financeiro, a Nvidia mostra que o segmento de placas de vídeo para jogos (que por anos foi seu carro-chefe) cresceu 22% em comparação ao Q2 do ano passado. A receita gerada pelas vendas de GPUs foi de US$ 2,4 bilhões (US$ 2,04 bilhões em 2022).

Para a Nvidia, esse crescimento é um sinal de que o mercado gamer está voltando a crescer. O segmento teve um boom durante a pandemia e diminuiu nos últimos tempos. A empresa afirma que 20% dos seus clientes possuem um setup com RTX 3060 ou uma GPU superior.

Nvidia não vai desacelerar no próximo trimestre

Jensen Huang, fundador da Nvidia e homem mais feliz do mundo com o investimento das big techs em IAs (Imagem: Divulgação/Nvidia)

A Nvidia publicou que prevê uma receita de US$ 16 bilhões para o próximo trimestre (Q3 2023) — margem de erro de 2% para mais ou para menos. Para a surpresa de quase ninguém, o “lado verde da força” faz essa previsão se baseando no segmento de data center.

Como disse Josué de Oliveira, produtor do Tecnocast e colunista, na disputa entre as inteligências artificiais das big techs, a Nvidia está torcendo é para a briga.

E enquanto debatemos se IAs generativas serão o futuro ou não, Jensen Huang vai fazendo o “pé-de-meia” trilionário dele. Hoje, após o anúncio do relatório financeiro, não tem produtor de couro pobre — e a bolsa americana abriu em alta com os resultados da Nvidia.

Com informações: The Verge
Nvidia bate recorde de receita e lucra US$ 6 bilhões no último trimestre

Nvidia bate recorde de receita e lucra US$ 6 bilhões no último trimestre
Fonte: Tecnoblog

iPhone 14 Plus de 256 GB tem preço menor que na Black Friday com mais de 35% de desconto

iPhone 14 Plus de 256 GB tem preço menor que na Black Friday com mais de 35% de desconto

O smartphone lançado pela Apple ano passado é ideal para quem gosta de telas grandes e busca um aparelho que não decepcione em bateria e desempenho. Em oferta, o iPhone 14 Plus de 256 GB está saindo por R$ 6.199 à vista na Fast Shop.

iPhone 14 Plus está menos caro em oferta. (Imagem: Divulgação/Apple)

O iPhone 14 Plus com capacidade de armazenamento de 256 GB é vendido por R$ 9.599 na loja oficial da Apple. Com um desconto de R$ 3.400, é possível comprar o smartphone por R$ 6.199 na Fast Shop — uma economia de 35,42% em relação ao valor no site da marca. 

A oferta está melhor que na semana da Black Friday de 2022. Na data, o menor preço para o celular foi de R$ 6.999, segundo o Zoom.

As melhores ofertas para você
O Achados do TB está sempre de olho para encontrar as melhores ofertas de tecnologia e compartilhar em primeira mão no WhatsApp e Telegram. Só preços baixos de verdade (e sem rabo preso). Não fique de fora dessa !

iPhone 14 tem tela grande e desempenho consistente

O iPhone 14 Plus tem um display OLED de 6,7’’ e resolução de 2778 x 1284 pixels que promete agradar quem gosta de telas grandes para assistir vídeos, jogar ou fazer edições visuais. E pode ficar tranquilo que o aparelho não vai ficar travando. O A15 Bionic, com uma CPU de 6 núcleos e GPU de 5 núcleos, desempenha seu papel muito bem para que não tenha engasgos durante a execução dessas tarefas.

A bateria também não vai ser um problema. De acordo com a Apple, ela pode durar até 26 horas reproduzindo vídeos ou 100 horas de áudio. Assim, dependendo do seu uso, é possível passar o dia inteiro com seu celular sem precisar recarregá-lo.

Como todo iPhone, esse modelo também entrega ótimos registros fotográficos. Para melhorar o resultado em relação à geração anterior, os sensores são maiores, e têm mais abertura e pixels para tirar fotos mais nítidas mesmo com pouca iluminação. Além disso, o iPhone 14 Plus permite filmagens em 4K, com o Modo Cinema, e sem tremedeira, com o Modo Ação que estabiliza suas cenas mais dinâmicas.

Para garantir que o celular dure mais tempo com você, o iPhone 14 Plus vem com certificação IP68 para resistir à água até seis metros de profundidade por 30 minutos e Ceramic Shield na parte frontal — que promete ser mais resistente que qualquer vidro de smartphone, de acordo com a Apple. Lembrando que o iOS deve ser atualizado por mais alguns anos seguindo a política atual da empresa.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.iPhone 14 Plus de 256 GB tem preço menor que na Black Friday com mais de 35% de desconto

iPhone 14 Plus de 256 GB tem preço menor que na Black Friday com mais de 35% de desconto
Fonte: Tecnoblog

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

O monitoramento do uso da GPU pode ser feito com ferramentas nativas do sistema operacional ou com aplicativos de terceiros. Esse procedimento permite descobrir quais atividades exigem mais recursos da placa de vídeo e a fazem demandar mais energia. Confira o passo a passo no Windows.

GPU Nvidia (imagem: Emerson Alecrim/Tecnoblog)

ÍndiceComo ver o uso da GPU no Windows?O que é memória compartilhada da GPU?O que é memória dedicada da GPU?O que são 3D, Copy, Video Decode e Video Processing de GPU no Gerenciador de Tarefas?O que fazer se o Gerenciador de Tarefas não mostra a minha GPU?Como monitorar o uso da placa de vídeo enquanto joga?GPU com 100% de uso é normal?Baixo uso de GPU em jogos é normal?Como ver a temperatura da GPU?

Como ver o uso da GPU no Windows?

Se você usa o Windows 10 ou 11, pode monitorar a GPU a partir do Gerenciador de Tarefas do sistema operacional. As etapas necessárias para isso são descritas a seguir.

Abra o Gerenciador de Tarefas Busque por “Gerenciador de Tarefas” na barra de pesquisa do Windows 10 ou no Menu Iniciar do Windows 11. Você também pode usar o atalho de teclado Ctrl + Shift + Esc para abrir a ferramenta. Vá em Desempenho No Gerenciador de Tarefas, vá em Desempenho. Essa parte da ferramenta mostra os recursos de hardware e conectividade que estão ativos, como atividade da CPU, quantidade de memória RAM preenchida e nível de uso da GPU. Clique em GPU Ainda na área de Desempenho, clique em GPU para obter mais detalhes sobre ela. Pode ser necessário rolar a tela para encontrar essa opção. Na sequência, a interface exibirá um conjunto de gráficos com os tipos de atividades que acionam o chip, bem como um resumo sobre os seus recursos.

O que é memória compartilhada da GPU?

Memória compartilhada é uma quantidade de RAM do computador que pode ser usada pelo chip gráfico. Esse compartilhamento é feito quando a GPU é integrada à CPU e, portanto, não conta com VRAM (memória própria).

Placas de vídeo dedicadas também podem usar memória compartilhada quando a sua quantidade de VRAM não é suficiente para a aplicação em andamento.

No Gerenciador de Tarefas do Windows, a área sobre a GPU mostra as quantidades de memória compartilhada disponíveis e em uso.

O que é memória dedicada da GPU?

A memória dedicada consiste em uma quantidade de VRAM que é usada exclusivamente pela GPU. Ela é fornecida em placas de vídeo cuja GPU ocupa todo o chip, ou seja, não está integrada à CPU.

Quanto mais avançado é o chip gráfico, maior tende a ser a sua quantidade de memória dedicada, o que favorece o desempenho. É o caso da Nvidia GeForce RTX 4090, que tem 24 GB de VRAM. Essa informação também é mostrada no Gerenciador de Tarefas do Windows.

O que são 3D, Copy, Video Decode e Video Processing de GPU no Gerenciador de Tarefas?

Por padrão, a área de monitoramento de GPU do Gerenciador de Tarefas mostra gráficos para quatro parâmetros. Outros podem ser exibidos se você clicar sobre o nome de cada um dos gráficos e selecionar a opção desejada. Os principais parâmetros são descritos a seguir:

3D: indica a porcentagem de recursos da GPU que são usados para a geração de gráficos tridimensionais;

Copy: informa a atividade de transferência de dados à GPU necessários para as tarefas de renderização;

Video Encode: mostra quando a GPU está sendo usada para codificar um vídeo, isto é, transformá-lo em um arquivo ou fluxo para ser armazenado, transmitido ou executado. Isso ocorre em tarefas como videoconferências;

Video Decode: indica quando a GPU está decodificando um vídeo, ou seja, extraindo as informações para que o conteúdo correspondente seja reproduzido;

Video Processing: reporta o nível de atividade do mecanismo de processamento de vídeos da GPU. Pode existir mais de uma unidade para esse fim, com cada uma delas sendo monitorada independentemente;

GDI Render: informa quando uma interface especial do Windows está em uso para permitir que aplicativos exibam elementos gráficos, como polígonos e linhas. Essa interface funciona como um intermediário entre o aplicativo e a GPU;

Engine: é uma referência às unidades de execução da GPU. Elas são numeradas em sequências como “Engine 1” e “Engine 2”. Cada unidade é independente, por isso, pode ter um gráfico de monitoramento exclusivo.

Monitoramento da GPU durante a execução de um vídeo (imagem: Emerson Alecrim/Tecnoblog)

O que fazer se o Gerenciador de Tarefas não mostra a minha GPU?

O driver da sua placa de vídeo pode ser incompatível ou estar desatualizado. Para mostrar dados da GPU, o Gerenciador de Tarefas requer que o driver do componente seja compatível com o WDDM (Windows Display Driver Model) versão 2.0 ou superior.

WDDM é o recurso do sistema que contém os mecanismos para coletar dados de atividade gráfica, de acordo com a Microsoft.

Para saber a versão do WDDM, digite “dxdiag” na barra de pesquisa do Windows 10 ou no menu Iniciar do Windows 11. Na tela que abrir, vá em Exibir. Na coluna Drivers, à direita, confira o campo Modelo do Driver. Se a versão do WDDM for 1.x, a coleta de dados não poderá ser feita pelo Gerenciador de Tarefas.

Geralmente, essa limitação acontece com GPUs antigas, que não têm drivers recentes. Se for o caso, a alternativa está no uso de softwares como NZXT Cam e GPU-Z. Mesmo nas versões gratuitas, eles oferecem detalhes relevantes sobre o uso do chip gráfico.

O WDDM 1.2 não permite que o Gerenciador de Tarefas monitore a GPU (imagem: Emerson Alecrim/Tecnoblog)

Como monitorar o uso da placa de vídeo enquanto joga?

É possível monitorar a placa de vídeo durante a execução de jogos com ferramentas fornecidas pelo fabricante da placa de vídeo ou da GPU. Um exemplo é o software GeForce Experience, disponível para modelos atuais da linha GeForce. Já usuários de GPUs Radeon podem usar o Adrenalin Edition para esse fim.

Também há aplicativos de terceiros que podem monitorar o uso da GPU enquanto um game é executado, como o gratuito MSI Afterburner. A ferramenta é muito usada para overclock, mas também tem funções de monitoramento. Apesar de ser mantido pela MSI, o software funciona com placas de vídeo de outras marcas.

Alguns jogos, como League of Legends, Valorant e Fortnite, podem ser configurados para exibir taxa de FPS ou outros dados de monitoramento sem depender de ferramentas externas.

Configuração de monitoramento do MSI Afterburner (imagem: Emerson Alecrim/Tecnoblog)

GPU com 100% de uso é normal?

É pouco provável que algo esteja errado se um software de monitoramento indicar que a GPU está com 100% de uso durante uma atividade gráfica exigente, como um jogo pesado em execução.

Porém, se o uso da GPU está em 100% ou com uma porcentagem próxima disso durante momentos de ociosidade ou na execução de atividades com baixa demanda gráfica, como vídeos ou jogos simples, pode haver algum problema. Entre as possíveis causas estão:

Gargalo na GPU: problema que pode ser causado por um driver desatualizado. Se a instalação de um driver recente resolver o problema, a causa era mesmo essa;

Driver novo: um driver recém-atualizado pode fazer o chip gráfico funcionar incorretamente por bug. Neste caso, o problema pode ser revertido com a instalação do driver anterior ou com o lançamento da versão seguinte;

Configuração inadequada da GPU: a tentativa de otimizar a GPU para overclock ou undervolt pode falhar e causar anormalidades funcionais. Reverter o ajuste ou ativar a configuração padrão são soluções possíveis;

Temperatura alta: se a GPU atingir uma temperatura elevada, ela pode baixar a sua frequência automaticamente. Isso pode fazer o seu uso ser mostrado como 100%. Um sistema de resfriamento mais eficiente pode ser a solução;

Malware: um vírus em segundo plano pode prejudicar todo o sistema, incluindo a parte gráfica. O problema pode ser resolvido com um antivírus. Opções gratuitas podem ser suficientes, pelo menos nos casos mais simples.

Baixo uso de GPU em jogos é normal?

Se o jogo tiver gráficos simples ou resolução baixa e estiver sendo executado sem nenhum tipo de problema, a GPU está sendo pouco usada simplesmente por ter uma carga de trabalho pequena para executar.

Mas se o monitorando indicar baixo uso da GPU ao mesmo tempo em que o game apresenta qualidade gráfica ruim ou instabilidades, algo pode estar impedindo o seu uso em plena capacidade. Entre as causas possíveis para o problema estão:

Driver desatualizado: um driver antigo ou incorreto pode prejudicar o fluxo de operações da GPU. Instale o driver mais recente a partir do site do fabricante do dispositivo;

Configuração inadequada da GPU: se o problema surgir após um ajuste aplicado manualmente, reverta o procedimento ou ative a configuração padrão no software da placa de vídeo para resolver o problema;

Configuração inadequada do jogo: se o problema surgir após uma tentativa de otimizar o game, reverta a ação ou ative a configuração padrão. Em alguns casos, pode ser necessário reinstalar o jogo;

Gargalo na CPU: o problema pode ser causado pelo uso de um processador antigo ou com baixo desempenho que, como tal, prejudica o envio de instruções à GPU. A solução está no uso de uma CPU mais recente.

Como ver a temperatura da GPU?

O Gerenciador de Tarefas do Windows pode exibir a temperatura para algumas GPUs, a exemplo dos modelos mais recentes da família Nvidia GeForce. Se essa informação não estiver disponível por lá, a alternativa é o uso de softwares de monitoramento, como NZXT Cam, GPU-Z e MSI Afterburner.

Temperatura e outros parâmetros da GPU no NZXT Cam (imagem: Emerson Alecrim/Tecnoblog)

A temperatura ideal varia de acordo com o fabricante e o modelo da GPU, mas, em geral, não deve ser superior a 100ºC. Quanto mais baixo estiver esse parâmetro, melhor. Como isso vale para toda a máquina, saiba como ver a temperatura do computador.
Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo

Como monitorar o uso da GPU? Entenda os gráficos de consumo da placa de vídeo
Fonte: Tecnoblog

MacBook Pro com chip M3 Max pode estar a caminho

MacBook Pro com chip M3 Max pode estar a caminho

A linha de processadores próprios da Apple estreou em 2020 e está perto de chegar à terceira geração. A empresa está testando o chip M3 Max. Ele equiparia o próximo MacBook Pro, a ser lançado em 2024, mas a transição dos outros modelos pode começar ainda este ano.

MacBook Pro 2023 com chips M2 Pro e M2 Max (Imagem: Apple / Divulgação)

As informações são do jornalista Mark Gurman, da Bloomberg, especializado em cobrir a Apple, e foram obtidas com a ajuda de um desenvolvedor independente.

O M3 Max teria 16 núcleos de processamento e 40 núcleos gráficos. São quatro núcleos de processamento e pelo menos dois gráficos a mais que o M2 que equipa os laptops da Apple atualmente. Além disso, o chip teria suporte a até 48 GB de RAM.

Dos 16 núcleos de processamento do M3 Max, 12 seriam de alta performance, voltado a tarefas que demandam muito da máquina, como edição de vídeo. Os quatro restantes seriam de eficiência, com gasto de energia menor, para usos mais simples, como navegar na internet.

Esta seria apenas uma versão do M3 Max — os testes da Apple podem incluir outras combinações de núcleos.

M3 pode estrear em outubro

Vale dizer que o MacBook Pro com M3 Max que deve chegar em 2024 não será o primeiro a conta com a nova geração de chips da Apple.

Segundo Gurman, a transição começará em outubro, com o lançamento das versões atualizadas da linha de entrada dos Macs.

Os chips M3 já foram vistos em testes com iMacs, Macbooks Pro de 13 polegadas, MacBooks Air de 13 e 15 polegadas e Macs Mini.

Até o momento, alguns detalhes sobre o M3 e o M3 Pro já surgiram. O M3 teria oito núcleos de processamento e 10 núcleos gráficos, mesma combinação do M2. Já o M3 Pro terá 12 núcleos na CPU e 18 na GPU.

M3 deve ter processo de fabricação de 3 nm

O M3 deve ser o primeiro chip dos Macs fabricado com o processo de 3 nm. Quanto menor a litografia de um chip, menos espaço entre os transistores.

Isso melhora a eficiência energética e permite colocar mais transistores em menos espaço, aumentando a capacidade de processamento.

Espera-se que o A17, chip que deve equipar o iPhone 15 Pro, também conte com essa tecnologia.

Com informações: Bloomberg
MacBook Pro com chip M3 Max pode estar a caminho

MacBook Pro com chip M3 Max pode estar a caminho
Fonte: Tecnoblog

O que são processadores e quais os tipos usados em celulares, PCs e câmeras?

O que são processadores e quais os tipos usados em celulares, PCs e câmeras?

Processadores servem para controlar funções e executar operações em smartphones, PCs, câmeras e outros eletrônicos. Chips especializados, como GPUs e NPUs, podem realizar cálculos, processar gráficos, treinar inteligências artificiais, entre outras tarefas, enquanto uma CPU é um processador de uso geral.

Uma placa de vídeo com GPU (acima) e um processador central (CPU) fabricado pela Intel (Imagem: Everton Favretto/Tecnoblog)

Os processadores são definidos por suas propriedades, incluindo litografia, quantidade de núcleos, velocidade do clock, arquitetura e conjunto de instruções. A seguir, entenda mais sobre os principais tipos de processadores presentes em eletrônicos de consumo, os atributos em comum e suas respectivas funções.

ÍndiceQuais são os principais tipos de processadores?Para que serve a Unidade Central de Processamento (CPU)?Para que serve a Unidade de Processamento Gráfico (GPU)?Para que serve a Unidade de Processamento Neural (NPU)?Para que serve um Processador Digital de Sinal (DSP)?Para que serve um Processador de Sinal de Imagem (ISP)?O que é a litografia de um processador?O que são nanômetros no processador?O que são transistores de um processador?O que é a arquitetura de um processador?O que é o conjunto de instruções de um processador?Qual é a diferença entre RISC e CISC?Qual é a diferença entre processador Arm e x86?Qual é a diferença entre processador 64 bits e 32 bits?O que é o clock do processador?O que é overclock do processador?Para que serve o núcleo do processador?O que é um processador multicore?O que são threads do processador?O que é a tecnologia Hyper-Threading?O que é o TDP de um processador?O que é um microprocessador?Quem inventou o primeiro microprocessador?Quais eram as especificações do primeiro microprocessador?O que diz a Lei de Moore sobre processadores?Quais são as principais linhas de processadores?Processador de notebook serve em PC (desktop)?

Quais são os principais tipos de processadores?

CPU (Unidade Central de Processamento), GPU (Unidade de Processamento Gráfico), NPU (Unidade de Processamento Neural) e ISP (Processador de Sinal de Imagem) são alguns dos principais tipos de processadores encontrados em celulares, câmeras e computadores.

Para que serve a Unidade Central de Processamento (CPU)?

A CPU serve para executar instruções gerais de programas, funcionando como o “cérebro” do computador. Ela é dividida em três componentes principais: a Unidade Lógica Aritmética (ULA), a Unidade de Controle (UC) e os Registradores. Por ser a unidade central de processamento, é muitas vezes chamada apenas de “processador”.

Para que serve a Unidade de Processamento Gráfico (GPU)?

A GPU serve para processar gráficos de forma eficiente, sendo fundamental para renderização de jogos, edição de vídeo e outras aplicações visuais. Baseia-se no processamento paralelo para executar múltiplas operações gráficas simultaneamente e pode ter centenas ou milhares de núcleos de processamento independentes.

Placa de vídeo com GPU Nvidia instalada em um desktop (Imagem: Emerson Alecrim/Tecnoblog)

Para que serve a Unidade de Processamento Neural (NPU)?

A NPU serve para acelerar tarefas relacionadas à inteligência artificial, como deep learning, redes neurais e visão computacional em celulares e computadores. Também chamada de Unidade de Processamento Inteligente (IPU), pode melhorar a qualidade de imagens em Smart TVs por meio de uma técnica conhecida como upscaling.

Para que serve um Processador Digital de Sinal (DSP)?

Um DSP serve para processar sinais digitais, como áudio e vídeo, em tempo real. É útil em aplicações como codificação e decodificação de vídeos de alta resolução, cancelamento ativo de ruído (ANC) em fones de ouvido e filtros de melhoria de qualidade de imagem.

Para que serve um Processador de Sinal de Imagem (ISP)?

Um ISP serve para processar as imagens capturadas por câmeras. Trabalha em conjunto com outros processadores do SoC (System-on-a-chip), como o DSP e a CPU, para gerenciar as cores, reduzir o ruído e melhorar a nitidez das cenas fotografadas e filmadas pelo celular, notebook, câmera digital e outros eletrônicos com sensores de imagem.

Galaxy Z Fold 5 tem ISP Spectra, do Snapdragon 8 Gen 2 for Galaxy, para processar imagens das câmeras (Imagem: Thássius Veloso/Tecnoblog)

O que é a litografia de um processador?

Litografia é a tecnologia de fabricação usada na produção de um semicondutor, como um processador de silício. Ela afeta diretamente fatores como a densidade de transistores, a velocidade de processamento, a eficiência energética e o gerenciamento de calor do chip.

O que são nanômetros no processador?

A litografia de um processador é expressa em nanômetros (nm). Quanto menor o valor em nanômetros, maior tende a ser o número de transistores dentro do processador em uma mesma área física.

O que são transistores de um processador?

Transistores são componentes semicondutores, normalmente feitos de silício, que controlam a corrente elétrica. Em um processador, transistores agem como interruptores, controlando o fluxo de eletricidade e, consequentemente, a execução das instruções e dos cálculos.

O que é a arquitetura de um processador?

A arquitetura de um processador se refere ao projeto do chip e à forma como ele processa os dados. Há dois tipos de arquiteturas: a von Neumann, mais comum em processadores modernos, e a Harvard.

Arquitetura von Neumann: usa uma memória única para armazenar tanto os dados quanto as instruções que estiverem sendo executadas. Ela consiste em um processador que realiza os cálculos, uma unidade de controle que coordena as operações e um barramento que interliga todos os componentes.

Arquitetura Harvard: tem memórias separadas para dados e programas, o que significa que o processador pode acessar instruções e manipular dados ao mesmo tempo. É mais usada em sistemas embarcados e pequenos microcontroladores, como os usados em eletrodomésticos, por ser mais eficiente para tarefas muito específicas.

O conjunto de instruções se refere às operações que o processador é capaz de executar. Pode ser do tipo RISC (Reduced Instruction Set Computer), que se baseia em instruções simplificadas e em menor quantidade, ou CISC (Complex Instruction Set Computing), que traz instruções mais complexas para aplicações específicas.

Snapdragon 865, um SoC projetado pela Qualcomm, tem uma arquitetura de conjunto de instruções do tipo Arm (Imagem: Paulo Higa/Tecnoblog)

O que é o conjunto de instruções de um processador?

O conjunto de instruções é uma parte da arquitetura que especifica quais operações um processador pode executar. Uma instrução pode ser uma operação de soma, subtração, multiplicação e divisão, ou um comando para carregar e armazenar dados.

A arquitetura do conjunto de instruções (ISA) serve como ponte entre o hardware e o software do computador. Um programa deve ser escrito de acordo com as especificações da ISA para que seja executado de maneira nativa, com a maior eficiência possível, sem necessidade de técnicas como emulação ou virtualização.

A microarquitetura é a forma como a ISA é implantada no processador. Chips diferentes podem ter a mesma ISA e entender o mesmo conjunto de instruções. No entanto, se tiverem microarquiteturas diferentes, eles executarão as instruções de maneiras diferentes, o que interferirá no desempenho e na eficiência energética.

Qual é a diferença entre RISC e CISC?

A diferença entre RISC e CISC está na abordagem do conjunto de instruções:

RISC (Computador com um conjunto reduzido de instruções): tem um conjunto de instruções simples e otimizadas. Sua ideia principal é executar mais instruções em menos tempo. Tem um pipeline mais eficiente, já que menos etapas são necessárias para cada instrução, o que tende a reduzir o consumo de energia;

CISC (Computador com um conjunto complexo de instruções): tem conjunto de instruções variadas e complexas. Sua ideia principal é minimizar o número de instruções por programa, já que uma única instrução pode executar várias operações complexas de baixo nível. Pode consumir mais energia.

Ou seja, RISC é um tipo de arquitetura de processador com um conjunto menor e mais simples de instruções, enquanto o CISC possui um conjunto maior e mais complexo de instruções.

Qual é a diferença entre processador Arm e x86?

A diferença entre Arm e x86 é o conjunto de instruções. Processadores Arm são facilmente encontrados em dispositivos móveis e são projetados com ênfase em eficiência energética, enquanto os modelos x86 são comuns em desktops e servidores, nos quais o desempenho bruto é mais importante.

Intel Pentium D, um processador dual-core com arquitetura CISC x86 (Imagem: Everton Favretto/Tecnoblog)

Qual é a diferença entre processador 64 bits e 32 bits?

A diferença entre processadores de 64 bits e 32 bits está no endereçamento de memória e no processamento de dados. Um chip de 32 bits pode endereçar até 4 GB (232 bytes) de memória e processar dados em pedaços de 32 bits. Já um chip de 64 bits pode endereçar até 18,4 EB (264 bytes) de memória e processar dados em pedaços de 64 bits, o que permite maior desempenho em operações complexas.

O que é o clock do processador?

O clock do processador estabelece o número de ciclos que o chip executa em um segundo. É medido em Hertz (Hz), geralmente na escala de megahertz (MHz) ou gigahertz (GHz). Quanto maior a frequência, mais operações um processador pode executar a cada segundo, o que tende a aumentar seu desempenho.

O que é overclock do processador?

Overclock é a prática de aumentar o clock de um processador além do limite pré-estabelecido pela fabricante. Quando uma CPU com clock base de 3 GHz é configurada pelo usuário para operar a 4 GHz, dizemos que foi realizado um overclock.

O overclock pode elevar o consumo de energia e a temperatura do processador. Se o sistema de resfriamento for insuficiente para atender à frequência mais alta, o chip pode ser danificado permanentemente.

Para que serve o núcleo do processador?

O núcleo do processador, também chamado de “core”, é responsável por executar as operações e cálculos em um computador. Cada núcleo físico ou virtual de um chip pode operar de maneira independente, o que permite executar múltiplas tarefas simultaneamente e melhora o desempenho.

O que é um processador multicore?

A tecnologia multicore permite que um processador tenha múltiplos núcleos. São exemplos os processadores quad-core (4 núcleos) e octa-core (8 núcleos), comuns em dispositivos como smartphones e notebooks. O objetivo do multicore é aumentar a velocidade de processamento ao executar mais de uma operação ao mesmo tempo.

Processador Intel Core 2 Duo T7200, uma CPU com dois núcleos (Imagem: Everton Favretto/Tecnoblog)

O que são threads do processador?

Threads de um processador são sequências de instruções que fazem parte de um processo principal. Um programa é organizado em processos, e cada processo é dividido em threads. Quando um processador suporta multithreading, ele pode executar dois ou mais threads simultaneamente, o que melhora o desempenho.

O que é a tecnologia Hyper-Threading?

Hyper-Threading (HT) é a tecnologia de multithreading simultâneo da Intel que aumenta a eficiência ao permitir que cada núcleo físico da CPU execute dois threads ao mesmo tempo. Foi lançado pela primeira vez em um processador doméstico em novembro de 2002, no Pentium 4 HT de microarquitetura Northwood.

O nome Hyper-Threading é de propriedade da Intel, mas há outras fabricantes que usam tecnologias similares, como o AMD Simultaneous Multi-Threading (SMT), presente na família de microarquiteturas Zen.

O que é o TDP de um processador?

TDP (Thermal Design Power) representa a quantidade máxima de calor que um processador gera em condições normais. É expresso em watts (W) e serve para entender as necessidades de resfriamento de um chip, como uma CPU em um notebook ou uma GPU em uma placa de vídeo. Saber o TDP é importante para evitar o superaquecimento do chip.

O que é um microprocessador?

Microprocessador é um circuito integrado compacto que executa operações lógicas e cálculos matemáticos. O nome é comumente usado para se referir à Unidade Central de Processamento (CPU), que é o principal responsável por executar programas em um computador.

Quem inventou o primeiro microprocessador?

O primeiro microprocessador, Intel 4004, foi inventado por uma equipe de engenheiros da Intel composta por Ted Hoff, Federico Faggin e Stanley Mazor.

O Intel 4004 foi anunciado em 15 de novembro de 1971. Ele foi o primeiro microprocessador vendido ao público, por US$ 60 em valores da época.

Intel 4004, o primeiro microprocessador (Imagem: Divulgação/Intel)

Quais eram as especificações do primeiro microprocessador?

O Intel 4004 tinha clock de 740 a 750 kHz (kilohertz) e arquitetura BCD de 4 bits. Era fabricado em um processo de 10 micrômetros, ou 10.000 nanômetros, e tinha 2.300 transistores mais finos que um fio de cabelo. Processadores modernos podem ter bilhões de transistores com 5 nanômetros ou menos.

O chip foi usado na calculadora Busicom 141-PF, que tinha memória, 4 funções (soma, subtração, multiplicação e divisão) e impressão de resultados com até 15 dígitos.

O que diz a Lei de Moore sobre processadores?

A Lei de Moore é uma observação feita por Gordon E. Moore, cofundador da Intel, em 1965. A versão mais atualizada da previsão dizia que o número de transistores em um processador dobraria a cada 2 anos, ou seja, o desempenho dos chips evoluiria de forma exponencial.

A previsão está sendo desafiada nos últimos anos porque a miniaturização dos transistores está se aproximando dos limites físicos. À medida que se eles se tornam tão pequenos quanto átomos, surgem problemas técnicos que dificultam a continuidade da miniaturização no mesmo ritmo das últimas décadas.

Quais são as principais linhas de processadores?

Intel Core: lançada em 2006, tem como características sua alta performance em PCs. A linha Core é subdividida em Core i3 (entrada), Core i5 (intermediário), Core i7 (alto desempenho) e Core i9 (performance extrema);

Intel Pentium: lançada originalmente em 1993, a linha Pentium se tornou voltada para o segmento de entrada, oferecendo desempenho básico a um preço menor. Era a principal marca de CPUs da Intel antes da linha Core;

Intel Xeon: é a linha de processadores da Intel para servidores e estações de trabalho (workstations). Foi lançada em 1998 e tem foco em alto desempenho, podendo operar em conjunto com outros processadores do mesmo modelo no mesmo computador;

AMD Ryzen: lançada em 2017, é a marca de processadores de alto desempenho da AMD para PCs. A linha Ryzen é subdividida em Ryzen 3 (entrada), Ryzen 5 (intermediário), Ryzen 7 (alto desempenho) e Ryzen 9 (performance extrema);

AMD Athlon: criada originalmente em 1999, a linha Athlon se tornou voltada para os segmentos de entrada e intermediário, oferecendo desempenho básico para tarefas cotidianas. O Athlon foi o principal concorrente do Intel Pentium até o final da década de 2000;

AMD Epyc: é a linha de processadores da AMD projetada para servidores de alto desempenho. Geralmente conta com um grande número de núcleos e suporte a altas quantidades de memória;

AMD Radeon: reúne os processadores gráficos (GPUs) da AMD. Foi criada em 2000 pela ATI Technologies, empresa comprada pela AMD em 2006.

Nvidia GeForce: reúne os processadores gráficos (GPUs) da Nvidia. É a principal marca da Nvidia para placas de vídeo voltadas ao usuário doméstico e muito usada em aplicações de GPGPU (Unidade de Processamento Gráfico de Propósito Geral).

Qualcomm Snapdragon: lançada em 2007, é uma linha de System-on-a-Chip (SoC) muito popular em smartphones e tablets com Android. Reúne CPU, GPU, modem e outros componentes dentro do mesmo chip;

Samsung Exynos: linha de SoCs da Samsung criada em 2010. É comum em celulares e tablets da linha Samsung Galaxy.

Apple Silicon: são os processadores da Apple usados principalmente em Macs. Os chips da linha Apple M1, M2 e sucessores têm arquitetura Arm e substituíram os processadores da Intel, com arquitetura x86, em desktops e laptops da Apple.

Processador de notebook serve em PC (desktop)?

Não, pois processadores de notebooks geralmente são soldados diretamente na placa-mãe e têm soquete diferente das CPUs para desktops, que são especificamente projetadas para serem removíveis e substituíveis.
O que são processadores e quais os tipos usados em celulares, PCs e câmeras?

O que são processadores e quais os tipos usados em celulares, PCs e câmeras?
Fonte: Tecnoblog

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

Alphabet, Amazon, Apple e Microsoft são algumas das empresas cujo valor está estimado a partir de US$ 1 trilhão. Em junho, uma nova companhia entrou nesse grupo: a Nvidia. É a primeira vez que uma empresa do ramo de chips alcança este patamar.

Todo mundo quer comprar da Nvidia (Imagem: Vitor Pádua / Tecnoblog)

Para quem não está tão inteirado das movimentações da empresa, a informação pode gerar surpresa. Afinal, a Nvidia não é aquela que faz as placas de vídeo para o público gamer?

E a resposta é sim: no setor de chips gráficos dedicados, a Nvidia é dominante. Mas foi-se o tempo que esta era o único negócio da companhia presidida por Jensen Huang. A utilidade das GPUs em diversas áreas impulsionou a Nvidia para novas e lucrativas direções.

Games, cripto e IA

A Nvidia surgiu em 1993. O primeiro chip, NV1, chegou ao mercado dois anos depois, mas o sucesso mesmo veio em 1997, com o lançamento do RIVA 128. Mas talvez seu produto mais conhecido seja a linha GeForce, a primeira das GPUs modernas, introduzida em 1999. No mesmo ano, a empresa fez sua primeira oferta pública de ações.

O foco da Nvidia, nesses primeiros anos, estava nos games. Parcerias com Sega e Microsoft marcaram a trajetória da empresa — embora para a Sega as coisas não tenham saído como o esperado… ouça o Tecnocast 296 para entender essa história.

Mas a capacidade das GPUs vai muito além da renderização de gráficos, o que abriu uma nova gama de oportunidades. Aqui, vale uma explicação técnica.

Diferente da CPU, que processa tarefas de forma sequencial, a GPU tem como característica o processamento paralelo. Na prática, isso significa que ela consegue realizar várias instruções ao mesmo tempo. Isso é possível graças ao grande número de núcleos presente nas GPUs modernas. Quanto mais núcleos, melhor o desempenho.

Placa de vídeo Asus com GPU Nvidia GeForce RTX 4070 Ti (imagem: divulgação/Asus)

GPUs com muitos núcleos, portanto, são excelentes para aplicações que necessitam de alto volume de processamento. Um exemplo é a mineração de criptomoedas. Nos períodos de maior atividade dos mineradores, era até difícil encontrar chips no mercado, o que gerou disparos no preço.

Outro contexto muito importante do uso das GPUs é no machine learning, dentro do processo de treinamento de inteligências artificiais.

Vale destacar: a Nvidia não desenvolveu suas GPUs com estas aplicações em mente; elas foram descobertas ao longo do caminho. Chips poderosos eram necessários, e a Nvidia detinha a melhor tecnologia da área. Foi como somar dois e dois.

A empresa soube aproveitar esses novos desdobramentos. Hoje, colhe os frutos.

A Nvidia vende para quem quiser comprar

Segundo Jensen Huang, estamos atravessando o “momento iPhone da IA”. O ChatGPT teria provocado o mesmo agito no mercado que o smartphone da Apple provocou quando apareceu, em 2007. Para milhões de pessoas, foi o primeiro contato com uma inteligência artificial capaz de coisas extraordinárias.

Poucas empresas estão em melhor posição para aproveitar este momento do que a Nvidia. Suas GPUs são usadas para treinamento de inteligências artificiais há anos. Na parceria entre Microsoft e OpenAI para criação de produtos de IA, há “milhares” de GPUs já otimizadas para este fim.

Assim como no auge da mineração de criptomoedas, conseguir chips gráficos de alta performance no momento pode ser tarefa difícil. Elon Musk, por exemplo, comentou está mais fácil encontrar drogas do que GPUs atualmente. Há alguns meses, descobriu-se que o dono do Twitter também investia em IA. Como? Bem, ele comprou milhares de chips da Nvidia.

Intel e AMD não estão paradas, é claro, e tentam emplacar seus chips voltados para inteligência artificial. Porém, a dianteira da Nvidia é muito consolidada. Trata-se de um domínio construído ao longo de anos, e é improvável que as competidoras consigam atacá-lo num futuro próximo.

Jensen Huang, CEO da Nvidia

Assim, não é uma surpresa que o mercado esteja tão animado com a Nvidia. As ações da empresa subiram 181% no acumulado do ano; só no atual trimestre fiscal, a expectativa é de US$ 11 bilhões em vendas, um recorde para a empresa.

Além disso, há o posicionamento peculiar da companhia. Google e Microsoft, por exemplo, são concorrentes em áreas como busca e IA generativa. O objetivo de ambas é criar produtos melhores, obter vantagens competitivas e conquistar mais usuários. O escopo da Nvidia é outro: ela é quem fornece o poder computacional para quem estiver interessado. Seja o Google, a Microsoft, Elon Musk ou quem quer que seja.

Portanto, é seguro dizer que a Nvidia não tem favoritos na batalha da inteligência artificial. Ela torce mesmo é pela briga.
As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga
Fonte: Tecnoblog

O que é a APU (Unidade de Processamento Acelerado) nos chips da AMD?

O que é a APU (Unidade de Processamento Acelerado) nos chips da AMD?

APU (Unidade de Processamento Acelerado) é o nome dado pela AMD aos processadores com CPU e GPU integrados. A empresa desenvolve esses chips tanto para notebooks quanto para desktops.

APU AMD A10 (imagem: Paulo Higa/Tecnoblog)

ÍndiceComo funciona uma APU?Por que a AMD criou o nome APU?A Intel fabrica APUs?Como saber a velocidade de uma APU?O que são os núcleos de uma APU?Para que serve o clock em uma APU?O que é uma APU desbloqueada para overclock?Quanto maior a memória cache da APU, melhor?Quais são os principais modelos de APU?O que é a arquitetura RDNA na APU?O que é a arquitetura Zen na APU?Qual a diferença entre APU e CPU?Qual a diferença entre APU e GPU?Uma APU consegue rodar jogos?Como juntar uma APU e uma placa de vídeo dedicada?

Como funciona uma APU?

Uma APU funciona integrando uma CPU e uma GPU em uma estrutura de silício única. A arquitetura de uma APU inclui núcleos e memórias cache. Alguns recursos, como mecanismos de comunicação, são compartilhados entre as duas unidades.

A CPU é responsável por processar a maior parte das tarefas de um computador. Já o processamento de informações gráficas envolve cálculos matemáticos muito específicos e numerosos, que exigem que esse trabalho seja feito por uma unidade à parte, a GPU.

GPUs conseguem processar dados visuais com eficiência por seguirem o princípio da computação paralela, fazendo de dezenas a milhares de pequenos núcleos trabalharem simultaneamente. Se essas tarefas fossem delegadas às CPUs, aplicativos gráficos e jogos avançados teriam baixo desempenho.

Ao unificar CPU e GPU, uma APU lida com todas as tarefas de processamento, tanto gerais quanto gráficas. Essa abordagem otimiza o espaço interno do computador (afinal, há um chip no lugar de dois), reduz o consumo de energia e favorece o custo-benefício em razão do compartilhamento de recursos.

Estrutura básica de uma APU (imagem: Vitor Pádua/Tecnoblog)

Por que a AMD criou o nome APU?

O nome APU foi criado pela AMD como uma forma de diferenciar a sua linha de chips que combinam CPU com GPU. A primeira geração de APUs, chamada de AMD Fusion, foi anunciada em 2011.

Contudo, o projeto teve início em 2006, ano em que a AMD adquiriu a ATI Technologies, empresa que desenvolvia os chips gráficos Radeon. Com o negócio, a AMD passou a dominar tanto o desenvolvimento de CPUs quanto o de GPUs. Isso a levou a criar o projeto AMD Fusion.

O objetivo do projeto foi desenvolver um chip baseado em HSA, arquitetura de computação heterogênea que, entre outras possibilidades, permite que núcleos de CPU e GPU de um mesmo chip compartilhem espaço de memória RAM.

A Intel fabrica APUs?

A Intel fabrica processadores com CPU e GPU no mesmo chip, mas não adotou a denominação APU. Essa nomenclatura foi criada para classificar especificamente os chips da AMD que reúnem as unidades de processamento geral e gráfico.

Como saber a velocidade de uma APU?

A velocidade de uma APU é influenciada por especificações como número de núcleos de CPU e GPU, quantidade de memória cache e velocidade de clock (frequência). É possível conferir todas essas informações em aplicativos como CPU-Z ou consultando a lista de APUs já lançadas pela AMD.

O que são os núcleos de uma APU?

As APUs contam com núcleos de CPU e de GPU para executar tanto os processos gerais quanto as tarefas gráficas.

Os núcleos da CPU são os que executam os processos gerados pelo sistema operacional, razão pela qual contam com elementos como Unidade de Controle (UC) e Unidade Lógica e Aritmética (ULA).

Já os núcleos Radeon, de GPU, correspondem aos Compute Units, que são blocos compostos por componentes como TMUs (geram efeitos de texturas) e ROPs (para renderização). Eles contam também com conjuntos de Stream Processors, que são unidades de execução mais simples, funcionando como núcleos menores.

Para que serve o clock em uma APU?

O clock (ou frequência) é uma parâmetro que indica a velocidade, isto é, quantos ciclos de operação por segundo os núcleos de CPU e GPU executam. A medida é dada em hertz (Hz) e seus múltiplos, como megahertz (MHz) e gigahertz (GHz), que correspondem a 1 milhão e a 1 bilhão de ciclos por segundo, respectivamente.

O que é uma APU desbloqueada para overclock?

O overclock faz o processador funcionar com uma frequência acima do valor padrão definido pelo fabricante. Essa é uma forma de aumentar o desempenho de determinadas tarefas. O procedimento requer alterações em parâmetros como multiplicador de clock e tensão, por isso, exige cuidados.

APUs desbloqueadas para overclock geralmente permitem que o procedimento seja feito tanto na CPU quanto na GPU.

A linha Ryzen 7000 é desbloqueada para overclock (imagem: divulgação/AMD)

Quanto maior a memória cache da APU, melhor?

Sim. Cache é uma memória de acesso rápido integrada à própria APU para armazenamento de informações prioritárias. Quanto mais cache, melhor, pois menos trocas de dados precisam ser feitas para liberação de espaço. Contudo, a quantidade de cache é muito limitada por se tratar de uma tecnologia cara.

Esse tipo de memória é dividido em níveis chamados de cache L1, L2 e L3. Quanto menor o número do nível, mais rápida é a memória.

Quais são os principais modelos de APU?

A AMD tem várias linhas de chips que são classificadas como APU. As principais são:

AMD Ryzen Z: lançada em 2023, concentra chips integrados para videogames portáteis, incluindo o Ryzen Z1 e o Ryzen Z1 Extreme;

AMD Ryzen 3, 5, 7 e 9: linha que reúne os processadores mais poderosos da AMD para desktops e notebooks para usuários domésticos. Disputa mercado com os chips Intel Core;

AMD Ryzen Pro: são chips para notebooks e desktops direcionados ao segmento corporativo. Além de núcleos de CPU e GPU Radeon, trazem tecnologias para gerenciamento de infraestrutura e segurança;

AMD Sempron: a linha Sempron, com chips de baixo custo, teve apenas duas APUs lançadas em 2014, os modelos 3850 e 2650 para desktops;

AMD FX: a linha FX, para notebooks, recebeu modelos de APUs entre 2015 e 2016. Todos contavam com GPU Radeon R7;

AMD Athlon: popular nos anos 2000 e 2010, tem algumas APUs para notebooks e desktops. Com a chegada dos chips Ryzen, passou a ter somente opções de baixo custo, como os chips Athlon Silver, com GPU Radeon 610M;

AMD Athlon Pro: são os chips Athlon para computadores corporativos. Cerca de dez modelos são APUs. Os mais recentes trazem GPU Radeon Vega 3, a exemplo do Athlon Pro 300GE, lançado em 2019 para desktops;

AMD Série E: inclui APUs de baixo custo voltados a notebooks e alguns poucos computadores all-in-one (com monitor integrado). Os modelos da linha foram lançados entre 2011 e 2016;

AMD Série A: reúne mais de 80 APUs de linhas como A4, A10 e A12 para notebooks e desktops. Foram lançados entre 2016 e 2018. Os modelos mais avançados trouxeram GPUs Radeon R7;

AMD Série A Pro: os chips corporativos da Série A tiveram quase 50 modelos para notebooks e desktops lançados entre 2016 e 2020;

AMD Opteron: voltada a servidores e workstations, a linha Opteron teve apenas duas APUs, os chips X2150 e X2170. Eles foram lançados em 2013 e 2016, respectivamente. Cada um teve quatro núcleos de CPU.

Ryzen Z1 com arquiteturas Zen 4 e RDNA 3 (imagem: divulgação/AMD)

O que é a arquitetura RDNA na APU?

RDNA (Radeon DNA) é uma arquitetura lançada pela AMD em 2019 que determina como as GPUs baseadas nela devem ser estruturadas. Embora tenha estreado em uma linha de placas de vídeo (com GPU dedicada), a arquitetura também está presente em APUs.

A AMD direciona a arquitetura RDNA principalmente a jogos e aplicações gráficas exigentes. Por isso, cada nova versão da arquitetura melhora aspectos como taxa de frames e resolução, além de acrescentar recursos. Anunciada no final de 2022, a arquitetura RDNA 3 traz suporte a ray tracing, por exemplo.

O que é a arquitetura Zen na APU?

Zen é o nome de uma arquitetura para CPUs introduzida pela AMD em 2017, quando a primeira geração de processadores Ryzen foi lançada. Ela trouxe evoluções importantes em relação às arquiteturas anteriores, de nome Bulldozer.

Um dos avanços está na litografia. A primeira versão da arquitetura Zen tem processo de fabricação de 14 nm. A arquitetura Zen 4, anunciada em setembro de 2022, tem tecnologias de 5 e 4 nm. A redução da litografia melhora o desempenho geral e a eficiência energética do chip, embora o TDP dependa de outros fatores.

Entre as APUs com Zen 4 está o chip AMD Ryzen 9 7950X. Lançado em setembro de 2022, o modelo conta com 16 núcleos de CPU, dois núcleos de GPU Radeon e processo de fabricação de 5 nm.

APU Ryzen 4000 com arquitetura Zen 2 (imagem: divulgação/AMD)

Qual a diferença entre APU e CPU?

Toda APU contém uma CPU, mas o contrário não é verdadeiro. Uma CPU, quando não integrada a uma GPU, é uma unidade que executa os processos gerados pelo sistema. Ela até pode executar algumas tarefas gráficas, mas, no geral, o conteúdo gráfico precisa ser processado por uma GPU.

Uma APU oferece a vantagem de permitir que tanto os processos gerais quanto conteúdos visuais sejam processados em uma única unidade, não sendo necessário instalar uma GPU separada para isso, a não ser que a intenção seja a de aumentar o desempenho gráfico.

Qual a diferença entre APU e GPU?

Toda APU contém uma GPU integrada. Em geral, essa GPU serve para reproduzir conteúdo gráfico que não demanda alto desempenho, como vídeos e jogos simples. Já uma GPU dedicada é um chip gráfico que faz parte de uma placa de vídeo ou, com menos frequência, da placa-mãe de um dispositivo.

Nos casos em que a APU não oferece desempenho gráfico suficiente, o usuário tem a opção de adicionar ao computador uma placa de vídeo com GPU mais potente. A GPU adicional irá substituir ou complementar o processamento gráfico da APU.

GPU dedicada Radeon RX 6000 (imagem: divulgação/AMD)

Uma APU consegue rodar jogos?

Uma APU pode rodar jogos, mas títulos com gráficos complexos podem exigir uma GPU dedicada, com recursos avançados. Isso porque a capacidade gráfica das APUs é projetada para tarefas triviais, de modo a favorecer a relação custo-benefício do chip.

Jogos 3D modernos e softwares gráficos profissionais demandam um nível de desempenho que somente GPUs desenvolvidas para essas aplicações oferecem. Para tanto, esses chips gráficos contam com memória VRAM exclusiva, alta quantidade de núcleos, otimização por inteligência artificial, entre outros atributos.

Como juntar uma APU e uma placa de vídeo dedicada?

A AMD permite que a capacidade gráfica de algumas APUs antigas seja combinada com uma GPU dedicada para aumentar o desempenho de determinadas aplicações. Isso é feito por meio do sistema Radeon Dual Graphics, que é baseado na tecnologia AMD CrossFire, mas só funciona com APUs das séries AMD FX e AMD A.

O mais próximo do sistema Radeon Dual Graphics que a AMD oferece para chips Ryzen é a tecnologia AMD SmartShift. Lançada em 2020, ela permite que uma CPU Ryzen (que pode ou não ser uma APU) e uma GPU dedicada Radeon equilibrem entre si o fornecimento de energia para otimizar tarefas em execução.
O que é a APU (Unidade de Processamento Acelerado) nos chips da AMD?

O que é a APU (Unidade de Processamento Acelerado) nos chips da AMD?
Fonte: Tecnoblog

Samsung Galaxy S23 FE aparece em benchmark e o chip te deixará com o pé atrás

Samsung Galaxy S23 FE aparece em benchmark e o chip te deixará com o pé atrás

Além do Galaxy S21 FE para o mercado indiano, a Samsung deve lançar globalmente o Galaxy S23 FE. Após uma série de rumores, o próximo celular da linha S23 apareceu em um teste no Geekbench. O modelo encontrado é equipado com o não muito quisto Exynos 2200.

Galaxy S23 FE deve ter design idêntico aos modelos “básicos” e S23+ (Imagem: Paulo Higa/Tecnoblog)

A série Fan Edition da sul-coreana é formada por versões mais “simplificadas” dos smartphones topos de linha. Geralmente, eles se mantém em um preço mais acessível, ainda que o valor no lançamento seja incondizente com suas especificações — típicas de um topo de linha, mas que não compete com as versões Plus e Ultra.

Galaxy S23 FE usará Exynos que prometia muito com GPU AMD

O Exynos 2200 que será usado pelo Galaxy S23 FE utiliza a arquitetura RDNA 2 da AMD, fabricante de processadores e placas de vídeo para PCs, na sua unidade de processamento gráfico (GPU). Com essa arquitetura, a tecnologia de ray tracing fez a sua estreia em smartphones com o Galaxy S22, celular que estreou o chip Exynos 2200.

Mas o desempenho era “muito gelo e pouco whisky”. Lá na Europa, continente que recebeu os Galaxy S22 com Exynos 2200, o desempenho não agradou muito. As versões com Snapdragon 8 Gen 1 são mais rápidas. Todavia, vamos ser justos: os dois modelos de Galaxy S22 passaram por problemas de throttling.

Galaxy S23 FE em benchmark (Imagem: Reprodução/SamMobile)

Nas outras especificações reveladas pelo benchmark, vemos que o modelo possui 8 GB de memória RAM, o mesmo que é ofertado no Galaxy S22 “base” e S22 + (a versão Ultra conta ainda com opção de 12 GB de RAM). É ventilado que o S23 FE terá bateria de 4.500 mAh e o mesmo conjunto de câmeras do S23 FE “normal”.

Exynos 2200 teve anúncio de lançamento “apagado da memória”

A Samsung anunciou um evento de lançamento do SoC semanas antes do Galaxy Unpacked em que revelou o Galaxy S22. Porém, a empresa “apagou” o evento, excluindo até postagens anunciando que teria uma novidade na linha Exynos. A situação lembrou muito o trabalho de Winston, protagonista de 1984, que apaga e corrige publicações antigas da ditadura do Grande Irmão, com o objetivo da população não lembrar e esquecer as metas erradas.

Na véspera do seu lançamento, lá em 2022, o “prolífico” leaker IceUniverse informou que a Samsung estava decepcionada com o desempenho do Exynos 2200. A GPU não conseguia chegar ao clock planejado sem superaquecer, além de ficar abaixo do Snapdragon 8 Gen 1. Esse pode ter sido o motivo do “apagão” do evento de lançamento do Exynos 2200.

Apesar de tudo, Exynos 2200 pode surpreender

Depois de tudo dito anteriormente, é necessário lembrar que a Samsung teve mais de um ano e meio para corrigir o Exynos 2200. Assim, os traumas podem ficar no passado e a fabricante pode mostrar um chip melhorado e com desempenho de “2023”.

Afinal, um dos motivos para utilizar o processador é ter um “campo de teste” para atingir o objetivo de lançar seus smartphones Galaxys apenas com chips Exynos. Inclusive o fato de lançar somente Galaxy S23 com Snapdragons exclusivos foi deixar que o setor de SoCs bote ordem na casa. O Exynos 2200 no S23 FE pode mostrar o quão longe ou perto a Samsung está de ter um processador exclusivo que “rode liso”.

Com informações: SamMobile
Samsung Galaxy S23 FE aparece em benchmark e o chip te deixará com o pé atrás

Samsung Galaxy S23 FE aparece em benchmark e o chip te deixará com o pé atrás
Fonte: Tecnoblog

Notebook Gamer Lenovo com Intel i7 tem o menor preço histórico em oferta

Notebook Gamer Lenovo com Intel i7 tem o menor preço histórico em oferta

Pensado para o público gamer, o notebook da Lenovo traz características interessantes, como o processador Intel Core i7 e a GPU da Nvidia com suporte a Ray Tracing e DLSS. E nessa oferta no site da Americanas, o Lenovo IdeaPad Gaming 3i sai por R$ 5.820,10. Esta é o melhor desconto já registrado pelo produto, segundo o buscador de preços do Zoom.

Notebook Lenovo IdeaPad Gaming 3i (Imagem: Divulgação/Lenovo)

Para aproveitar esse achado, você deve adquirir o notebook gamer da Lenovo por R$ 5.820,10 à vista, no Pix. O modelo é vendido e entregue pela própria Lenovo, mas anunciado via marketplace da Americanas. De acordo com a varejista, ela oferece garantia para a compra do pedido à entrega do produto.

Um oferecimento do Achados
Quase todos os dias, o time de curadores do Tecnoblog se dedica a encontrar as melhores ofertas para o Achados do TB. Por isso, quem participa dos nossos grupos no WhatsApp ou Telegram tem acesso a promoções que divulgamos no site antes de todo mundo.Além disso, encontra descontos em outros itens de tecnologia que você não vê por aqui, como mouses, cabos, teclados, headsets, e muito mais. Então, se quiser economizar com mais frequência e receber indicações produto da nossa equipe, comece agora a acompanhar o Achados.

Lenovo IdeaPad Gaming 3i tem RTX 3050 e Core i7

Dentre as especificações técnicas do IdeaPad Gaming 3i (código 82MG0003BR), está o processador Intel Core i7 de décima primeira geração. E a placa de vídeo dedicada Nvidia GeForce RTX 3050, que traz as tecnologias de Ray Tracing e DLSS por um preço mais em conta. Segundo a marca, a GPU deve atender quem já não consegue jogar jogos mais modernos com placas de gerações anteriores, como a GTX 1650.

O notebook traz ainda um SSD de 512 GB de memória e RAM de 16 GB — ótimos números para cumprir ao que ele se propõe. Assim como o sistema operacional Windows 11 de fábrica, que deve atender bem às necessidades da maioria dos consumidores.

Por fim, a tela Full HD de 15.6″ tem tecnologia WVA Antirreflexo, que promete imagens nítidas e livres de distorções independentemente do ângulo de visão. Enquanto o teclado retroiluminado, além de útil para as jogatinas noturnas, é outro destaque legal e que marca o segmento do produto. O IdeaPad Gaming 3i tem duas portas USB, uma USB-C, uma HDMI, uma Ethernet e uma de áudio de 3.5 mm.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Notebook Gamer Lenovo com Intel i7 tem o menor preço histórico em oferta

Notebook Gamer Lenovo com Intel i7 tem o menor preço histórico em oferta
Fonte: Tecnoblog

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Quando a Nvidia começou a sequência de anúncios das suas tecnologias para inteligência artificial e computação de alto desempenho, os gamers ficaram com uma dúvida: a empresa vai deixar as GPUs para desktops de lado? Na Computex 2023, Jensen Huang afirmou que não — e ficou “magoado” com a pergunta.

Jensen Huang afirma que Nvidia não deixou gamers de lado (Imagem: Divulgação/Nvidia)

Huang disse para Gordon Ung, editor do site PC World, que o público gamer continua relevante para a Nvidia. Para provar isso, o Jensen jaquetinha (apelido dado por uma parte do público) relembrou que a primeira IA desenvolvida pela empresa, o DLSS, foi para os jogadores. E que sem inteligência artificial não existiria ray tracing em tempo real.

CEO da Nvidia ficou “magoado” com questão sobre foco da empresa

Brincando com Ung, Jensen Huang disse que ficou “profundamente magoado” com a pergunta sobre o foco da Nvidia. O CEO-fundador da empresa, ambos cada vez mais ricos nos últimos dias, comentou ainda que a primeira aplicação de IA generativa da Nvidia é o ACE, que permitirá que NPCs desenvolvam diálogos naturais — ainda que a demonstração seja parecida com qualquer NPC de Skyrim.

Indiretamente, Jensen afirmou que inteligência artificial é o pilar das GPUs RTX, lançadas em 2020. Ao responder que DLSS foi a primeira IA criada pela Nvidia, o CEO da empresa afirmou que a tecnologia de deep learning é o pilar da série RTX.

DLSS foi primeira IA da Nvidia e feita para a RTX (Imagem: Divulgação/Nvidia)

Enquanto o público gamer está preocupado se será ou não abandonado pela Nvidia, a empresa atingiu a capitalização de US$ 1 trilhão de dólares. Com os novos anúncios de IA e computação de alto desempenho, a empresa se tornou a primeira fabricante de chips a chegar nesse valor de mercado. Agora, a Nvidia vira colega da Apple, Aramco, Amazon, Alphabet e Microsoft — estas duas últimas são suas clientes.

Se time que está ganhando não se mexe, podemos fazer um paralelo com “empresa que está lucrando não vai perder dinheiro”. Hoje, a Nvidia gera receita com gamers e IA. Ela não deixará as RTXs de lado — até porque os jogadores não estão pagando barato.

Com informações: PC World e WCCF Tech
Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers
Fonte: Tecnoblog