Blog

Aproveite! POCO X7 Pro e X7 já podem ser comprados no lançamento do AliExpress

Aproveite! POCO X7 Pro e X7 já podem ser comprados no lançamento do AliExpress

PubliEm evento realizado nesta semana, a POCO oficializou os novos POCO X7 Pro e POCO X7, apostando principalmente no bom custo-benefício.

Esses smartphones são poderosos, sendo que o modelo Pro é um dos primeiros no mundo a usar a nova plataforma MediaTek Dimensity 8400 Ultra.O Poco X7 Pro ainda não está disponível nas lojas brasileiras. Para ser notificado quando ele chegar clique aqui.O Poco X7 ainda não está disponível nas lojas brasileiras. Para ser notificado quando ele chegar clique aqui.Clique aqui para ler mais

Aproveite! POCO X7 Pro e X7 já podem ser comprados no lançamento do AliExpress
Fonte: Tudocelular

ASUS anuncia novo conector sem cabos para placas de vídeo de até 1.000 W da série "BTF 2.0"

ASUS anuncia novo conector sem cabos para placas de vídeo de até 1.000 W da série “BTF 2.0″

A ASUS apresentou nesta semana uma versão revisada do conector “GC-HPWR” (Graphics Card High Power) para sua série de componentes “BTF 2.0” (Back to the Future), cujo diferencial é realocar as conexões de cabos para a traseira da placa-mãe, garantindo um visual mais limpo aos computadores. A novidade chega corrigindo diversas dores da primeira geração, e ainda está preparada para futuras gerações de GPUs ao comportar até 1.000 W.Apresentada no início do ano passado, a primeira geração do GC-HPWR era integrada à placa de circuitos das GPUs, e suportava alimentação de até 600 W. Com ele, a ASUS pretendia que a conexão de energia passasse a ser “invisível”, deixando as builds dos usuários mais limpa. Havia, no entanto, algumas questões que limitavam a adoção da solução.

Com a segunda geração, a gigante corrige praticamente todos os problemas da proposta original, ao mesmo tempo em que traz melhorias importantes. A primeira delas, e de maior impacto, é a construção do conector, agora revestida em metal para fornecer maior resistência.Clique aqui para ler mais

ASUS anuncia novo conector sem cabos para placas de vídeo de até 1.000 W da série “BTF 2.0”
Fonte: Tudocelular

Microsoft registra patente para criar e alterar narrativas de jogos com IA generativa

Microsoft registra patente para criar e alterar narrativas de jogos com IA generativa

Uma nova patente da Microsoft pode mudar a forma como histórias são contadas dentro dos jogos, pois a empresa parece interessada em usar inteligência artificial generativa para poder alcançar a possibilidade de criar e alterar a experiência narrativa do usuário dentro do jogo.

O jogador parece não ser o único beneficiado com isso, pois o designer de jogos também pode aproveitar a novidade para melhorar ainda mais o seu processo criativo em um jogo com a ajuda de certos prompts e o resultado é um resumo de “alto nível”. A patente foi registrada em 2024, mas somente agora ficou pública.Tais prompts permitiriam o jogador ou desenvolvedor criar coisas dentro do jogo de forma rápida, como objetos relevantes para a narrativa e por aí vai. Na patente, um bom exemplo usado é o Minecraft, que também pertence à Microsoft.Clique aqui para ler mais

Microsoft registra patente para criar e alterar narrativas de jogos com IA generativa
Fonte: Tudocelular

Honor Magic 7 Lite e Magic 7 Pro chegam à Europa com plataformas Snapdragon

Honor Magic 7 Lite e Magic 7 Pro chegam à Europa com plataformas Snapdragon

Após rumores sobre o lançamento, a Honor anunciou os celulares Magic 7 Lite e Magic 7 Pro na Europa. Vale lembrar que a variante Pro foi lançada na China em outubro do ano passado, enquanto o modelo Lite foi oficializado há algumas semanas.

Nos destaques, os modelos trazem design luxuoso com aparência semelhante. Em especificações, o destaque é o Honor Magic 7 Pro, que traz a plataforma Snapdragon 8 Elite, enquanto o Magic 7 Lite traz o chipset intermediário Snapdragon 6 Gen 1.Honor Magic 7 ProO Honor Magic 7 Pro possui tela LTPO AMOLED de 6,8 polegadas com resolução 2.800 x 1.280 pixels, taxa de atualização de 120 Hz, brilho máximo de 5.000 nits em conteúdo HDR e 1.600 nits em reprodução comum, além de suporte para Dolby Vision e PWM de 4.320 MHz.O Honor Magic 7 Lite ainda não está disponível nas lojas brasileiras. Para ser notificado quando ele chegar clique aqui.O Honor Magic 7 Pro ainda não está disponível nas lojas brasileiras. Para ser notificado quando ele chegar clique aqui.Clique aqui para ler mais

Honor Magic 7 Lite e Magic 7 Pro chegam à Europa com plataformas Snapdragon
Fonte: Tudocelular

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

Conheça como funciona e as aplicações da Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

O Deep Learning, ou Aprendizado Profundo, em português, é um ramo da Inteligência Artificial (IA) que “ensina” máquinas a aprender por meio de dados. Para isso, são usadas redes neurais artificiais que simulam o cérebro humano para identificar padrões complexos e gerar respostas e previsões.

Essa tecnologia está presente em diversas áreas e aplicações do nosso dia a dia. Por exemplo, reconhecimento facial, assistentes virtuais, dispositivos de Internet das Coisas (IoT), mecanismos de recomendações em sites e sistemas de carros autônomos.

A seguir, entenda o que é Deep Learning, seu funcionamento e aplicações. Também descubra os pontos positivos e negativos do uso da tecnologia.

ÍndiceO que é Deep Learning?Como funciona o Deep Learning?Quais são os exemplos de aplicações de Deep Learning?Quais são as vantagens de usar Deep Learning?Quais são as desvantagens de usar Deep Learning?Qual é a diferença entre Inteligência Artificial e Deep Learning?Qual é a diferença entre Deep Learning e Machine Learning?Qual é a diferença entre Redes Neurais e Deep Learning?

O que é Deep Learning?

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender hierarquia de dados. Como se fosse neurônios de um cérebro humano, essas camadas processam a informação de forma sequencial, permitindo que o sistema aprenda padrões e faça previsões com precisão.

Como funciona o Deep Learning?

Um modelo de Deep Learning é como uma rede de neurônios artificiais, organizada em camadas. Cada neurônio, chamado de nó interconectado, processa informações e passa o resultado para os neurônios da próxima camada.

Durante o treinamento do algoritmo, o modelo ajusta os pesos das conexões entre os neurônios para aprender a mapear os dados de entrada e gerar os resultados. As principais camadas do modelo de Aprendizado Profundo são:

Camada de entrada: recebe os dados brutos, como uma imagem ou palavras de um texto;

Camadas ocultas: realizam cálculos complexos para extrair características relevantes dos dados, como as relações entre palavras. O número de camadas ocultas e a complexidade dos cálculos variam conforme a tarefa;

Camada de saída: produz a resposta final, que pode ser uma classificação (por exemplo, a imagem de um gato ou cachorro), uma previsão (como valores da ação de uma empresa), um texto ou outra forma de saída.

É importante dizer que existem diferentes tipos de redes neurais artificiais, cada uma com arquitetura e aplicações específicas. Por exemplo, as redes convolucionais (CNNs) para imagens e as redes recorrentes (RNNs) para sequências de dados.

As camadas de aplicações do Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

Quais são os exemplos de aplicações de Deep Learning?

O Deep Learning está presente em várias aplicações do nosso dia a dia. Por exemplo:

Visão computacional: extração de informações e insights de imagens e vídeos, como a moderação de conteúdos em sites e redes sociais, removendo arquivos inapropriados;

Reconhecimento de voz: análise da fala humana a partir de padrões, como idioma. Comum em assistentes virtuais, como Amazon Alexa, dispositivos de Internet das Coisas (IoT) e aplicativos com suporte para text-to-speech e speech-to-text;

Processamento de linguagem natural: organização de dados de texto para treinar chatbots, indexação de expressões-chave em mídias sociais e resumos automáticos de documentos e artigos jornalísticos;

Mecanismo de recomendação: rastreio das atividades e comportamento de um usuário para desenvolver recomendações personalizadas de serviços e produtos. Comum em serviços de streaming, redes sociais e e-commerces;

Refinamento de dados: processamento de dados brutos visando identificar padrões e extrair insights;

Finanças: avaliação de dados para previsão de mercado, detecção de fraudes e recomendação de investimentos;

Veículos autônomos: sistema de identificação de fatores externos, como carros ao redor, placas de rua e pedestres, gerando uma reação para o veículo;

Jogos: criação de personagens não jogáveis (NPCs) mais inteligentes e realistas;

IA generativa: geração de conteúdos e comunicação com os usuários, proporcionando a automatização do fluxo de trabalho e busca inteligente de conhecimento.

Quais são as vantagens de usar Deep Learning?

O Deep Learning oferece várias vantagens que o tornam uma ferramenta poderosa para a resolução de problemas complexos. As principais são:

Alta precisão: os algoritmos têm alto desempenho em tarefas como reconhecimento de imagem (por exemplo, em carros autônomos) e processamento de linguagem natural (como em assistentes virtuais);

Automatização da engenharia de recursos: ao contrário de métodos tradicionais, o Deep Learning aprende automaticamente as características mais relevantes dos dados, eliminando a necessidade de intervenção manual;

Escalabilidade: modelos de Aprendizado Profundo podem ser treinados com grandes volumes de dados, sendo ideias para aplicações em larga escala;

Flexibilidade: os algoritmos são adaptáveis a diversos tipos de dados (imagem, texto, áudio) e podem ser aplicados em uma gama de soluções;

Aprendizado contínuo: uma característica fundamental do Deep Learning é a capacidade de melhorar o desempenho ao longo do tempo, à medida que mais dados são disponibilizados.

Quais são as desvantagens de usar Deep Learning?

O Deep Learning, apesar de seus avanços, apresenta alguns desafios. Entre eles, destacam-se:

Altos demanda computacional: o treinamento de modelos de Deep Learning exige grande poder computacional, como GPUs e TPUs, além de grande quantidade de memória RAM;

Necessidade de grandes conjuntos de dados rotulados: a construção de modelos robustos requer vastas quantidades de dados de alta qualidade, devidamente classificados por especialistas. Esse processo pode ser custoso e demorado;

Dificuldade de interpretação: os modelos de Deep Learning são frequentemente considerados “caixas pretas”, pois é difícil entender o raciocínio por trás das decisões. Essa falta de transparência pode ser um obstáculo em áreas como medicina e direito;

Overfitting: os modelos podem se ancorar aos dados de treinamento, perdendo a capacidade de gerar novos dados. Isso ocorre quando o modelo memoriza os exemplos de treinamento em vez de aprender as características gerais dos dados. Para evitar o overfitting, são usadas técnicas como regularização e validação cruzada.

Infográfico apresenta a relação entre IA, Processamento de Linguagem Natural, Grandes Modelos de Linguagem, Machine Learning e Deep Learning (Imagem: Vitor Pádua/Tecnoblog)

Qual é a diferença entre Inteligência Artificial e Deep Learning?

A Inteligência Artificial (IA) é um campo amplo que busca criar máquinas capazes de realizar tarefas que exigem inteligência humana. Assim, o Machine Learning, subcampo da IA, permite que as máquinas aprendam com dados sem serem diretamente programadas.

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais inspiradas no cérebro humano. Essas redes são compostas por camadas de neurônios artificiais que processam informações de forma hierárquica, permitindo o aprendizado de padrões complexos em grandes volumes de dados.

Qual é a diferença entre Deep Learning e Machine Learning?

Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender representações hierárquicas dos dados. Essas redes, inspiradas no funcionamento do cérebro humano, são capazes de lidar com grandes volumes de dados não rotulados, como imagens, vídeos e textos.

Machine Learning é um ramo da IA que permite que sistemas aprendam com dados, identificando padrões e fazendo previsões sem serem diretamente programados. O processo de aprendizagem pode ser supervisionado (dados do treinamento com respostas corretas) ou não supervisionado (busca de padrões em dados não rotulados).

Qual é a diferença entre Redes Neurais e Deep Learning?

As redes neurais artificiais são a base do Deep Learning. A tecnologia é composta por camadas de nós interconectados, que processam informações de forma semelhante aos neurônios do cérebro humano, aprendendo com os erros e aprimorando continuamente.

O Deep Learning é um subcampo da IA que ensina máquinas a processar dados de forma semelhante ao cérebro humano. Para isso, as redes neurais são usadas no processo de reconhecer padrões de dados e gerar previsões precisas.
O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações
Fonte: Tecnoblog

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

App Store é alvo de mais uma disputa judicial sobre suas comissões, mas dessa vez Reino Unido inicia julgamento (Imagem: Vitor Pádua / Tecnoblog)

A Apple pode ser condenada a pagar uma multa de 1,5 bilhão de libras esterlinas (R$ 11,137 bilhões) pela cobrança de valores abusivos na App Store. O julgamento do processo, aberto há quatro anos, iniciou nesta segunda-feira (13) e pode se estender pelas próximas sete semanas. A corte britânica questiona a famosa comissão de 30% cobrada pela Apple — o caso se assemelha à batalha entre a big tech e a Epic Games.

O que é o processo contra a Apple no Reino Unido?

A ação aberta por um grupo de desenvolvedores alega que a Apple não tem o direito de cobrar uma comissão tão alta nas vendas realizadas dentro da App Store. A principal voz desse processo é Rachael Kent, especialista em economia digital e professora no King’s College.

Kent destaca ainda que a comissão também é injusta pelo fato de a Apple impedir que as plataformas e desenvolvedores entreguem ofertas melhores para os usuários. Sim, isso é quase um Ctrl+C, Ctrl+V da disputa judicial entre Epic e Apple nos Estados Unidos.

A Apple venceu quase todas as acusações da Epic, perdendo apenas a que autorizou a divulgação e a realização de pagamentos por meios fora da App Store.

O processo também acusa a Apple de violar a legislação britânica e europeia de competição. Essa violação, segundo os autores, vem do fato da big tech impedir que outras lojas de aplicativos sejam instaladas no ecossistema da Apple.

Apple foi obrigada a liberar lojas de terceiros na UE, mas Reino Unido saiu do bloco (Imagem: Vitor Pádua/Tecnoblog)

Por sair da União Europeia, o Reino Unido não foi beneficiado pela legislação do bloco que obrigou a big tech a liberar lojas de terceiros no iOS.

A Apple nega as acusações de abuso e de práticas anticompetitivas. Em sua defesa, a big tech diz que as taxas da comissão estão de acordo com o mercado. A empresa aponta ainda que 85% dos aplicativos da App Store são gratuitos e vários desenvolvedores (sem passar um número) integram o programa de 15% de comissão.

Com informações de MacRumors, Apple Insider e 9to5Mac
Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido
Fonte: Tecnoblog

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025 (imagem: divulgação/Nvidia)

No embalo da CES 2025, Jensen Huang, CEO da Nvidia, confirmou que a companhia planeja lançar CPUs com arquitetura Arm direcionadas a PCs. O executivo não deu detalhes sobre o plano, mas rumores a respeito já aparecem. Eles dizem que o primeiro chip do projeto chegará no final de 2025.

Serão dois chips, se esses burburinhos estiverem certos. Um modelo de nome N1X é o que deverá ser anunciado no último trimestre de 2025, com um chip batizado como N1 devendo aparecer em 2026.

As diferenças entre eles ainda não estão claras, muito menos sabe-se quais serão as suas especificações. Mas é de se esperar que ambos tenham a arquitetura Arm como base e sejam frutos de uma parceira com a MediaTek, que receberá US$ 2 bilhões pela fase inicial do acordo.

Fala-se também que a Nvidia planeja produzir, inicialmente, 3 milhões de unidades do N1X, bem como 13 milhões de unidades do N1. Pelo volume de vendas esperado, é possível que este último venha a ser o modelo mais simples da dupla, portanto.

Pelo menos é o que revela o perfil HaYaO no X, que tem um histórico de vazamentos de projetos de empresas de tecnologia.

Jensen Huang, CEO da Nvidia (foto: divulgação/Nvidia)

Parceria com a MediaTek não será surpresa

Se a parceria com a MediaTek for confirmada, não causará espanto. Além de revelar as GPU RTX GeForce 50, a Nvidia usou a CES 2025 para anunciar o Project Digits, um supercomputador de IA comandado por um chip desenvolvido justamente em conjunto com a MediaTek: o GB10 Grace Blackwell, que conta com CPU de 20 núcleos e GPU com núcleos Cuda e Tensor.

Quando Jensen Huang confirmou que a Nvidia pretende lançar CPUs para PCs, explicou também que a MediaTek foi escolhida como parceira para um projeto de uma CPU otimizada para eficiência energética e passível de ser produzida em larga escala. Há boas chances de que ele estivesse falando do N1X e do N1, portanto.

Se a Nvidia lançar mesmo CPUs Arm para PCs, não deixará somente a Intel e a AMD em alerta, mas também a Qualcomm, afinal, esta última já tem chips com essa arquitetura para computadores baseados no Windows. Aliás, um deles foi anunciado na CES 2025: um modelo Snapdragon X para PCs mais baratos.

Com informações: Tom’s Hardware
Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025
Fonte: Tecnoblog

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA

A Sony registrou novas patentes para o DualSense que podem reduzir a latência em jogos online enquanto permitem que o controle seja usado de uma forma totalmente diferente para mirar em inimigos nos jogos.A primeira delas menciona o uso de inteligência artificial para prever quais teclas serão apertadas pelo jogador, reduzindo a latência em jogos online ou onde o tempo de resposta é crucial para vencer inimigos.

A segunda patente indica o uso dos sensores do DualSense para que ele possa ser segurado de uma nova forma, como se fosse uma pistola real (imagem abaixo), facilitando o seu uso em jogos de tiro ou FPS.Clique aqui para ler mais

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA
Fonte: Tudocelular