Blog

Microsoft registra patente para criar e alterar narrativas de jogos com IA generativa

Microsoft registra patente para criar e alterar narrativas de jogos com IA generativa

Uma nova patente da Microsoft pode mudar a forma como histórias são contadas dentro dos jogos, pois a empresa parece interessada em usar inteligência artificial generativa para poder alcançar a possibilidade de criar e alterar a experiência narrativa do usuário dentro do jogo.

O jogador parece não ser o único beneficiado com isso, pois o designer de jogos também pode aproveitar a novidade para melhorar ainda mais o seu processo criativo em um jogo com a ajuda de certos prompts e o resultado é um resumo de “alto nível”. A patente foi registrada em 2024, mas somente agora ficou pública.Tais prompts permitiriam o jogador ou desenvolvedor criar coisas dentro do jogo de forma rápida, como objetos relevantes para a narrativa e por aí vai. Na patente, um bom exemplo usado é o Minecraft, que também pertence à Microsoft.Clique aqui para ler mais

Microsoft registra patente para criar e alterar narrativas de jogos com IA generativa
Fonte: Tudocelular

Honor Magic 7 Lite e Magic 7 Pro chegam à Europa com plataformas Snapdragon

Honor Magic 7 Lite e Magic 7 Pro chegam à Europa com plataformas Snapdragon

Após rumores sobre o lançamento, a Honor anunciou os celulares Magic 7 Lite e Magic 7 Pro na Europa. Vale lembrar que a variante Pro foi lançada na China em outubro do ano passado, enquanto o modelo Lite foi oficializado há algumas semanas.

Nos destaques, os modelos trazem design luxuoso com aparência semelhante. Em especificações, o destaque é o Honor Magic 7 Pro, que traz a plataforma Snapdragon 8 Elite, enquanto o Magic 7 Lite traz o chipset intermediário Snapdragon 6 Gen 1.Honor Magic 7 ProO Honor Magic 7 Pro possui tela LTPO AMOLED de 6,8 polegadas com resolução 2.800 x 1.280 pixels, taxa de atualização de 120 Hz, brilho máximo de 5.000 nits em conteúdo HDR e 1.600 nits em reprodução comum, além de suporte para Dolby Vision e PWM de 4.320 MHz.O Honor Magic 7 Lite ainda não está disponível nas lojas brasileiras. Para ser notificado quando ele chegar clique aqui.O Honor Magic 7 Pro ainda não está disponível nas lojas brasileiras. Para ser notificado quando ele chegar clique aqui.Clique aqui para ler mais

Honor Magic 7 Lite e Magic 7 Pro chegam à Europa com plataformas Snapdragon
Fonte: Tudocelular

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

Conheça como funciona e as aplicações da Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

O Deep Learning, ou Aprendizado Profundo, em português, é um ramo da Inteligência Artificial (IA) que “ensina” máquinas a aprender por meio de dados. Para isso, são usadas redes neurais artificiais que simulam o cérebro humano para identificar padrões complexos e gerar respostas e previsões.

Essa tecnologia está presente em diversas áreas e aplicações do nosso dia a dia. Por exemplo, reconhecimento facial, assistentes virtuais, dispositivos de Internet das Coisas (IoT), mecanismos de recomendações em sites e sistemas de carros autônomos.

A seguir, entenda o que é Deep Learning, seu funcionamento e aplicações. Também descubra os pontos positivos e negativos do uso da tecnologia.

ÍndiceO que é Deep Learning?Como funciona o Deep Learning?Quais são os exemplos de aplicações de Deep Learning?Quais são as vantagens de usar Deep Learning?Quais são as desvantagens de usar Deep Learning?Qual é a diferença entre Inteligência Artificial e Deep Learning?Qual é a diferença entre Deep Learning e Machine Learning?Qual é a diferença entre Redes Neurais e Deep Learning?

O que é Deep Learning?

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender hierarquia de dados. Como se fosse neurônios de um cérebro humano, essas camadas processam a informação de forma sequencial, permitindo que o sistema aprenda padrões e faça previsões com precisão.

Como funciona o Deep Learning?

Um modelo de Deep Learning é como uma rede de neurônios artificiais, organizada em camadas. Cada neurônio, chamado de nó interconectado, processa informações e passa o resultado para os neurônios da próxima camada.

Durante o treinamento do algoritmo, o modelo ajusta os pesos das conexões entre os neurônios para aprender a mapear os dados de entrada e gerar os resultados. As principais camadas do modelo de Aprendizado Profundo são:

Camada de entrada: recebe os dados brutos, como uma imagem ou palavras de um texto;

Camadas ocultas: realizam cálculos complexos para extrair características relevantes dos dados, como as relações entre palavras. O número de camadas ocultas e a complexidade dos cálculos variam conforme a tarefa;

Camada de saída: produz a resposta final, que pode ser uma classificação (por exemplo, a imagem de um gato ou cachorro), uma previsão (como valores da ação de uma empresa), um texto ou outra forma de saída.

É importante dizer que existem diferentes tipos de redes neurais artificiais, cada uma com arquitetura e aplicações específicas. Por exemplo, as redes convolucionais (CNNs) para imagens e as redes recorrentes (RNNs) para sequências de dados.

As camadas de aplicações do Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

Quais são os exemplos de aplicações de Deep Learning?

O Deep Learning está presente em várias aplicações do nosso dia a dia. Por exemplo:

Visão computacional: extração de informações e insights de imagens e vídeos, como a moderação de conteúdos em sites e redes sociais, removendo arquivos inapropriados;

Reconhecimento de voz: análise da fala humana a partir de padrões, como idioma. Comum em assistentes virtuais, como Amazon Alexa, dispositivos de Internet das Coisas (IoT) e aplicativos com suporte para text-to-speech e speech-to-text;

Processamento de linguagem natural: organização de dados de texto para treinar chatbots, indexação de expressões-chave em mídias sociais e resumos automáticos de documentos e artigos jornalísticos;

Mecanismo de recomendação: rastreio das atividades e comportamento de um usuário para desenvolver recomendações personalizadas de serviços e produtos. Comum em serviços de streaming, redes sociais e e-commerces;

Refinamento de dados: processamento de dados brutos visando identificar padrões e extrair insights;

Finanças: avaliação de dados para previsão de mercado, detecção de fraudes e recomendação de investimentos;

Veículos autônomos: sistema de identificação de fatores externos, como carros ao redor, placas de rua e pedestres, gerando uma reação para o veículo;

Jogos: criação de personagens não jogáveis (NPCs) mais inteligentes e realistas;

IA generativa: geração de conteúdos e comunicação com os usuários, proporcionando a automatização do fluxo de trabalho e busca inteligente de conhecimento.

Quais são as vantagens de usar Deep Learning?

O Deep Learning oferece várias vantagens que o tornam uma ferramenta poderosa para a resolução de problemas complexos. As principais são:

Alta precisão: os algoritmos têm alto desempenho em tarefas como reconhecimento de imagem (por exemplo, em carros autônomos) e processamento de linguagem natural (como em assistentes virtuais);

Automatização da engenharia de recursos: ao contrário de métodos tradicionais, o Deep Learning aprende automaticamente as características mais relevantes dos dados, eliminando a necessidade de intervenção manual;

Escalabilidade: modelos de Aprendizado Profundo podem ser treinados com grandes volumes de dados, sendo ideias para aplicações em larga escala;

Flexibilidade: os algoritmos são adaptáveis a diversos tipos de dados (imagem, texto, áudio) e podem ser aplicados em uma gama de soluções;

Aprendizado contínuo: uma característica fundamental do Deep Learning é a capacidade de melhorar o desempenho ao longo do tempo, à medida que mais dados são disponibilizados.

Quais são as desvantagens de usar Deep Learning?

O Deep Learning, apesar de seus avanços, apresenta alguns desafios. Entre eles, destacam-se:

Altos demanda computacional: o treinamento de modelos de Deep Learning exige grande poder computacional, como GPUs e TPUs, além de grande quantidade de memória RAM;

Necessidade de grandes conjuntos de dados rotulados: a construção de modelos robustos requer vastas quantidades de dados de alta qualidade, devidamente classificados por especialistas. Esse processo pode ser custoso e demorado;

Dificuldade de interpretação: os modelos de Deep Learning são frequentemente considerados “caixas pretas”, pois é difícil entender o raciocínio por trás das decisões. Essa falta de transparência pode ser um obstáculo em áreas como medicina e direito;

Overfitting: os modelos podem se ancorar aos dados de treinamento, perdendo a capacidade de gerar novos dados. Isso ocorre quando o modelo memoriza os exemplos de treinamento em vez de aprender as características gerais dos dados. Para evitar o overfitting, são usadas técnicas como regularização e validação cruzada.

Infográfico apresenta a relação entre IA, Processamento de Linguagem Natural, Grandes Modelos de Linguagem, Machine Learning e Deep Learning (Imagem: Vitor Pádua/Tecnoblog)

Qual é a diferença entre Inteligência Artificial e Deep Learning?

A Inteligência Artificial (IA) é um campo amplo que busca criar máquinas capazes de realizar tarefas que exigem inteligência humana. Assim, o Machine Learning, subcampo da IA, permite que as máquinas aprendam com dados sem serem diretamente programadas.

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais inspiradas no cérebro humano. Essas redes são compostas por camadas de neurônios artificiais que processam informações de forma hierárquica, permitindo o aprendizado de padrões complexos em grandes volumes de dados.

Qual é a diferença entre Deep Learning e Machine Learning?

Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender representações hierárquicas dos dados. Essas redes, inspiradas no funcionamento do cérebro humano, são capazes de lidar com grandes volumes de dados não rotulados, como imagens, vídeos e textos.

Machine Learning é um ramo da IA que permite que sistemas aprendam com dados, identificando padrões e fazendo previsões sem serem diretamente programados. O processo de aprendizagem pode ser supervisionado (dados do treinamento com respostas corretas) ou não supervisionado (busca de padrões em dados não rotulados).

Qual é a diferença entre Redes Neurais e Deep Learning?

As redes neurais artificiais são a base do Deep Learning. A tecnologia é composta por camadas de nós interconectados, que processam informações de forma semelhante aos neurônios do cérebro humano, aprendendo com os erros e aprimorando continuamente.

O Deep Learning é um subcampo da IA que ensina máquinas a processar dados de forma semelhante ao cérebro humano. Para isso, as redes neurais são usadas no processo de reconhecer padrões de dados e gerar previsões precisas.
O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações
Fonte: Tecnoblog

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

App Store é alvo de mais uma disputa judicial sobre suas comissões, mas dessa vez Reino Unido inicia julgamento (Imagem: Vitor Pádua / Tecnoblog)

A Apple pode ser condenada a pagar uma multa de 1,5 bilhão de libras esterlinas (R$ 11,137 bilhões) pela cobrança de valores abusivos na App Store. O julgamento do processo, aberto há quatro anos, iniciou nesta segunda-feira (13) e pode se estender pelas próximas sete semanas. A corte britânica questiona a famosa comissão de 30% cobrada pela Apple — o caso se assemelha à batalha entre a big tech e a Epic Games.

O que é o processo contra a Apple no Reino Unido?

A ação aberta por um grupo de desenvolvedores alega que a Apple não tem o direito de cobrar uma comissão tão alta nas vendas realizadas dentro da App Store. A principal voz desse processo é Rachael Kent, especialista em economia digital e professora no King’s College.

Kent destaca ainda que a comissão também é injusta pelo fato de a Apple impedir que as plataformas e desenvolvedores entreguem ofertas melhores para os usuários. Sim, isso é quase um Ctrl+C, Ctrl+V da disputa judicial entre Epic e Apple nos Estados Unidos.

A Apple venceu quase todas as acusações da Epic, perdendo apenas a que autorizou a divulgação e a realização de pagamentos por meios fora da App Store.

O processo também acusa a Apple de violar a legislação britânica e europeia de competição. Essa violação, segundo os autores, vem do fato da big tech impedir que outras lojas de aplicativos sejam instaladas no ecossistema da Apple.

Apple foi obrigada a liberar lojas de terceiros na UE, mas Reino Unido saiu do bloco (Imagem: Vitor Pádua/Tecnoblog)

Por sair da União Europeia, o Reino Unido não foi beneficiado pela legislação do bloco que obrigou a big tech a liberar lojas de terceiros no iOS.

A Apple nega as acusações de abuso e de práticas anticompetitivas. Em sua defesa, a big tech diz que as taxas da comissão estão de acordo com o mercado. A empresa aponta ainda que 85% dos aplicativos da App Store são gratuitos e vários desenvolvedores (sem passar um número) integram o programa de 15% de comissão.

Com informações de MacRumors, Apple Insider e 9to5Mac
Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido
Fonte: Tecnoblog

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025 (imagem: divulgação/Nvidia)

No embalo da CES 2025, Jensen Huang, CEO da Nvidia, confirmou que a companhia planeja lançar CPUs com arquitetura Arm direcionadas a PCs. O executivo não deu detalhes sobre o plano, mas rumores a respeito já aparecem. Eles dizem que o primeiro chip do projeto chegará no final de 2025.

Serão dois chips, se esses burburinhos estiverem certos. Um modelo de nome N1X é o que deverá ser anunciado no último trimestre de 2025, com um chip batizado como N1 devendo aparecer em 2026.

As diferenças entre eles ainda não estão claras, muito menos sabe-se quais serão as suas especificações. Mas é de se esperar que ambos tenham a arquitetura Arm como base e sejam frutos de uma parceira com a MediaTek, que receberá US$ 2 bilhões pela fase inicial do acordo.

Fala-se também que a Nvidia planeja produzir, inicialmente, 3 milhões de unidades do N1X, bem como 13 milhões de unidades do N1. Pelo volume de vendas esperado, é possível que este último venha a ser o modelo mais simples da dupla, portanto.

Pelo menos é o que revela o perfil HaYaO no X, que tem um histórico de vazamentos de projetos de empresas de tecnologia.

Jensen Huang, CEO da Nvidia (foto: divulgação/Nvidia)

Parceria com a MediaTek não será surpresa

Se a parceria com a MediaTek for confirmada, não causará espanto. Além de revelar as GPU RTX GeForce 50, a Nvidia usou a CES 2025 para anunciar o Project Digits, um supercomputador de IA comandado por um chip desenvolvido justamente em conjunto com a MediaTek: o GB10 Grace Blackwell, que conta com CPU de 20 núcleos e GPU com núcleos Cuda e Tensor.

Quando Jensen Huang confirmou que a Nvidia pretende lançar CPUs para PCs, explicou também que a MediaTek foi escolhida como parceira para um projeto de uma CPU otimizada para eficiência energética e passível de ser produzida em larga escala. Há boas chances de que ele estivesse falando do N1X e do N1, portanto.

Se a Nvidia lançar mesmo CPUs Arm para PCs, não deixará somente a Intel e a AMD em alerta, mas também a Qualcomm, afinal, esta última já tem chips com essa arquitetura para computadores baseados no Windows. Aliás, um deles foi anunciado na CES 2025: um modelo Snapdragon X para PCs mais baratos.

Com informações: Tom’s Hardware
Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025
Fonte: Tecnoblog

Disponível em versão Beta aberta: configure o Logon único com perfis do OpenID Connect personalizados

Disponível em versão Beta aberta: configure o Logon único com perfis do OpenID Connect personalizados

Este artigo é a tradução do Blog em inglês do dia 17 de Dezembro.

Atualização

[9 de janeiro, 2025] Pausámos o lançamento para esta beta e daremos uma atualização assim que o lançamento concluir.

O que vai mudar 

A partir de hoje, os admins têm a opção de configurar um perfil do OpenID Connect (OIDC) personalizado para o Logon único (SSO) com o Google como provedor de serviços. O OIDC é um método comum de verificação e autenticação de identidades. Essa atualização dá aos admins mais opções para que os usuários finais acessem aplicativos na nuvem usando um só conjunto de credenciais. Antes, somente OIDCs com um perfil pré-configurado do Microsoft Entra ID eram aceitos, além do SAML.

 

Os perfis personalizados do OIDC podem ser configurados no Admin Console em Segurança > Autenticação > SSO com IdP de terceiros.

 

 

 

Como começar

Admins: este recurso está na versão Beta aberta, ou seja, pode ser usado sem precisar de inscrição em um programa específico. A Central de Ajuda tem mais informações sobre o SSO e sobre como configurar perfis personalizados do OIDC para esse serviço usando um provedor de identidade externo.

 

Cronograma de lançamento

Domínios com lançamento rápido e agendado: lançamento completo (de 1 a 3 dias para o recurso ficar disponível) a partir de 14 de abril de 2025

 

Disponibilidade

Disponível para todos os clientes do Workspace, exceto os do Google Workspace Essentials Starter e assinantes do Workspace Individual.
Também disponível para clientes do Cloud Identity e Cloud Identity Premium.

 

Recursos

Ajuda para admins do Google Workspace: Configurar o SSO
Ajuda para admins do Google Workspace: Sobre o SSO

 



Disponível em versão Beta aberta: configure o Logon único com perfis do OpenID Connect personalizados
Fonte: Google Workspace

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA

A Sony registrou novas patentes para o DualSense que podem reduzir a latência em jogos online enquanto permitem que o controle seja usado de uma forma totalmente diferente para mirar em inimigos nos jogos.A primeira delas menciona o uso de inteligência artificial para prever quais teclas serão apertadas pelo jogador, reduzindo a latência em jogos online ou onde o tempo de resposta é crucial para vencer inimigos.

A segunda patente indica o uso dos sensores do DualSense para que ele possa ser segurado de uma nova forma, como se fosse uma pistola real (imagem abaixo), facilitando o seu uso em jogos de tiro ou FPS.Clique aqui para ler mais

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA
Fonte: Tudocelular

Chrome para Android vai permitir que você arraste e solte grupos inteiros de abas

Chrome para Android vai permitir que você arraste e solte grupos inteiros de abas

O Google está testando uma nova funcionalidade no Chrome para Android que promete transformar a organização de abas no navegador. Chamada de “Tab Strip Group Drag Drop Android”, a ferramenta experimental permite arrastar e soltar grupos inteiros de abas, facilitando o gerenciamento entre janelas diferentes, inclusive em modo de tela dividida.Anteriormente, o Google estava testando uma maneira de reorganizar grupos de abas dentro do Chrome para Android. Chamado de “tab strip group reorder”, o recurso experimental permite que os usuários reorganizem os grupos diretamente na barra de abas. Para isso, bastava pressionar longamente sobre o indicador do grupo e, em seguida, arrastá-lo para a posição desejada.

Esta semana, descobrimos uma nova função de organização, que permite arrastar e soltar grupos inteiros de abas dentro do próprio navegador. Clique aqui para ler mais

Chrome para Android vai permitir que você arraste e solte grupos inteiros de abas
Fonte: Tudocelular