Tag: artigos

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

Conheça como funciona e as aplicações da Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

O Deep Learning, ou Aprendizado Profundo, em português, é um ramo da Inteligência Artificial (IA) que “ensina” máquinas a aprender por meio de dados. Para isso, são usadas redes neurais artificiais que simulam o cérebro humano para identificar padrões complexos e gerar respostas e previsões.

Essa tecnologia está presente em diversas áreas e aplicações do nosso dia a dia. Por exemplo, reconhecimento facial, assistentes virtuais, dispositivos de Internet das Coisas (IoT), mecanismos de recomendações em sites e sistemas de carros autônomos.

A seguir, entenda o que é Deep Learning, seu funcionamento e aplicações. Também descubra os pontos positivos e negativos do uso da tecnologia.

ÍndiceO que é Deep Learning?Como funciona o Deep Learning?Quais são os exemplos de aplicações de Deep Learning?Quais são as vantagens de usar Deep Learning?Quais são as desvantagens de usar Deep Learning?Qual é a diferença entre Inteligência Artificial e Deep Learning?Qual é a diferença entre Deep Learning e Machine Learning?Qual é a diferença entre Redes Neurais e Deep Learning?

O que é Deep Learning?

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender hierarquia de dados. Como se fosse neurônios de um cérebro humano, essas camadas processam a informação de forma sequencial, permitindo que o sistema aprenda padrões e faça previsões com precisão.

Como funciona o Deep Learning?

Um modelo de Deep Learning é como uma rede de neurônios artificiais, organizada em camadas. Cada neurônio, chamado de nó interconectado, processa informações e passa o resultado para os neurônios da próxima camada.

Durante o treinamento do algoritmo, o modelo ajusta os pesos das conexões entre os neurônios para aprender a mapear os dados de entrada e gerar os resultados. As principais camadas do modelo de Aprendizado Profundo são:

Camada de entrada: recebe os dados brutos, como uma imagem ou palavras de um texto;

Camadas ocultas: realizam cálculos complexos para extrair características relevantes dos dados, como as relações entre palavras. O número de camadas ocultas e a complexidade dos cálculos variam conforme a tarefa;

Camada de saída: produz a resposta final, que pode ser uma classificação (por exemplo, a imagem de um gato ou cachorro), uma previsão (como valores da ação de uma empresa), um texto ou outra forma de saída.

É importante dizer que existem diferentes tipos de redes neurais artificiais, cada uma com arquitetura e aplicações específicas. Por exemplo, as redes convolucionais (CNNs) para imagens e as redes recorrentes (RNNs) para sequências de dados.

As camadas de aplicações do Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

Quais são os exemplos de aplicações de Deep Learning?

O Deep Learning está presente em várias aplicações do nosso dia a dia. Por exemplo:

Visão computacional: extração de informações e insights de imagens e vídeos, como a moderação de conteúdos em sites e redes sociais, removendo arquivos inapropriados;

Reconhecimento de voz: análise da fala humana a partir de padrões, como idioma. Comum em assistentes virtuais, como Amazon Alexa, dispositivos de Internet das Coisas (IoT) e aplicativos com suporte para text-to-speech e speech-to-text;

Processamento de linguagem natural: organização de dados de texto para treinar chatbots, indexação de expressões-chave em mídias sociais e resumos automáticos de documentos e artigos jornalísticos;

Mecanismo de recomendação: rastreio das atividades e comportamento de um usuário para desenvolver recomendações personalizadas de serviços e produtos. Comum em serviços de streaming, redes sociais e e-commerces;

Refinamento de dados: processamento de dados brutos visando identificar padrões e extrair insights;

Finanças: avaliação de dados para previsão de mercado, detecção de fraudes e recomendação de investimentos;

Veículos autônomos: sistema de identificação de fatores externos, como carros ao redor, placas de rua e pedestres, gerando uma reação para o veículo;

Jogos: criação de personagens não jogáveis (NPCs) mais inteligentes e realistas;

IA generativa: geração de conteúdos e comunicação com os usuários, proporcionando a automatização do fluxo de trabalho e busca inteligente de conhecimento.

Quais são as vantagens de usar Deep Learning?

O Deep Learning oferece várias vantagens que o tornam uma ferramenta poderosa para a resolução de problemas complexos. As principais são:

Alta precisão: os algoritmos têm alto desempenho em tarefas como reconhecimento de imagem (por exemplo, em carros autônomos) e processamento de linguagem natural (como em assistentes virtuais);

Automatização da engenharia de recursos: ao contrário de métodos tradicionais, o Deep Learning aprende automaticamente as características mais relevantes dos dados, eliminando a necessidade de intervenção manual;

Escalabilidade: modelos de Aprendizado Profundo podem ser treinados com grandes volumes de dados, sendo ideias para aplicações em larga escala;

Flexibilidade: os algoritmos são adaptáveis a diversos tipos de dados (imagem, texto, áudio) e podem ser aplicados em uma gama de soluções;

Aprendizado contínuo: uma característica fundamental do Deep Learning é a capacidade de melhorar o desempenho ao longo do tempo, à medida que mais dados são disponibilizados.

Quais são as desvantagens de usar Deep Learning?

O Deep Learning, apesar de seus avanços, apresenta alguns desafios. Entre eles, destacam-se:

Altos demanda computacional: o treinamento de modelos de Deep Learning exige grande poder computacional, como GPUs e TPUs, além de grande quantidade de memória RAM;

Necessidade de grandes conjuntos de dados rotulados: a construção de modelos robustos requer vastas quantidades de dados de alta qualidade, devidamente classificados por especialistas. Esse processo pode ser custoso e demorado;

Dificuldade de interpretação: os modelos de Deep Learning são frequentemente considerados “caixas pretas”, pois é difícil entender o raciocínio por trás das decisões. Essa falta de transparência pode ser um obstáculo em áreas como medicina e direito;

Overfitting: os modelos podem se ancorar aos dados de treinamento, perdendo a capacidade de gerar novos dados. Isso ocorre quando o modelo memoriza os exemplos de treinamento em vez de aprender as características gerais dos dados. Para evitar o overfitting, são usadas técnicas como regularização e validação cruzada.

Infográfico apresenta a relação entre IA, Processamento de Linguagem Natural, Grandes Modelos de Linguagem, Machine Learning e Deep Learning (Imagem: Vitor Pádua/Tecnoblog)

Qual é a diferença entre Inteligência Artificial e Deep Learning?

A Inteligência Artificial (IA) é um campo amplo que busca criar máquinas capazes de realizar tarefas que exigem inteligência humana. Assim, o Machine Learning, subcampo da IA, permite que as máquinas aprendam com dados sem serem diretamente programadas.

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais inspiradas no cérebro humano. Essas redes são compostas por camadas de neurônios artificiais que processam informações de forma hierárquica, permitindo o aprendizado de padrões complexos em grandes volumes de dados.

Qual é a diferença entre Deep Learning e Machine Learning?

Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender representações hierárquicas dos dados. Essas redes, inspiradas no funcionamento do cérebro humano, são capazes de lidar com grandes volumes de dados não rotulados, como imagens, vídeos e textos.

Machine Learning é um ramo da IA que permite que sistemas aprendam com dados, identificando padrões e fazendo previsões sem serem diretamente programados. O processo de aprendizagem pode ser supervisionado (dados do treinamento com respostas corretas) ou não supervisionado (busca de padrões em dados não rotulados).

Qual é a diferença entre Redes Neurais e Deep Learning?

As redes neurais artificiais são a base do Deep Learning. A tecnologia é composta por camadas de nós interconectados, que processam informações de forma semelhante aos neurônios do cérebro humano, aprendendo com os erros e aprimorando continuamente.

O Deep Learning é um subcampo da IA que ensina máquinas a processar dados de forma semelhante ao cérebro humano. Para isso, as redes neurais são usadas no processo de reconhecer padrões de dados e gerar previsões precisas.
O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações
Fonte: Tecnoblog

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

App Store é alvo de mais uma disputa judicial sobre suas comissões, mas dessa vez Reino Unido inicia julgamento (Imagem: Vitor Pádua / Tecnoblog)

A Apple pode ser condenada a pagar uma multa de 1,5 bilhão de libras esterlinas (R$ 11,137 bilhões) pela cobrança de valores abusivos na App Store. O julgamento do processo, aberto há quatro anos, iniciou nesta segunda-feira (13) e pode se estender pelas próximas sete semanas. A corte britânica questiona a famosa comissão de 30% cobrada pela Apple — o caso se assemelha à batalha entre a big tech e a Epic Games.

O que é o processo contra a Apple no Reino Unido?

A ação aberta por um grupo de desenvolvedores alega que a Apple não tem o direito de cobrar uma comissão tão alta nas vendas realizadas dentro da App Store. A principal voz desse processo é Rachael Kent, especialista em economia digital e professora no King’s College.

Kent destaca ainda que a comissão também é injusta pelo fato de a Apple impedir que as plataformas e desenvolvedores entreguem ofertas melhores para os usuários. Sim, isso é quase um Ctrl+C, Ctrl+V da disputa judicial entre Epic e Apple nos Estados Unidos.

A Apple venceu quase todas as acusações da Epic, perdendo apenas a que autorizou a divulgação e a realização de pagamentos por meios fora da App Store.

O processo também acusa a Apple de violar a legislação britânica e europeia de competição. Essa violação, segundo os autores, vem do fato da big tech impedir que outras lojas de aplicativos sejam instaladas no ecossistema da Apple.

Apple foi obrigada a liberar lojas de terceiros na UE, mas Reino Unido saiu do bloco (Imagem: Vitor Pádua/Tecnoblog)

Por sair da União Europeia, o Reino Unido não foi beneficiado pela legislação do bloco que obrigou a big tech a liberar lojas de terceiros no iOS.

A Apple nega as acusações de abuso e de práticas anticompetitivas. Em sua defesa, a big tech diz que as taxas da comissão estão de acordo com o mercado. A empresa aponta ainda que 85% dos aplicativos da App Store são gratuitos e vários desenvolvedores (sem passar um número) integram o programa de 15% de comissão.

Com informações de MacRumors, Apple Insider e 9to5Mac
Apple pode receber multa de R$ 11,1 bilhões no Reino Unido

Apple pode receber multa de R$ 11,1 bilhões no Reino Unido
Fonte: Tecnoblog

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025 (imagem: divulgação/Nvidia)

No embalo da CES 2025, Jensen Huang, CEO da Nvidia, confirmou que a companhia planeja lançar CPUs com arquitetura Arm direcionadas a PCs. O executivo não deu detalhes sobre o plano, mas rumores a respeito já aparecem. Eles dizem que o primeiro chip do projeto chegará no final de 2025.

Serão dois chips, se esses burburinhos estiverem certos. Um modelo de nome N1X é o que deverá ser anunciado no último trimestre de 2025, com um chip batizado como N1 devendo aparecer em 2026.

As diferenças entre eles ainda não estão claras, muito menos sabe-se quais serão as suas especificações. Mas é de se esperar que ambos tenham a arquitetura Arm como base e sejam frutos de uma parceira com a MediaTek, que receberá US$ 2 bilhões pela fase inicial do acordo.

Fala-se também que a Nvidia planeja produzir, inicialmente, 3 milhões de unidades do N1X, bem como 13 milhões de unidades do N1. Pelo volume de vendas esperado, é possível que este último venha a ser o modelo mais simples da dupla, portanto.

Pelo menos é o que revela o perfil HaYaO no X, que tem um histórico de vazamentos de projetos de empresas de tecnologia.

Jensen Huang, CEO da Nvidia (foto: divulgação/Nvidia)

Parceria com a MediaTek não será surpresa

Se a parceria com a MediaTek for confirmada, não causará espanto. Além de revelar as GPU RTX GeForce 50, a Nvidia usou a CES 2025 para anunciar o Project Digits, um supercomputador de IA comandado por um chip desenvolvido justamente em conjunto com a MediaTek: o GB10 Grace Blackwell, que conta com CPU de 20 núcleos e GPU com núcleos Cuda e Tensor.

Quando Jensen Huang confirmou que a Nvidia pretende lançar CPUs para PCs, explicou também que a MediaTek foi escolhida como parceira para um projeto de uma CPU otimizada para eficiência energética e passível de ser produzida em larga escala. Há boas chances de que ele estivesse falando do N1X e do N1, portanto.

Se a Nvidia lançar mesmo CPUs Arm para PCs, não deixará somente a Intel e a AMD em alerta, mas também a Qualcomm, afinal, esta última já tem chips com essa arquitetura para computadores baseados no Windows. Aliás, um deles foi anunciado na CES 2025: um modelo Snapdragon X para PCs mais baratos.

Com informações: Tom’s Hardware
Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025

Primeira CPU da Nvidia para PCs Windows deve chegar ainda em 2025
Fonte: Tecnoblog

Disponível em versão Beta aberta: configure o Logon único com perfis do OpenID Connect personalizados

Disponível em versão Beta aberta: configure o Logon único com perfis do OpenID Connect personalizados

Este artigo é a tradução do Blog em inglês do dia 17 de Dezembro.

Atualização

[9 de janeiro, 2025] Pausámos o lançamento para esta beta e daremos uma atualização assim que o lançamento concluir.

O que vai mudar 

A partir de hoje, os admins têm a opção de configurar um perfil do OpenID Connect (OIDC) personalizado para o Logon único (SSO) com o Google como provedor de serviços. O OIDC é um método comum de verificação e autenticação de identidades. Essa atualização dá aos admins mais opções para que os usuários finais acessem aplicativos na nuvem usando um só conjunto de credenciais. Antes, somente OIDCs com um perfil pré-configurado do Microsoft Entra ID eram aceitos, além do SAML.

 

Os perfis personalizados do OIDC podem ser configurados no Admin Console em Segurança > Autenticação > SSO com IdP de terceiros.

 

 

 

Como começar

Admins: este recurso está na versão Beta aberta, ou seja, pode ser usado sem precisar de inscrição em um programa específico. A Central de Ajuda tem mais informações sobre o SSO e sobre como configurar perfis personalizados do OIDC para esse serviço usando um provedor de identidade externo.

 

Cronograma de lançamento

Domínios com lançamento rápido e agendado: lançamento completo (de 1 a 3 dias para o recurso ficar disponível) a partir de 14 de abril de 2025

 

Disponibilidade

Disponível para todos os clientes do Workspace, exceto os do Google Workspace Essentials Starter e assinantes do Workspace Individual.
Também disponível para clientes do Cloud Identity e Cloud Identity Premium.

 

Recursos

Ajuda para admins do Google Workspace: Configurar o SSO
Ajuda para admins do Google Workspace: Sobre o SSO

 



Disponível em versão Beta aberta: configure o Logon único com perfis do OpenID Connect personalizados
Fonte: Google Workspace

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA

A Sony registrou novas patentes para o DualSense que podem reduzir a latência em jogos online enquanto permitem que o controle seja usado de uma forma totalmente diferente para mirar em inimigos nos jogos.A primeira delas menciona o uso de inteligência artificial para prever quais teclas serão apertadas pelo jogador, reduzindo a latência em jogos online ou onde o tempo de resposta é crucial para vencer inimigos.

A segunda patente indica o uso dos sensores do DualSense para que ele possa ser segurado de uma nova forma, como se fosse uma pistola real (imagem abaixo), facilitando o seu uso em jogos de tiro ou FPS.Clique aqui para ler mais

DualSense pode ganhar tecnologia que reduz latência em jogos online com IA
Fonte: Tudocelular

Chrome para Android vai permitir que você arraste e solte grupos inteiros de abas

Chrome para Android vai permitir que você arraste e solte grupos inteiros de abas

O Google está testando uma nova funcionalidade no Chrome para Android que promete transformar a organização de abas no navegador. Chamada de “Tab Strip Group Drag Drop Android”, a ferramenta experimental permite arrastar e soltar grupos inteiros de abas, facilitando o gerenciamento entre janelas diferentes, inclusive em modo de tela dividida.Anteriormente, o Google estava testando uma maneira de reorganizar grupos de abas dentro do Chrome para Android. Chamado de “tab strip group reorder”, o recurso experimental permite que os usuários reorganizem os grupos diretamente na barra de abas. Para isso, bastava pressionar longamente sobre o indicador do grupo e, em seguida, arrastá-lo para a posição desejada.

Esta semana, descobrimos uma nova função de organização, que permite arrastar e soltar grupos inteiros de abas dentro do próprio navegador. Clique aqui para ler mais

Chrome para Android vai permitir que você arraste e solte grupos inteiros de abas
Fonte: Tudocelular

Mas já? Nintendo Switch 2 pode estar sendo vendido no mercado cinza

Mas já? Nintendo Switch 2 pode estar sendo vendido no mercado cinza

O mundo gamer não fala em outra coisa a não ser sobre o aguardadíssimo Nintendo Switch 2. Mesmo com um enxurrada de vazamentos e rumores, a Nintendo ainda não anunciou o console oficialmente, ainda que tudo indique que isso deve acontecer esta semana.

Mesmo que a Nintendo ainda não tenha revelado o console, parece que já existem pessoas que conseguiram colocar as mãos no Nintendo Switch 2 através de compras feitas no mercado cinza. Mesmo que o Nintendo Switch 2 não tenha sido apresentado na CES 2025, o console ganhou os holofotes graças às fabricantes de acessórios oficiais, que apresentaram mockups bem realistas do dispositivo.Clique aqui para ler mais

Mas já? Nintendo Switch 2 pode estar sendo vendido no mercado cinza
Fonte: Tudocelular

Bug no WhatsApp silencia chamadas de voz se você desligar a tela ou usar outro app

Bug no WhatsApp silencia chamadas de voz se você desligar a tela ou usar outro app

Usuários do WhatsApp estão relatando um novo bug nas últimas semanas. Segundo os portais Tech-Issues Today e Tutto Android, o problema interrompe chamadas de voz, impossibilitando que o usuário mantenha uma ativa enquanto usa outros aplicativos no celular.Explicando melhor, o bug parece interferir no uso do microfone do smartphone, que para de captar o áudio para o WhatsApp quando outro aplicativo está sendo usado. Com isto, a pessoa com quem você está falando não consegue te ouvir se você abrir outro aplicativo durante uma chamada de voz ou se a tela se apagar.O Tech-Issues Today aponta que os relatos não são novos, mas estão crescendo desde o lançamento do Android 14 para celulares do Google, Samsung e Motorola, com vários usuários dos celulares da série Galaxy S24, do Pixel 9 Pro XL e do Moto Edge 50 Fusion sendo afetados de forma similar.Clique aqui para ler mais

Bug no WhatsApp silencia chamadas de voz se você desligar a tela ou usar outro app
Fonte: Tudocelular

ASUS Zenfone 12 Ultra vaza em teste no Geekbench após receber diversas certificações

ASUS Zenfone 12 Ultra vaza em teste no Geekbench após receber diversas certificações


Atualização (14/01/2025 às 10h15) — RD
Deepois de aparecer nos bancos de dados da Bluetooth SIG e do IMEI, o ASUS Zenfone 12 Ultra foi agora encontrado no Geekbench 6, mostrando os primeiros detalhes das especificações e o nível de desempenho que oferecerá. Conforme esperado, a novidade deve estrear como uma versão adaptada do ROG Phone 9, trazendo o chip premium mais recente da Qualcomm, acompanhado de muita memória e nova versão do Android.Identificado pelo número de modelo ASUSAI2501H, o Zenfone 12 Ultra terá ao menos uma versão com 16 GB de RAM, Android 15 e processador Snapdragon 8 Elite, aspecto reforçado pela placa-mãe “sun” e a ficha técnica do chip em sua versão tradicional com clocks de até 4,32 GHz.Clique aqui para ler mais

ASUS Zenfone 12 Ultra vaza em teste no Geekbench após receber diversas certificações
Fonte: Tudocelular

Instagram acaba com filtros AR feitos por criadores de conteúdo

Instagram acaba com filtros AR feitos por criadores de conteúdo

Filtros como o do Coringa fizeram sucesso entre usuários (foto: Thássius Veloso/Tecnoblog)

O Instagram e o Facebook deixaram de oferecer, nesta terça-feira (dia 14/01), suporte a filtros de realidade aumentada feitos por criadores. A medida foi anunciada pela Meta em agosto do ano passado e, agora, o prazo chegou.

Com isso, efeitos que alteravam o rosto, o corpo e o ambiente não poderão mais ser usados. Isso inclui vários jogos interativos, que podiam ser gravados e publicados nas redes sociais, e também “máscaras”, como a que imitava a maquiagem do Coringa.

Além dos filtros, as plataformas Meta Spark Studio, Players e Hub foram encerradas pela empresa. Elas eram usadas pelos criadores que desenvolviam efeitos, máscaras e jogos de AR. Empresas também recorriam a estas ferramentas como forma de marketing, para criar filtros que impulsionassem seus produtos.

Oficialmente, a Meta diz que priorizará investimentos em outras áreas, o que impossibilita dar suporte a essas ferramentas a longo prazo. O interesse em inteligência artificial e o fracasso do metaverso podem estar ligados a esta decisão. Mesmo assim, filtros e efeitos criados pela própria empresa continuarão disponíveis para os usuários.

Instagram lançou filtros em resposta ao Snapchat

Os filtros de realidade aumentada remetem a uma antiga disputa nas redes sociais. A ferramenta ganhou popularidade em um concorrente da Meta: o Snapchat.

O Snapchat lançou suas sete primeiras “Lenses”, como chama os filtros de realidade aumentada, em setembro de 2015. Elas foram desenhadas pela própria equipe do app. Em abril de 2017, foi a vez de a Meta (ainda chamada Facebook) entrar no jogo, com os Camera Effects, que seriam expandidos para o Instagram posteriormente.

Meta colocou primeiros filtros no Facebook em 2017 (imagem: Divulgação)

Não foi a primeira vez que a companhia de Mark Zuckerberg se “inspirou” no Snapchat. Após tentativas frustradas de comprar a concorrente, a gigante das redes sociais “clonou” os Snapchat Stories, publicações curtas que ficavam no ar por apenas 24 horas, e lançou os Instagram Stories.

No fim de 2017, o Snapchat abriu o app Lens Studio para quem quisesse criar seus efeitos. Já a Meta liberou o Spark AR Studio para todos em agosto de 2019.

A decisão de encerrar os filtros, porém, partiu apenas da Meta. O Snapchat continua com os efeitos de realidade aumentada, e outro importante player das redes sociais aposta ainda mais alto nestas ferramentas: o TikTok promete pagar os criadores de filtros que viralizarem.
Instagram acaba com filtros AR feitos por criadores de conteúdo

Instagram acaba com filtros AR feitos por criadores de conteúdo
Fonte: Tecnoblog