Category: Inteligência Artificial

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

Conheça como funciona e as aplicações da Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

O Deep Learning, ou Aprendizado Profundo, em português, é um ramo da Inteligência Artificial (IA) que “ensina” máquinas a aprender por meio de dados. Para isso, são usadas redes neurais artificiais que simulam o cérebro humano para identificar padrões complexos e gerar respostas e previsões.

Essa tecnologia está presente em diversas áreas e aplicações do nosso dia a dia. Por exemplo, reconhecimento facial, assistentes virtuais, dispositivos de Internet das Coisas (IoT), mecanismos de recomendações em sites e sistemas de carros autônomos.

A seguir, entenda o que é Deep Learning, seu funcionamento e aplicações. Também descubra os pontos positivos e negativos do uso da tecnologia.

ÍndiceO que é Deep Learning?Como funciona o Deep Learning?Quais são os exemplos de aplicações de Deep Learning?Quais são as vantagens de usar Deep Learning?Quais são as desvantagens de usar Deep Learning?Qual é a diferença entre Inteligência Artificial e Deep Learning?Qual é a diferença entre Deep Learning e Machine Learning?Qual é a diferença entre Redes Neurais e Deep Learning?

O que é Deep Learning?

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender hierarquia de dados. Como se fosse neurônios de um cérebro humano, essas camadas processam a informação de forma sequencial, permitindo que o sistema aprenda padrões e faça previsões com precisão.

Como funciona o Deep Learning?

Um modelo de Deep Learning é como uma rede de neurônios artificiais, organizada em camadas. Cada neurônio, chamado de nó interconectado, processa informações e passa o resultado para os neurônios da próxima camada.

Durante o treinamento do algoritmo, o modelo ajusta os pesos das conexões entre os neurônios para aprender a mapear os dados de entrada e gerar os resultados. As principais camadas do modelo de Aprendizado Profundo são:

Camada de entrada: recebe os dados brutos, como uma imagem ou palavras de um texto;

Camadas ocultas: realizam cálculos complexos para extrair características relevantes dos dados, como as relações entre palavras. O número de camadas ocultas e a complexidade dos cálculos variam conforme a tarefa;

Camada de saída: produz a resposta final, que pode ser uma classificação (por exemplo, a imagem de um gato ou cachorro), uma previsão (como valores da ação de uma empresa), um texto ou outra forma de saída.

É importante dizer que existem diferentes tipos de redes neurais artificiais, cada uma com arquitetura e aplicações específicas. Por exemplo, as redes convolucionais (CNNs) para imagens e as redes recorrentes (RNNs) para sequências de dados.

As camadas de aplicações do Deep Learning (ilustração: Vitor Pádua/Tecnoblog)

Quais são os exemplos de aplicações de Deep Learning?

O Deep Learning está presente em várias aplicações do nosso dia a dia. Por exemplo:

Visão computacional: extração de informações e insights de imagens e vídeos, como a moderação de conteúdos em sites e redes sociais, removendo arquivos inapropriados;

Reconhecimento de voz: análise da fala humana a partir de padrões, como idioma. Comum em assistentes virtuais, como Amazon Alexa, dispositivos de Internet das Coisas (IoT) e aplicativos com suporte para text-to-speech e speech-to-text;

Processamento de linguagem natural: organização de dados de texto para treinar chatbots, indexação de expressões-chave em mídias sociais e resumos automáticos de documentos e artigos jornalísticos;

Mecanismo de recomendação: rastreio das atividades e comportamento de um usuário para desenvolver recomendações personalizadas de serviços e produtos. Comum em serviços de streaming, redes sociais e e-commerces;

Refinamento de dados: processamento de dados brutos visando identificar padrões e extrair insights;

Finanças: avaliação de dados para previsão de mercado, detecção de fraudes e recomendação de investimentos;

Veículos autônomos: sistema de identificação de fatores externos, como carros ao redor, placas de rua e pedestres, gerando uma reação para o veículo;

Jogos: criação de personagens não jogáveis (NPCs) mais inteligentes e realistas;

IA generativa: geração de conteúdos e comunicação com os usuários, proporcionando a automatização do fluxo de trabalho e busca inteligente de conhecimento.

Quais são as vantagens de usar Deep Learning?

O Deep Learning oferece várias vantagens que o tornam uma ferramenta poderosa para a resolução de problemas complexos. As principais são:

Alta precisão: os algoritmos têm alto desempenho em tarefas como reconhecimento de imagem (por exemplo, em carros autônomos) e processamento de linguagem natural (como em assistentes virtuais);

Automatização da engenharia de recursos: ao contrário de métodos tradicionais, o Deep Learning aprende automaticamente as características mais relevantes dos dados, eliminando a necessidade de intervenção manual;

Escalabilidade: modelos de Aprendizado Profundo podem ser treinados com grandes volumes de dados, sendo ideias para aplicações em larga escala;

Flexibilidade: os algoritmos são adaptáveis a diversos tipos de dados (imagem, texto, áudio) e podem ser aplicados em uma gama de soluções;

Aprendizado contínuo: uma característica fundamental do Deep Learning é a capacidade de melhorar o desempenho ao longo do tempo, à medida que mais dados são disponibilizados.

Quais são as desvantagens de usar Deep Learning?

O Deep Learning, apesar de seus avanços, apresenta alguns desafios. Entre eles, destacam-se:

Altos demanda computacional: o treinamento de modelos de Deep Learning exige grande poder computacional, como GPUs e TPUs, além de grande quantidade de memória RAM;

Necessidade de grandes conjuntos de dados rotulados: a construção de modelos robustos requer vastas quantidades de dados de alta qualidade, devidamente classificados por especialistas. Esse processo pode ser custoso e demorado;

Dificuldade de interpretação: os modelos de Deep Learning são frequentemente considerados “caixas pretas”, pois é difícil entender o raciocínio por trás das decisões. Essa falta de transparência pode ser um obstáculo em áreas como medicina e direito;

Overfitting: os modelos podem se ancorar aos dados de treinamento, perdendo a capacidade de gerar novos dados. Isso ocorre quando o modelo memoriza os exemplos de treinamento em vez de aprender as características gerais dos dados. Para evitar o overfitting, são usadas técnicas como regularização e validação cruzada.

Infográfico apresenta a relação entre IA, Processamento de Linguagem Natural, Grandes Modelos de Linguagem, Machine Learning e Deep Learning (Imagem: Vitor Pádua/Tecnoblog)

Qual é a diferença entre Inteligência Artificial e Deep Learning?

A Inteligência Artificial (IA) é um campo amplo que busca criar máquinas capazes de realizar tarefas que exigem inteligência humana. Assim, o Machine Learning, subcampo da IA, permite que as máquinas aprendam com dados sem serem diretamente programadas.

O Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais inspiradas no cérebro humano. Essas redes são compostas por camadas de neurônios artificiais que processam informações de forma hierárquica, permitindo o aprendizado de padrões complexos em grandes volumes de dados.

Qual é a diferença entre Deep Learning e Machine Learning?

Deep Learning é um subcampo do Machine Learning que usa redes neurais artificiais com múltiplas camadas para aprender representações hierárquicas dos dados. Essas redes, inspiradas no funcionamento do cérebro humano, são capazes de lidar com grandes volumes de dados não rotulados, como imagens, vídeos e textos.

Machine Learning é um ramo da IA que permite que sistemas aprendam com dados, identificando padrões e fazendo previsões sem serem diretamente programados. O processo de aprendizagem pode ser supervisionado (dados do treinamento com respostas corretas) ou não supervisionado (busca de padrões em dados não rotulados).

Qual é a diferença entre Redes Neurais e Deep Learning?

As redes neurais artificiais são a base do Deep Learning. A tecnologia é composta por camadas de nós interconectados, que processam informações de forma semelhante aos neurônios do cérebro humano, aprendendo com os erros e aprimorando continuamente.

O Deep Learning é um subcampo da IA que ensina máquinas a processar dados de forma semelhante ao cérebro humano. Para isso, as redes neurais são usadas no processo de reconhecer padrões de dados e gerar previsões precisas.
O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações

O que é Deep Learning? Entenda como funciona e conheça suas principais aplicações
Fonte: Tecnoblog

WhatsApp trabalha em função para criar chatbots de IA personalizados

WhatsApp trabalha em função para criar chatbots de IA personalizados

Além do Meta AI, usuários do WhatsApp poderão criar os próprios chatbots no mensageiro (ilustração: Vitor Pádua/Tecnoblog)

Em breve, os usuários do WhatsApp poderão criar e personalizar chatbots com a tecnologia de Inteligência Artificial. O novo recurso foi descoberto na recente atualização da versão beta do mensageiro para Android (2.25.1.26).

Conforme o WABetaInfo, a ferramenta está em fase de desenvolvimento. Entretanto, uma captura de imagem obtida pela fonte mostra que será possível criar um personagem de IA com base nas necessidades e preferências informadas pela pessoa.

Usuários do WhatsApp poderão criar personagens de IA (imagem: reprodução/WABetaInfo)

A criação de chatbots do WhatsApp deve seguir um padrão semelhante ao recurso disponível para o Instagram através do AI Studio da Meta. A ferramenta permite configurar um chatbot para ser um “assistente pessoal” para produtividade ou entretenimento.

De forma rápida e intuitiva, o usuário do mensageiro poderá descrever o perfil e definir as habilidades da IA do chatbot que deseja criar. Caso o usuário tenha dificuldades, a ferramenta apresentará sugestões que auxiliarão durante o processo de criação.

Todas as informações fornecidas serão usadas para adaptar e refinar a personalidade da IA. Dessa maneira, cada usuário terá o próprio personagem de IA para ajudar nas atividades do dia a dia diretamente pelo aplicativo.

Aparentemente, a ferramenta de criação de chatbot do WhatsApp permitirá que qualquer pessoa, mesmo com pouco conhecimento, tenha seu próprio assistente pessoal. Algo que deve proporcionar uma experiência única para cada usuário do mensageiro.

Quando os chatbots de IA do WhatsApp serão lançados?

Como dito, o recurso de criação de chatbots personalizados do WhatsApp está em fase de desenvolvimento pela Meta. Por enquanto, a ferramenta não está disponível nem para os usuários da versão beta do aplicativo de mensagens.

A novidade deve passar por testes antes de ser liberada para o grande público. Como esse processo pode durar alguns meses, não há uma previsão exata para o lançamento da nova funcionalidade no mensageiro.

Segundo as informações, a ferramenta de chatbots deve fazer parte de uma nova aba dedicada a recursos baseados em IA. Além de funções criadas pela Meta, como Meta AI, o espaço terá opções desenvolvidas por terceiros.

O novo recurso do WhatsApp é mais um indicativo de que o mensageiro ganhará mais funções baseadas em IA. O objetivo é dar maior controle e liberdade para os usuários e, assim, proporcionar uma experiência cada vez mais personalizada.

Com informações WABetaInfo e 91Mobiles.
WhatsApp trabalha em função para criar chatbots de IA personalizados

WhatsApp trabalha em função para criar chatbots de IA personalizados
Fonte: Tecnoblog

Meta AI teria sido treinada com material pirateado do LibGen

Meta AI teria sido treinada com material pirateado do LibGen

Meta AI pode ter usado material protegido por direitos autorais com aval de Mark Zuckerberg (imagem: ilustração/Vitor Pádua)

A Meta pode ter usado material pirateado para treinar a Llama, modelo de linguagem grande usado para o desenvolvimento da sua IA generativa. A informação foi revelada após a remoção de sigilo de parte da documentação de um dos processos de violação de direitos autorais. Segundo o documento, Mark Zuckerberg autorizou o treinamento da Llama usando artigos e livros divulgados na LibGen e outras fontes piratas.

O caso no qual a documentação foi publicada é o Kadrey et al. contra a Meta, processo que tem entre seus autores os escritores Richard Kadrey (Sandman Slim), Christopher Golden (conhecido por adaptações literárias de séries, como o livro Sons of Anarchy: Bratva e diversas obras de Buffy: A Caça-Vampiros) e conhecida comediante Sarah Silverman.

Meta liberou sua IA generativa para oWhatsApp, Instagram e Facebook, mas parte do treinamento pode ter usado material pirata (Ilustração: Vitor Pádua/Tecnoblog)

Por que acusam Mark Zuckerberg de ter autorizado piratear livros para o Llama?

A documentação que teve o sigilo removido mostra conversas entre usuários da Meta onde é citado que “MZ” aprovou o uso da LibGen e o download via torrent de arquivos do repositório. MZ seria a sigla para Mark Zuckerberg. Não se sabe qual versão do Llama, que é o motor da Meta AI, foi treinada com material oriundo da plataforma.

Além da LibGen, a defesa da Meta afirma que os autores do processo sabiam do uso de outras “shadow libraries” (bibliotecas secretas em tradução livre). A defesa também usa a alegação de que agiu sob “fair use” (uso justo na tradução direta), uma doutrina usada no direito americano que permite o uso de obras sob direito autoral para criar algo novo desde que seja suficientemente transformativo.

Os autores do processo rejeitam essa argumentação de uso justo. E é nessa área que a disputa deve seguir. Afinal, com uma IA generativa como a Meta AI você pode criar textos novos e pedir no prompt a inspiração de alguma obra. Contudo, o usuário também pode pedir a explicação da história de livros.

Mark Zuckerberg teria aprovado o uso da LibGen e outras fontes piratas para o treinamento da Llama (Foto: Divulgação/Meta)

O que é a LibGen?

A LibGen é uma plataforma focada no fornecimento de artigos científicos publicados em revistas pagas — o que por si só já gera um debate sobre direitos autorais. Contudo, parte do acervo do site inclui livros, quadrinhos, audiolivros e outras produções literárias.

Anteriormente, a Meta alegou que usou parte do banco de dados do Books3, um repositório de livros usados por empresas de IA para treinar seus modelos. O Books3 também tem seus problemas ligados a direitos autorais e acusações de pirataria.

Fora o possível uso da LibGen, o processo mostra que engenheiros e desenvolvedores da Meta buscaram remover as atribuições de dados e metadados que indicassem a origem do material usado no treinamento. A ideia seria esconder fontes ilícitas, como repositórios piratas e conteúdos protegidos por direito autoral.

Com informações de Wired e TechCrunch
Meta AI teria sido treinada com material pirateado do LibGen

Meta AI teria sido treinada com material pirateado do LibGen
Fonte: Tecnoblog

Raspberry Pi 5 ganha variação com 16 GB de RAM, mas preço é alto

Raspberry Pi 5 ganha variação com 16 GB de RAM, mas preço é alto

Raspberry Pi 5 com 16 GB de RAM (imagem: divulgação/Raspberry Pi)

Anunciada em setembro de 2023, a linha Raspberry Pi 5 ficou mais abrangente. Uma versão da placa que oferece 16 GB de memória RAM foi lançada oficialmente nesta quinta-feira (9). O seu preço sugerido é de US$ 120, valor equivalente a R$ 733 na conversão atual.

O Raspberry Pi 5 estreou no mercado em versões com 4 GB e 8 GB de memória RAM. Ambas são suficientes para grande parte dos projetos que se beneficiam desse tipo de placa.

Contudo, há aplicações que podem funcionar com menos memória, o que favorece o fator custo. Isso explica o lançamento do Raspberry Pi 5 de 2 GB de RAM, em agosto de 2024.

Por outro lado, há aplicações que precisam de mais RAM, para lidar com softwares mais complexos ou volumes de dados maiores, por exemplo. A própria Raspberry Pi dá como exemplo aplicações de inteligência artificial baseadas em modelos de linguagem de larga escala (LLMs).

A resposta para essa demanda é o Raspberry Pi 5 com 16 GB de RAM. É verdade que US$ 120 para um dispositivo que tem o fator custo-benefício como chamariz é um preço elevado. Porém, módulos de RAM têm custo significativo. Dificilmente a Raspberry Pi conseguiria implementar um preço mais baixo do que isso.

Todas as opções do Raspberry Pi 5

Com o anúncio de hoje, a linha Raspberry Pi 5 passa a oferecer as seguintes opções:

Raspberry Pi 5 de 2 GB (US$ 50)

Raspberry Pi 5 de 4 GB (US$ 60)

Raspberry Pi 5 de 8 GB (US$ 80)

Raspberry Pi 5 de 16 GB (US$ 120)

As demais especificações de hardware são praticamente as mesmas para todos os modelos (elas são descritas no final do texto).

A dúvida que fica no ar agora é se mais variações serão lançadas. É pouco provável. Embora o chip que comande o Raspberry Pi 5 (Broadcom BCM2712D0) suporte até 64 GB de RAM, lançar um modelo com essa capacidade ou com 32 GB de memória tende a ser inviável, novamente por conta do fator custo.

Fala-se sobre uma versão do Raspberry Pi 5 com 1 GB que seria a opção mais barata da linha, mas desconfio que o seu lançamento também pode ser inviável, desta vez por conta do fator desempenho. De todo modo, estamos de olho.

Raspberry Pi 5 (imagem: divulgação/Raspberry Pi)

Especificações do Raspberry Pi 5 de 16 GB

Chip: Broadcom BCM2712D0, quad-core, 2,4 GHz, 64 bits, GPU VideoCore VII de 800 MHz

RAM: 16 GB de memória LPDDR4X-4267

Armazenamento: suporte a cartão microSD

Conectividade sem fio: Wi-Fi 802.11ac, Bluetooth 5 / BLE

Conectividade com fio: USB 2.0 (2), USB 3.0 (2), Gigabit Ethernet, HDMI 4Kp60 (2)

Conectores: 4-lane MIPI para câmeras ou telas (2), PCIe 2.0, UART , RTC, GPIO de 40 pinos

Dimensões: 85 x 56 mm

Raspberry Pi 5 ganha variação com 16 GB de RAM, mas preço é alto

Raspberry Pi 5 ganha variação com 16 GB de RAM, mas preço é alto
Fonte: Tecnoblog

Nvidia Digits é um supercomputador de IA que lembra um Mac Mini

Nvidia Digits é um supercomputador de IA que lembra um Mac Mini

Project Digits é um supercomputador de IA (imagem: reprodução/Nvidia)

Já pensou em ter um “supercomputador de IA” para uso próprio? Revelado na CES 2025, o Project Digits é uma iniciativa da Nvidia que tem essa proposta. Trata-se de uma máquina desenvolvida para execução de tarefas de inteligência artificial. As suas dimensões reduzidas remetem a um Mac Mini.

A Nvidia dá a entender que o Project Digits é direcionado a pesquisadores, cientistas de dados e estudantes que desenvolvem trabalhos que se beneficiam da IA.

Nesse sentido, o equipamento pode ser instalado não só em laboratórios ou centros de pesquisa, como também no conforto do lar, como se a novidade fosse um PC convencional. Basta conectar monitor, teclado e mouse ao equipamento para usufruir dele.

Interior do Project Digits (imagem: reprodução/Nvidia)

Project Digits é pequeno, mas poderoso

Não se deixe enganar pelo tamanho compacto do Project Digits. O equipamento tem um conjunto de hardware bastante potente. Começa pela implementação do também novo Nvidia GB10 Grace Blackwell Superchip. Esse SoC conta com uma CPU Nvidia Grace de 20 núcleos e arquitetura Arm, bem como com uma GPU Blackwell com núcleos Cuda e Tensor.

Desenvolvido em conjunto com a MediaTek, o GB10 oferece desempenho de até 1 petaflop, ou seja, pode executar 1 quatrilhão de operações matemáticas por segundo seguindo o modelo de precisão FP4, sem abrir mão da eficiência energética. Para tanto, o chip trabalha em conjunto com 128 GB de memória DDR5X e até 4 TB de armazenamento flash.

Tudo isso permite que o Project Digits execute modelos de linguagem de larga escala com até 200 bilhões de parâmetros, explica a Nvidia. Pode-se ainda combinar duas unidades do equipamento via tecnologia Nvidia ConnectX para a execução de modelos com até 405 bilhões de parâmetros.

Só para constar, o sistema operacional padrão da máquina é o Nvidia DGX, que é baseado No Ubuntu Linux.

Project Digits é um supercomputador de IA (imagem: reprodução/Nvidia)

Tudo isso tem seu preço

É claro que um equipamento como esse não seria acessível. A Nvidia informa que o Project Digits será lançado oficialmente em maio de 2025 com preços a partir de US$ 3.000 (R$ 18.270 na conversão atual).

Vale destacar que o Project Digits não é a única novidade da Nvidia na CES 2025. Outros anúncios no evento incluem a aguardada linha de chips gráficos RTX GeForce 50.
Nvidia Digits é um supercomputador de IA que lembra um Mac Mini

Nvidia Digits é um supercomputador de IA que lembra um Mac Mini
Fonte: Tecnoblog

Samsung apresenta smart TVs com IA e Microsoft Copilot para 2025

Samsung apresenta smart TVs com IA e Microsoft Copilot para 2025

Samsung apresentou Vision AI e suporte para o Microsoft Copilot (Imagem: Divulgação)

A Samsung deu um spoiler da sua linha de TVs para 2025. Em um evento antes do início da CES 2025, principal feira de tecnologia do mundo, a sul-coreana mostrou o novo recurso Vision AI e integração com o Microsoft Copilot. A marca também apresentou novos modelos de televisores que serão lançados no decorrer do ano.

O Tecnoblog está cobrindo a CES 2025 direto de Las Vegas. O evento começa nesta terça-feira (7) e vai até sexta-feira (10). Fique de olho no site para saber em primeira mão tudo o que passa no evento.

O que é o Vision AI das televisões Samsung?

O Vision AI é um recurso de inteligência artificial que visa melhorar a experiência do usuário no consumo de conteúdo. O Vision AI traz ferramentas como:

Clique para pesquisar: similar ao Circle to Search do Galaxy AI, permite que o usuário receba informações sobre o que é exibido na tela. Outro recurso parecido é o Raio-x do Prime Video, mas o Clique para pesquisar também pode identificar elementos da cena.

Tradução simultânea: o Vision AI pode gerar legendas em tempo real para que o espectador compreenda o que é dito na tela.

Plano de fundo generativo: a ferramenta de IA também pode criar planos de fundo

Recursos para o ecossistema SmartThings: o Vision AI é integrado aos dispositivos de casa inteligente da Samsung e funciona como uma tela para a exibição de informações sobre a casa

Como podemos ver pelos primeiros três recursos, o Vision AI é praticamente o Galaxy AI para as televisões da Samsung.

O Copilot, IA generativa da Microsoft, também está presente nas TVs e monitores smarts da Samsung. Aliás, parte do processamento da Vision AI vem da tecnologia da americana. Porém, o diferencial é que o Copilot terá suas funcionalidades liberadas nas telas da sul-coreana.

Novas televisões Samsung para 2025

A Samsung apresentou um total de oito televisões antes do início oficial da CES 2025. As televisões são:

Neo QLED 8K QN990F

Neo QLED 8K QN900F

Neo QLED 4K QN90F

Neo QLED 4K QN80F

Neo QLED 4K QN70F

OLED S95F

OLED S90F

OLED S85F

Neo QLED 8K QN990F será exibida na CES 2025 (Imagem: Divulgação)

O televisor topo de linha é o Neo QLED 8K QN990F. A smart TV é equipada com o processador NQ8 AI Gen 3. Como sugere o “AI” do seu nome, o chip utiliza inteligência artificial para ferramentas de melhoria de imagem e som, como o upscaling 8K, som adaptativo e aprimoramento de cores.

Já na linha OLED, o principal televisor é o S95F, que traz o processador NQ4 AI Gen 3, com melhoria na tecnologia Glare Free — que foi anunciada na CES de 2024.

Frame Pro ganha novo processador e poucas novidades

A nova televisão da linha Frame utiliza o mesmo processador das TVs QLED 4K e OLED 4K anunciadas hoje. No geral, a Frame Pro parece ser apenas um upgrade do modelo passado, sem grandes novidades.

Caso você não conheça a Samsung Frame, tudo bem. Ela é uma TV com um público pequeno: pessoas que querem um televisor que também sirva como quadro de obras de arte. A TV sai de fábrica com um número fixo de pinturas disponíveis, mas ao assinar o serviço dedicado da Samsung você tem acesso a milhares de obras.

Com informações de Engadget
Samsung apresenta smart TVs com IA e Microsoft Copilot para 2025

Samsung apresenta smart TVs com IA e Microsoft Copilot para 2025
Fonte: Tecnoblog

O que esperar da CES 2025? IA, carros e telas devem dominar a feira

O que esperar da CES 2025? IA, carros e telas devem dominar a feira

CES 2025 trará principais tendências do setor de tecnologia (Imagem: Giovanni Santa Rosa/ Tecnoblog)

Principal feira de tecnologia do mundo, a CES 2025 acontece de 7 a 10 de janeiro em Las Vegas (Estados Unidos). Neste caso, contrariando o ditado, o que acontece em Vegas, não fica em Vegas: o Tecnoblog estará lá e vai mostrar as novidades mais legais, inovadoras e intrigantes.

Enquanto o evento não chega, é bom ficar por dentro do que deve rolar. A inteligência artificial continua como o assunto mais quente, enquanto telas e carros devem chamar a atenção com algumas ideias malucas. Além disso, grandes empresas devem apresentar TVs, chips e computadores que chegarão às lojas ao longo do ano.

Inteligência artificial

A inteligência artificial domina o noticiário de tecnologia nos últimos anos — e na CES 2025, não vai ser diferente. Como nota o TechCrunch, serão poucos os produtos na programação que não vão mencionar IA de uma forma ou outra.

A expectativa é que as empresas apresentem na feira vários recursos da chamada “IA agêntica”, nome dado aos modelos capazes de executar tarefas em computadores, smartphones ou demais sistemas sem que o usuário precise abrir apps ou configurações, por exemplo.

Rabbit R1 desapontou compradores (Imagem: Divulgação / Rabbit)

Um ponto que desperta a curiosidade é o futuro dos dispositivos centrados em IA. Em 2024, o AI Pin e o Rabbit R1 chamaram a atenção. No entanto, os aparelhinhos comandados por voz ficaram longe de entregar na vida real o que prometeram — vamos ver se outros produtos tentarão a sorte neste formato.

Telas e monitores

O setor de displays sempre é um dos mais interessantes da CES, e algumas novidades já começaram a aparecer. A Samsung, a Asus e a MSI anunciaram seus respectivos monitores 4K OLED de 27 polegadas e taxa de atualização de 240 Hz.

Já a LG deve mostrar um monitor OLED 5K de 45 polegadas que pode ser “entortado” para ajustar a curvatura. A marca também vai mostrar a linha QNED Evo de TVs LCD e uma série de telas curvas OLED.

LG UltraGear de 45 polegadas tem resolução 5K2K (Imagem: Divulgação/LG)

Carros

A CES não é um salão do automóvel, mas sempre dá um gostinho das novidades de tecnologia para carros. Nesta edição, a Hyundai Mobis promete mostrar um pouco da sua tela holográfica em para-brisas. A BMW vai na mesma linha, com uma tela touch que se estende por todo o painel, chamada Panoramic iDrive. Já a Honda apresentará dois protótipos elétricos da 0 Series e um sistema operacional próprio.

Hyundai Mobis já mostrou como será seu estande na CES 2025 (Imagem: Divulgação/Hyundai)

Empresas de outros setores também vão mostrar novidades para carros. A Afeela, joint venture criada pela Sony e pela Honda, pode mostrar seu veículo com um PS5 embutido. Já a Qualcomm possivelmente terá anúncios sobre chips para carros em suas apresentações.

Computadores

Várias marcas aproveitam a CES para mostrar novos desktops e notebooks, que vão dos mais triviais aos mais experimentais. O Lenovo ThinkBook Plus Gen 5 Hybrid é um exemplo deste segundo grupo: com teclado destacável, ele roda Windows e Android.

Segundo vazamentos, a marca chinesa também pode apresentar um laptop “enrolável”, com uma tela que pode ser estendida para cima. A empresa mostrou um conceito do tipo em 2023, mas parece que agora o produto será realmente lançado.

Vazamento indica como será o notebook enrolável da Lenovo (Imagem: Reprodução/Evan Blass)

Chips

Duas gigantes dos chips devem mostrar novas placas de vídeo na CES 2025: a AMD já confirmou que a RDNA 4 chegará no começo deste ano. Em uma conferência com investidores em outubro, a CEO Lisa Su prometeu que a placa gráfica terá desempenho melhor de ray tracing e novas capacidades de IA.

Também existe a expectativa de a Nvidia apresentar a série RTX 5000 na feira — segundo rumores, a RTX 5090 pode ser 70% mais rápida que a RTX 4090. A apresentação do CEO Jensen Huang promete ser uma das mais disputadas da CES.

Com informações: Cnet, TechCrunch, Engadget, Mashable
O que esperar da CES 2025? IA, carros e telas devem dominar a feira

O que esperar da CES 2025? IA, carros e telas devem dominar a feira
Fonte: Tecnoblog

Google vai dar ainda mais atenção ao Gemini em 2025

Google vai dar ainda mais atenção ao Gemini em 2025

Chatbot Gemini ganha aplicativo próprio e substitui Google Assistente (Imagem: Vitor Pádua/Tecnoblog)

O Google dedicará seus esforços em 2025 para melhorar o Gemini e diminuir a distância para a OpenAI. A revelação foi feita por Sundar Pichai, CEO da big tech, durante um evento para funcionários. Parte dessa estratégia, segundo Pichai, trará resultados ainda na primeira metade do ano, com o lançamento de mais recursos para o Gemini.

Por que o Google investirá mais no Gemini em 2025?

Os possíveis motivos para o Google investir mais no desenvolvimento do Gemini em 2025 são:

Vantagem da OpenAI no segmento de IA generativa — essa parte explicitada na declaração de Pichai

Processo de monopólio e possíveis decisões que obriguem a venda de produtos — assim ela precisa forçar esse mercado que é a tendência dos próximos anos

Chance de novas legislações que passem a regular o mercado de IA — não só nos Estados Unidos, mas também na Europa

Mais concorrência — além da OpenAI, existem Anthropic (criadora do Claude), Apple Intelligence e Grok

Pichai reconhece que OpenAI está na frente e Google precisa recuperar tempo perdido (Imagem: Divulgação/Google)

Em parte da apresentação, Pichai diz considerar que 2025 será um ano crítico para o Google. “Eu acho que é realmente importante internalizarmos a urgência deste momento e precisamos nos mover rápido como empresa”, falou o CEO do Google.

Ainda que parte das pessoas vejam atualmente pouco valor nas IAs generativas, elas são a aposta das empresas para o grande produto tech dos próximos anos — assim como os smartphones levaram diversas companhias a entrar nesse mercado após o iPhone. O Copilot da Microsoft, por exemplo, está cada vez mais integrado ao Windows.

Pichai também valorizou a atual posição do Gemini. Para ele, a IA generativa da empresa está fortemente embalada e isso deve ser aproveitado para entregar mais valor aos usuários. Parte dessa força pode vir do Galaxy AI. Demis Hassabis, fundador do DeepMind, declarou que as equipes de IA darão uma turbinada no Gemini.

Hassabis também revelou que os números de usuários do Gemini estão crescendo desde fevereiro. O fundador do DeepMind ainda respondeu a um funcionário que perguntou se há planos de vender assinaturas premium da IA — cobrando mais de US$ 200. Hassabis explicou que, por enquanto, o Google não planeja um plano desse tipo, mantendo serviços com valores de US$ 20.

Não espere grandes novidades do Google em 2025, exceto em recursos de IA (Imagem: Vitor Pádua / Tecnoblog)

Pichai mostra como será o 2025 do Google

A declaração de Sundar Pichai pode parecer óbvia visto que todas as big techs estão focando em IA generativa. Porém, ela revela boa parte da estratégia do Google para 2025.

Em resumo, a big tech focará em melhorar os seus produtos atuais. Isso significa que não devemos ver novos serviços no próximo ano — e o Google deve manter a tradição de matar produtos para 2025. As grandes novidades estarão ligadas ao Gemini, enquanto os outros grandes produtos da empresa, como YouTube, YouTube Music e dispositivos terão melhorias pontuais. E sim, ganhando recursos do Gemini.

Com informações: Android Headlines, TechCrunch e CNBC
Google vai dar ainda mais atenção ao Gemini em 2025

Google vai dar ainda mais atenção ao Gemini em 2025
Fonte: Tecnoblog

Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram

Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram

Meta quer ir além do chatbot Meta AI (imagem: ilustração/Vitor Pádua)

Resumo

A Meta planeja criar “personagens” de IA com perfis completos e capacidade de gerar conteúdo em redes como Facebook e Instagram para aumentar engajamento.
Segundo o vice-presidente Connor Hayes, a Meta priorizará interações sociais com IA nos próximos dois anos, com foco em entretenimento e engajamento.
A inclusão de IAs interativas pode gerar problemas, como evidenciado por casos envolvendo conteúdo inadequado em plataformas como Character.AI.

A Meta quer que suas redes tenham “personagens” de inteligência artificial, que têm perfis completos e geram conteúdos mesmo sem ser humanos. Para a empresa, esta seria uma forma de aumentar o engajamento em plataformas como Facebook e Instagram.

“Esperamos que estas IAs, com o tempo, passem a existir nas nossas plataformas, da mesma maneira que as contas existem”, disse Connor Hayes, vice-presidente de produto de IA generativa da Meta, ao jornal Financial Times. “Eles terão biografias, fotos de perfil e serão capazes de gerar e compartilhar conteúdo na plataforma, usando IA… acreditamos que este é o caminho”, acrescentou.

O executivo explica que a prioridade da Meta nos próximos dois anos é deixar seus aplicativos mais atraentes, no sentido de entretenimento e engajamento. Para isso, a empresa quer tornar mais sociais as interações com a IA.

Atualmente, nos Estados Unidos, a gigante das redes sociais já oferece um recurso para criar personagens usando inteligência artificial. Segundo Hayes, centenas de milhares de personas já foram criadas com a ferramenta. No entanto, a maioria dos usuários mantém estes “robôs” fechados.

IA responde seguidores de influencers de forma automática (Imagem: Reprodução/Instagram)

Interações com IA podem gerar problemas

Pensar em IAs como usuários independentes não é uma ideia inédita. O CEO do Zoom, Eric Yuan, já declarou acreditar que, no futuro, cada pessoa terá várias IAs baseadas nela mesma, podendo enviá-las para reuniões com as IAs de outras pessoas.

Colocar estes robôs na internet para interagir com usuários pode criar problemas, no entanto. Nos EUA, duas famílias estão processando a Character.AI, acusando as IAs hospedadas no site da empresa de terem exposto crianças a conteúdo sexual e violento. Um dos bots teria dito, inclusive, que era “ok” a criança assassinar seus próprios pais.

A Character.AI permite que usuários criem e publiquem chatbots baseados em personas, que podem ser tanto personagens famosos da ficção (como Edward Cullen, de Crepúsculo) ou genéricos. A CNN encontrou um robô chamado “padrasto”, que trazia a descrição “agressivo, abusivo, ex-militar, chefe da máfia”.

Com informações: Financial Times
Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram

Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram
Fonte: Tecnoblog

OpenAI vai se tornar uma empresa com fins lucrativos

OpenAI vai se tornar uma empresa com fins lucrativos

OpenAI começou como organização sem fins lucrativos, mas criou empresa para atrair investidores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI detalhou, nesta sexta-feira (dia 27/12), seus planos para se tornar uma empresa com fins lucrativos. De acordo uma publicação em seu blog oficial, a ideia é transformar a entidade em uma corporação de benefício público (PBC, na sigla em inglês).

A OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para desenvolver a inteligência artificial de modo aberto. Em 2019, ela criou uma divisão com lucros limitados, como forma de atrair investidores — afinal de contas, desenvolver modelos de IA e treiná-los custa muito caro.

Sam Altman chegou a ser demitido do posto de CEO após discordâncias com representantes da organização sem fins lucrativos (Imagem: Vitor Pádua / Tecnoblog)

No blog post publicado nesta sexta, a OpenAI diz que esta estrutura “não permite que o conselho considere diretamente os interesses de quem financia a missão e não permite que a organização sem fins lucrativos faça mais do que controlar o braço com fins lucrativos”.

A tensão entre as “duas” OpenAIs foi vista em novembro de 2023, quando o CEO Sam Altman foi demitido pelo conselho, por supostamente não comunicar suas decisões ao braço sem fins lucrativos. Ele foi recontratado poucos dias depois, e um novo conselho foi formado.

Como será a nova estrutura da OpenAI?

Com a nova estrutura proposta pelo conselho, a OpenAI “empresa” se tornará uma public benefit corporation (PBC). A OpenAI PBC vai controlar as operações e negócios da OpenAI.

A fundação sem fins lucrativos terá uma participação societária na empresa, mas não será mais a supervisora da companhia. Ela terá líderes e funcionários próprios para criar iniciativas de caridade nos setores de saúde, educação e ciência. Segundo o comunicado divulgado, um conselho financeiro independente vai avaliar a fatia da OpenAI PBC que será destinada à fundação OpenAI.

PBC é uma classificação existente nos Estados Unidos para empresas com fins lucrativos que também visam o bem da sociedade. Como a própria empresa destaca, a Anthropic e a xAI (fundada por Elon Musk) também são PBCs. Para se caracterizar como PBC, a OpenAI promete oferecer ações e usar seus lucros para garantir que a “inteligência artificial geral (AGI) beneficie toda a humanidade”.

A OpenAI pode ter que enfrentar desafios nos tribunais para concretizar esta transição. Elon Musk, que foi um dos cofundadores e principais doadores da OpenAI, entrou com um processo judicial no início de dezembro para impedir a conversão da empresa. Já a Meta pediu uma investigação sobre a mudança no modelo de negócios.

Com informações: The Verge, Ars Technica, Axios
OpenAI vai se tornar uma empresa com fins lucrativos

OpenAI vai se tornar uma empresa com fins lucrativos
Fonte: Tecnoblog