Category: Inteligência Artificial

Google usará usar energia nuclear para desenvolvimento de IA

Google usará usar energia nuclear para desenvolvimento de IA

Google, assim como a Microsoft, também usará energia nuclear nas operações de inteligência artificial (Imagem: Vitor Pádua / Tecnoblog)

O Google anunciou nesta segunda-feira (14) que utilizará energia nuclear para as suas operações de inteligência artificial. A big tech firmou um contrato com a Kairos Power, uma empresa que desenvolve reatores modulares pequenos (SMR em inglês) resfriados com fluoreto de sódio. O primeiro reator da Kairos Power para o Google deve iniciar as operações em 2030.

O anúncio da big tech segue os passos da Microsoft, que em setembro divulgou um acordo para utilizar exclusivamente a energia gerada na usina de Three Mile Island. Assim como a empresa de Bill Gates, o Google utilizará a energia para a sua operação de inteligência artificial. No comunicado, a big tech do buscador não explicou se será terá exclusividade na compra da energia da usina da Kairos.

500 MW de energia gerada na primeira usina

Segundo o Google, em comunicado publicado em seu site, a usina da Kairos será capaz de gerar 500 MWh de energia por mês. Porém, essa capacidade só deve ser atingida em 2035, quando a Kairos terá uma maior quantidade de reatores fabricados.

No comunicado, a big tech destaca a importância desse acordo para o desenvolvimento das inteligências artificiais. O Google relata que o sistema energético precisa de novas fontes energéticas para suportar a evolução dessa tecnologia.

O alto consumo não está só no treinamento da IA, mas também no uso para tarefas simples do consumidor, como a criação e um email, já que o processamento é realizado nos data centers das empresas.

Maquete 3D de usina nuclear da Kairos Power, que fornecerá energia para o Google (Imagem: Divulgação/Kairos)

Como o Google e a Microsoft operam nos EUA, a busca por energias limpas e renováveis para o desenvolvimento de IA está ligada à redução da emissão de carbono. Os EUA têm como principal fonte de energia os combustíveis fósseis.

Essas duas big techs tem plano de zerar a emissão de carbono (ou empatar a emissão e sequestro de carbono) nos próximos anos. Além desse investimento em energia nuclear, o Google também investe no desenvolvimento de energia geotérmica.

Com informações: The Verge
Google usará usar energia nuclear para desenvolvimento de IA

Google usará usar energia nuclear para desenvolvimento de IA
Fonte: Tecnoblog

Meta apresenta IA para gerar vídeos de até 16 segundos com som

Meta apresenta IA para gerar vídeos de até 16 segundos com som

Movie Gen consegue fazer alterações em vídeos (Imagem: Reprodução / Meta)

A Meta anunciou nesta sexta-feira (dia 04/10) o Movie Gen, uma coleção de modelos de inteligência artificial para gerar vídeos. Segundo a empresa, a tecnologia é capaz de criar trechos de até 16 segundos a partir de um pedido em texto e personalizá-los usando uma única foto.

De acordo com a companhia, o Movie Gen lida melhor que outros modelos com retoques e alterações. Ele tem a capacidade de substituir objetos do vídeo, mudar a direção de um movimento ou trocar o ambiente, por exemplo. Nas IAs das concorrentes, isso não é possível: ao fazer um pedido do tipo, você “perde” a cena original, já que a IA cria outra do zero.

Ele também pode gerar sons para acompanhar os vídeos, como ruídos de motor em cenas com carros ou barulho de água nas imagens de cachoeira. Por outro lado, não é possível adicionar vozes.

Como nota o TechCrunch, gerar vozes não é difícil, mas ainda é um desafio sincronizá-las com movimentos labiais e expressões faciais. Além disso, esta capacidade técnica abriria possibilidades de usos inadequados, como gerar vídeos envolvendo pessoas reais e declarações falsas — algo que já é um problema com os deepfakes.

Ver essa foto no Instagram Uma publicação compartilhada por Mark Zuckerberg (@zuck)

O Movie Gen é capaz de gerar vídeos de até 16 segundos, mas com 16 frames por segundo, abaixo do que costumamos ver no cinema ou na TV. Também é possível gerar 10 segundos a 24 fps, um formato mais adequado. Em termos de resolução, a IA trabalha com vídeos de largura de 768 pixels, fazendo upscaling para 1080p.

Meta não vai liberar IA de vídeos por enquanto

O Movie Gen foi detalhado em um artigo científico de 90 páginas, e a Meta publicou alguns vídeos de demonstração. Até o momento, não há nenhuma previsão para ele chegar ao mercado.

Ao contrário do que aconteceu com geradores de textos e imagens estáticas, as IAs para criar vídeos ainda não foram disponibilizadas para os usuários comuns.

A OpenAI, por exemplo, ainda não tem planos para lançar a Sora no mercado. A “irmã cineasta” do ChatGPT foi anunciada em fevereiro de 2024.

Com informações: Meta, Axios, TechCrunch
Meta apresenta IA para gerar vídeos de até 16 segundos com som

Meta apresenta IA para gerar vídeos de até 16 segundos com som
Fonte: Tecnoblog

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária

A história da IA é continua, marcada por conceitos, testes e novas descobertas (Imagem: Vitor Pádua/Tecnoblog)

John McCarthy pode ser considerado um dos precursores da inteligência artificial (IA) por mencionar o termo pela primeira vez em 1956. Contudo, não existe apenas um criador da inteligência artificial, já que nomes como Warren McCulloch, Walter Pitts e Alan Turing também foram essenciais para o desenvolvimento da tecnologia.

A história da IA é marcada pelo objetivo contínuo de construir máquinas com capacidades similares ao de pessoas da vida real, cuja estrutura também remetesse ao funcionamento baseado no cérebro de um ser humano.

Os estudos e avanços na área resultaram em aplicações de IA capazes de executar tarefas, aprender, solucionar problemas matemáticos, processar dados, criar novos conteúdos e identificar padrões. E como consequência, essas ferramentas revolucionaram processos em diversas áreas e passaram a fazer parte do dia a dia.

A seguir, saiba mais sobre a origem e evolução da inteligência artificial, e entenda os impactos dessa tecnologia na sociedade.

ÍndiceQuem criou a inteligência artificial?Como surgiu a inteligência artificial?Quais foram as primeiras aplicações de inteligência artificial?Como a inteligência artificial evoluiu até a IA generativa?Quais os impactos da inteligência artificial na sociedade?

Quem criou a inteligência artificial?

A inteligência artificial (IA) foi criada a partir de um esforço conjunto de diversos especialistas e pesquisadores, e sua autoria não pode ser atribuída a apenas uma pessoa.

Partindo desse princípio, nomes como Warren McCulloch, Walter Pitts, Alan Turing, John McCarthy, Allen Newell, Herbert A. Simon, Cliff Shaw, Frank Rosenblatt e Joseph Weizenbaum foram essenciais para o surgimento da IA.

Importante destacar que a criação da IA foi um processo gradual, iniciado a partir da criação das redes neurais e do surgimento da primeira geração de computadores, na década de 40. Posteriormente, os estudos teóricos deram luz a testes e, finalmente, implementações práticas da tecnologia.

Como surgiu a inteligência artificial?

A história da inteligência artificial tem início no século XX, mas seu conceito remete à Grécia Antiga (XII a.C. até IV d.C.). Naquela época, já se discutia a imagem de um ser artificial capaz de desenvolver tarefas humanas. A ideia, contudo, envolvia muito mais o campo místico do que o real.

Mas foi a partir de 1940 que o abstratismo passou a ganhar formas concretas, com o surgimento dos primeiros computadores. Por mais que as máquinas iniciais fossem voltadas para fins militares, elas reforçaram a ideia de que engenharias poderiam ser capazes de realizar tarefas complexas como um humano.

Já em 1943, o psicólogo Walter Pitts e o especialista em cibernética Warren McCulloch propuseram um modelo matemático simplificado para ilustrar o funcionamento neural do cérebro humano, também conhecido como redes neurais. Esse conceito serviu de base para estudos sobre algoritmos e aprendizado profundo.

Conceito sobre redes neurais foi fundamental para os avanços da IA (Imagem: alexmogopro/Pixabay)

Com o pontapé dado, os estudos sobre a IA foram intensificados. Tanto que, em 1950, o matemático e cientista da computação Alan Turing publicou o artigo “Computing Machinery and Intelligence” (“Máquinas Computacionais e Inteligência” em tradução livre), no qual propôs o famoso Teste de Turing.

No experimento que ficou conhecido como “Jogo da Imitação”, uma máquina tinha a missão de se passar por um ser humano em uma conversa escrita, a fim de enganar um avaliador. O teste foi essencial para reforçar o conceito de que uma máquina seria capaz de imitar o comportamento humano.

Ilustração do Teste de Turing, de Alan Turing (Imagem: Luke.schaaf – CC BY-SA 4.0/Wikimedia Commons)

No entanto, o termo “inteligência artificial” surgiu pela primeira vez seis anos mais tarde, em 1956. Durante a conferência de Dartmouth, nos EUA, o professor John McCarthy mencionou a expressão para descrever a ciência de construir máquinas com inteligência similar a de um humano.

A partir daí, pesquisas em torno da IA motivaram o surgimento de redes neurais artificiais, assim como a criação de chatbots, softwares com capacidade para realizar raciocínio lógico, e programas que podiam realizar tarefas como se fossem humanos.

Quais foram as primeiras aplicações de inteligência artificial?

Pesquisas e estudos sobre IA que foram intensificados a partir da década de 40 levaram ao surgimento de experimentos e programas “inteligentes” nos anos seguintes. As principais aplicações de inteligência artificial da época envolveram:

Software de damas: desenvolvido em 1952 por Arthur Samuel, foi o primeiro programa de computador capaz de jogar damas e aprender sozinho;

Logic Theorist: criado por Allen Newell, Herbert A. Simon e Cliff Shaw em 1956, foi projetado para resolver problemas lógicos, e é considerado o primeiro software de IA do mundo;

Eliza: primeiro chatbot com capacidade para usar linguagem natural, desenvolvido por Joseph Weizenbaum em 1966;

Shakey: desenvolvido pelo Stanford Research Institute (SRI) entre 1966 a 1972, foi o primeiro robô móvel do mundo capaz de perceber e raciocinar sobre o ambiente ao seu redor;

Dendral: projetado na década de 60 na Universidade de Stanford, foi uma das primeiras aplicações de IA voltadas para a saúde, usada para estudar a formação e descoberta de hipóteses na ciência.

Como a inteligência artificial evoluiu até a IA generativa?

A linha do tempo evolutiva da inteligência artificial é extensa, contínua e marcada por diversos acontecimentos. Inclusive, é importante notar que esse campo da tecnologia ainda está em desenvolvimento, ou seja, estamos apenas em uma fase dessa cronologia.

A origem da IA nas décadas de 40 e 50 envolveram, principalmente, estudos teóricos. Na época, a descoberta de modelos de redes neurais e a ânsia por criar máquinas inteligentes esbarravam na falta de capacidade das máquinas daquele tempo e na necessidade do entendimento mais aprofundado do cérebro humano.

Com o Teste de Turing, os estudos e experimentos foram intensificados: a primeira rede neural artificial (RNA) foi criada, o conceito de aprendizado de máquina veio à tona, e as aplicações iniciais de IA demonstravam que máquinas tinham potencial para replicar e executar tarefas humanas.

Supercomputador Deep Blue da IBM de 1997, com software de IA para jogar xadrez (Imagem: Divulgação/IBM)

Depois de um período de pausa nas pesquisas, a IA novamente ganhou destaque nos anos 80 com o surgimento das redes neurais artificiais multicamadas. No começo de 2000, as aplicações se tornaram mais complexas, embora desafios em relação a dados e poder computacional dificultassem o progresso.

Mas com o avanço tecnológico nos anos seguintes, máquinas se tornaram capazes de processar big data (conjunto robusto e complexo de dados). Isso permitiu avanços no funcionamento de algoritmos de uma RNA, e otimizou técnicas de aprendizado de máquina e aprendizado profundo em sistemas.

E de 2015 para cá, modelos de IA otimizaram o reconhecimento de imagem e processamento de linguagem natural, resultando em aplicações avançadas como ChatGPT, Google Gemini, Midjourney, entre outras ferramentas de IA generativa.

Quais os impactos da inteligência artificial na sociedade?

A inteligência artificial tem ditado o avanço tecnológico global, mas com impactos severos (positivos e negativos) para a sociedade. Algumas consequências positivas da implementação da IA em nosso cotidiano incluem:

Automação de processos: a IA tem capacidade de automatizar processos e tarefas repetitivas que são feitas com mão de obra humana;

Otimização de produtividade: com a automatização de processos, a inteligência artificial pode aumentar a produtividade no trabalho, nos estudos e nas áreas de pesquisa;

Avanço tecnológico: atualmente em evidência, a IA tem papel importante para o desenvolvimento de novos produtos e tecnologias em praticamente qualquer área;

Análise preditiva: por conta de análises de muitos dados, aplicações IA conseguem prever situações e auxiliar em tomadas de decisão;

Criação de novos conteúdos: aplicações de IA generativa são capazes de criar novos conteúdos a partir de dados, fomentando as áreas de arte e cultura.

Por outro lado, a IA também acompanha uma série de preocupações para a sociedade:

Desafios éticos: a IA é alvo de diversos conflitos éticos, especialmente nos campos de regulamentação e de direitos autorais;

Interferência nas relações humanas: a proliferação da inteligência artificial pode desmotivar interações humanas, bem como provocar dependência tecnológica;

Novas ameaças: indivíduos mal intencionados têm usado a IA para criar golpes, desinformação, deepfakes e outras ameaças digitais;

Coleta de dados: informações pessoais são coletadas de forma cada vez mais frequente, já que os dados são as principais commodities das aplicações de IA;

Desemprego: por mais que seja vista como ferramenta de suporte para o trabalho, a IA pode aumentar o quadro de desemprego ao automatizar tarefas que eram feitas por humanos.

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária
Fonte: Tecnoblog

Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI

Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI

Tipos de inteligência artificial são classificados de acordo com suas capacidades em relação à mente humana (Imagem: Vitor Pádua/Tecnoblog)

A inteligência artificial (IA) refere-se à capacidade das máquinas de simularem processos da inteligência humana. Atualmente, a IA pode ser dividida em três níveis: Inteligência Artificial Estreita (ANI), Inteligência Artificial Geral (AGI) e Superinteligência Artificial (ASI).

A ANI é o único dos três tipos de IA que já faz parte do nosso cotidiano, com aplicações concretas. Já AGI e ASI são conceitos de IA que ainda estão sendo estudados por pesquisadores para o futuro, sem garantias de quando ou se vão sair do papel.

No caso da Inteligência Artificial Estreita, alguns exemplos de uso são os sistemas de navegação por GPS, chatbots de atendimento, assistentes virtuais e aplicações de IA generativa, como o ChatGPT.

A seguir, conheça os tipos de inteligência artificial, e entenda as diferenças entre eles.

Índice1. ANI: Inteligência Artificial EstreitaQuais os exemplos de Inteligências Artificiais Estreitas no cotidiano?Quais são as limitações da ANI?2. AGI: Inteligência Artificial GeralQuais as capacidades esperadas da AGI?3. ASI: Superinteligência ArtificialQuais as capacidades esperadas da ASI?Existem outras classificações para a inteligência artificial?Qual o tipo da inteligência artificial do ChatGPT?Qual a diferença entre a IA fraca e a IA forte?Qual a diferença entre a AGI e ASI?

1. ANI: Inteligência Artificial Estreita

Inteligência Artificial Estreita (ANI) é o único tipo de IA que já faz parte da realidade (Imagem: tungnguyen0905/Pixabay)

Derivada do termo em inglês Narrow AI, a Inteligência Artificial Estreita (ANI) representa o único tipo de inteligência artificial que existe atualmente. O termo “Estreita” da nomenclatura refere-se à limitação da IA de executar uma determinada tarefa ou um conjunto específico de ações dentro de um escopo bem definido.

O desenvolvimento constante da ANI tem resultado em aplicações com maior armazenamento de dados e processamento de informações otimizado. Ainda assim, as limitações de aplicação e amplitude fazem com que a Inteligência Artificial Estreita também seja popularmente chamada de “IA limitada” ou “IA fraca”.

Quais os exemplos de Inteligências Artificiais Estreitas no cotidiano?

A Inteligência Artificial Estreita impulsiona quase todas as aplicações atuais que envolvem o uso (direto ou indireto) de inteligência artificial. Alguns dos principais exemplos de serviços ou tecnologia que usam a ANI incluem:

Assistentes virtuais: Siri, Alexa, Google Assistente e outros assistentes voltados para reconhecimento de comandos de voz e execução de tarefas programadas;

Sistemas de navegação: aplicações com tarefas bem definidas, como encontrar a rota mais rápida de um ponto a outro;

Aplicações de IA generativa: aplicações como ChatGPT e Midjorney, que podem criar novos conteúdos com base nos prompts de entrada e dados de treinamento;

Carros autônomos: veículos que usam sensores e algoritmos para realizar ações previamente definidas, como frear em um farol vermelho ou mudar de direção em uma curva;

Chatbots de atendimento: aplicações e serviços automatizados para responder a determinadas perguntas de clientes;

Tradução automática: ferramentas que traduzem textos de um idioma para outro, mas que nem sempre consideram o contexto ou nuances linguísticas;

Reconhecimento facial: sistemas treinados para identificar padrões específicos em imagens faciais.

Quais são as limitações da ANI?

A ANI foca apenas no objetivo para o qual foi programada, não podendo atuar de forma mais abrangente. Um exemplo prático: se ela for treinada para sugerir receitas de bolo salgado, pode não ser capaz de indicar receitas de torta salgada, mesmo que os ingredientes usados sejam semelhantes.

Além disso, a Inteligência Artificial Estreita não tem compreensão profunda das informações que processa e carece de consciência própria. Ou seja, a tecnologia depende de uma grande quantidade de dados para a execução de tarefas, tanto na fase de treinamento quanto nas etapas de aprendizado contínuo.

Vale mencionar que a ANI tem papel importante para o desenvolvimento tecnológico, especialmente na automação de processos, análise de dados e realização de tarefas específicas. Contudo, trata-se de uma tecnologia que depende de humanos, desde sua concepção até a fase de manutenção de uso.

2. AGI: Inteligência Artificial Geral

Inteligência Artificial Geral (AGI) é um conceito de máquinas com capacidades humanas (Imagem: DeltaWorks/Pixabay)

A Inteligência Artificial Geral (ou Artificial General Intelligence, em inglês) é um conceito teórico de IA, ainda sem exemplos no mundo real. O termo “Geral” da nomenclatura surgiu para diferenciar a IA da Inteligência Artificial Estreita (ANI), uma vez que a AGI poderia solucionar problemas para os quais não foi programada.

Inclusive, espera-se que que a AGI tenha inteligência e capacidades similares a de seres humanos, o que explica sua classificação como “IA forte”. No entanto, trata-se de uma tecnologia que ainda não saiu do papel, e sem prazos definidos para sua concretização.

Quais as capacidades esperadas da AGI?

A expectativa é de que a AGI atinja o mesmo nível de habilidades cognitivas de um ser humano. Em teoria, a Inteligência Artificial Geral seria autoconsciente, com capacidade para resolver problemas, aprender, fazer previsões, e de transferir conhecimentos de uma área para outra.

E além de replicar raciocínios lógicos de uma mente humana, é dito que a AGI seria capaz de emular outros comportamentos complexos, como criatividade, percepção e aprendizado.

3. ASI: Superinteligência Artificial

Superinteligência Artificial (ASI) teria a capacidade de superar as capacidades humanas (Imagem: Enio-ia
Ao fazer o download, aceita a nossa Lice/Pixabay)

Representada pela sigla ASI, a Superinteligência Artificial (ou Artificial Superintelligence, em inglês) é uma suposição futura do tipo mais avançado de IA. Inclusive, o termo “Superinteligência” se refere a uma máquina com o poder de superar a capacidade e a inteligência humana em praticamente qualquer área.

Assim como a Inteligência Artificial Geral (AGI), a Superinteligência Artificial só existe no campo teórico e, por enquanto, é apenas um objeto de estudo. E dada suas capacidades teóricas, a ASI também faz parte do grupo chamado de IA forte.

Quais as capacidades esperadas da ASI?

Espera-se que uma máquina com ASI seja totalmente autoconsciente, com inteligência superior à de um ser humano, e com potencial para aprimorar-se e tomar decisões próprias, sem intervenção humana. E devido às capacidades e velocidades de processos, a Superinteligência Artificial revolucionaria o funcionamento do mundo.

Importante mencionar que a ASI é apenas uma projeção para o futuro, e dependeria da concretização e desenvolvimento da AGI para, de fato, sair do papel. Afinal, se a AGI poderia replicar capacidades humanas, a ASI executaria qualquer tarefa ainda melhor do que uma pessoa.

Existem outras classificações para a inteligência artificial?

Sim. Além dos tipos ANI, AGI e ASI, a inteligência artificial pode ser classificada em outras subdivisões, com base em critérios de capacidade diferentes. Essas categorias incluem:

Máquinas reativas: sistemas simples e limitados de IA, como motores de busca, que reagem a estímulos baseados em regras pré-programadas;

Memória limitada: tipo de sistema de IA com memória limitada para armazenar dados e tomar decisões a partir de informações, a exemplo de assistentes virtuais;

Teoria da mente: conceito sob estudo que propõe uma IA capaz de pensar e tomar decisões como um humano, incluindo o reconhecimento de emoções, crenças e reações;

Autoconsciente: conceito teórico de uma máquina de IA autoconsciente, com capacidade para compreender e refletir sobre si mesma e sobre a humanidade, e com recursos intelectuais e emocionais de uma pessoa de verdade.

Qual o tipo da inteligência artificial do ChatGPT?

O ChatGPT é um exemplo de Inteligência Artificial Estreita (ANI), já que foi designado para desempenhar apenas determinadas tarefas dentro do escopo de processamento de linguagem natural (NLP). Demais aplicações de IA generativa, como Google Gemini e Midjourney, também são enquadradas como ANI.

Qual a diferença entre a IA fraca e a IA forte?

Representada pela Inteligência Artificial Estreita (ANI), a IA fraca tem limitações de aplicação e capacidade, não é consciente, e só pode realizar tarefas dentro de um escopo predeterminado. Essas limitações permitiram a concretização da IA fraca, bem como sua implementação (via aplicações) no cotidiano.

Já a IA forte, composta por Inteligência Artificial Geral (AGI) e Superinteligência Artificial (ASI), é um conceito teórico ainda sob estudo. Suas capacidades seriam equivalentes ou superiores a de um ser humano, capacitando máquinas a pensar, executar, aprender ou entender o mundo por si próprias.

Qual a diferença entre a AGI e ASI?

A Inteligência Artificial Geral (AGI) é um conceito teórico de inteligência artificial, que teoriza uma máquina com poder para realizar tarefas intelectuais que qualquer humano é capaz de fazer. A AGI é vista como um tipo de IA superior ao da ANI, com menos limitações e mais capacidades intelectuais e de tomadas de decisão.

Também em estágio de conceito, a Superinteligência Artificial (ASI) seria uma evolução da AGI: ao invés de apenas replicar capacidades humanas, seria capaz de realizar qualquer atividade melhor e mais rápido que uma pessoa, com autoconsciência, e podendo evoluir, aprender, criar, executar e prever sem interferências externas.
Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI

Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI
Fonte: Tecnoblog

IA do Google: Gemini Live passa a responder com voz em português

IA do Google: Gemini Live passa a responder com voz em português

Gemini Live ganha opção de responder o usuário em português e mais de 40 idiomas (Imagem: Vitor Pádua/Tecnoblog)

Resumo

O Google liberou o Gemini Live com suporte a português brasileiro e mais de 40 idiomas para Android.
O recurso permitirá interações por voz, similar ao ChatGPT e assistentes como Siri e Alexa.
A liberação ocorrerá de forma gradual, podendo demorar dias ou semanas para todos os usuários.
O Gemini Live também será integrado a outros apps do Google, como Gmail, Maps e YouTube.
Os usuários podem selecionar até dois idiomas no aplicativo, configurando via Google Assistente.

O Google divulgou nesta quinta-feira (3) que está liberando a opção de fala em português brasileiro no Gemini para Android. A ferramenta está disponível no Gemini Live, uma versão da IA do Google que permite ao usuário conversar com a inteligência artificial. O recurso é similar à ferramenta de conversa do ChatGPT — e praticamente uma Siri.

Em nota enviada à imprensa, o Google explica que a liberação do Gemini Live ocorrerá de forma gradual. Assim, alguns usuários receberão essa novidade nos próximos dias ou semanas. O Gemini Live é uma ferramenta do aplicativo da IA para Android e funciona nos celulares e tablets.

Gemini Live chega para português e mais de 40 idiomas

Além da versão em português, o Google liberou o Gemini Live para mais de 40 idiomas. A novidade também será integrada com outros aplicativos da big tech que possuem recurso de voz, como o Gmail, Maps e YouTube. O Google explica que espera liberar mais idiomas no futuro.

Os usuários poderão ainda selecionar até dois idiomas para o Gemini Live em seus dispositivos. Para escolher essas duas línguas, o usuário terá que acessar a configuração do aplicativo do Google. Veja como fazer:

Abra o aplicativo do Google e, na parte superior, toque na sua foto de perfil ou iniciais

Toque em Configurações e selecione Google Assistente

Na tela que abrir, busque pela opções Idiomas

Escolha o português brasileiro ou qualquer idioma disponível

Opcionalmente, você pode adicionar um segundo idioma. Por enquanto, você pode definir e usar até dois idiomas com o Gemini Live

Lembrando que a liberação dos novos idiomas está ocorrendo de forma gradual. Se o português brasileiro ainda não apareceu para você, espere mais um tempo para este idioma ficar disponível no seu aparelho.

Gemini Live é praticamente um Gemini que fala

Apresentado em agosto durante o Made By Google, o Gemini Live é a IA generativa do Google que responde falando os seus comando de voz. O ChatGPT tem um recurso idêntico — e gerou até aquela treta com a Scarlett Johansson. A Siri e Alexa fazem algo similar há anos, mas com zero capacidade de IA geracional.
IA do Google: Gemini Live passa a responder com voz em português

IA do Google: Gemini Live passa a responder com voz em português
Fonte: Tecnoblog

Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço

Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço

Xiaomi 14T tem câmera tripla com lente Leica e configurações avançadas para fotos (Imagem: Isabela Giantomaso / Tecnoblog)

A Xiaomi revelou nesta quarta-feira (dia 02/10) o preço do smartphone Xiaomi 14T no Brasil: R$ 5.999. O aparelho chega às lojas e quiosques da marca, bem como ao site, na versão com 512 GB de armazenamento e 12 GB de RAM, nas cores preto e cinza.

O Xiaomi 14T é uma novidade no mercado global. Ele foi apresentado no exterior na última quinta-feira (dia 26/09). O Tecnoblog esteve em Berlim (Alemanha) a convite da empresa e conheceu o aparelho de pertinho.

Lentes da Leica e sensor da Sony

O carro-chefe do Xiaomi 14T é a fotografia. Ele conta com um conjunto triplo de câmeras, todas com lentes da famosa fabricante alemã Leica. O conjunto é capaz de dar quatro opções de distâncias focais, equivalentes de 15 mm a 100 mm.

As lentes de altíssima qualidade acompanham sensor principal um Sony IMX906 de 50 megapixels. Na câmera teleobjetiva, outro sensor de 50 megapixels, enquanto a ultrawide conta com um componente de 12 megapixels. Para selfies, o conjunto oferece 32 megapixels, em uma câmera que fica sob o visor.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

O Xiaomi 14T conta também com recursos de software para tirar qualidade máxima das lentes e sensores. O smartphone oferece os modos Leica Autêntico, Leica Vibrante e Leica Retrato, que dispensam ajustes avançados.

Na hora de gravar vídeos, é possível recorrer aos modos Filme e Diretor, com configurações mais completas. Também há a opção de captar imagens em 4K e 30 fps, com HDR.

IA, desempenho e design

Deixando as câmeras um pouco de lado, vamos falar do “resto” do Xiaomi 14T. Ele tem tela CrystalRes AMOLED de 6,67 polegadas, 144 Hz e brilho máximo de 4.000 nits.

O visual é metálico, e as cores titan black e titan gray (preto e cinza, respectivamente) estarão disponíveis no mercado brasileiro. O corpo do smartphone conta com proteção contra poeira e água no padrão IP68.

Câmera principal do Xiaomi 14T tem 50 megapixels com modos Leica para filtros (Foto: Isabela Giantomaso/Tecnoblog)

Em desempenho, o Xiaomi 14T conta com o chip MediaTek Dimensity 8300 Ultra e 12 GB de RAM, além de 16 GB de memória virtual. A versão lançada no Brasil tem 512 GB para armazenamento. Além disso, duas outras especificações importantes são a bateria de 5.000 mAh e a recarga de 67 W.

O smartphone vem de fábrica com Android 14 e a camada de software HyperOS, da Xiaomi. Como não podia deixar de ser, ele conta com recursos de inteligência artificial, como intérprete de idiomas, transcrição de falas, resumo de anotações e ferramentas de edição de imagem. Além disso, o assistente Google Gemini vem instalado.

Ficha técnica – Xiaomi 14T

TelaCrystalRes AMOLED de 6,67 polegadas (2712 x 1220 pixels)Câmera traseira 50 MP (principal) + 50 MP (teleobjetiva) + 12 MP (ultrawide)Câmera frontal32 MPProcessadorMediaTek Dimensity 8300-UltraSoftware Android 14 + Xiaomi HyperOSMemória RAM12 GBArmazenamento512 GBBateria5.000 mAh com HyperCharge 67WConectividade5G, Dual SIM, Wi-Fi 6E, Bluetooth 5.4, NFCDimensões160,5 mm x 75,1 mm x 7,80 mmPeso195 gramasCoresCinza e preto
Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço

Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço
Fonte: Tecnoblog

Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA

Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA

Udemy deu prazo de três semanas para professores autorizarem ou não o uso das aulas para treinamento de IA (Imagem: Vitor Pádua / Tecnoblog)

Professores da Udemy estão irritados com a plataforma de ensino. A Udemy deu um prazo de três semanas para que os professores autorizassem ou não que a IA da empresa fosse treinada com suas aulas. Passado o prazo, os profissionais que ministram cursos na plataforma não podem mais impedir que a IA assistam a suas aulas — pelo menos não nesse ano, já que a Udemy abrirá anualmente a opção de sair do programa de IA.

O comunicado foi feita pela Udemy no seu fórum oficial no dia 21 de agosto. A opção de autorizar que a IA usasse as aulas para o seu treinamento foi ativada por padrão. O dia final para desativar essa opção foi 12 de setembro. Há relatos de professores que só souberam disso quando viram o email de aprovação no programa de IA.

Udemy abrirá periodicamente a opção de autorizar treinamento

Segundo Katie Stegs, usuária que fornece aulas da Udemy, a empresa comunicou que haverá janelas de desativar a opção de treinamento da IA durante o ano. Essas janelas serão informadas pela empresa aos usuários, ao invés de definir um período fixo para isso.

Em resposta ao 404 Media, Stegs explicou que só soube do caso ao receber o email avisando que ela foi adicionado ao programa de treinamento de IA. O fato de a Udemy impedir que professores desativem a opção a qualquer momento levanta o contínuo debate sobre a violação de direitos autorais para treinamento de inteligências artificiais.

Criadores não podem impedir o treinamento da IA da Udemy após o fim da janela (Imagem: Reprodução/404 Media)

Stegs destacou que o conteúdo do curso é de propriedade intelectual dela. Assim, ela defende que tem o direito de optar a qualquer momento se autoriza ou não o uso do curso para o treinamento da IA da Udemy.

Scott Rogers, vice-presidente de estratégia de conteúdo da Udemy, explicou que a IA da empresa foi desenvolvida já pensando na capacidade de remover o conhecimento adquirido. Se um professor optar por sair do programa, a IA será capaz de “desaprender” o conteúdo. Como esse processo leva um tempo, Rogers justifica que isso levou a Udemy a criar a janela anual de sair do programa de IA.

Udemy vai pagar professores, só não sabemos como

A empresa promete ainda que pagará os professores se os recursos de IA gerarem receita — seja lá o que isso quer dizer, já que a Udemy não explicou a fundo essa ideia. A plataforma ainda afirma que não criará cursos com base no treinamento da IA.

Porém, professores relatam que ganhar dinheiro com cursos na Udemy está mais complicado. As promoções de cursos também diminuiu a receita recebida pelos criadores. A empresa também demitiu 280 funcionários para contratar pessoas de lugares com salários menores.

Com informações: 404 Media e The Verge
Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA

Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA
Fonte: Tecnoblog

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters

Jensen Huang (imagem: reprodução/Nvidia)

Datacenters, por si só, são instalações que demandam muita energia elétrica. Mas, com o atual advento da inteligência artificial (IA), essa demanda tende a ser muito maior nos próximos anos. Como lidar com isso? No entendimento de Jensen Huang, CEO da Nvidia, uma solução viável são as usinas nucleares.

O assunto ganhou força nas últimas semanas. Um exemplo vem da Oracle. Larry Ellison, fundador e presidente, declarou no início do mês que a companhia considera construir um datacenter a ser mantido por três reatores nucleares.

Outro exemplo vem da Microsoft, que pretende utilizar um dos reatores da usina de Three Mile Island para alimentar sistemas de IA.

Além de Oracle e Microsoft, companhias como Amazon, Google e tantas outras preveem aumentar a sua base de datacenters ou ampliar unidades já existentes. No cerne desse movimento está justamente a inteligência artificial. Aplicações do tipo demandam muito processamento.

Se há muito processamento, também há muita demanda por energia. A Agência Internacional de Energia (IEA) prevê que o consumo energético de datacenters deverá variar entre 650 e 1.050 TWh (Terawatts-hora) em 2026. Em 2022, esse número ficou em 460 TWh.

Usina nuclear de Three Mile Island, a ser reativada para a Microsoft(imagem: divulgação/Constellation)

Huang: energia nuclear é “maravilhosa” para datacenters

Vem daí o crescente interesse por energia nuclear. À Bloomberg, Jensen Huang chamou essa opção de “maravilhosa”, dando a entender que a Nvidia está disposta a investir nessa ideia como forma de viabilizar a construção de “fábricas de IA”, ou seja, de datacenters focados em inteligência artificial.

O CEO da Nvidia não revelou planos específicos. Sobre datacenters, as declarações do executivo estiveram mais focadas em explicar como esse tipo de solução tem implementação complexa no que diz respeito ao consumo energético. Nesse sentido, o executivo considera o uso de usinas nucleares, mas não como única opção:

A energia nuclear é maravilhosa como fontes de energia, uma das fontes de energia sustentável. [Mas] Não será a única. Precisaremos de energia de todas as fontes e equilibrar a disponibilidade e o custo dela, bem como a sustentabilidade no longo prazo.

Jensen Huang, CEO da Nvidia

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters
Fonte: Tecnoblog

IA finge que é humana e consegue derrubar os captchas do Google

IA finge que é humana e consegue derrubar os captchas do Google

IA nem sempre acerta na primeira tentativa, mas desempenho é comparável ao de humanos (Imagem: Vitor Pádua / Tecnoblog)

Cientistas da universidade ETH Zurich, na Suíca, treinaram uma inteligência artificial para que ela conseguisse resolver os captchas do Google, que existem para determinar se quem está tentando acessar um serviço é realmente de carne e osso. Ela não chegou a demonstrar 100% de precisão na hora de resolver os desafios, mas foi capaz de superar as barreiras com as mesmas taxas de sucesso que pessoas reais.

O estudo usou o Recaptcha v2, do Google. Você já deve ter passado por ele: o teste pede para o usuário identificar semáforos, faixas de pedestre, pontes e outros itens da paisagem urbana.

Modelo treinado por pesquisadores de universidade suíça aprendeu a identificar objetos (Imagem: Reprodução / Google Cloud)

Para responder às questões, os pesquisadores treinaram um modelo de processamento de imagens chamado Yolo (sigla para “you only live once”, ou “você só vive uma vez”). O treinamento usou 14 mil fotos de ruas devidamente etiquetadas. Também é importante notar que o modelo não funciona sozinho, precisando de intervenção humana para operar.

Pouco tempo depois, o Yolo conseguia reconhecer os objetos tão bem quanto um humano. Ao cometer algum erro pequeno, o Recaptcha v2 liberava mais um puzzle. Assim, com mais de uma tentativa, a IA sempre conseguia convencer o sistema de que era uma pessoa real.

Google diz que IA não põe sistema em risco

Não é a primeira vez que um sistema computadorizado consegue se sair bem na hora de resolver captchas. Há dez anos, este mesmo Tecnoblog noticiava que um software dava a resposta certa em 90% das tentativas, e existiam até serviços que empregavam humanos para passar pelos testes.

Especialistas consultados pela reportagem do Decrypt consideram que as máquinas estão cada vez melhores em resolver estes desafios. Chegará um momento em que eles não serão mais suficientes para determinar se tem um humano por trás daquele acesso.

Mesmo assim, o Google considera que risco não é tão grande quanto parece e tem seus motivos para acreditar nisso: o Recaptcha vai além dos captchas.

“Nós nos concentramos em ajudar nossos clientes a proteger seus usuários sem precisar de desafios visuais”, explica à New Scientist um representante do Google Cloud. “Hoje, a maioria das proteções oferecidas pelo Recaptcha a 7 milhões de sites é completamente invisível.”

A versão 3 da tecnologia do Google consegue analisar se um visitante é humano ou robô levando em consideração a atividade na página. É por isso que, às vezes, você clica na caixinha “Não sou um robô” e o teste nem aparece.

Google é responsável pela tecnologia do Recaptcha (Ilustração: Vitor Pádua/Tecnoblog)

O material da ETH Zurich leva estes aspectos em consideração. Os cientistas descobriram que o Recaptcha mostra menos captchas quando detecta movimento do mouse ou a existência de histórico e cookies no navegador, pois estes são indícios de que uma pessoa realmente está usando o computador.

Em outro teste, eles concluíram que o uso de VPN para mudar o IP também reduz o número de desafios exigidos. O sistema considera que muitos acessos consecutivos de um mesmo IP significam um comportamento automatizado.

Por isso, os testes foram realizados usando VPN, simulação de movimento do mouse e um navegador com histórico de navegação e cookies. Essas precauções foram tomadas porque o objetivo dos pesquisadores era analisar apenas a capacidade da IA em resolver os captchas, sem que outros comportamentos influenciassem no processo.

Captchas ajudam a treinar máquinas

Além de separar humanos de robôs, os captchas também têm outro propósito: as respostas dadas são usadas para treinar os próprios sistemas do Google, para que eles reconheçam objetos em imagens.

O Recaptcha, aliás, nasceu como um projeto da Universidade Carnegie Mellon, nos Estados Unidos, para ajudar a digitalizar livros antigos. Quando uma palavra não era reconhecida por sistemas automáticos, humanos contribuíam para identificar o que estava escrito ali.

Com informações: Decrypt, ZDNet e TechRadar
IA finge que é humana e consegue derrubar os captchas do Google

IA finge que é humana e consegue derrubar os captchas do Google
Fonte: Tecnoblog

Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+

Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+

Galaxy Tab S10 Ultra (imagem: divulgação/Samsung)

A Samsung fez o anúncio oficial dos tablets Galaxy Tab S10 Ultra e Galaxy Tab S10+. Ambos trazem tela Dynamic AMOLED 2X, chip MediaTek Dimensity 9300+ e recursos para inteligência artificial (IA). Mas a versão Ultra é um pouco mais sofisticada em alguns aspectos, além de ser maior.

De acordo com a companhia, o Dimensity 9300+ faz o Galaxy Tab S10 Ultra ter ganhos de desempenho de 18% na CPU, 28% em gráficos e de 14% na NPU em relação ao tablet sucessor, o Galaxy Tab S9 Ultra. Esses ganhos tornam a nova versão ainda mais capacitada para tarefas de IA, sinaliza a marca.

Esse aspecto foi levado tão a sério (ou está tão na moda) que os teclados acopláveis Book Cover, que transformam os novos tablets em notebook, agora contam com um botão físico Galaxy AI para ativação rápida da assistente de inteligência artificial.

Samsung Galaxy Tab S10 Ultra

O Galaxy Tab S10 Ultra se destaca por trazer uma tela Dynamic AMOLED 2X de 14,6 polegadas. Aqui, a resolução é de 2960×1848 pixels.

Além disso, o modelo tem duas câmeras na traseira, de 13 + 8 megapixels, e duas câmeras na frente, de 12 + 12 megapixels.

O modelo também é o único que conta com uma variação que traz 16 GB de RAM mais 1 TB de armazenamento. As outras combinações possíveis são de 12 GB + 512 GB, e de 12 GB + 256 GB.

Por ser fisicamente maior, o Galaxy Tab S10 Ultra conta ainda com uma bateria mais generosa, de 11.200 mAh, com suporte a recarga rápida de 45 W.

Galaxy Tab S10 Ultra (imagem: divulgação/Samsung)

Samsung Galaxy Tab S10+

O Galaxy Tab S10+ mantém a tela Dynamic AMOLED 2X, mas em um painel de 12,4 polegadas com 2800×1752 pixels de resolução.

Na traseira, o conjunto de câmeras é o mesmo do modelo Ultra. Já a frente abriga somente uma câmera de 12 megapixels e lente grande angular (ultrawide).

O modelo conta ainda com 12 GB de RAM. Aqui, não existe opção com 16 GB de memória. Já o armazenamento interno pode ser de 256 GB ou 512 GB.

A bateria é um pouco menor em relação à versão Ultra, mas ainda parece ser adequada para um tablet: são 10,090 mAh, também com recarga de 45 W.

Galaxy Tab S10+ (imagem: divulgação/Samsung)

Disponibilidade e preços

A Samsung fez apenas o anúncio global dos tablets Galaxy Tab S10 Ultra e Galaxy Tab S10+. Segundo a companhia, ambos serão lançados oficialmente em “mercados selecionados” em 3 de outubro de 2024.

Nos Estados Unidos, os preços iniciais são estes:

Galaxy Tab S10 Ultra: US$ 1.199,99 (R$ 6.525)

Galaxy Tab S10+: US$ 999,99 (R$ 5.440)

Ambos os tablets são acompanhados da caneta S Pen.

A marca ainda não informou se a primeira leva de lançamentos incluirá o Brasil.

Ficha técnica da linha Galaxy Tab S10

 Tab S10 UltraGalaxy Tab S10+TelaDynamic AMOLED 2X, 14,6 polegadas, 2960×1848 pixels, 120 Hz, antirreflexoDynamic AMOLED 2X, 12,4 polegadas, 2800×1752 pixels, 120 Hz, antirreflexoChipMediaTek Dimensity 9300+MediaTek Dimensity 9300+RAM12 GB, 16 GB12 GBArmazenamento256 GB, 512 GB, 1 TB256 GB, 512 GBCâmeras traseirasPrincipal de 13 MP, ultrawide de 8 MPPrincipal de 13 MP, ultrawide de 8 MPCâmeras frontaisPrincipal de 12 MP, ultrawide de 12 MPUltrawide de 12 MPBateria11.200 mAh, 45 W10.090 mAh, 45 WConectividade5G (Sub-6), Wi-Fi 7, Wi-Fi Direct, Bluetooth 5.3, USB-C5G (Sub-6/mmW), Wi-Fi 6E, Wi-Fi Direct, Bluetooth 5.3, USB-COutros4 alto-falantes, IP68, sensor de digitais na tela, corpo de alumínio, cores Moonstone Gray e Platinum Silver4 alto-falantes, IP68, sensor de digitais na tela, corpo de alumínio, cores Moonstone Gray e Platinum SilverSistema operacionalAndroid 14Android 14Dimensões208,6 X 326,4 X 5,4 mm185,4 X 285,4 X 5,6 mmPeso718 g (Wi-Fi), 723 g (5G)571g (Wi-Fi), 576g (5G)
Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+

Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+
Fonte: Tecnoblog