Category: Inteligência Artificial

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária

A história da IA é continua, marcada por conceitos, testes e novas descobertas (Imagem: Vitor Pádua/Tecnoblog)

John McCarthy pode ser considerado um dos precursores da inteligência artificial (IA) por mencionar o termo pela primeira vez em 1956. Contudo, não existe apenas um criador da inteligência artificial, já que nomes como Warren McCulloch, Walter Pitts e Alan Turing também foram essenciais para o desenvolvimento da tecnologia.

A história da IA é marcada pelo objetivo contínuo de construir máquinas com capacidades similares ao de pessoas da vida real, cuja estrutura também remetesse ao funcionamento baseado no cérebro de um ser humano.

Os estudos e avanços na área resultaram em aplicações de IA capazes de executar tarefas, aprender, solucionar problemas matemáticos, processar dados, criar novos conteúdos e identificar padrões. E como consequência, essas ferramentas revolucionaram processos em diversas áreas e passaram a fazer parte do dia a dia.

A seguir, saiba mais sobre a origem e evolução da inteligência artificial, e entenda os impactos dessa tecnologia na sociedade.

ÍndiceQuem criou a inteligência artificial?Como surgiu a inteligência artificial?Quais foram as primeiras aplicações de inteligência artificial?Como a inteligência artificial evoluiu até a IA generativa?Quais os impactos da inteligência artificial na sociedade?

Quem criou a inteligência artificial?

A inteligência artificial (IA) foi criada a partir de um esforço conjunto de diversos especialistas e pesquisadores, e sua autoria não pode ser atribuída a apenas uma pessoa.

Partindo desse princípio, nomes como Warren McCulloch, Walter Pitts, Alan Turing, John McCarthy, Allen Newell, Herbert A. Simon, Cliff Shaw, Frank Rosenblatt e Joseph Weizenbaum foram essenciais para o surgimento da IA.

Importante destacar que a criação da IA foi um processo gradual, iniciado a partir da criação das redes neurais e do surgimento da primeira geração de computadores, na década de 40. Posteriormente, os estudos teóricos deram luz a testes e, finalmente, implementações práticas da tecnologia.

Como surgiu a inteligência artificial?

A história da inteligência artificial tem início no século XX, mas seu conceito remete à Grécia Antiga (XII a.C. até IV d.C.). Naquela época, já se discutia a imagem de um ser artificial capaz de desenvolver tarefas humanas. A ideia, contudo, envolvia muito mais o campo místico do que o real.

Mas foi a partir de 1940 que o abstratismo passou a ganhar formas concretas, com o surgimento dos primeiros computadores. Por mais que as máquinas iniciais fossem voltadas para fins militares, elas reforçaram a ideia de que engenharias poderiam ser capazes de realizar tarefas complexas como um humano.

Já em 1943, o psicólogo Walter Pitts e o especialista em cibernética Warren McCulloch propuseram um modelo matemático simplificado para ilustrar o funcionamento neural do cérebro humano, também conhecido como redes neurais. Esse conceito serviu de base para estudos sobre algoritmos e aprendizado profundo.

Conceito sobre redes neurais foi fundamental para os avanços da IA (Imagem: alexmogopro/Pixabay)

Com o pontapé dado, os estudos sobre a IA foram intensificados. Tanto que, em 1950, o matemático e cientista da computação Alan Turing publicou o artigo “Computing Machinery and Intelligence” (“Máquinas Computacionais e Inteligência” em tradução livre), no qual propôs o famoso Teste de Turing.

No experimento que ficou conhecido como “Jogo da Imitação”, uma máquina tinha a missão de se passar por um ser humano em uma conversa escrita, a fim de enganar um avaliador. O teste foi essencial para reforçar o conceito de que uma máquina seria capaz de imitar o comportamento humano.

Ilustração do Teste de Turing, de Alan Turing (Imagem: Luke.schaaf – CC BY-SA 4.0/Wikimedia Commons)

No entanto, o termo “inteligência artificial” surgiu pela primeira vez seis anos mais tarde, em 1956. Durante a conferência de Dartmouth, nos EUA, o professor John McCarthy mencionou a expressão para descrever a ciência de construir máquinas com inteligência similar a de um humano.

A partir daí, pesquisas em torno da IA motivaram o surgimento de redes neurais artificiais, assim como a criação de chatbots, softwares com capacidade para realizar raciocínio lógico, e programas que podiam realizar tarefas como se fossem humanos.

Quais foram as primeiras aplicações de inteligência artificial?

Pesquisas e estudos sobre IA que foram intensificados a partir da década de 40 levaram ao surgimento de experimentos e programas “inteligentes” nos anos seguintes. As principais aplicações de inteligência artificial da época envolveram:

Software de damas: desenvolvido em 1952 por Arthur Samuel, foi o primeiro programa de computador capaz de jogar damas e aprender sozinho;

Logic Theorist: criado por Allen Newell, Herbert A. Simon e Cliff Shaw em 1956, foi projetado para resolver problemas lógicos, e é considerado o primeiro software de IA do mundo;

Eliza: primeiro chatbot com capacidade para usar linguagem natural, desenvolvido por Joseph Weizenbaum em 1966;

Shakey: desenvolvido pelo Stanford Research Institute (SRI) entre 1966 a 1972, foi o primeiro robô móvel do mundo capaz de perceber e raciocinar sobre o ambiente ao seu redor;

Dendral: projetado na década de 60 na Universidade de Stanford, foi uma das primeiras aplicações de IA voltadas para a saúde, usada para estudar a formação e descoberta de hipóteses na ciência.

Como a inteligência artificial evoluiu até a IA generativa?

A linha do tempo evolutiva da inteligência artificial é extensa, contínua e marcada por diversos acontecimentos. Inclusive, é importante notar que esse campo da tecnologia ainda está em desenvolvimento, ou seja, estamos apenas em uma fase dessa cronologia.

A origem da IA nas décadas de 40 e 50 envolveram, principalmente, estudos teóricos. Na época, a descoberta de modelos de redes neurais e a ânsia por criar máquinas inteligentes esbarravam na falta de capacidade das máquinas daquele tempo e na necessidade do entendimento mais aprofundado do cérebro humano.

Com o Teste de Turing, os estudos e experimentos foram intensificados: a primeira rede neural artificial (RNA) foi criada, o conceito de aprendizado de máquina veio à tona, e as aplicações iniciais de IA demonstravam que máquinas tinham potencial para replicar e executar tarefas humanas.

Supercomputador Deep Blue da IBM de 1997, com software de IA para jogar xadrez (Imagem: Divulgação/IBM)

Depois de um período de pausa nas pesquisas, a IA novamente ganhou destaque nos anos 80 com o surgimento das redes neurais artificiais multicamadas. No começo de 2000, as aplicações se tornaram mais complexas, embora desafios em relação a dados e poder computacional dificultassem o progresso.

Mas com o avanço tecnológico nos anos seguintes, máquinas se tornaram capazes de processar big data (conjunto robusto e complexo de dados). Isso permitiu avanços no funcionamento de algoritmos de uma RNA, e otimizou técnicas de aprendizado de máquina e aprendizado profundo em sistemas.

E de 2015 para cá, modelos de IA otimizaram o reconhecimento de imagem e processamento de linguagem natural, resultando em aplicações avançadas como ChatGPT, Google Gemini, Midjourney, entre outras ferramentas de IA generativa.

Quais os impactos da inteligência artificial na sociedade?

A inteligência artificial tem ditado o avanço tecnológico global, mas com impactos severos (positivos e negativos) para a sociedade. Algumas consequências positivas da implementação da IA em nosso cotidiano incluem:

Automação de processos: a IA tem capacidade de automatizar processos e tarefas repetitivas que são feitas com mão de obra humana;

Otimização de produtividade: com a automatização de processos, a inteligência artificial pode aumentar a produtividade no trabalho, nos estudos e nas áreas de pesquisa;

Avanço tecnológico: atualmente em evidência, a IA tem papel importante para o desenvolvimento de novos produtos e tecnologias em praticamente qualquer área;

Análise preditiva: por conta de análises de muitos dados, aplicações IA conseguem prever situações e auxiliar em tomadas de decisão;

Criação de novos conteúdos: aplicações de IA generativa são capazes de criar novos conteúdos a partir de dados, fomentando as áreas de arte e cultura.

Por outro lado, a IA também acompanha uma série de preocupações para a sociedade:

Desafios éticos: a IA é alvo de diversos conflitos éticos, especialmente nos campos de regulamentação e de direitos autorais;

Interferência nas relações humanas: a proliferação da inteligência artificial pode desmotivar interações humanas, bem como provocar dependência tecnológica;

Novas ameaças: indivíduos mal intencionados têm usado a IA para criar golpes, desinformação, deepfakes e outras ameaças digitais;

Coleta de dados: informações pessoais são coletadas de forma cada vez mais frequente, já que os dados são as principais commodities das aplicações de IA;

Desemprego: por mais que seja vista como ferramenta de suporte para o trabalho, a IA pode aumentar o quadro de desemprego ao automatizar tarefas que eram feitas por humanos.

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária

História da inteligência artificial: quem criou e como surgiu a tecnologia revolucionária
Fonte: Tecnoblog

Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI

Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI

Tipos de inteligência artificial são classificados de acordo com suas capacidades em relação à mente humana (Imagem: Vitor Pádua/Tecnoblog)

A inteligência artificial (IA) refere-se à capacidade das máquinas de simularem processos da inteligência humana. Atualmente, a IA pode ser dividida em três níveis: Inteligência Artificial Estreita (ANI), Inteligência Artificial Geral (AGI) e Superinteligência Artificial (ASI).

A ANI é o único dos três tipos de IA que já faz parte do nosso cotidiano, com aplicações concretas. Já AGI e ASI são conceitos de IA que ainda estão sendo estudados por pesquisadores para o futuro, sem garantias de quando ou se vão sair do papel.

No caso da Inteligência Artificial Estreita, alguns exemplos de uso são os sistemas de navegação por GPS, chatbots de atendimento, assistentes virtuais e aplicações de IA generativa, como o ChatGPT.

A seguir, conheça os tipos de inteligência artificial, e entenda as diferenças entre eles.

Índice1. ANI: Inteligência Artificial EstreitaQuais os exemplos de Inteligências Artificiais Estreitas no cotidiano?Quais são as limitações da ANI?2. AGI: Inteligência Artificial GeralQuais as capacidades esperadas da AGI?3. ASI: Superinteligência ArtificialQuais as capacidades esperadas da ASI?Existem outras classificações para a inteligência artificial?Qual o tipo da inteligência artificial do ChatGPT?Qual a diferença entre a IA fraca e a IA forte?Qual a diferença entre a AGI e ASI?

1. ANI: Inteligência Artificial Estreita

Inteligência Artificial Estreita (ANI) é o único tipo de IA que já faz parte da realidade (Imagem: tungnguyen0905/Pixabay)

Derivada do termo em inglês Narrow AI, a Inteligência Artificial Estreita (ANI) representa o único tipo de inteligência artificial que existe atualmente. O termo “Estreita” da nomenclatura refere-se à limitação da IA de executar uma determinada tarefa ou um conjunto específico de ações dentro de um escopo bem definido.

O desenvolvimento constante da ANI tem resultado em aplicações com maior armazenamento de dados e processamento de informações otimizado. Ainda assim, as limitações de aplicação e amplitude fazem com que a Inteligência Artificial Estreita também seja popularmente chamada de “IA limitada” ou “IA fraca”.

Quais os exemplos de Inteligências Artificiais Estreitas no cotidiano?

A Inteligência Artificial Estreita impulsiona quase todas as aplicações atuais que envolvem o uso (direto ou indireto) de inteligência artificial. Alguns dos principais exemplos de serviços ou tecnologia que usam a ANI incluem:

Assistentes virtuais: Siri, Alexa, Google Assistente e outros assistentes voltados para reconhecimento de comandos de voz e execução de tarefas programadas;

Sistemas de navegação: aplicações com tarefas bem definidas, como encontrar a rota mais rápida de um ponto a outro;

Aplicações de IA generativa: aplicações como ChatGPT e Midjorney, que podem criar novos conteúdos com base nos prompts de entrada e dados de treinamento;

Carros autônomos: veículos que usam sensores e algoritmos para realizar ações previamente definidas, como frear em um farol vermelho ou mudar de direção em uma curva;

Chatbots de atendimento: aplicações e serviços automatizados para responder a determinadas perguntas de clientes;

Tradução automática: ferramentas que traduzem textos de um idioma para outro, mas que nem sempre consideram o contexto ou nuances linguísticas;

Reconhecimento facial: sistemas treinados para identificar padrões específicos em imagens faciais.

Quais são as limitações da ANI?

A ANI foca apenas no objetivo para o qual foi programada, não podendo atuar de forma mais abrangente. Um exemplo prático: se ela for treinada para sugerir receitas de bolo salgado, pode não ser capaz de indicar receitas de torta salgada, mesmo que os ingredientes usados sejam semelhantes.

Além disso, a Inteligência Artificial Estreita não tem compreensão profunda das informações que processa e carece de consciência própria. Ou seja, a tecnologia depende de uma grande quantidade de dados para a execução de tarefas, tanto na fase de treinamento quanto nas etapas de aprendizado contínuo.

Vale mencionar que a ANI tem papel importante para o desenvolvimento tecnológico, especialmente na automação de processos, análise de dados e realização de tarefas específicas. Contudo, trata-se de uma tecnologia que depende de humanos, desde sua concepção até a fase de manutenção de uso.

2. AGI: Inteligência Artificial Geral

Inteligência Artificial Geral (AGI) é um conceito de máquinas com capacidades humanas (Imagem: DeltaWorks/Pixabay)

A Inteligência Artificial Geral (ou Artificial General Intelligence, em inglês) é um conceito teórico de IA, ainda sem exemplos no mundo real. O termo “Geral” da nomenclatura surgiu para diferenciar a IA da Inteligência Artificial Estreita (ANI), uma vez que a AGI poderia solucionar problemas para os quais não foi programada.

Inclusive, espera-se que que a AGI tenha inteligência e capacidades similares a de seres humanos, o que explica sua classificação como “IA forte”. No entanto, trata-se de uma tecnologia que ainda não saiu do papel, e sem prazos definidos para sua concretização.

Quais as capacidades esperadas da AGI?

A expectativa é de que a AGI atinja o mesmo nível de habilidades cognitivas de um ser humano. Em teoria, a Inteligência Artificial Geral seria autoconsciente, com capacidade para resolver problemas, aprender, fazer previsões, e de transferir conhecimentos de uma área para outra.

E além de replicar raciocínios lógicos de uma mente humana, é dito que a AGI seria capaz de emular outros comportamentos complexos, como criatividade, percepção e aprendizado.

3. ASI: Superinteligência Artificial

Superinteligência Artificial (ASI) teria a capacidade de superar as capacidades humanas (Imagem: Enio-ia
Ao fazer o download, aceita a nossa Lice/Pixabay)

Representada pela sigla ASI, a Superinteligência Artificial (ou Artificial Superintelligence, em inglês) é uma suposição futura do tipo mais avançado de IA. Inclusive, o termo “Superinteligência” se refere a uma máquina com o poder de superar a capacidade e a inteligência humana em praticamente qualquer área.

Assim como a Inteligência Artificial Geral (AGI), a Superinteligência Artificial só existe no campo teórico e, por enquanto, é apenas um objeto de estudo. E dada suas capacidades teóricas, a ASI também faz parte do grupo chamado de IA forte.

Quais as capacidades esperadas da ASI?

Espera-se que uma máquina com ASI seja totalmente autoconsciente, com inteligência superior à de um ser humano, e com potencial para aprimorar-se e tomar decisões próprias, sem intervenção humana. E devido às capacidades e velocidades de processos, a Superinteligência Artificial revolucionaria o funcionamento do mundo.

Importante mencionar que a ASI é apenas uma projeção para o futuro, e dependeria da concretização e desenvolvimento da AGI para, de fato, sair do papel. Afinal, se a AGI poderia replicar capacidades humanas, a ASI executaria qualquer tarefa ainda melhor do que uma pessoa.

Existem outras classificações para a inteligência artificial?

Sim. Além dos tipos ANI, AGI e ASI, a inteligência artificial pode ser classificada em outras subdivisões, com base em critérios de capacidade diferentes. Essas categorias incluem:

Máquinas reativas: sistemas simples e limitados de IA, como motores de busca, que reagem a estímulos baseados em regras pré-programadas;

Memória limitada: tipo de sistema de IA com memória limitada para armazenar dados e tomar decisões a partir de informações, a exemplo de assistentes virtuais;

Teoria da mente: conceito sob estudo que propõe uma IA capaz de pensar e tomar decisões como um humano, incluindo o reconhecimento de emoções, crenças e reações;

Autoconsciente: conceito teórico de uma máquina de IA autoconsciente, com capacidade para compreender e refletir sobre si mesma e sobre a humanidade, e com recursos intelectuais e emocionais de uma pessoa de verdade.

Qual o tipo da inteligência artificial do ChatGPT?

O ChatGPT é um exemplo de Inteligência Artificial Estreita (ANI), já que foi designado para desempenhar apenas determinadas tarefas dentro do escopo de processamento de linguagem natural (NLP). Demais aplicações de IA generativa, como Google Gemini e Midjourney, também são enquadradas como ANI.

Qual a diferença entre a IA fraca e a IA forte?

Representada pela Inteligência Artificial Estreita (ANI), a IA fraca tem limitações de aplicação e capacidade, não é consciente, e só pode realizar tarefas dentro de um escopo predeterminado. Essas limitações permitiram a concretização da IA fraca, bem como sua implementação (via aplicações) no cotidiano.

Já a IA forte, composta por Inteligência Artificial Geral (AGI) e Superinteligência Artificial (ASI), é um conceito teórico ainda sob estudo. Suas capacidades seriam equivalentes ou superiores a de um ser humano, capacitando máquinas a pensar, executar, aprender ou entender o mundo por si próprias.

Qual a diferença entre a AGI e ASI?

A Inteligência Artificial Geral (AGI) é um conceito teórico de inteligência artificial, que teoriza uma máquina com poder para realizar tarefas intelectuais que qualquer humano é capaz de fazer. A AGI é vista como um tipo de IA superior ao da ANI, com menos limitações e mais capacidades intelectuais e de tomadas de decisão.

Também em estágio de conceito, a Superinteligência Artificial (ASI) seria uma evolução da AGI: ao invés de apenas replicar capacidades humanas, seria capaz de realizar qualquer atividade melhor e mais rápido que uma pessoa, com autoconsciência, e podendo evoluir, aprender, criar, executar e prever sem interferências externas.
Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI

Quais são os tipos de inteligência artificial? Veja as diferenças entre as categorias ANI, AGI e ASI
Fonte: Tecnoblog

IA do Google: Gemini Live passa a responder com voz em português

IA do Google: Gemini Live passa a responder com voz em português

Gemini Live ganha opção de responder o usuário em português e mais de 40 idiomas (Imagem: Vitor Pádua/Tecnoblog)

Resumo

O Google liberou o Gemini Live com suporte a português brasileiro e mais de 40 idiomas para Android.
O recurso permitirá interações por voz, similar ao ChatGPT e assistentes como Siri e Alexa.
A liberação ocorrerá de forma gradual, podendo demorar dias ou semanas para todos os usuários.
O Gemini Live também será integrado a outros apps do Google, como Gmail, Maps e YouTube.
Os usuários podem selecionar até dois idiomas no aplicativo, configurando via Google Assistente.

O Google divulgou nesta quinta-feira (3) que está liberando a opção de fala em português brasileiro no Gemini para Android. A ferramenta está disponível no Gemini Live, uma versão da IA do Google que permite ao usuário conversar com a inteligência artificial. O recurso é similar à ferramenta de conversa do ChatGPT — e praticamente uma Siri.

Em nota enviada à imprensa, o Google explica que a liberação do Gemini Live ocorrerá de forma gradual. Assim, alguns usuários receberão essa novidade nos próximos dias ou semanas. O Gemini Live é uma ferramenta do aplicativo da IA para Android e funciona nos celulares e tablets.

Gemini Live chega para português e mais de 40 idiomas

Além da versão em português, o Google liberou o Gemini Live para mais de 40 idiomas. A novidade também será integrada com outros aplicativos da big tech que possuem recurso de voz, como o Gmail, Maps e YouTube. O Google explica que espera liberar mais idiomas no futuro.

Os usuários poderão ainda selecionar até dois idiomas para o Gemini Live em seus dispositivos. Para escolher essas duas línguas, o usuário terá que acessar a configuração do aplicativo do Google. Veja como fazer:

Abra o aplicativo do Google e, na parte superior, toque na sua foto de perfil ou iniciais

Toque em Configurações e selecione Google Assistente

Na tela que abrir, busque pela opções Idiomas

Escolha o português brasileiro ou qualquer idioma disponível

Opcionalmente, você pode adicionar um segundo idioma. Por enquanto, você pode definir e usar até dois idiomas com o Gemini Live

Lembrando que a liberação dos novos idiomas está ocorrendo de forma gradual. Se o português brasileiro ainda não apareceu para você, espere mais um tempo para este idioma ficar disponível no seu aparelho.

Gemini Live é praticamente um Gemini que fala

Apresentado em agosto durante o Made By Google, o Gemini Live é a IA generativa do Google que responde falando os seus comando de voz. O ChatGPT tem um recurso idêntico — e gerou até aquela treta com a Scarlett Johansson. A Siri e Alexa fazem algo similar há anos, mas com zero capacidade de IA geracional.
IA do Google: Gemini Live passa a responder com voz em português

IA do Google: Gemini Live passa a responder com voz em português
Fonte: Tecnoblog

Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço

Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço

Xiaomi 14T tem câmera tripla com lente Leica e configurações avançadas para fotos (Imagem: Isabela Giantomaso / Tecnoblog)

A Xiaomi revelou nesta quarta-feira (dia 02/10) o preço do smartphone Xiaomi 14T no Brasil: R$ 5.999. O aparelho chega às lojas e quiosques da marca, bem como ao site, na versão com 512 GB de armazenamento e 12 GB de RAM, nas cores preto e cinza.

O Xiaomi 14T é uma novidade no mercado global. Ele foi apresentado no exterior na última quinta-feira (dia 26/09). O Tecnoblog esteve em Berlim (Alemanha) a convite da empresa e conheceu o aparelho de pertinho.

Lentes da Leica e sensor da Sony

O carro-chefe do Xiaomi 14T é a fotografia. Ele conta com um conjunto triplo de câmeras, todas com lentes da famosa fabricante alemã Leica. O conjunto é capaz de dar quatro opções de distâncias focais, equivalentes de 15 mm a 100 mm.

As lentes de altíssima qualidade acompanham sensor principal um Sony IMX906 de 50 megapixels. Na câmera teleobjetiva, outro sensor de 50 megapixels, enquanto a ultrawide conta com um componente de 12 megapixels. Para selfies, o conjunto oferece 32 megapixels, em uma câmera que fica sob o visor.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

O Xiaomi 14T conta também com recursos de software para tirar qualidade máxima das lentes e sensores. O smartphone oferece os modos Leica Autêntico, Leica Vibrante e Leica Retrato, que dispensam ajustes avançados.

Na hora de gravar vídeos, é possível recorrer aos modos Filme e Diretor, com configurações mais completas. Também há a opção de captar imagens em 4K e 30 fps, com HDR.

IA, desempenho e design

Deixando as câmeras um pouco de lado, vamos falar do “resto” do Xiaomi 14T. Ele tem tela CrystalRes AMOLED de 6,67 polegadas, 144 Hz e brilho máximo de 4.000 nits.

O visual é metálico, e as cores titan black e titan gray (preto e cinza, respectivamente) estarão disponíveis no mercado brasileiro. O corpo do smartphone conta com proteção contra poeira e água no padrão IP68.

Câmera principal do Xiaomi 14T tem 50 megapixels com modos Leica para filtros (Foto: Isabela Giantomaso/Tecnoblog)

Em desempenho, o Xiaomi 14T conta com o chip MediaTek Dimensity 8300 Ultra e 12 GB de RAM, além de 16 GB de memória virtual. A versão lançada no Brasil tem 512 GB para armazenamento. Além disso, duas outras especificações importantes são a bateria de 5.000 mAh e a recarga de 67 W.

O smartphone vem de fábrica com Android 14 e a camada de software HyperOS, da Xiaomi. Como não podia deixar de ser, ele conta com recursos de inteligência artificial, como intérprete de idiomas, transcrição de falas, resumo de anotações e ferramentas de edição de imagem. Além disso, o assistente Google Gemini vem instalado.

Ficha técnica – Xiaomi 14T

TelaCrystalRes AMOLED de 6,67 polegadas (2712 x 1220 pixels)Câmera traseira 50 MP (principal) + 50 MP (teleobjetiva) + 12 MP (ultrawide)Câmera frontal32 MPProcessadorMediaTek Dimensity 8300-UltraSoftware Android 14 + Xiaomi HyperOSMemória RAM12 GBArmazenamento512 GBBateria5.000 mAh com HyperCharge 67WConectividade5G, Dual SIM, Wi-Fi 6E, Bluetooth 5.4, NFCDimensões160,5 mm x 75,1 mm x 7,80 mmPeso195 gramasCoresCinza e preto
Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço

Xiaomi 14T com lentes Leica chega oficialmente ao Brasil; saiba o preço
Fonte: Tecnoblog

Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA

Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA

Udemy deu prazo de três semanas para professores autorizarem ou não o uso das aulas para treinamento de IA (Imagem: Vitor Pádua / Tecnoblog)

Professores da Udemy estão irritados com a plataforma de ensino. A Udemy deu um prazo de três semanas para que os professores autorizassem ou não que a IA da empresa fosse treinada com suas aulas. Passado o prazo, os profissionais que ministram cursos na plataforma não podem mais impedir que a IA assistam a suas aulas — pelo menos não nesse ano, já que a Udemy abrirá anualmente a opção de sair do programa de IA.

O comunicado foi feita pela Udemy no seu fórum oficial no dia 21 de agosto. A opção de autorizar que a IA usasse as aulas para o seu treinamento foi ativada por padrão. O dia final para desativar essa opção foi 12 de setembro. Há relatos de professores que só souberam disso quando viram o email de aprovação no programa de IA.

Udemy abrirá periodicamente a opção de autorizar treinamento

Segundo Katie Stegs, usuária que fornece aulas da Udemy, a empresa comunicou que haverá janelas de desativar a opção de treinamento da IA durante o ano. Essas janelas serão informadas pela empresa aos usuários, ao invés de definir um período fixo para isso.

Em resposta ao 404 Media, Stegs explicou que só soube do caso ao receber o email avisando que ela foi adicionado ao programa de treinamento de IA. O fato de a Udemy impedir que professores desativem a opção a qualquer momento levanta o contínuo debate sobre a violação de direitos autorais para treinamento de inteligências artificiais.

Criadores não podem impedir o treinamento da IA da Udemy após o fim da janela (Imagem: Reprodução/404 Media)

Stegs destacou que o conteúdo do curso é de propriedade intelectual dela. Assim, ela defende que tem o direito de optar a qualquer momento se autoriza ou não o uso do curso para o treinamento da IA da Udemy.

Scott Rogers, vice-presidente de estratégia de conteúdo da Udemy, explicou que a IA da empresa foi desenvolvida já pensando na capacidade de remover o conhecimento adquirido. Se um professor optar por sair do programa, a IA será capaz de “desaprender” o conteúdo. Como esse processo leva um tempo, Rogers justifica que isso levou a Udemy a criar a janela anual de sair do programa de IA.

Udemy vai pagar professores, só não sabemos como

A empresa promete ainda que pagará os professores se os recursos de IA gerarem receita — seja lá o que isso quer dizer, já que a Udemy não explicou a fundo essa ideia. A plataforma ainda afirma que não criará cursos com base no treinamento da IA.

Porém, professores relatam que ganhar dinheiro com cursos na Udemy está mais complicado. As promoções de cursos também diminuiu a receita recebida pelos criadores. A empresa também demitiu 280 funcionários para contratar pessoas de lugares com salários menores.

Com informações: 404 Media e The Verge
Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA

Udemy irrita professores por prazo para excluir aulas de treinamento da sua IA
Fonte: Tecnoblog

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters

Jensen Huang (imagem: reprodução/Nvidia)

Datacenters, por si só, são instalações que demandam muita energia elétrica. Mas, com o atual advento da inteligência artificial (IA), essa demanda tende a ser muito maior nos próximos anos. Como lidar com isso? No entendimento de Jensen Huang, CEO da Nvidia, uma solução viável são as usinas nucleares.

O assunto ganhou força nas últimas semanas. Um exemplo vem da Oracle. Larry Ellison, fundador e presidente, declarou no início do mês que a companhia considera construir um datacenter a ser mantido por três reatores nucleares.

Outro exemplo vem da Microsoft, que pretende utilizar um dos reatores da usina de Three Mile Island para alimentar sistemas de IA.

Além de Oracle e Microsoft, companhias como Amazon, Google e tantas outras preveem aumentar a sua base de datacenters ou ampliar unidades já existentes. No cerne desse movimento está justamente a inteligência artificial. Aplicações do tipo demandam muito processamento.

Se há muito processamento, também há muita demanda por energia. A Agência Internacional de Energia (IEA) prevê que o consumo energético de datacenters deverá variar entre 650 e 1.050 TWh (Terawatts-hora) em 2026. Em 2022, esse número ficou em 460 TWh.

Usina nuclear de Three Mile Island, a ser reativada para a Microsoft(imagem: divulgação/Constellation)

Huang: energia nuclear é “maravilhosa” para datacenters

Vem daí o crescente interesse por energia nuclear. À Bloomberg, Jensen Huang chamou essa opção de “maravilhosa”, dando a entender que a Nvidia está disposta a investir nessa ideia como forma de viabilizar a construção de “fábricas de IA”, ou seja, de datacenters focados em inteligência artificial.

O CEO da Nvidia não revelou planos específicos. Sobre datacenters, as declarações do executivo estiveram mais focadas em explicar como esse tipo de solução tem implementação complexa no que diz respeito ao consumo energético. Nesse sentido, o executivo considera o uso de usinas nucleares, mas não como única opção:

A energia nuclear é maravilhosa como fontes de energia, uma das fontes de energia sustentável. [Mas] Não será a única. Precisaremos de energia de todas as fontes e equilibrar a disponibilidade e o custo dela, bem como a sustentabilidade no longo prazo.

Jensen Huang, CEO da Nvidia

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters

CEO da Nvidia defende uso de usinas nucleares para alimentar datacenters
Fonte: Tecnoblog

IA finge que é humana e consegue derrubar os captchas do Google

IA finge que é humana e consegue derrubar os captchas do Google

IA nem sempre acerta na primeira tentativa, mas desempenho é comparável ao de humanos (Imagem: Vitor Pádua / Tecnoblog)

Cientistas da universidade ETH Zurich, na Suíca, treinaram uma inteligência artificial para que ela conseguisse resolver os captchas do Google, que existem para determinar se quem está tentando acessar um serviço é realmente de carne e osso. Ela não chegou a demonstrar 100% de precisão na hora de resolver os desafios, mas foi capaz de superar as barreiras com as mesmas taxas de sucesso que pessoas reais.

O estudo usou o Recaptcha v2, do Google. Você já deve ter passado por ele: o teste pede para o usuário identificar semáforos, faixas de pedestre, pontes e outros itens da paisagem urbana.

Modelo treinado por pesquisadores de universidade suíça aprendeu a identificar objetos (Imagem: Reprodução / Google Cloud)

Para responder às questões, os pesquisadores treinaram um modelo de processamento de imagens chamado Yolo (sigla para “you only live once”, ou “você só vive uma vez”). O treinamento usou 14 mil fotos de ruas devidamente etiquetadas. Também é importante notar que o modelo não funciona sozinho, precisando de intervenção humana para operar.

Pouco tempo depois, o Yolo conseguia reconhecer os objetos tão bem quanto um humano. Ao cometer algum erro pequeno, o Recaptcha v2 liberava mais um puzzle. Assim, com mais de uma tentativa, a IA sempre conseguia convencer o sistema de que era uma pessoa real.

Google diz que IA não põe sistema em risco

Não é a primeira vez que um sistema computadorizado consegue se sair bem na hora de resolver captchas. Há dez anos, este mesmo Tecnoblog noticiava que um software dava a resposta certa em 90% das tentativas, e existiam até serviços que empregavam humanos para passar pelos testes.

Especialistas consultados pela reportagem do Decrypt consideram que as máquinas estão cada vez melhores em resolver estes desafios. Chegará um momento em que eles não serão mais suficientes para determinar se tem um humano por trás daquele acesso.

Mesmo assim, o Google considera que risco não é tão grande quanto parece e tem seus motivos para acreditar nisso: o Recaptcha vai além dos captchas.

“Nós nos concentramos em ajudar nossos clientes a proteger seus usuários sem precisar de desafios visuais”, explica à New Scientist um representante do Google Cloud. “Hoje, a maioria das proteções oferecidas pelo Recaptcha a 7 milhões de sites é completamente invisível.”

A versão 3 da tecnologia do Google consegue analisar se um visitante é humano ou robô levando em consideração a atividade na página. É por isso que, às vezes, você clica na caixinha “Não sou um robô” e o teste nem aparece.

Google é responsável pela tecnologia do Recaptcha (Ilustração: Vitor Pádua/Tecnoblog)

O material da ETH Zurich leva estes aspectos em consideração. Os cientistas descobriram que o Recaptcha mostra menos captchas quando detecta movimento do mouse ou a existência de histórico e cookies no navegador, pois estes são indícios de que uma pessoa realmente está usando o computador.

Em outro teste, eles concluíram que o uso de VPN para mudar o IP também reduz o número de desafios exigidos. O sistema considera que muitos acessos consecutivos de um mesmo IP significam um comportamento automatizado.

Por isso, os testes foram realizados usando VPN, simulação de movimento do mouse e um navegador com histórico de navegação e cookies. Essas precauções foram tomadas porque o objetivo dos pesquisadores era analisar apenas a capacidade da IA em resolver os captchas, sem que outros comportamentos influenciassem no processo.

Captchas ajudam a treinar máquinas

Além de separar humanos de robôs, os captchas também têm outro propósito: as respostas dadas são usadas para treinar os próprios sistemas do Google, para que eles reconheçam objetos em imagens.

O Recaptcha, aliás, nasceu como um projeto da Universidade Carnegie Mellon, nos Estados Unidos, para ajudar a digitalizar livros antigos. Quando uma palavra não era reconhecida por sistemas automáticos, humanos contribuíam para identificar o que estava escrito ali.

Com informações: Decrypt, ZDNet e TechRadar
IA finge que é humana e consegue derrubar os captchas do Google

IA finge que é humana e consegue derrubar os captchas do Google
Fonte: Tecnoblog

Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+

Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+

Galaxy Tab S10 Ultra (imagem: divulgação/Samsung)

A Samsung fez o anúncio oficial dos tablets Galaxy Tab S10 Ultra e Galaxy Tab S10+. Ambos trazem tela Dynamic AMOLED 2X, chip MediaTek Dimensity 9300+ e recursos para inteligência artificial (IA). Mas a versão Ultra é um pouco mais sofisticada em alguns aspectos, além de ser maior.

De acordo com a companhia, o Dimensity 9300+ faz o Galaxy Tab S10 Ultra ter ganhos de desempenho de 18% na CPU, 28% em gráficos e de 14% na NPU em relação ao tablet sucessor, o Galaxy Tab S9 Ultra. Esses ganhos tornam a nova versão ainda mais capacitada para tarefas de IA, sinaliza a marca.

Esse aspecto foi levado tão a sério (ou está tão na moda) que os teclados acopláveis Book Cover, que transformam os novos tablets em notebook, agora contam com um botão físico Galaxy AI para ativação rápida da assistente de inteligência artificial.

Samsung Galaxy Tab S10 Ultra

O Galaxy Tab S10 Ultra se destaca por trazer uma tela Dynamic AMOLED 2X de 14,6 polegadas. Aqui, a resolução é de 2960×1848 pixels.

Além disso, o modelo tem duas câmeras na traseira, de 13 + 8 megapixels, e duas câmeras na frente, de 12 + 12 megapixels.

O modelo também é o único que conta com uma variação que traz 16 GB de RAM mais 1 TB de armazenamento. As outras combinações possíveis são de 12 GB + 512 GB, e de 12 GB + 256 GB.

Por ser fisicamente maior, o Galaxy Tab S10 Ultra conta ainda com uma bateria mais generosa, de 11.200 mAh, com suporte a recarga rápida de 45 W.

Galaxy Tab S10 Ultra (imagem: divulgação/Samsung)

Samsung Galaxy Tab S10+

O Galaxy Tab S10+ mantém a tela Dynamic AMOLED 2X, mas em um painel de 12,4 polegadas com 2800×1752 pixels de resolução.

Na traseira, o conjunto de câmeras é o mesmo do modelo Ultra. Já a frente abriga somente uma câmera de 12 megapixels e lente grande angular (ultrawide).

O modelo conta ainda com 12 GB de RAM. Aqui, não existe opção com 16 GB de memória. Já o armazenamento interno pode ser de 256 GB ou 512 GB.

A bateria é um pouco menor em relação à versão Ultra, mas ainda parece ser adequada para um tablet: são 10,090 mAh, também com recarga de 45 W.

Galaxy Tab S10+ (imagem: divulgação/Samsung)

Disponibilidade e preços

A Samsung fez apenas o anúncio global dos tablets Galaxy Tab S10 Ultra e Galaxy Tab S10+. Segundo a companhia, ambos serão lançados oficialmente em “mercados selecionados” em 3 de outubro de 2024.

Nos Estados Unidos, os preços iniciais são estes:

Galaxy Tab S10 Ultra: US$ 1.199,99 (R$ 6.525)

Galaxy Tab S10+: US$ 999,99 (R$ 5.440)

Ambos os tablets são acompanhados da caneta S Pen.

A marca ainda não informou se a primeira leva de lançamentos incluirá o Brasil.

Ficha técnica da linha Galaxy Tab S10

 Tab S10 UltraGalaxy Tab S10+TelaDynamic AMOLED 2X, 14,6 polegadas, 2960×1848 pixels, 120 Hz, antirreflexoDynamic AMOLED 2X, 12,4 polegadas, 2800×1752 pixels, 120 Hz, antirreflexoChipMediaTek Dimensity 9300+MediaTek Dimensity 9300+RAM12 GB, 16 GB12 GBArmazenamento256 GB, 512 GB, 1 TB256 GB, 512 GBCâmeras traseirasPrincipal de 13 MP, ultrawide de 8 MPPrincipal de 13 MP, ultrawide de 8 MPCâmeras frontaisPrincipal de 12 MP, ultrawide de 12 MPUltrawide de 12 MPBateria11.200 mAh, 45 W10.090 mAh, 45 WConectividade5G (Sub-6), Wi-Fi 7, Wi-Fi Direct, Bluetooth 5.3, USB-C5G (Sub-6/mmW), Wi-Fi 6E, Wi-Fi Direct, Bluetooth 5.3, USB-COutros4 alto-falantes, IP68, sensor de digitais na tela, corpo de alumínio, cores Moonstone Gray e Platinum Silver4 alto-falantes, IP68, sensor de digitais na tela, corpo de alumínio, cores Moonstone Gray e Platinum SilverSistema operacionalAndroid 14Android 14Dimensões208,6 X 326,4 X 5,4 mm185,4 X 285,4 X 5,6 mmPeso718 g (Wi-Fi), 723 g (5G)571g (Wi-Fi), 576g (5G)
Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+

Samsung anuncia Galaxy Tab S10 Ultra e Tab S10+ com chip MediaTek 9300+
Fonte: Tecnoblog

Consumidores estão comprando novos PCs, mas não por causa da IA

Consumidores estão comprando novos PCs, mas não por causa da IA

Surface Pro no campus da Microsoft em Redmond, EUA (Foto: Thássius Veloso/Tecnoblog)

PCs equipados com chips que trazem NPU para tarefas de inteligência artificial (IA), a exemplo dos SoCs Qualcomm Snapdragon X, têm aparecido aos montes. Eles estão sendo adquiridos por consumidores finais, mas o que pesa para a decisão de compra de qualquer PC novo não é a IA. É o que aponta o IDC Research.

No cenário atual, notebooks preparados para IA, principalmente dentro da categoria Copilot+, são equipados com processadores que pertencem a uma das seguintes famílias de chips:

Qualcomm Snapdragon X Plus e Snapdragon X Elite

AMD Ryzen AI 300

Intel Core Ultra 200V (Lunar Lake)

Todos os processadores dessas linhas contam com uma NPU (Unidade de Processamento Neural) de 40 TOPS ou mais (1 TOPS corresponde a 1 trilhão de operações por segundo) e, portanto, estão aptos a executar determinadas tarefas de IA de modo nativo, dependendo pouco ou nada de serviços nas nuvens.

Mas Jitesh Ubrani, gerente de pesquisa da divisão Worldwide Mobile Device Trackers do IDC, aponta que os consumidores ainda não entenderam totalmente a importância de uma NPU.

Há aqueles que sabem que esse tipo de componente é importante em aplicações de inteligência artificial. O problema é que, pelo menos no PC, a IA ainda não provou a que veio. “Embora a IA venha sendo uma palavra da moda, ela ainda não é um fator de decisão entre os compradores de PCs”, afirma Ubrani.

Nem precisamos fingir surpresa. Na atualização 24H2 do Windows 11, a ser liberada nas próximas semanas, a Microsoft incluirá um conjunto de recursos de IA no sistema operacional, especialmente no âmbito do Copilot. Mas nenhum parece ser algo que fará a diferença no dia a dia do usuário.

Entre esses recursos poderão estar um criador de imagens para o Paint e o polêmico Recall, que faz capturas de tela de ações no Windows 11, criando um histórico organizado em uma linha do tempo para permitir que o usuário recupere informações consultadas ou criadas anteriormente.

São recursos interessantes, mas nenhum deles parece ser indispensável, pelo menos até o momento.

Snapdragon X Plus é direcionado a notebooks e tem NPU para IA (imagem: divulgação/Qualcomm)

Venda de PCs está estável

O IDC prevê que 2024 terminará com 261 milhões de PCs comercializados no mundo todo. Essa número representa um aumento de apenas 0,3% nas vendas em relação a 2023, portanto, indica que o mercado está estável. Esse não é um cenário excelente, mas também não é algo que represente uma crise.

Não há informação sobre qual parte desse volume consiste em PCs com IA, mas sabe-se que essa proporção é bem modesta. A categoria deve apresentar crescimento em vendas, mas no médio ou longo prazo.

No entendimento do IDC, a América do Norte, países da Europa Ocidental e mercados asiáticos, como o Japão, devem liderar a adoção de PCs com IA nos próximos meses. Mas isso porque os consumidores precisam de novos computadores, não necessariamente porque eles fazem questão de máquinas com NPU.

Um fator que deve contribuir para isso é o fim do suporte ao Windows 10 pela Microsoft, marcado para outubro de 2025. Essa situação pode servir de incentivo para a compra de computadores novos, visto que máquinas antigas com o Windows 10 não são compatíveis com o Windows 11.
Consumidores estão comprando novos PCs, mas não por causa da IA

Consumidores estão comprando novos PCs, mas não por causa da IA
Fonte: Tecnoblog

A teoria da internet morta

A teoria da internet morta

E se a maior parte do que vemos na internet não foi criado por humanos? Essa é a premissa da teoria da internet morta. Ela afirma que a web “morreu” por volta de 2016, e, desde então, é povoada por bots e conteúdo sintético.

A teoria da internet morta (Vitor Pádua / Tecnoblog)

Estamos falando de uma teoria da conspiração, obviamente; só que diversos levantamentos sugerem que, de fato, uma quantidade considerável do tráfego e do conteúdo da internet não é humano. Há cada vez mais perfis falsos, textos e imagens gerados por IA, e um clima de desconfiança em relação ao que vemos na web.

Será que caminhamos para uma internet dominada por robôs? Quais serão as consequências da nossa exposição a tanto conteúdo que apenas simula o real? É o que discutimos no episódio de hoje. Dá o play e vem com a gente!

Participantes

Thiago Mobilon

Josué de Oliveira

Ana Marques

Isabela Giantomaso

Mande seu recado

Grupos da Caixa Postal do Tecnocast:

Telegram: t.me/caixapostaltecnocast

WhatsApp: tbnet.me/caixapostaltecnocast

Você pode mandar comentários (inclusive em áudio, vai que você aparece no Tecnocast?), dúvidas, críticas e sugestões. Participe!Se preferir, você pode se comunicar conosco pela Comunidade e através do e-mail tecnocast@tecnoblog.net.

Entre também nos Canais do TB no WhatsApp

Canal do Tecnoblog

Canal do Achados do TB

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Ariel Liborio

Arte da capa: Vitor Pádua

Assine o Tecnocast

Google Podcasts

Apple Podcasts

Spotify

Pocket Casts

Android (outros apps)

Feed RSS

Buzzsprout

A teoria da internet morta

A teoria da internet morta
Fonte: Tecnoblog