Category: Modelo de linguagem grande

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A União Europeia anunciou a OpenEuroLLM, uma iniciativa para desenvolver modelos avançados de inteligência artificial de código aberto.
Liderada por Peter Sarlin, da Silo AI, a aliança terá início em fevereiro de 2025, com financiamento da Comissão Europeia e a participação de mais de 20 instituições e empresas.
O projeto contará com um orçamento inicial de 52 milhões de euros (cerca de R$ 311 milhões), focando em infraestruturas digitais e IA.
A iniciativa surge como resposta ao avanço dos Estados Unidos e da China no setor de inteligência artificial.

A União Europeia não quer ficar para trás dos Estados Unidos e da China quando o assunto é inteligência artificial. Por isso, o bloco anunciou uma aliança para desenvolver LLMs avançados e com código aberto: a OpenEuroLLM.

O projeto apoiará ou contará com o apoio de startups, centros de pesquisa, instituições de ensino e organizações especializadas em computação de alto desempenho que tenham sede em países da União Europeia.

De acordo com o anúncio oficial, mais de 20 instituições de pesquisa e empresas da região já fazem parte da iniciativa, que terá a missão de construir uma “família base de modelos de larga escala de alto desempenho, multilíngues e de grande porte para serviços comerciais, industriais e públicos”.

A OpenEuroLLM será comandada por Peter Sarlin, cofundador de Silo AI, empresa com sede na Finlândia especializada em inteligência artificial, mas que foi adquirida pela AMD em julho de 2024 por US$ 665 milhões (R$ 3,86 bilhões, na conversão atual).

Por que a OpenEuroLLM foi criada?

Segundo a própria entidade, o projeto foi criado com o intuito de “melhorar a competitividade e a soberania digital da Europa”.

Não é um discurso raso. De um lado, a União Europeia vê organizações americanas, com destaque para a OpenAI, dominando a cena da inteligência artificial.

Como se não bastasse, os Estados Unidos anunciaram o Stargate Project logo após a posse de Donald Trump como presidente do país. A iniciativa investirá US$ 500 bilhões para deixar os Estados Unidos na vanguarda da IA.

De outro lado, a Europa vê a DeepSeek se destacando como uma força chinesa em IA. Ainda que essa plataforma esteja sob questionamentos a respeitos dos custos reduzidos e do desempenho melhorado que afirma ter, o projeto mostra que a China não está alheia a todo esse movimento.

Bandeiras da União Europeia (foto: Thijs ter Haar/Wikimedia Commons)

Oficialmente, a OpenEuroLLM iniciou suas atividades em 1º de fevereiro de 2025 com base em um financiamento concedido pela Comissão Europeia por meio do Programa Europa Digital.

Os LLMs a serem desenvolvidos na OpenEuroLLM deverão seguir a estrutura regulatória da Europa, bem como alguns preceitos estabelecidos pela Comissão Europeia, entre eles, a “diversidade linguística e cultural”, de modo que todo o continente possa ser beneficiado pelos projetos que saírem de lá.

Ao TNW, Peter Sarlin declarou:

Isso não é sobre criar um chatbot de propósito geral, mas sobre construir a infraestrutura digital e de IA para permitir que companhias europeias inovem em IA.

Peter Sarlin, líder da OpenEuroLLM

Ainda de acordo com Sarlin, a fase inicial do projeto contará com um orçamento de 52 milhões de euros (R$ 311 milhões). Fiquemos de olho.
Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA
Fonte: Tecnoblog

OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado

Segundo a OpenAI, o novo LLM desenvolvido para a ferramenta é mais um passo na busca pela inteligência artificial geral (imagem: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou o Deep Research, um agente de IA para análises complexas baseado no LLM o3.
Na prática, a ferramenta atua como um analista de mercado, processando rapidamente informações que levariam horas para um humano, a partir de prompts dos usuários.
Contudo, o Deep Research ainda está em fase de testes e não é totalmente confiável, com a própria OpenAI alertando que a IA pode não diferenciar rumores e informações precisas.

A OpenAI anunciou neste domingo (02/02) o Deep Research, novo agente de IA capaz de realizar buscas na internet para tarefas complexas. Apesar da funcionalidade, o produto não é um concorrente do Google ou uma nova versão do ChatGPT Search, ferramenta de pesquisa da OpenAI. O Deep Research está disponível para assinantes do ChatGPT Pro, mas será liberado em breve para os planos Plus e Team.

Como funciona o Deep Research?

No vídeo da sua demonstração, vemos que, entre as funções do Deep Research, está a de realizar análises de determinados assuntos após receber prompts dos usuários. Segundo a OpenAI, o Deep Research realiza em minutos tarefas que demorariam horas para serem feitas por pessoas. Este recurso utiliza o LLM o3 da própria empresa.

Deep Research pode levar até 30 minutos para gerar análise, mas aponta as fontes usadas (imagem: Felipe Freitas/Tecnoblog)

Por exemplo, se você quer uma análise da evolução da logística nos últimos anos, basta pedir que o Deep Research realize essa pesquisa. A IA pesquisa fontes online, usando páginas da web, PDFs e até imagens — o usuário também pode subir arquivos para complementar a pesquisa. Basicamente, o Deep Research funciona nesse cenário como um analista de mercado.

Para chegar no Deep Research, a OpenAI desenvolveu esse novo LLM o3, focado justamente na realização dessas tarefas de análise de dados e navegação em páginas da web. De acordo com a OpenAI, este LLM é mais um passo da empresa na busca pela inteligência artificial geral (AGI).

Deep Research não é 100% confiável

OpenAI diz que o Deep Research pode sofrer com alucinações (ilustração: Vitor Pádua/Tecnoblog)

Naturalmente, como ocorre com os resultados das respostas das inteligências artificiais, a análise gerada pela Deep Research não é completamente confiável. Na própria página do anúncio da ferramenta, a OpenAI destaca que ela pode alucinar ou gerar inferências erradas sobre o tópico desejado.

O Deep Research pode ter dificuldades em diferenciar rumores de informações precisas. Sendo uma ferramenta em estágio inicial, é natural existir problemas desse tipo. Contudo, a OpenAI afirma que os casos de alucinações e inferências erradas são menores do que os modelos no ChatGPT.

Por enquanto, os usuários do ChatGPT Pro podem usar 100 prompts do Deep Research por mês. A OpenAI reforça que seguirá aprimorando o recurso continuamente nos próximos meses.
OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado
Fonte: Tecnoblog

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek promete abalar mercado de IA novamente com novo LLM para geração de imagens (foto: Giovanni Santa Rosa/Tecnoblog)

A DeepSeek lançou nesta semana o Janus-Pro-7B, seu modelo de IA generativa de imagens. Segundo a empresa, com dados de benchmarkings, o desempenho da sua IA para imagens supera concorrentes como Dall-E 3 da OpenAI e Stable Diffusion da Stable AI. O Janus-Pro-7B é uma atualização do Janus, lançado pela DeepSeek no passado — e mostrando um grande salto de desempenho.

O modelo de imagem generativa da DeepSeek pode ser baixado no Hugging Face, uma espécie de GitHub para projetos de inteligência artificial e machine learning. É necessário ter um certo conhecimento de programação para rodar o Janus-Pro-7B, visto que ele não é disponibilizado em uma interface fácil de ser usada como DeepSeek, ChatGPT e Copilot.

DeepSeek mostrou comparitivo entre primeira versão do Janus e Janus-Pro-7B (imagem: divulgação)

Além de gerar imagens, o Janus-Pro-7B é capaz de analisar arquivos visuais. Essa funcionalidade é similar ao que faz o Gemini Live e o Google Lens, permitindo que você traduza um texto ou compreenda aquele placa com uma fonte de péssima legibilidade.

Como o Janus-Pro-7B foi treinado?

Segundo a Reuters, que teve acesso à parte da documentação técnica do Janus-Pro-7B, parte do treinamento do modelo usou 72 milhões de imagens sintéticas de alta qualidade. A equipe da DeepSeek então combinou a análise dessas fotos geradas por IA com dados reais.

A empresa destaca que esse método permite a criação de imagens mais realistas e mais ricas em detalhes.

O que é a DeepSeek?

A DeepSeek é uma empresa de inteligência artificial chinesa que está abalando o mercado dessa tecnologia. A empresa afirma que desenvolveu a sua IA generativa gastando menos de US$ 6 milhões (R$ 36 milhões). Esse valor é muito inferior aos US$ 100 milhões (R$ 600 milhões) captados pela OpenAI para desenvolver o LLM GPT-4.

LLM R1 da DeepSeek balançou as estruturas do mercado de IA e derrubou ações de empresas americanas (foto: Giovanni Santa Rosa/Tecnoblog)

O LLM usado pela DeepSeek é o R1, que teve seu código aberto. A empresa chinesa diz que o desempenho do modelo está no mesmo nível dos LLM da OpenAI e Anthropic (criadora do Claude). Porém, assim como as IAs continuam engatinhando (apesar dos avanços nos últimos anos), os sistemas de benchmarking não são padronizados, o que afeta a confiabilidade de testes — não é como pegar uma GPU e rodar o 3DMark.

Esses relatos de menor custo na fabricação fez cair as ações de diversas empresas americanas, principalmente da Nvidia. A fabricante é a maior fornecedora de placas aceleradoras para o desenvolvimento de IAs, o que a tornou uma das empresas mais valiosas do ramo.

Com a possibilidade de gerar LLMs mais baratos levantada pela DeepSeek, o mercado entendeu que a Nvidia pode não ter todo esse poderio no ramo de placas para IAs.

Com informações de Live Science e Reuters
DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA

DeepSeek apresenta Janus-Pro-7B, novo gerador de imagens de IA
Fonte: Tecnoblog

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer desenvolver novo sistema de direção autônoma usando o LLM Gemini (Imagem: Divulgação/Waymo)

A Waymo, serviço de táxi autônomo do Google, publicou um artigo no qual revela que usará o Gemini para uma nova tecnologia de direção autônoma. O Gemini é tanto o nome da IA generativa da big tech quanto do LLM, o motor dessas tecnologias. No caso, a empresa de robotáxi usará o LLM para o desenvolvimento do seu novo sistema de direção.

Por que essa decisão da Waymo é importante?

Com este anúncio, o Waymo sugere que as IAs generativas e seus LLMs podem ganhar uma nova função. Atualmente, o uso dessa tecnologia está associado a chatbots, respostas por email, geração de imagens, vídeos e aplicações profissionais — o próprio Gemini tem integrações ao Google Drive, assim como o Copilot no Microsoft 365.

O uso de uma IA generativa pode corrigir as limitações dos modelos atuais, baseados em algoritmos predefinidos, que são mais difíceis em se adaptar e lidar com novos cenários. Já os LLMs são capazes de aprender com o tempo e podem “decorar” parâmetros.

Uso de LLM de IAs generativas pode permitir que carros autônomos sejam mais ágeis em se adaptar a novos cenários de direção (Imagem: Vitor Pádua/Tecnoblog)

Obviamente, o LLM Gemini servirá como base e será adaptado para direção autônoma. Ainda assim, o fato de o Gemini ser generalista é visto como um ponto positivo. No artigo, a Waymo destaca que o LLM tem um “rico conhecimento de mundo” (como passar cola na pizza para grudar o queijo) e que o raciocínio em cadeia de conhecimento é superior aos algoritmos, já que busca imitar o raciocínio humano.

A ideia da Waymo é usar essas vantagens para criar o Modelo Multimodal de Ponta a Ponta para Direção Autônoma (EMMA em inglês). Segundo a empresa, os primeiros testes do EMMA foram positivos, demostrando uma “excelente capacidade” (aspas da Waymo) de prever trajetórias, detectar objetos e compreender a via.

A Waymo também destaca as falhas e limitações da tecnologia no momento, como a falta de integração com imagens 3D geradas pelo LiDAR e radares do veículo. Entretanto, a empresa não cita as alucinações de IA.

Ainda há um longo caminho para testes, desenvolvimentos e aprovação de órgãos competentes, mas já podemos imaginar alguns cenários futurísticos. Por exemplo, a EMMA decorando que em determinado local do trajeto há uma via rápida com saída de veículos lentos, o que a levaria a trocar de faixa para diminuir o risco de uma freada brusca.

Com informações: The Verge e Android Headlines
Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis
Fonte: Tecnoblog

Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site

OpenAI pode lançar um LLM mais potente em dezembro e abandonar a nomenclatura GPT nos modelos de IA (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI pode lançar um novo modelo de IA, que seria altamente mais potente que o GPT-4, em dezembro. A informação foi apurada pelo The Verge em contato com uma fonte próxima do caso. O novo LLM, que pode se chamar Orion, não estrearia diretamente no ChatGPT, mas seria liberado para empresas parceiras criarem programas com ele antes de ser liberado para o público.

Em outros momentos, um funcionário da OpenAI chegou a comentar que o sucessor do GPT-4 teria até 100 vezes mais capacidade computacional. Vale lembrar que o GPT-4o é uma atualização do GPT-4, não uma nova geração. Já o GPT o1 é um LLM voltado para a resolução de problemas matemáticos.

Quem serão os primeiros a usar o Orion?

Microsoft deve estrear o Orion no Azure já no mesmo de novembro (Imagem: Vitor Pádua / Tecnoblog)

Segundo outra fonte ouvida pelo The Verge, a OpenAI fornecerá o Orion para que empresas criem seus produtos e recursos com o LLM. E sim, a Microsoft, maior investidora da OpenAI, será uma das primeiras a estrear o Orion. A fonte afirma que a big tech já trabalha em integrar o LLM no Azure já em novembro.

O treinamento do Orion, segundo apurou o site, terminou em setembro. Neste mesmo mês, Sam Altman, CEO da OpenAI, publicou uma mensagem nada misteriosa no X. Altman escreveu um “poema” no qual diz estar empolgado para ver as constelações de inverno ascenderem aos céus.

Bem, a constelação de Orion fica mais visível durante o mês de janeiro, inverno no hemisfério norte. Ainda que a fonte afirme que o lançamento do LLM será realizado em dezembro, a chegada em janeiro não seria nada fora da curva. Ou a estreia do Orion pode acontecer em dezembro nas empresas parceiras e em janeiro no ChatGPT.

Com informações: The Verge
Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site
Fonte: Tecnoblog

O que é IA generativa? Saiba para que serve e como funciona a tecnologia

O que é IA generativa? Saiba para que serve e como funciona a tecnologia

Entenda detalhes sobre o que é IA Generativa e como funciona a tecnologia (Imagem: Vitor Pádua/Tecnoblog)

A inteligência artificial generativa é uma área da inteligência artificial que pode criar novos conteúdos, em diferentes formatos, a partir de uma grande quantidade de dados.

A IA generativa é capaz de identificar padrões e gerar textos, vídeos, áudios, imagens e até códigos de programação em resposta a qualquer comando fornecido pelo usuário.

Entenda o que é a IA generativa, conheça o funcionamento e tipos da tecnologia, e confira vantagens e desvantagens de seu uso a seguir.

ÍndiceO que é IA generativa?Para que serve uma IA generativa?Como funciona uma IA generativa?Como funciona o treinamento de uma IA generativa?Quais são os tipos de IA generativa?Quais são os exemplos de aplicações de IA generativa?É preciso pagar para usar uma IA generativa?Quais as vantagens em usar IA generativa?Quais as desvantagens de usar IA generativa?Qual a diferença entre IA generativa e IA preditiva?É seguro usar IA generativa?Quais são os riscos de usar IA generativa?

O que é IA generativa?

A IA generativa (ou IA Gen) é um segmento da inteligência artificial com capacidade para criar conteúdos em diversos formatos. A tecnologia é caracterizada pelo aprendizado contínuo em alguns casos, já que suas criações são baseadas em uma grande quantidade de dados existentes, e em novas informações coletadas com interações humanas.

Para que serve uma IA generativa?

A IA generativa consegue criar textos, responder a perguntas, gerar imagens ou vídeos a partir de descrições, resolver problemas matemáticos e até desenvolver linhas de códigos de software. Isso porque a tecnologia é baseada em algoritmos que simulam processos de aprendizado e tomadas de decisões humanas.

Toda essa capacidade criativa permite que a IA generativa desenvolva novas aplicações, automatize processos e aumente a produtividade de empresas e pessoas. Inclusive, o banco de investimento Goldman Sachs prevê que a tecnologia pode impulsionar uma elevação de 7% (ou quase US$ 7 trilhões) no PIB global.

Como funciona uma IA generativa?

O processo inicial de uma IA generativa se dá com a criação de um modelo base. Nessa etapa, algoritmos de deep learning são treinados com grandes volumes de dados brutos para identificação de padrões e relações. Esses treinamentos dão luz a uma rede neural capaz de gerar conteúdos em resposta a entradas ou prompts.

Em seguida, os desenvolvedores definem a arquitetura do modelo generativo. Pode-se adotar a Rede Generativa Adversarial (GAN) para aplicações voltadas à geração de imagens ou o Generative Pre-trained Transformer (GPT) para gerações de textos, por exemplo.

A aplicação de IA generativa então passa a gerar os conteúdos nos formatos adotados. Os resultados são avaliados e ajustados pelos desenvolvedores, a partir da atualização de dados ou de novas informações obtidas com interações humanas.

Como funciona o treinamento de uma IA generativa?

O treinamento da IA generativa começa com o algoritmo de deep learning exposto a uma grande quantidade de dados brutos. Com técnicas de machine learning, o algoritmo passa a identificar padrões e é treinado para solucionar problemas, preencher lacunas e decifrar elementos de uma sequência.

Posteriormente, o modelo generativo adotado para a aplicação passa a gerar amostras de conteúdos (como textos, imagens ou áudios). A rede neural é submetida a diversos treinos e refinações para gerar saídas ajustadas e condizentes aos prompts de entrada, mesmo após ter entrado em atividade.

Quais são os tipos de IA generativa?

Existem diversos tipos de IA generativa que podem ser usados para aplicações distintas, dependendo do propósito. E os principais tipos de IA Gen contemplam:

Large Language Model (LLM): LLMs são modelos complexos de IA generativa que podem processar e gerar textos em linguagem natural a partir de treinamentos com uma grande quantidade de dados;

Redes Generativas Adversariais (GANs): tipo de IA generativa capaz de gerar novos dados semelhantes aos dados que foram usados no treinamento;

Autocodificadores variacionais (VAEs): modelos semelhantes aos (GANs), que aprendem a compactar dados e usar essa técnica de compactação para gerar conteúdos semelhantes;

Transformadores: arquitetura de rede neural, como o Generative Pre-trained Transformer (GPT), que aprende o contexto e consegue transformar ou alterar uma sequência de entrada em uma sequência de saída.

Os diferentes tipos e variedades de aplicações de IA Generativa (Imagem: Vitor Pádua/Tecnoblog)

Quais são os exemplos de aplicações de IA generativa?

A IA generativa tem sido usado em diversos setores, incluindo segmentos de texto, idioma, audiovisual e até codificação. Exemplos de aplicações que usam a tecnologia contemplam:

ChatGPT: aplicação desenvolvida pela OpenAI que utiliza um Modelo de Linguagem de Grande Escala (LLM) para gerar saídas de texto em resposta a prompts de entrada;

Google Gemini: modelo criado pelo Google que usa uma grande quantidade de dados para realizar tarefas em formato de texto;

Copilot: assistente de IA generativa da Microsoft capaz de realizar tarefas (incluindo criações voltadas para apps do Pacote Office) a partir de prompts de texto;

DALL-E: modelo de IA desenvolvido pela OpenAI que pode gerar imagens a partir de descrições em texto;

Midjourney: ferramenta similar ao DALL-E, capaz de criar imagens e artes digitais a partir de descrições em texto;

Soundraw: plataforma capaz de gerar músicas originais e personalizadas com base nas preferências do usuário;

TabNine: aplicação usada para analisar, prever ou completar linhas de código de desenvolvimento;

RunwayML: plataforma que usa IA generativa para editar, gerar animações ou criar vídeos a partir de prompts de texto.

É preciso pagar para usar uma IA generativa?

Não necessariamente. ChatGPT, Google Gemini e Copilot são exemplos de modelos de IA generativa gratuitos, que podem requisitar apenas login para uso. Contudo, versões mais sofisticadas e APIs de integração costumam exigir assinaturas pagas para resultados mais assertivos e aplicações personalizadas.

Quais as vantagens em usar IA generativa?

O mercado entende que a IA generativa pode impactar positivamente diversos setores da economia. Alguns benefícios da tecnologia incluem:

Criação de novos conteúdos: a Inteligência Artificial Generativa pode inspirar ou criar conteúdos como textos, imagens, vídeos e áudios;

Automação de processos: empresas e pessoas podem usar a IA Gen para automatizar processos do dia a dia, como adotar o uso de chatbots para atendimento ao cliente;

Ambientes de testes: a IA generativa pode criar cenários e ambientes experimentais, que posteriormente podem utilizar IA preditiva para simulações ou previsões;

Personalização de aplicações: a IA Gen pode criar conteúdos voltados para determinados nichos de pessoas, otimizando a experiência do cliente.

Quais as desvantagens de usar IA generativa?

Vale mencionar que existem desvantagens ao usar aplicações de IA generativa. Exemplos de malefícios ao utilizar a tecnologia podem abranger:

Limitações técnicas: aplicações podem não trazer os resultados esperados, caso não existam dados suficientes sobre o assunto;

Resultados abrangentes: é possível que a IA generativa apresente resultados vagos ou imprecisos, o que exige uma busca fora da aplicação para confirmar os dados;

Coleta de dados: pesquisas, dados e prompts de entrada tendem a ser coletados pelas donas da aplicação;

Automação da mão de obra humana: empresas têm automatizado diversas tarefas com a IA generativa, diminuindo a mão de obra humana em determinadas profissões.

Qual a diferença entre IA generativa e IA preditiva?

A IA generativa foca na criação de conteúdos, com base em uma grande quantidade de dados. A tecnologia é comumente voltada para o setor criativo e artístico, já que é capaz de gerar textos, áudios, vídeos, poemas, imagens e linhas de códigos.

Já a IA preditiva usa dados históricos para analisar informações e prever eventos futuros, como o resultado de uma eleição ou o desempenho de vendas de um determinado produto. Não à toa, essa tecnologia é geralmente adotada em segmentos empresariais, financeiros e industriais.

É seguro usar IA generativa?

A segurança no uso de uma IA generativa depende de alguns fatores da aplicação adotada, como recursos de segurança utilizados, política de dados e viés do algoritmos. De modo geral, o uso da IA generativa pode ser seguro e trazer diversos benefícios, mas não está imune a riscos ao usuário.

Quais são os riscos de usar IA generativa?

A IA generativa é considerada um grande avanço da tecnologia, mas seu uso também envolve questões sensíveis. Alguns dos principais riscos da tecnologia envolvem:

Resultados imprecisos: a aplicação pode apresentar resultados imprecisos, mesmo que o prompt em IA generativa de entrada seja detalhado;

Algoritmo enviesado: os resultados de uma aplicação de IA generativa não devem ser considerados como uma verdade absoluta, já que os dados usados podem representar apenas uma determinada visão;

Desinformação e fake news: indivíduos podem informar dados falsos e fake news para prejudicar o aprendizado da aplicação;

Disseminação de golpes: criminosos podem usar a IA generativa para aprimorar golpes e ataques cibernéticos;

Violações de direitos autorais: criações geradas por IA podem dar luz a conteúdos similares a obras protegidas, sem as devidas autorizações;

Coleta de dados pessoais: perguntas, prompts de entrada e dados sensíveis do usuário tendem a ser coletados pelas donas da aplicação.

O que é IA generativa? Saiba para que serve e como funciona a tecnologia

O que é IA generativa? Saiba para que serve e como funciona a tecnologia
Fonte: Tecnoblog

Google Maps vai usar IA para entender pedidos e encontrar lugares

Google Maps vai usar IA para entender pedidos e encontrar lugares

Ferramenta de IA do Google Maps chegará primeiro para comunidade Local Guides (Imagem: Vitor Pádua/Tecnoblog)

O Google anunciou que o Google Maps também contará com recursos de inteligência artificial, com modelos de linguagem em larga escala (LLM, na sigla em inglês). O recurso permitirá que a plataforma analise os estabelecimentos cadastrados e “converse” com os usuários para achar o que eles procuram — mesmo que eles não saibam muito bem aonde querem ir.

A nova ferramenta será liberada nesta semana, mas apenas nos EUA e para participantes selecionados do programa Local Guides, a comunidade de membros que contribui com informações, resenhas e fotos para o Google Maps. O feedback destes usuários avançados será usado para aperfeiçoar a IA, antes de lançá-la para mais usuários.

Segundo o Google, os mais de 250 milhões de locais cadastrados e as contribuições dos mais de 300 milhões de Local Guides serão analisados por LLMs. A ideia é entender melhor o que cada estabelecimento é e mostrá-lo nos resultados de busca, mesmo que os termos digitados pelos usuários não sejam exatamente iguais aos da descrição cadastrada.

IA ajuda a responder perguntas menos específicas

No blog post de anúncio, o Google dá um exemplo: ao buscar lugares com uma “vibe vintage” em San Francisco (EUA), o Maps poderá mostrar brechós e lojas de discos de vinil na cidade, com fotos selecionadas e resumos de avaliações gerados pela IA.

Com IA, você não vai precisar procurar um tipo específico de estabelecimento (Imagem: Divulgação / Google Maps)

Em seguida, o usuário poderia perguntar “E para almoçar?”; o app entenderia como uma continuação do pedido anterior e mostraria lugares com uma cara antiga. A empresa também menciona “atividades para um dia chuvoso” e “opções para crianças” como outra sequência possível de buscas.

Google Maps já tem um pouquinho de IA

Em outubro, o Google Maps recebeu uma atualização que já contava com inteligência artificial. A plataforma passou a entender buscas usando termos mais vagos, como “coisas para fazer”. No exemplo dado pela empresa, ao procurar por isso em Tóquio, o aplicativo daria resultados temáticos, como anime, exposições de arte e flores de cerejeira.

Nesta quinta-feira (1º), o Google anunciou várias novidades envolvendo IA. Além das novas ferramentas no Maps, a empresa liberou o modelo Gemini Pro para o Bard em mais de quarenta idiomas, incluindo o português. O assistente também poderá criar imagens, mas este recurso está restrito à versão em inglês, por enquanto.

Com informações: Google, TechCrunch, The Verge
Google Maps vai usar IA para entender pedidos e encontrar lugares

Google Maps vai usar IA para entender pedidos e encontrar lugares
Fonte: Tecnoblog

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

A Meta confirmou nesta terça-feira (18) o lançamento do Llama 2, seu modelo de linguagem grande (LLM na sigla em inglês) de código aberto e gratuito. O anúncio revelou que a Microsoft será parceira da empresa de Mark Zuckerberg nesta estreia. O Llama 2 será gratuito tanto para pesquisas quanto para uso comercial, além de estar disponível no Microsoft Azure, Windows, Amazon Web Services (AWS) e Hugging Face.

Llama 2 é novo modelo de linguagem grande da Meta e pode ser usado em IA generativa (Imagem: Vitor Pádua / Tecnoblog)

O lançamento dessa nova versão do Llama não chega de surpresa. Na quinta-feira passada, o jornal Financial Times publicou que a Meta estava próxima de anunciar a versão comercial do seu LLM. O Llama é uma tecnologia que pode ser usada como IA generativa. Anteriormente, ela só estava disponível para o público acadêmico e pesquisadores.

Anúncio do Llama 2 tem foto de Zuckerberg e CEO da Microsoft

Para anunciar o lançamento do LLaMA 2, Mark Zuckerberg publicou uma foto com Satya Nadella, CEO da Microsoft, na sua conta no Instagram.

Na legenda, o executivo agradece ao colega e rival e às equipes da Microsoft e da Meta responsáveis pelo desenvolvimento do Llama (sim, de acordo com a empresa, escreve “Llama” e não mais “LLaMA”). O CEO da Meta relembra ainda a parceria de anos entre as duas empresas.

 

 
 

 
 

Ver essa foto no Instagram

 

 
 
 

 
 

 
 
 

 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

“A Meta tem um longo histórico no fornecimento de código aberto de nossa infraestrutura e nosso trabalho com inteligência artificial (IA) – desde o PyTorch [parceria com a Microsoft], a estrutura líder em Machine Learning (aprendizado de máquina), passando por modelos como Segment Anything, ImageBind e Dino, até infraestruturas básicas como parte da fundação Open Compute Project.”

Mark Zuckerberg

Segundo a Meta, o Llama 2 foi treinada com 40% mais dados do que o antecessor.

Detalhes da estrutura do Llama 2 (Imagem: Divulgação/Meta)

Microsoft divulgou preços do Copilot nesta terça-feira

No mesmo dia em que a Microsoft anunciou a parceria com a Meta para o lançamento do Llama 2, a empresa fundada por Bill Gates divulgou os preços do Windows 365 Copilot, sua ferramenta de IA baseada no GPT-4 que funciona integrada com apps como Word, Excel e PowerPoint

Nos Estados Unidos, o serviço custará US$ 30, R$ 145 em conversão direta e sem impostos. O Tecnoblog aguarda um posicionamento da Microsoft sobre os valores aqui no país.
Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT
Fonte: Tecnoblog

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

A Meta pode lançar a versão comercial da sua inteligência artificial, a LLaMA, em breve. A informação foi publicada pelo jornal Financial Times nesta quinta-feira (13). A LLaMA é um modelo de linguagem de IA generativa da própria Meta, liberado no início do ano para acadêmicos e pesquisadores.

Meta está perto de lançar sua tecnologia de inteligência artificial para empresas (Imagem: Vitor Pádua/Tecnoblog)

Agora, a empresa de Mark Zuckerberg lançará uma versão comercial da IA. Com essa possível estreia, a Meta visa competir contra o ChatGPT, Bard e “Twitter”. Ontem (12) foi a vez de Elon Musk confirmar a existência da X.AI, a sua empresa do ramo de inteligência artificial.

Lançamento comercial da LLaMA é “iminente”, diz fonte

Uma fonte disse para o Financial Times que o lançamento da versão comercial da LLaMA é iminente. Essa versão será disponibilizada para empresas que desejam adaptar o modelo de linguagem (LLM), algo que a OpenAI já permite com o ChatGPT através de sua API — e que ajuda a pagar as contas.

E ao contrário do GPT-4, LLM da OpenAI, a LLaMA será um modelo de linguagem de código-aberto — pelo menos é o que afirma a Meta. Para Nick Clegg, diretor de assuntos globais da Meta, “abertura é o melhor antídoto contra os medos que permeiam inteligências artificiais”.

Modelo de linguagem grande da Meta para inteligência artificial será liberado em breve para empresas (Imagem: Vitor Pádua / Tecnoblog)

Uma outra fonte, na condição de anonimato, disse para o Financial Times que o objetivo abrir o código da LLaMA é diminuir o domínio da OpenAI — no segmento de inteligência artificial. E vamos lá falar o óbvio: essa não é uma tarefa nada fácil.

Com empresa de IA do Elon Musk e IA do Mark Zuckerberg prestes a chegar para o público, só vem a minha mente aquela frase da Vanessa da Mata ao ver as empresas entrando na corrida de inteligência artificial: “AI, AI, AI, AI, AI, AI, AI”.

Com informações:  Financial Times
Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa
Fonte: Tecnoblog