Category: Modelo de linguagem grande

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer desenvolver novo sistema de direção autônoma usando o LLM Gemini (Imagem: Divulgação/Waymo)

A Waymo, serviço de táxi autônomo do Google, publicou um artigo no qual revela que usará o Gemini para uma nova tecnologia de direção autônoma. O Gemini é tanto o nome da IA generativa da big tech quanto do LLM, o motor dessas tecnologias. No caso, a empresa de robotáxi usará o LLM para o desenvolvimento do seu novo sistema de direção.

Por que essa decisão da Waymo é importante?

Com este anúncio, o Waymo sugere que as IAs generativas e seus LLMs podem ganhar uma nova função. Atualmente, o uso dessa tecnologia está associado a chatbots, respostas por email, geração de imagens, vídeos e aplicações profissionais — o próprio Gemini tem integrações ao Google Drive, assim como o Copilot no Microsoft 365.

O uso de uma IA generativa pode corrigir as limitações dos modelos atuais, baseados em algoritmos predefinidos, que são mais difíceis em se adaptar e lidar com novos cenários. Já os LLMs são capazes de aprender com o tempo e podem “decorar” parâmetros.

Uso de LLM de IAs generativas pode permitir que carros autônomos sejam mais ágeis em se adaptar a novos cenários de direção (Imagem: Vitor Pádua/Tecnoblog)

Obviamente, o LLM Gemini servirá como base e será adaptado para direção autônoma. Ainda assim, o fato de o Gemini ser generalista é visto como um ponto positivo. No artigo, a Waymo destaca que o LLM tem um “rico conhecimento de mundo” (como passar cola na pizza para grudar o queijo) e que o raciocínio em cadeia de conhecimento é superior aos algoritmos, já que busca imitar o raciocínio humano.

A ideia da Waymo é usar essas vantagens para criar o Modelo Multimodal de Ponta a Ponta para Direção Autônoma (EMMA em inglês). Segundo a empresa, os primeiros testes do EMMA foram positivos, demostrando uma “excelente capacidade” (aspas da Waymo) de prever trajetórias, detectar objetos e compreender a via.

A Waymo também destaca as falhas e limitações da tecnologia no momento, como a falta de integração com imagens 3D geradas pelo LiDAR e radares do veículo. Entretanto, a empresa não cita as alucinações de IA.

Ainda há um longo caminho para testes, desenvolvimentos e aprovação de órgãos competentes, mas já podemos imaginar alguns cenários futurísticos. Por exemplo, a EMMA decorando que em determinado local do trajeto há uma via rápida com saída de veículos lentos, o que a levaria a trocar de faixa para diminuir o risco de uma freada brusca.

Com informações: The Verge e Android Headlines
Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis
Fonte: Tecnoblog

Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site

OpenAI pode lançar um LLM mais potente em dezembro e abandonar a nomenclatura GPT nos modelos de IA (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI pode lançar um novo modelo de IA, que seria altamente mais potente que o GPT-4, em dezembro. A informação foi apurada pelo The Verge em contato com uma fonte próxima do caso. O novo LLM, que pode se chamar Orion, não estrearia diretamente no ChatGPT, mas seria liberado para empresas parceiras criarem programas com ele antes de ser liberado para o público.

Em outros momentos, um funcionário da OpenAI chegou a comentar que o sucessor do GPT-4 teria até 100 vezes mais capacidade computacional. Vale lembrar que o GPT-4o é uma atualização do GPT-4, não uma nova geração. Já o GPT o1 é um LLM voltado para a resolução de problemas matemáticos.

Quem serão os primeiros a usar o Orion?

Microsoft deve estrear o Orion no Azure já no mesmo de novembro (Imagem: Vitor Pádua / Tecnoblog)

Segundo outra fonte ouvida pelo The Verge, a OpenAI fornecerá o Orion para que empresas criem seus produtos e recursos com o LLM. E sim, a Microsoft, maior investidora da OpenAI, será uma das primeiras a estrear o Orion. A fonte afirma que a big tech já trabalha em integrar o LLM no Azure já em novembro.

O treinamento do Orion, segundo apurou o site, terminou em setembro. Neste mesmo mês, Sam Altman, CEO da OpenAI, publicou uma mensagem nada misteriosa no X. Altman escreveu um “poema” no qual diz estar empolgado para ver as constelações de inverno ascenderem aos céus.

Bem, a constelação de Orion fica mais visível durante o mês de janeiro, inverno no hemisfério norte. Ainda que a fonte afirme que o lançamento do LLM será realizado em dezembro, a chegada em janeiro não seria nada fora da curva. Ou a estreia do Orion pode acontecer em dezembro nas empresas parceiras e em janeiro no ChatGPT.

Com informações: The Verge
Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site
Fonte: Tecnoblog

O que é IA generativa? Saiba para que serve e como funciona a tecnologia

O que é IA generativa? Saiba para que serve e como funciona a tecnologia

Entenda detalhes sobre o que é IA Generativa e como funciona a tecnologia (Imagem: Vitor Pádua/Tecnoblog)

A inteligência artificial generativa é uma área da inteligência artificial que pode criar novos conteúdos, em diferentes formatos, a partir de uma grande quantidade de dados.

A IA generativa é capaz de identificar padrões e gerar textos, vídeos, áudios, imagens e até códigos de programação em resposta a qualquer comando fornecido pelo usuário.

Entenda o que é a IA generativa, conheça o funcionamento e tipos da tecnologia, e confira vantagens e desvantagens de seu uso a seguir.

ÍndiceO que é IA generativa?Para que serve uma IA generativa?Como funciona uma IA generativa?Como funciona o treinamento de uma IA generativa?Quais são os tipos de IA generativa?Quais são os exemplos de aplicações de IA generativa?É preciso pagar para usar uma IA generativa?Quais as vantagens em usar IA generativa?Quais as desvantagens de usar IA generativa?Qual a diferença entre IA generativa e IA preditiva?É seguro usar IA generativa?Quais são os riscos de usar IA generativa?

O que é IA generativa?

A IA generativa (ou IA Gen) é um segmento da inteligência artificial com capacidade para criar conteúdos em diversos formatos. A tecnologia é caracterizada pelo aprendizado contínuo em alguns casos, já que suas criações são baseadas em uma grande quantidade de dados existentes, e em novas informações coletadas com interações humanas.

Para que serve uma IA generativa?

A IA generativa consegue criar textos, responder a perguntas, gerar imagens ou vídeos a partir de descrições, resolver problemas matemáticos e até desenvolver linhas de códigos de software. Isso porque a tecnologia é baseada em algoritmos que simulam processos de aprendizado e tomadas de decisões humanas.

Toda essa capacidade criativa permite que a IA generativa desenvolva novas aplicações, automatize processos e aumente a produtividade de empresas e pessoas. Inclusive, o banco de investimento Goldman Sachs prevê que a tecnologia pode impulsionar uma elevação de 7% (ou quase US$ 7 trilhões) no PIB global.

Como funciona uma IA generativa?

O processo inicial de uma IA generativa se dá com a criação de um modelo base. Nessa etapa, algoritmos de deep learning são treinados com grandes volumes de dados brutos para identificação de padrões e relações. Esses treinamentos dão luz a uma rede neural capaz de gerar conteúdos em resposta a entradas ou prompts.

Em seguida, os desenvolvedores definem a arquitetura do modelo generativo. Pode-se adotar a Rede Generativa Adversarial (GAN) para aplicações voltadas à geração de imagens ou o Generative Pre-trained Transformer (GPT) para gerações de textos, por exemplo.

A aplicação de IA generativa então passa a gerar os conteúdos nos formatos adotados. Os resultados são avaliados e ajustados pelos desenvolvedores, a partir da atualização de dados ou de novas informações obtidas com interações humanas.

Como funciona o treinamento de uma IA generativa?

O treinamento da IA generativa começa com o algoritmo de deep learning exposto a uma grande quantidade de dados brutos. Com técnicas de machine learning, o algoritmo passa a identificar padrões e é treinado para solucionar problemas, preencher lacunas e decifrar elementos de uma sequência.

Posteriormente, o modelo generativo adotado para a aplicação passa a gerar amostras de conteúdos (como textos, imagens ou áudios). A rede neural é submetida a diversos treinos e refinações para gerar saídas ajustadas e condizentes aos prompts de entrada, mesmo após ter entrado em atividade.

Quais são os tipos de IA generativa?

Existem diversos tipos de IA generativa que podem ser usados para aplicações distintas, dependendo do propósito. E os principais tipos de IA Gen contemplam:

Large Language Model (LLM): LLMs são modelos complexos de IA generativa que podem processar e gerar textos em linguagem natural a partir de treinamentos com uma grande quantidade de dados;

Redes Generativas Adversariais (GANs): tipo de IA generativa capaz de gerar novos dados semelhantes aos dados que foram usados no treinamento;

Autocodificadores variacionais (VAEs): modelos semelhantes aos (GANs), que aprendem a compactar dados e usar essa técnica de compactação para gerar conteúdos semelhantes;

Transformadores: arquitetura de rede neural, como o Generative Pre-trained Transformer (GPT), que aprende o contexto e consegue transformar ou alterar uma sequência de entrada em uma sequência de saída.

Os diferentes tipos e variedades de aplicações de IA Generativa (Imagem: Vitor Pádua/Tecnoblog)

Quais são os exemplos de aplicações de IA generativa?

A IA generativa tem sido usado em diversos setores, incluindo segmentos de texto, idioma, audiovisual e até codificação. Exemplos de aplicações que usam a tecnologia contemplam:

ChatGPT: aplicação desenvolvida pela OpenAI que utiliza um Modelo de Linguagem de Grande Escala (LLM) para gerar saídas de texto em resposta a prompts de entrada;

Google Gemini: modelo criado pelo Google que usa uma grande quantidade de dados para realizar tarefas em formato de texto;

Copilot: assistente de IA generativa da Microsoft capaz de realizar tarefas (incluindo criações voltadas para apps do Pacote Office) a partir de prompts de texto;

DALL-E: modelo de IA desenvolvido pela OpenAI que pode gerar imagens a partir de descrições em texto;

Midjourney: ferramenta similar ao DALL-E, capaz de criar imagens e artes digitais a partir de descrições em texto;

Soundraw: plataforma capaz de gerar músicas originais e personalizadas com base nas preferências do usuário;

TabNine: aplicação usada para analisar, prever ou completar linhas de código de desenvolvimento;

RunwayML: plataforma que usa IA generativa para editar, gerar animações ou criar vídeos a partir de prompts de texto.

É preciso pagar para usar uma IA generativa?

Não necessariamente. ChatGPT, Google Gemini e Copilot são exemplos de modelos de IA generativa gratuitos, que podem requisitar apenas login para uso. Contudo, versões mais sofisticadas e APIs de integração costumam exigir assinaturas pagas para resultados mais assertivos e aplicações personalizadas.

Quais as vantagens em usar IA generativa?

O mercado entende que a IA generativa pode impactar positivamente diversos setores da economia. Alguns benefícios da tecnologia incluem:

Criação de novos conteúdos: a Inteligência Artificial Generativa pode inspirar ou criar conteúdos como textos, imagens, vídeos e áudios;

Automação de processos: empresas e pessoas podem usar a IA Gen para automatizar processos do dia a dia, como adotar o uso de chatbots para atendimento ao cliente;

Ambientes de testes: a IA generativa pode criar cenários e ambientes experimentais, que posteriormente podem utilizar IA preditiva para simulações ou previsões;

Personalização de aplicações: a IA Gen pode criar conteúdos voltados para determinados nichos de pessoas, otimizando a experiência do cliente.

Quais as desvantagens de usar IA generativa?

Vale mencionar que existem desvantagens ao usar aplicações de IA generativa. Exemplos de malefícios ao utilizar a tecnologia podem abranger:

Limitações técnicas: aplicações podem não trazer os resultados esperados, caso não existam dados suficientes sobre o assunto;

Resultados abrangentes: é possível que a IA generativa apresente resultados vagos ou imprecisos, o que exige uma busca fora da aplicação para confirmar os dados;

Coleta de dados: pesquisas, dados e prompts de entrada tendem a ser coletados pelas donas da aplicação;

Automação da mão de obra humana: empresas têm automatizado diversas tarefas com a IA generativa, diminuindo a mão de obra humana em determinadas profissões.

Qual a diferença entre IA generativa e IA preditiva?

A IA generativa foca na criação de conteúdos, com base em uma grande quantidade de dados. A tecnologia é comumente voltada para o setor criativo e artístico, já que é capaz de gerar textos, áudios, vídeos, poemas, imagens e linhas de códigos.

Já a IA preditiva usa dados históricos para analisar informações e prever eventos futuros, como o resultado de uma eleição ou o desempenho de vendas de um determinado produto. Não à toa, essa tecnologia é geralmente adotada em segmentos empresariais, financeiros e industriais.

É seguro usar IA generativa?

A segurança no uso de uma IA generativa depende de alguns fatores da aplicação adotada, como recursos de segurança utilizados, política de dados e viés do algoritmos. De modo geral, o uso da IA generativa pode ser seguro e trazer diversos benefícios, mas não está imune a riscos ao usuário.

Quais são os riscos de usar IA generativa?

A IA generativa é considerada um grande avanço da tecnologia, mas seu uso também envolve questões sensíveis. Alguns dos principais riscos da tecnologia envolvem:

Resultados imprecisos: a aplicação pode apresentar resultados imprecisos, mesmo que o prompt em IA generativa de entrada seja detalhado;

Algoritmo enviesado: os resultados de uma aplicação de IA generativa não devem ser considerados como uma verdade absoluta, já que os dados usados podem representar apenas uma determinada visão;

Desinformação e fake news: indivíduos podem informar dados falsos e fake news para prejudicar o aprendizado da aplicação;

Disseminação de golpes: criminosos podem usar a IA generativa para aprimorar golpes e ataques cibernéticos;

Violações de direitos autorais: criações geradas por IA podem dar luz a conteúdos similares a obras protegidas, sem as devidas autorizações;

Coleta de dados pessoais: perguntas, prompts de entrada e dados sensíveis do usuário tendem a ser coletados pelas donas da aplicação.

O que é IA generativa? Saiba para que serve e como funciona a tecnologia

O que é IA generativa? Saiba para que serve e como funciona a tecnologia
Fonte: Tecnoblog

Google Maps vai usar IA para entender pedidos e encontrar lugares

Google Maps vai usar IA para entender pedidos e encontrar lugares

Ferramenta de IA do Google Maps chegará primeiro para comunidade Local Guides (Imagem: Vitor Pádua/Tecnoblog)

O Google anunciou que o Google Maps também contará com recursos de inteligência artificial, com modelos de linguagem em larga escala (LLM, na sigla em inglês). O recurso permitirá que a plataforma analise os estabelecimentos cadastrados e “converse” com os usuários para achar o que eles procuram — mesmo que eles não saibam muito bem aonde querem ir.

A nova ferramenta será liberada nesta semana, mas apenas nos EUA e para participantes selecionados do programa Local Guides, a comunidade de membros que contribui com informações, resenhas e fotos para o Google Maps. O feedback destes usuários avançados será usado para aperfeiçoar a IA, antes de lançá-la para mais usuários.

Segundo o Google, os mais de 250 milhões de locais cadastrados e as contribuições dos mais de 300 milhões de Local Guides serão analisados por LLMs. A ideia é entender melhor o que cada estabelecimento é e mostrá-lo nos resultados de busca, mesmo que os termos digitados pelos usuários não sejam exatamente iguais aos da descrição cadastrada.

IA ajuda a responder perguntas menos específicas

No blog post de anúncio, o Google dá um exemplo: ao buscar lugares com uma “vibe vintage” em San Francisco (EUA), o Maps poderá mostrar brechós e lojas de discos de vinil na cidade, com fotos selecionadas e resumos de avaliações gerados pela IA.

Com IA, você não vai precisar procurar um tipo específico de estabelecimento (Imagem: Divulgação / Google Maps)

Em seguida, o usuário poderia perguntar “E para almoçar?”; o app entenderia como uma continuação do pedido anterior e mostraria lugares com uma cara antiga. A empresa também menciona “atividades para um dia chuvoso” e “opções para crianças” como outra sequência possível de buscas.

Google Maps já tem um pouquinho de IA

Em outubro, o Google Maps recebeu uma atualização que já contava com inteligência artificial. A plataforma passou a entender buscas usando termos mais vagos, como “coisas para fazer”. No exemplo dado pela empresa, ao procurar por isso em Tóquio, o aplicativo daria resultados temáticos, como anime, exposições de arte e flores de cerejeira.

Nesta quinta-feira (1º), o Google anunciou várias novidades envolvendo IA. Além das novas ferramentas no Maps, a empresa liberou o modelo Gemini Pro para o Bard em mais de quarenta idiomas, incluindo o português. O assistente também poderá criar imagens, mas este recurso está restrito à versão em inglês, por enquanto.

Com informações: Google, TechCrunch, The Verge
Google Maps vai usar IA para entender pedidos e encontrar lugares

Google Maps vai usar IA para entender pedidos e encontrar lugares
Fonte: Tecnoblog

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

A Meta confirmou nesta terça-feira (18) o lançamento do Llama 2, seu modelo de linguagem grande (LLM na sigla em inglês) de código aberto e gratuito. O anúncio revelou que a Microsoft será parceira da empresa de Mark Zuckerberg nesta estreia. O Llama 2 será gratuito tanto para pesquisas quanto para uso comercial, além de estar disponível no Microsoft Azure, Windows, Amazon Web Services (AWS) e Hugging Face.

Llama 2 é novo modelo de linguagem grande da Meta e pode ser usado em IA generativa (Imagem: Vitor Pádua / Tecnoblog)

O lançamento dessa nova versão do Llama não chega de surpresa. Na quinta-feira passada, o jornal Financial Times publicou que a Meta estava próxima de anunciar a versão comercial do seu LLM. O Llama é uma tecnologia que pode ser usada como IA generativa. Anteriormente, ela só estava disponível para o público acadêmico e pesquisadores.

Anúncio do Llama 2 tem foto de Zuckerberg e CEO da Microsoft

Para anunciar o lançamento do LLaMA 2, Mark Zuckerberg publicou uma foto com Satya Nadella, CEO da Microsoft, na sua conta no Instagram.

Na legenda, o executivo agradece ao colega e rival e às equipes da Microsoft e da Meta responsáveis pelo desenvolvimento do Llama (sim, de acordo com a empresa, escreve “Llama” e não mais “LLaMA”). O CEO da Meta relembra ainda a parceria de anos entre as duas empresas.

 

 
 

 
 

Ver essa foto no Instagram

 

 
 
 

 
 

 
 
 

 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

“A Meta tem um longo histórico no fornecimento de código aberto de nossa infraestrutura e nosso trabalho com inteligência artificial (IA) – desde o PyTorch [parceria com a Microsoft], a estrutura líder em Machine Learning (aprendizado de máquina), passando por modelos como Segment Anything, ImageBind e Dino, até infraestruturas básicas como parte da fundação Open Compute Project.”

Mark Zuckerberg

Segundo a Meta, o Llama 2 foi treinada com 40% mais dados do que o antecessor.

Detalhes da estrutura do Llama 2 (Imagem: Divulgação/Meta)

Microsoft divulgou preços do Copilot nesta terça-feira

No mesmo dia em que a Microsoft anunciou a parceria com a Meta para o lançamento do Llama 2, a empresa fundada por Bill Gates divulgou os preços do Windows 365 Copilot, sua ferramenta de IA baseada no GPT-4 que funciona integrada com apps como Word, Excel e PowerPoint

Nos Estados Unidos, o serviço custará US$ 30, R$ 145 em conversão direta e sem impostos. O Tecnoblog aguarda um posicionamento da Microsoft sobre os valores aqui no país.
Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT
Fonte: Tecnoblog

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

A Meta pode lançar a versão comercial da sua inteligência artificial, a LLaMA, em breve. A informação foi publicada pelo jornal Financial Times nesta quinta-feira (13). A LLaMA é um modelo de linguagem de IA generativa da própria Meta, liberado no início do ano para acadêmicos e pesquisadores.

Meta está perto de lançar sua tecnologia de inteligência artificial para empresas (Imagem: Vitor Pádua/Tecnoblog)

Agora, a empresa de Mark Zuckerberg lançará uma versão comercial da IA. Com essa possível estreia, a Meta visa competir contra o ChatGPT, Bard e “Twitter”. Ontem (12) foi a vez de Elon Musk confirmar a existência da X.AI, a sua empresa do ramo de inteligência artificial.

Lançamento comercial da LLaMA é “iminente”, diz fonte

Uma fonte disse para o Financial Times que o lançamento da versão comercial da LLaMA é iminente. Essa versão será disponibilizada para empresas que desejam adaptar o modelo de linguagem (LLM), algo que a OpenAI já permite com o ChatGPT através de sua API — e que ajuda a pagar as contas.

E ao contrário do GPT-4, LLM da OpenAI, a LLaMA será um modelo de linguagem de código-aberto — pelo menos é o que afirma a Meta. Para Nick Clegg, diretor de assuntos globais da Meta, “abertura é o melhor antídoto contra os medos que permeiam inteligências artificiais”.

Modelo de linguagem grande da Meta para inteligência artificial será liberado em breve para empresas (Imagem: Vitor Pádua / Tecnoblog)

Uma outra fonte, na condição de anonimato, disse para o Financial Times que o objetivo abrir o código da LLaMA é diminuir o domínio da OpenAI — no segmento de inteligência artificial. E vamos lá falar o óbvio: essa não é uma tarefa nada fácil.

Com empresa de IA do Elon Musk e IA do Mark Zuckerberg prestes a chegar para o público, só vem a minha mente aquela frase da Vanessa da Mata ao ver as empresas entrando na corrida de inteligência artificial: “AI, AI, AI, AI, AI, AI, AI”.

Com informações:  Financial Times
Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa
Fonte: Tecnoblog

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;

outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;

e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.
IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind
Fonte: Tecnoblog