Category: Modelo de linguagem grande

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

A Meta confirmou nesta terça-feira (18) o lançamento do Llama 2, seu modelo de linguagem grande (LLM na sigla em inglês) de código aberto e gratuito. O anúncio revelou que a Microsoft será parceira da empresa de Mark Zuckerberg nesta estreia. O Llama 2 será gratuito tanto para pesquisas quanto para uso comercial, além de estar disponível no Microsoft Azure, Windows, Amazon Web Services (AWS) e Hugging Face.

Llama 2 é novo modelo de linguagem grande da Meta e pode ser usado em IA generativa (Imagem: Vitor Pádua / Tecnoblog)

O lançamento dessa nova versão do Llama não chega de surpresa. Na quinta-feira passada, o jornal Financial Times publicou que a Meta estava próxima de anunciar a versão comercial do seu LLM. O Llama é uma tecnologia que pode ser usada como IA generativa. Anteriormente, ela só estava disponível para o público acadêmico e pesquisadores.

Anúncio do Llama 2 tem foto de Zuckerberg e CEO da Microsoft

Para anunciar o lançamento do LLaMA 2, Mark Zuckerberg publicou uma foto com Satya Nadella, CEO da Microsoft, na sua conta no Instagram.

Na legenda, o executivo agradece ao colega e rival e às equipes da Microsoft e da Meta responsáveis pelo desenvolvimento do Llama (sim, de acordo com a empresa, escreve “Llama” e não mais “LLaMA”). O CEO da Meta relembra ainda a parceria de anos entre as duas empresas.

 

 
 

 
 

Ver essa foto no Instagram

 

 
 
 

 
 

 
 
 

 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

“A Meta tem um longo histórico no fornecimento de código aberto de nossa infraestrutura e nosso trabalho com inteligência artificial (IA) – desde o PyTorch [parceria com a Microsoft], a estrutura líder em Machine Learning (aprendizado de máquina), passando por modelos como Segment Anything, ImageBind e Dino, até infraestruturas básicas como parte da fundação Open Compute Project.”

Mark Zuckerberg

Segundo a Meta, o Llama 2 foi treinada com 40% mais dados do que o antecessor.

Detalhes da estrutura do Llama 2 (Imagem: Divulgação/Meta)

Microsoft divulgou preços do Copilot nesta terça-feira

No mesmo dia em que a Microsoft anunciou a parceria com a Meta para o lançamento do Llama 2, a empresa fundada por Bill Gates divulgou os preços do Windows 365 Copilot, sua ferramenta de IA baseada no GPT-4 que funciona integrada com apps como Word, Excel e PowerPoint

Nos Estados Unidos, o serviço custará US$ 30, R$ 145 em conversão direta e sem impostos. O Tecnoblog aguarda um posicionamento da Microsoft sobre os valores aqui no país.
Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT
Fonte: Tecnoblog

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

A Meta pode lançar a versão comercial da sua inteligência artificial, a LLaMA, em breve. A informação foi publicada pelo jornal Financial Times nesta quinta-feira (13). A LLaMA é um modelo de linguagem de IA generativa da própria Meta, liberado no início do ano para acadêmicos e pesquisadores.

Meta está perto de lançar sua tecnologia de inteligência artificial para empresas (Imagem: Vitor Pádua/Tecnoblog)

Agora, a empresa de Mark Zuckerberg lançará uma versão comercial da IA. Com essa possível estreia, a Meta visa competir contra o ChatGPT, Bard e “Twitter”. Ontem (12) foi a vez de Elon Musk confirmar a existência da X.AI, a sua empresa do ramo de inteligência artificial.

Lançamento comercial da LLaMA é “iminente”, diz fonte

Uma fonte disse para o Financial Times que o lançamento da versão comercial da LLaMA é iminente. Essa versão será disponibilizada para empresas que desejam adaptar o modelo de linguagem (LLM), algo que a OpenAI já permite com o ChatGPT através de sua API — e que ajuda a pagar as contas.

E ao contrário do GPT-4, LLM da OpenAI, a LLaMA será um modelo de linguagem de código-aberto — pelo menos é o que afirma a Meta. Para Nick Clegg, diretor de assuntos globais da Meta, “abertura é o melhor antídoto contra os medos que permeiam inteligências artificiais”.

Modelo de linguagem grande da Meta para inteligência artificial será liberado em breve para empresas (Imagem: Vitor Pádua / Tecnoblog)

Uma outra fonte, na condição de anonimato, disse para o Financial Times que o objetivo abrir o código da LLaMA é diminuir o domínio da OpenAI — no segmento de inteligência artificial. E vamos lá falar o óbvio: essa não é uma tarefa nada fácil.

Com empresa de IA do Elon Musk e IA do Mark Zuckerberg prestes a chegar para o público, só vem a minha mente aquela frase da Vanessa da Mata ao ver as empresas entrando na corrida de inteligência artificial: “AI, AI, AI, AI, AI, AI, AI”.

Com informações:  Financial Times
Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa
Fonte: Tecnoblog

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;

outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;

e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.
IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind
Fonte: Tecnoblog