Category: Inteligência Artificial

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

O desenvolvimento da inteligência artificial causa preocupação em muita gente. Pensando nisso, Google, Microsoft, OpenAI e Anthropic criaram o Frontier Model Forum, que visa garantir o desenvolvimento seguro e responsável de modelos de IA. A iniciativa, porém, é vista com ceticismo: especialistas consideram que pode ser só uma forma de evitar a regulamentação do setor.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Entre os objetivos do grupo, estão:

avançar na pesquisa de segurança de IA para promover desenvolvimento responsável de modelos;

identificar as melhores práticas para desenvolvimento e implementação;

colaborar com formuladores de políticas públicas, pesquisadores, sociedade civil e empresas para compartilhar conhecimentos sobre riscos de segurança;

apoiar iniciativas para desenvolver aplicações para grandes desafios da sociedade, como mudanças climáticas, ameaças cibernéticas e prevenção do câncer.

As quatro empresas estão entre os principais nomes da inteligência artificial generativa.

A OpenAI é responsável pelo ChatGPT.

A Microsoft colocou tecnologias do tipo em produtos como Bing, Edge e Microsoft 365.

O Google apresentou seu chatbot, chamado Bard.

A Anthropic, formada por ex-membros da OpenAI, trabalha no seu modelo, chamado Claude.

O grupo poderá aceitar novos membros, mas os critérios são bastante restritos. A participação é limitada às empresas que constroem “modelos de aprendizagem de máquina em larga escala que excedam as capacidades atualmente presentes nos modelos mais avançados”.

Como nota o Financial Times, isso sugere que o grupo não está de olho nos problemas atuais da inteligência artificial, como violação de direitos autorais, riscos de privacidade e desemprego causado substituição de mão de obra humana.

Modelos mais avançados podem trazer novos problemas, e é nisso que o Frontier Model Forum está pensando.

IA está na mira de novas regulações

O tema da inteligência artificial atrai a atenção de autoridades. Nos EUA, o presidente Joe Biden prometeu uma ação executiva para promover “inovação responsável”. Já a Comissão Federal de Comércio (FTC) está investigando a OpenAI por possíveis práticas injustas ou enganosas envolvendo proteção de dados.

Recentemente, as quatro empresas do Frontier Model Forum, a Meta, a Inflection e a Amazon concordaram em seguir as diretrizes da Casa Branca para IA.

A União Europeia tem conversas avançadas para aprovar um conjunto de regras para a IA, visando promover direitos e valores como supervisão humana, transparência, não-discriminação e bem-estar social.

No Brasil, o tema está em discussão desde 2020 no Congresso Nacional, com o Marco da Inteligência Artificial. Em 2023, um novo texto foi proposto.

Em entrevista ao Financial Times, Emily Bender, pesquisadora da Universidade de Washington, avalia a iniciativa do Frontier Model Forum é uma forma de “evitar regulações” e tentar “reivindicar a possibilidade de autorregulação”.

Durante palestras e debates nos últimos meses, Sam Altman, CEO e um dos fundadores da OpenAI, tem defendido que não é o momento de regular a IA, porque isso prejudicaria a inovação.

Para ele, isso deve ser feito apenas quando surgir um modelo tão inteligente quanto a civilização humana. Mesmo neste caso, Altman considera que o mais adequado seria a criação de uma agência global, como a Agência Internacional de Energia Atômica, ligada à Organização das Nações Unidas (ONU).

Com informações: The Financial Times, The Washington Post, TechCrunch
Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA
Fonte: Tecnoblog

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

Alphabet, Amazon, Apple e Microsoft são algumas das empresas cujo valor está estimado a partir de US$ 1 trilhão. Em junho, uma nova companhia entrou nesse grupo: a Nvidia. É a primeira vez que uma empresa do ramo de chips alcança este patamar.

Todo mundo quer comprar da Nvidia (Imagem: Vitor Pádua / Tecnoblog)

Para quem não está tão inteirado das movimentações da empresa, a informação pode gerar surpresa. Afinal, a Nvidia não é aquela que faz as placas de vídeo para o público gamer?

E a resposta é sim: no setor de chips gráficos dedicados, a Nvidia é dominante. Mas foi-se o tempo que esta era o único negócio da companhia presidida por Jensen Huang. A utilidade das GPUs em diversas áreas impulsionou a Nvidia para novas e lucrativas direções.

Games, cripto e IA

A Nvidia surgiu em 1993. O primeiro chip, NV1, chegou ao mercado dois anos depois, mas o sucesso mesmo veio em 1997, com o lançamento do RIVA 128. Mas talvez seu produto mais conhecido seja a linha GeForce, a primeira das GPUs modernas, introduzida em 1999. No mesmo ano, a empresa fez sua primeira oferta pública de ações.

O foco da Nvidia, nesses primeiros anos, estava nos games. Parcerias com Sega e Microsoft marcaram a trajetória da empresa — embora para a Sega as coisas não tenham saído como o esperado… ouça o Tecnocast 296 para entender essa história.

Mas a capacidade das GPUs vai muito além da renderização de gráficos, o que abriu uma nova gama de oportunidades. Aqui, vale uma explicação técnica.

Diferente da CPU, que processa tarefas de forma sequencial, a GPU tem como característica o processamento paralelo. Na prática, isso significa que ela consegue realizar várias instruções ao mesmo tempo. Isso é possível graças ao grande número de núcleos presente nas GPUs modernas. Quanto mais núcleos, melhor o desempenho.

Placa de vídeo Asus com GPU Nvidia GeForce RTX 4070 Ti (imagem: divulgação/Asus)

GPUs com muitos núcleos, portanto, são excelentes para aplicações que necessitam de alto volume de processamento. Um exemplo é a mineração de criptomoedas. Nos períodos de maior atividade dos mineradores, era até difícil encontrar chips no mercado, o que gerou disparos no preço.

Outro contexto muito importante do uso das GPUs é no machine learning, dentro do processo de treinamento de inteligências artificiais.

Vale destacar: a Nvidia não desenvolveu suas GPUs com estas aplicações em mente; elas foram descobertas ao longo do caminho. Chips poderosos eram necessários, e a Nvidia detinha a melhor tecnologia da área. Foi como somar dois e dois.

A empresa soube aproveitar esses novos desdobramentos. Hoje, colhe os frutos.

A Nvidia vende para quem quiser comprar

Segundo Jensen Huang, estamos atravessando o “momento iPhone da IA”. O ChatGPT teria provocado o mesmo agito no mercado que o smartphone da Apple provocou quando apareceu, em 2007. Para milhões de pessoas, foi o primeiro contato com uma inteligência artificial capaz de coisas extraordinárias.

Poucas empresas estão em melhor posição para aproveitar este momento do que a Nvidia. Suas GPUs são usadas para treinamento de inteligências artificiais há anos. Na parceria entre Microsoft e OpenAI para criação de produtos de IA, há “milhares” de GPUs já otimizadas para este fim.

Assim como no auge da mineração de criptomoedas, conseguir chips gráficos de alta performance no momento pode ser tarefa difícil. Elon Musk, por exemplo, comentou está mais fácil encontrar drogas do que GPUs atualmente. Há alguns meses, descobriu-se que o dono do Twitter também investia em IA. Como? Bem, ele comprou milhares de chips da Nvidia.

Intel e AMD não estão paradas, é claro, e tentam emplacar seus chips voltados para inteligência artificial. Porém, a dianteira da Nvidia é muito consolidada. Trata-se de um domínio construído ao longo de anos, e é improvável que as competidoras consigam atacá-lo num futuro próximo.

Jensen Huang, CEO da Nvidia

Assim, não é uma surpresa que o mercado esteja tão animado com a Nvidia. As ações da empresa subiram 181% no acumulado do ano; só no atual trimestre fiscal, a expectativa é de US$ 11 bilhões em vendas, um recorde para a empresa.

Além disso, há o posicionamento peculiar da companhia. Google e Microsoft, por exemplo, são concorrentes em áreas como busca e IA generativa. O objetivo de ambas é criar produtos melhores, obter vantagens competitivas e conquistar mais usuários. O escopo da Nvidia é outro: ela é quem fornece o poder computacional para quem estiver interessado. Seja o Google, a Microsoft, Elon Musk ou quem quer que seja.

Portanto, é seguro dizer que a Nvidia não tem favoritos na batalha da inteligência artificial. Ela torce mesmo é pela briga.
As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga
Fonte: Tecnoblog

Gigantes da inteligência artificial se comprometem com regras do governo dos EUA

Gigantes da inteligência artificial se comprometem com regras do governo dos EUA

As grandes empresas de inteligência artificial anunciaram o comprometimento de seguir as diretrizes do governo americano sobre o desenvolvimento seguro de IAs. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI aprovaram as medidas da Casa Branca nesta sexta-feira (21). Com esse acordo, as companhias seguirão diretrizes de segurança para evitar riscos na evolução das IAs.

Principais empresas de IA na atualidade aprovaram diretrizes sugeridas pelo governo americano (Imagem: Vitor Pádua / Tecnoblog)

O anúncio do acordo entre as partes (governo e empresas) foi publicado no site oficial da Casa Branca. Segundo o texto, o comprometimento das empresas foi voluntário. O governo americano informa ainda que está em contato com outras nações, incluindo o Brasil, para ampliar o número de empresas e governos que apoiam as diretrizes de segurança para o desenvolvimento de IAs.

Medidas para o desenvolvimento seguro de IAs

No total, foram apresentadas oito diretrizes (ou medidas) para o desenvolvimento seguro de inteligências artificiais. Essas medidas são apenas o primeiro passo da Casa Branca antes de criar uma proposta de regulamentação. Iremos resumi-las de acordo com as suas similaridades.

Garantir uma IA segura antes do lançamento: Neste ponto, as empresas se comprometem a permitir que terceiros realizem testes com suas inteligências artificiais. Esses testes verificarão os riscos da IA expor dados sobre biossegurança e cibersegurança.As empresas também compartilharão informações com governos, indústria, sociedade e academia, além de promover práticas positivas sobre segurança, compartilhar técnicas e tentativas de “driblar” as medidas de segurança das IAs — como aquelas que impedem om ChatGPT de escrever vírus.

OpenAI, criadora do ChatGPT, é uma das empresas que aceitou as diretrizes da Casa Branca (Imagem: Vitor Pádua / Tecnoblog)

“Segurança em primeiro lugar”: Basicamente um complemento do ponto anterior, essa diretriz exige que as empresas só lance seus modelos após a garantia de que a IA é segura. As companhias também facilitarão que terceiros descubram e reportem vulnerabilidades. A IA necessitará ainda de um “mecanismo robusto” de comunicação de falha.

“Conquistar a confiança do público”: Aqui, a proposta do governo americano é que as empresas criem ferramentas que permitam identificar se um conteúdo é gerado por IA; divulguem as capacidades das suas IAs (que pode evitar os casos de acusações falsas de plágio pelo ChatGPT); priorizem pesquisas no riscos da tecnologia sobre a sociedade; evitem conteúdos prejudiciais e discriminatórios e protejam a privacidade.Há também uma exigência para que as empresas desenvolvam sistemas avançados de IA para resolver os principais desafios da sociedade, como cura de cânceres e mitigação dos efeitos das mudanças climáticas.

Com informações: New York Times e Google
Gigantes da inteligência artificial se comprometem com regras do governo dos EUA

Gigantes da inteligência artificial se comprometem com regras do governo dos EUA
Fonte: Tecnoblog

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

A OpenAI anunciou na última quinta-feira (20) a ferramenta de instruções padrões para o ChatGPT. Ainda em fase beta e disponível apenas para os assinantes do ChatGPT Plus, o recurso deve facilitar o uso da IA, permitindo que os usuários criem uma “estrutura” para que a inteligência artificial responda um comando de modo específico. A OpenAI espera lançar o recurso definitivamente e para todos os usuários nas próximas semanas.

ChatGPT deve dar respostas mais objetivas com nova funcionalidade (Imagem: Vitor Pádua / Tecnoblog)

O exemplo dado pela OpenAI e que também usaremos aqui é o seguinte: um professor da terceira série registrará na sua conta a sua profissão, permitindo que ele não repita que é um professor toda vez que enviar um prompt para o ChatGPT.

Além disso, o usuário pode definir como deseja receber a resposta. Por exemplo, o professor imaginário citado anteriormente pode preferir uma tabela com coluna de lado positivo e negativo de um determinado assunto que será apresentado em sala.

Em outra situação, a OpenAI mostra que um programador pode pedir que a resposta do ChatGPT seja direta, sem explicação sobre como funciona o código e que ele busque pela solução mais eficiente. E neste caso, o programador ainda pode adicionar com qual linguagem ele trabalha. Assim, não precisa escrever “escreva um código em Python” ou “escreva um código GoLang”.

Com instruções predefinidas para responder na linguagem GoLang, ChatGPT entrega código sem precisar que o usuário definida a linguagem (Imagem: Reprodução/Tecnoblog)

Novidade da OpenAI é bem invasiva e a empresa “sabe disso”

Informar a sua profissão ou o tamanho da sua família e onde você mora (esse é um dos exemplos no site da OpenAI) é bem invasivo do ponto de vista de privacidade. Ciente disso, a OpenAI permite que o usuário desative o uso das informações das instruções padrões para melhorar o desempenho do ChatGPT.

A empresa afirma que os dados pessoais que facilitem a identificação de alguém são removidos quando usado para treinar a IA. Todavia, o problema é se acontecer um vazamento, como já sofreu a OpenAI duas vezes: uma por erro próprio e a outra na qual ela jogou a culpa nos usuários.

Com informações: OpenAI
OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT
Fonte: Tecnoblog

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

Um novo chatbot com inteligência artificial está chegando ao Brasil, e vai “morar” em dois apps bastante usados no país: WhatsApp e Telegram. Chamada LuzIA, a assistente tem poderes parecidos com os do ChatGPT, além de uma utilidade que vai interessar muita gente: ela transcreve áudios.

LuzIA no WhatsApp (Imagem: Reprodução/LuzIA)

A LuzIA faz muito daquilo que tornou o ChatGPT famoso nos últimos meses: ela pode ajudar a redigir mensagens, dar dicas de receitas, tirar dúvidas sobre conhecimentos gerais, sugerir viagens, livros, filmes e séries, e muitas outras coisas nessa linha.

Ela, porém, tem uma vantagem que vai deixar muita gente interessada. A LuzIA transcreve áudios. Basta encaminhar uma mensagem de voz para a inteligência artificial — ela a transcreve em alguns segundos.

Em conversa com o Tecnoblog, Álvaro Higes, CEO da LuzIA, destaca que o recurso vai além da praticidade: ele também ajuda na acessibilidade, facilitando a comunicação de pessoas com deficiência auditiva.

Outro diferencial em relação ao ChatGPT é a capacidade de criar imagens. Basta escrever “imagina” e a descrição desejada para receber uma figura gerada pela inteligência artificial.

IA via WhatsApp

A LuzIA não tem aplicativo. Para utilizá-la, basta enviar mensagens a um número de telefone, usando WhatsApp ou Telegram.

A empresa aponta que usar o WhatsApp tem também a vantagem de aproveitar os pacotes de dados ilimitados que as operadoras costumam oferecer para o mensageiro.

Desenvolvida na Espanha e lançada em março de 2023, a LuzIA está disponível em mais de 40 países. Para vir ao Brasil, ela ganhou um número de telefone local, com o código do país: +55 11 97255-3036.

Outra forma é acessar o site da LuzIA e tocar nos botões de WhatsApp ou Telegram para iniciar a conversa no mensageiro correspondente.

LuzIA usa GPT-3.5 e Stable Diffusion

Higes explica que o robô é “agnóstico” em relação aos modelos usados como base. Isso quer dizer que ela pode trocar de fornecedor, caso apareça uma solução melhor no mercado.

Atualmente, a LuzIA usa o GPT-3.5 para entender perguntas e gerar respostas em texto, e o Whisper para reconhecer fala e transcrever áudio. As duas soluções são da OpenAI, responsável pelo ChatGPT.

Para criar imagens, porém, a LuzIA usa o Stable Diffusion, da Stability AI, deixando de lado o Dall-E da OpenAI.

Sem cadastro e sem perfil

Em relação à privacidade, Higes explica que a LuzIA não exige cadastro, nem cria perfis dos usuários. “A única informação que ela armazena é o número, para que ela possa saber para quem enviar a resposta”, comenta.

Além disso, as conversas são “zeradas” após algum tempo. Isso quer dizer que não adianta continuar um bate-papo com a LuzIA depois de algumas horas — você vai ter que explicar tudo de novo.

A empresa fez uma parceria com a Meta para que seu número seja verificado e tenha o selo verde no WhatsApp, “para que o usuário possa ter certeza que está falando com a LuzIA e não caindo em um golpe”, comenta o CEO.

Além disso, a assistente traz o já habitual aviso de que inteligências artificiais podem alucinar na hora de gerar respostas.

A LuzIA é gratuita e, por enquanto, não há nenhum plano para cobrar pelo acesso a ela. Higes diz que, em um primeiro momento, a ideia é a ver como a base de usuários vai se comportar para só depois pensar em um modelo de negócios para sustentar a assistente.
LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios
Fonte: Tecnoblog

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

A Meta confirmou nesta terça-feira (18) o lançamento do Llama 2, seu modelo de linguagem grande (LLM na sigla em inglês) de código aberto e gratuito. O anúncio revelou que a Microsoft será parceira da empresa de Mark Zuckerberg nesta estreia. O Llama 2 será gratuito tanto para pesquisas quanto para uso comercial, além de estar disponível no Microsoft Azure, Windows, Amazon Web Services (AWS) e Hugging Face.

Llama 2 é novo modelo de linguagem grande da Meta e pode ser usado em IA generativa (Imagem: Vitor Pádua / Tecnoblog)

O lançamento dessa nova versão do Llama não chega de surpresa. Na quinta-feira passada, o jornal Financial Times publicou que a Meta estava próxima de anunciar a versão comercial do seu LLM. O Llama é uma tecnologia que pode ser usada como IA generativa. Anteriormente, ela só estava disponível para o público acadêmico e pesquisadores.

Anúncio do Llama 2 tem foto de Zuckerberg e CEO da Microsoft

Para anunciar o lançamento do LLaMA 2, Mark Zuckerberg publicou uma foto com Satya Nadella, CEO da Microsoft, na sua conta no Instagram.

Na legenda, o executivo agradece ao colega e rival e às equipes da Microsoft e da Meta responsáveis pelo desenvolvimento do Llama (sim, de acordo com a empresa, escreve “Llama” e não mais “LLaMA”). O CEO da Meta relembra ainda a parceria de anos entre as duas empresas.

 

 
 

 
 

Ver essa foto no Instagram

 

 
 
 

 
 

 
 
 

 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

“A Meta tem um longo histórico no fornecimento de código aberto de nossa infraestrutura e nosso trabalho com inteligência artificial (IA) – desde o PyTorch [parceria com a Microsoft], a estrutura líder em Machine Learning (aprendizado de máquina), passando por modelos como Segment Anything, ImageBind e Dino, até infraestruturas básicas como parte da fundação Open Compute Project.”

Mark Zuckerberg

Segundo a Meta, o Llama 2 foi treinada com 40% mais dados do que o antecessor.

Detalhes da estrutura do Llama 2 (Imagem: Divulgação/Meta)

Microsoft divulgou preços do Copilot nesta terça-feira

No mesmo dia em que a Microsoft anunciou a parceria com a Meta para o lançamento do Llama 2, a empresa fundada por Bill Gates divulgou os preços do Windows 365 Copilot, sua ferramenta de IA baseada no GPT-4 que funciona integrada com apps como Word, Excel e PowerPoint

Nos Estados Unidos, o serviço custará US$ 30, R$ 145 em conversão direta e sem impostos. O Tecnoblog aguarda um posicionamento da Microsoft sobre os valores aqui no país.
Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT
Fonte: Tecnoblog

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

A tecnologia por trás do ChatGPT precisa ser treinada com muito conteúdo para funcionar corretamente. A OpenAI conseguiu acesso a quase quatro décadas de notícias para fazer isso: a empresa fechou um acordo com a agência de notícias Associated Press para usar seus arquivos. Em troca, ela dará acesso às suas tecnologias.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

O acordo foi anunciado nesta quinta-feira (13) e é um dos primeiros entre uma empresa de notícias e uma companhia de inteligência artificial. A OpenAI licenciará parte do arquivo de textos da AP desde 1985.

Além disso, as empresas tentarão entender formas de usar inteligência artificial na produção de notícias, para empregá-la em futuros produtos e serviços. Ou seja, o ChatGPT não vai começar a escrever notícias para a AP — não por enquanto, pelo menos.

“O feedback [da AP] — bem como o acesso a seu arquivo de textos factuais, de alta qualidade — vai ajudar a melhorar as capacidades e utilidades dos sistemas da OpenAI”, disse Brad Lightcap, diretor-chefe de operações da OpenAI.

Na prática, o licenciamento do conteúdo também ajuda a OpenAI a se proteger de processos por violação de direitos autorais, vindos de escritores e artistas. A empresa fechou um acordo parecido com a Shutterstock, para usar suas imagens, vídeos e música no treinamento do Dall-E.

AP usa inteligência artificial há nove anos

A AP começou a testar inteligências artificiais em 2014. De lá para cá, ela automatizou relatórios financeiros de empresas, além de usar robôs na cobertura de torneios locais de beisebol e competições esportivas universitárias.

No começo de 2023, a AP anunciou novos usos para a inteligência artificial. Ela passou a emitir alertas de notícias em espanhol. Além disso, o serviço de fotografias e vídeos ganhou uma busca com IA, que permite que seus clientes façam pesquisas descritivas para encontrar o que querem.

Com informações: Axios, The Verge
OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT
Fonte: Tecnoblog

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

A Meta pode lançar a versão comercial da sua inteligência artificial, a LLaMA, em breve. A informação foi publicada pelo jornal Financial Times nesta quinta-feira (13). A LLaMA é um modelo de linguagem de IA generativa da própria Meta, liberado no início do ano para acadêmicos e pesquisadores.

Meta está perto de lançar sua tecnologia de inteligência artificial para empresas (Imagem: Vitor Pádua/Tecnoblog)

Agora, a empresa de Mark Zuckerberg lançará uma versão comercial da IA. Com essa possível estreia, a Meta visa competir contra o ChatGPT, Bard e “Twitter”. Ontem (12) foi a vez de Elon Musk confirmar a existência da X.AI, a sua empresa do ramo de inteligência artificial.

Lançamento comercial da LLaMA é “iminente”, diz fonte

Uma fonte disse para o Financial Times que o lançamento da versão comercial da LLaMA é iminente. Essa versão será disponibilizada para empresas que desejam adaptar o modelo de linguagem (LLM), algo que a OpenAI já permite com o ChatGPT através de sua API — e que ajuda a pagar as contas.

E ao contrário do GPT-4, LLM da OpenAI, a LLaMA será um modelo de linguagem de código-aberto — pelo menos é o que afirma a Meta. Para Nick Clegg, diretor de assuntos globais da Meta, “abertura é o melhor antídoto contra os medos que permeiam inteligências artificiais”.

Modelo de linguagem grande da Meta para inteligência artificial será liberado em breve para empresas (Imagem: Vitor Pádua / Tecnoblog)

Uma outra fonte, na condição de anonimato, disse para o Financial Times que o objetivo abrir o código da LLaMA é diminuir o domínio da OpenAI — no segmento de inteligência artificial. E vamos lá falar o óbvio: essa não é uma tarefa nada fácil.

Com empresa de IA do Elon Musk e IA do Mark Zuckerberg prestes a chegar para o público, só vem a minha mente aquela frase da Vanessa da Mata ao ver as empresas entrando na corrida de inteligência artificial: “AI, AI, AI, AI, AI, AI, AI”.

Com informações:  Financial Times
Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa
Fonte: Tecnoblog

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

O Google oficializa a chegada do Google Bard ao Brasil nesta quinta-feira (13) depois de muita expectativa. A ferramenta de inteligência artificial rivaliza com o ChatGPT e fala bom português. Executivos da empresa explicaram que os últimos três meses foram dedicados a treinamento e correções para que a plataforma fosse liberada por aqui. Além do Brasil, os 27 países da União Europeia passarão a contar com o Bard.

Google anunciou chegada do Bard ao Brasil em 13.07.2023 (Imagem: Divulgação/Google e Vitor Pádua/Tecnoblog)

A novidade tenta tirar proveito do alto interesse do público pela inteligência artificial generativa. O Bard se baseia num grande modelo de linguagem (LLM na sigla em inglês) para compreender o que é solicitado. Na sequência, propõe respostas.

Numa mesa redonda com jornalistas do país, os porta-vozes do Google reiteradamente disseram que o Bard é um experimento. Isto fica sinalizado na interface, de acordo com as imagens de divulgação. “Nós estamos muito otimistas sobre como a IA generativa pode ajudar as pessoas no dia a dia”, comemorou o gerente de marketing Leo Longo.

De acordo com ele, organizações parceiras deram apoio ao Google no processo de “localizar” o Bard. Foi necessário ensiná-lo a compreender nuances e temas sensíveis em cada novo local onde está disponível.

Bard responde perguntas de usuário, porém sem citar fontes de informação (Imagem: Thássius Veloso/Tecnoblog)

O conglomerado de internet faz sugestões sobre os usos mais interessantes do Bard:

Criação de textos, como pedidos de desculpas ou convites

Pedir dicas de lugares

Encontrar orientações para dúvidas do dia a dia, como recomendações para ler mais

Buscar passo a passo para explicar um tema a outras pessoas

Novidades da nova versão do Bard

O anúncio da chegada do Bard ao mercado brasileiro está inserido num contexto mais amplo, desta vez global. A ferramenta de IA também conta, a partir de hoje, com novas funcionalidades.

Função do Bard permite usar até cinco estilos de resposta (Imagem: Google/Divulgação)

Função de fixar conversas na interface do Bard (Imagem: Divulgação/Google)

Confira o resumo abaixo:

Fixar e nomear conversas.

Ouvir as respostas em voz alta.

Mais opções de estilo. Agora são cinco: simples, longo, curto, profissional ou casual.

Exportar código Python para o Replit, além do Google Colab.

Envio de imagens. Por meio da tecnologia de Google Lens, as pessoas poderão fazer perguntas ou dar comandos a partir de uma figura enviada ao Bard. Por ora, o recurso está previsto somente em inglês.

Falta de transparência sobre a fonte dos dados

Uma pergunta recorrente de membros da imprensa aos executivos do Google diz respeito à base de dados. Por exemplo, o Bard leva em consideração o conteúdo produzido por veículos jornalísticos ou publicado sob proteção de direitos autorais – caso de livros inteiros? A gerente de comunicação Claudia Tozetto afirmou que a ferramenta se baseia em “informação pública disponível na web”, sem entrar em detalhes.

“Estamos atentos a este tema porque o Google tem a filosofia de que não pode ter sucesso se o ecossistema inteiro da internet não tiver sucesso junto com a gente”, disse a executiva. Ela ressaltou que o Bard é uma novidade ainda em estágio de testes.

Já Bruno Possas, vice-presidente global de engenharia para busca, disse que o usuário pode perguntar ao Bard de onde vêm as informações. “O sistema consegue responder para alguns casos factuais, mas para outros não”, observou o executivo.

No nosso teste, Bard deu resposta genérica quando perguntado sobre fontes das informações apresentadas (Imagem: Thássius Veloso/Tecnoblog)

Como acessar o Bard?

Basta entrar no endereço bard.google.com tanto pelo celular quanto pelo computador. A interface em português será oferecida por padrão, mas os usuários poderão falar com o Bard em outros idiomas. É necessário utilizar uma conta Google para fazer o login.

Logo de cara, a ferramenta avisa: “Oi, eu sou o Bard. Posso colaborar com você usando minha criatividade e disposição para ajudar. Eu tenho algumas limitações e confesso que nem sempre acerto tudo, mas com seu feedback eu vou melhorar.”

Janela informa que Bard é “experimental” (Imagem: Thássius Veloso/Tecnoblog)

O Google explica ao Tecnoblog que “neste período experimental, nós não temos um limite para o número de conversas diárias, mas nosso objetivo principal é garantir que a experiência seja útil para todas as pessoas para depois evoluir”.

Não custa lembrar que o Bard não substitui a ferramenta de busca do Google. Por ora, são produtos tratados de maneira independente.
Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo
Fonte: Tecnoblog