Category: ChatGPT

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

Alphabet, Amazon, Apple e Microsoft são algumas das empresas cujo valor está estimado a partir de US$ 1 trilhão. Em junho, uma nova companhia entrou nesse grupo: a Nvidia. É a primeira vez que uma empresa do ramo de chips alcança este patamar.

Todo mundo quer comprar da Nvidia (Imagem: Vitor Pádua / Tecnoblog)

Para quem não está tão inteirado das movimentações da empresa, a informação pode gerar surpresa. Afinal, a Nvidia não é aquela que faz as placas de vídeo para o público gamer?

E a resposta é sim: no setor de chips gráficos dedicados, a Nvidia é dominante. Mas foi-se o tempo que esta era o único negócio da companhia presidida por Jensen Huang. A utilidade das GPUs em diversas áreas impulsionou a Nvidia para novas e lucrativas direções.

Games, cripto e IA

A Nvidia surgiu em 1993. O primeiro chip, NV1, chegou ao mercado dois anos depois, mas o sucesso mesmo veio em 1997, com o lançamento do RIVA 128. Mas talvez seu produto mais conhecido seja a linha GeForce, a primeira das GPUs modernas, introduzida em 1999. No mesmo ano, a empresa fez sua primeira oferta pública de ações.

O foco da Nvidia, nesses primeiros anos, estava nos games. Parcerias com Sega e Microsoft marcaram a trajetória da empresa — embora para a Sega as coisas não tenham saído como o esperado… ouça o Tecnocast 296 para entender essa história.

Mas a capacidade das GPUs vai muito além da renderização de gráficos, o que abriu uma nova gama de oportunidades. Aqui, vale uma explicação técnica.

Diferente da CPU, que processa tarefas de forma sequencial, a GPU tem como característica o processamento paralelo. Na prática, isso significa que ela consegue realizar várias instruções ao mesmo tempo. Isso é possível graças ao grande número de núcleos presente nas GPUs modernas. Quanto mais núcleos, melhor o desempenho.

Placa de vídeo Asus com GPU Nvidia GeForce RTX 4070 Ti (imagem: divulgação/Asus)

GPUs com muitos núcleos, portanto, são excelentes para aplicações que necessitam de alto volume de processamento. Um exemplo é a mineração de criptomoedas. Nos períodos de maior atividade dos mineradores, era até difícil encontrar chips no mercado, o que gerou disparos no preço.

Outro contexto muito importante do uso das GPUs é no machine learning, dentro do processo de treinamento de inteligências artificiais.

Vale destacar: a Nvidia não desenvolveu suas GPUs com estas aplicações em mente; elas foram descobertas ao longo do caminho. Chips poderosos eram necessários, e a Nvidia detinha a melhor tecnologia da área. Foi como somar dois e dois.

A empresa soube aproveitar esses novos desdobramentos. Hoje, colhe os frutos.

A Nvidia vende para quem quiser comprar

Segundo Jensen Huang, estamos atravessando o “momento iPhone da IA”. O ChatGPT teria provocado o mesmo agito no mercado que o smartphone da Apple provocou quando apareceu, em 2007. Para milhões de pessoas, foi o primeiro contato com uma inteligência artificial capaz de coisas extraordinárias.

Poucas empresas estão em melhor posição para aproveitar este momento do que a Nvidia. Suas GPUs são usadas para treinamento de inteligências artificiais há anos. Na parceria entre Microsoft e OpenAI para criação de produtos de IA, há “milhares” de GPUs já otimizadas para este fim.

Assim como no auge da mineração de criptomoedas, conseguir chips gráficos de alta performance no momento pode ser tarefa difícil. Elon Musk, por exemplo, comentou está mais fácil encontrar drogas do que GPUs atualmente. Há alguns meses, descobriu-se que o dono do Twitter também investia em IA. Como? Bem, ele comprou milhares de chips da Nvidia.

Intel e AMD não estão paradas, é claro, e tentam emplacar seus chips voltados para inteligência artificial. Porém, a dianteira da Nvidia é muito consolidada. Trata-se de um domínio construído ao longo de anos, e é improvável que as competidoras consigam atacá-lo num futuro próximo.

Jensen Huang, CEO da Nvidia

Assim, não é uma surpresa que o mercado esteja tão animado com a Nvidia. As ações da empresa subiram 181% no acumulado do ano; só no atual trimestre fiscal, a expectativa é de US$ 11 bilhões em vendas, um recorde para a empresa.

Além disso, há o posicionamento peculiar da companhia. Google e Microsoft, por exemplo, são concorrentes em áreas como busca e IA generativa. O objetivo de ambas é criar produtos melhores, obter vantagens competitivas e conquistar mais usuários. O escopo da Nvidia é outro: ela é quem fornece o poder computacional para quem estiver interessado. Seja o Google, a Microsoft, Elon Musk ou quem quer que seja.

Portanto, é seguro dizer que a Nvidia não tem favoritos na batalha da inteligência artificial. Ela torce mesmo é pela briga.
As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga
Fonte: Tecnoblog

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

A OpenAI anunciou na última quinta-feira (20) a ferramenta de instruções padrões para o ChatGPT. Ainda em fase beta e disponível apenas para os assinantes do ChatGPT Plus, o recurso deve facilitar o uso da IA, permitindo que os usuários criem uma “estrutura” para que a inteligência artificial responda um comando de modo específico. A OpenAI espera lançar o recurso definitivamente e para todos os usuários nas próximas semanas.

ChatGPT deve dar respostas mais objetivas com nova funcionalidade (Imagem: Vitor Pádua / Tecnoblog)

O exemplo dado pela OpenAI e que também usaremos aqui é o seguinte: um professor da terceira série registrará na sua conta a sua profissão, permitindo que ele não repita que é um professor toda vez que enviar um prompt para o ChatGPT.

Além disso, o usuário pode definir como deseja receber a resposta. Por exemplo, o professor imaginário citado anteriormente pode preferir uma tabela com coluna de lado positivo e negativo de um determinado assunto que será apresentado em sala.

Em outra situação, a OpenAI mostra que um programador pode pedir que a resposta do ChatGPT seja direta, sem explicação sobre como funciona o código e que ele busque pela solução mais eficiente. E neste caso, o programador ainda pode adicionar com qual linguagem ele trabalha. Assim, não precisa escrever “escreva um código em Python” ou “escreva um código GoLang”.

Com instruções predefinidas para responder na linguagem GoLang, ChatGPT entrega código sem precisar que o usuário definida a linguagem (Imagem: Reprodução/Tecnoblog)

Novidade da OpenAI é bem invasiva e a empresa “sabe disso”

Informar a sua profissão ou o tamanho da sua família e onde você mora (esse é um dos exemplos no site da OpenAI) é bem invasivo do ponto de vista de privacidade. Ciente disso, a OpenAI permite que o usuário desative o uso das informações das instruções padrões para melhorar o desempenho do ChatGPT.

A empresa afirma que os dados pessoais que facilitem a identificação de alguém são removidos quando usado para treinar a IA. Todavia, o problema é se acontecer um vazamento, como já sofreu a OpenAI duas vezes: uma por erro próprio e a outra na qual ela jogou a culpa nos usuários.

Com informações: OpenAI
OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT
Fonte: Tecnoblog

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

Um novo chatbot com inteligência artificial está chegando ao Brasil, e vai “morar” em dois apps bastante usados no país: WhatsApp e Telegram. Chamada LuzIA, a assistente tem poderes parecidos com os do ChatGPT, além de uma utilidade que vai interessar muita gente: ela transcreve áudios.

LuzIA no WhatsApp (Imagem: Reprodução/LuzIA)

A LuzIA faz muito daquilo que tornou o ChatGPT famoso nos últimos meses: ela pode ajudar a redigir mensagens, dar dicas de receitas, tirar dúvidas sobre conhecimentos gerais, sugerir viagens, livros, filmes e séries, e muitas outras coisas nessa linha.

Ela, porém, tem uma vantagem que vai deixar muita gente interessada. A LuzIA transcreve áudios. Basta encaminhar uma mensagem de voz para a inteligência artificial — ela a transcreve em alguns segundos.

Em conversa com o Tecnoblog, Álvaro Higes, CEO da LuzIA, destaca que o recurso vai além da praticidade: ele também ajuda na acessibilidade, facilitando a comunicação de pessoas com deficiência auditiva.

Outro diferencial em relação ao ChatGPT é a capacidade de criar imagens. Basta escrever “imagina” e a descrição desejada para receber uma figura gerada pela inteligência artificial.

IA via WhatsApp

A LuzIA não tem aplicativo. Para utilizá-la, basta enviar mensagens a um número de telefone, usando WhatsApp ou Telegram.

A empresa aponta que usar o WhatsApp tem também a vantagem de aproveitar os pacotes de dados ilimitados que as operadoras costumam oferecer para o mensageiro.

Desenvolvida na Espanha e lançada em março de 2023, a LuzIA está disponível em mais de 40 países. Para vir ao Brasil, ela ganhou um número de telefone local, com o código do país: +55 11 97255-3036.

Outra forma é acessar o site da LuzIA e tocar nos botões de WhatsApp ou Telegram para iniciar a conversa no mensageiro correspondente.

LuzIA usa GPT-3.5 e Stable Diffusion

Higes explica que o robô é “agnóstico” em relação aos modelos usados como base. Isso quer dizer que ela pode trocar de fornecedor, caso apareça uma solução melhor no mercado.

Atualmente, a LuzIA usa o GPT-3.5 para entender perguntas e gerar respostas em texto, e o Whisper para reconhecer fala e transcrever áudio. As duas soluções são da OpenAI, responsável pelo ChatGPT.

Para criar imagens, porém, a LuzIA usa o Stable Diffusion, da Stability AI, deixando de lado o Dall-E da OpenAI.

Sem cadastro e sem perfil

Em relação à privacidade, Higes explica que a LuzIA não exige cadastro, nem cria perfis dos usuários. “A única informação que ela armazena é o número, para que ela possa saber para quem enviar a resposta”, comenta.

Além disso, as conversas são “zeradas” após algum tempo. Isso quer dizer que não adianta continuar um bate-papo com a LuzIA depois de algumas horas — você vai ter que explicar tudo de novo.

A empresa fez uma parceria com a Meta para que seu número seja verificado e tenha o selo verde no WhatsApp, “para que o usuário possa ter certeza que está falando com a LuzIA e não caindo em um golpe”, comenta o CEO.

Além disso, a assistente traz o já habitual aviso de que inteligências artificiais podem alucinar na hora de gerar respostas.

A LuzIA é gratuita e, por enquanto, não há nenhum plano para cobrar pelo acesso a ela. Higes diz que, em um primeiro momento, a ideia é a ver como a base de usuários vai se comportar para só depois pensar em um modelo de negócios para sustentar a assistente.
LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios
Fonte: Tecnoblog

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

A tecnologia por trás do ChatGPT precisa ser treinada com muito conteúdo para funcionar corretamente. A OpenAI conseguiu acesso a quase quatro décadas de notícias para fazer isso: a empresa fechou um acordo com a agência de notícias Associated Press para usar seus arquivos. Em troca, ela dará acesso às suas tecnologias.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

O acordo foi anunciado nesta quinta-feira (13) e é um dos primeiros entre uma empresa de notícias e uma companhia de inteligência artificial. A OpenAI licenciará parte do arquivo de textos da AP desde 1985.

Além disso, as empresas tentarão entender formas de usar inteligência artificial na produção de notícias, para empregá-la em futuros produtos e serviços. Ou seja, o ChatGPT não vai começar a escrever notícias para a AP — não por enquanto, pelo menos.

“O feedback [da AP] — bem como o acesso a seu arquivo de textos factuais, de alta qualidade — vai ajudar a melhorar as capacidades e utilidades dos sistemas da OpenAI”, disse Brad Lightcap, diretor-chefe de operações da OpenAI.

Na prática, o licenciamento do conteúdo também ajuda a OpenAI a se proteger de processos por violação de direitos autorais, vindos de escritores e artistas. A empresa fechou um acordo parecido com a Shutterstock, para usar suas imagens, vídeos e música no treinamento do Dall-E.

AP usa inteligência artificial há nove anos

A AP começou a testar inteligências artificiais em 2014. De lá para cá, ela automatizou relatórios financeiros de empresas, além de usar robôs na cobertura de torneios locais de beisebol e competições esportivas universitárias.

No começo de 2023, a AP anunciou novos usos para a inteligência artificial. Ela passou a emitir alertas de notícias em espanhol. Além disso, o serviço de fotografias e vídeos ganhou uma busca com IA, que permite que seus clientes façam pesquisas descritivas para encontrar o que querem.

Com informações: Axios, The Verge
OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT
Fonte: Tecnoblog

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

O Google oficializa a chegada do Google Bard ao Brasil nesta quinta-feira (13) depois de muita expectativa. A ferramenta de inteligência artificial rivaliza com o ChatGPT e fala bom português. Executivos da empresa explicaram que os últimos três meses foram dedicados a treinamento e correções para que a plataforma fosse liberada por aqui. Além do Brasil, os 27 países da União Europeia passarão a contar com o Bard.

Google anunciou chegada do Bard ao Brasil em 13.07.2023 (Imagem: Divulgação/Google e Vitor Pádua/Tecnoblog)

A novidade tenta tirar proveito do alto interesse do público pela inteligência artificial generativa. O Bard se baseia num grande modelo de linguagem (LLM na sigla em inglês) para compreender o que é solicitado. Na sequência, propõe respostas.

Numa mesa redonda com jornalistas do país, os porta-vozes do Google reiteradamente disseram que o Bard é um experimento. Isto fica sinalizado na interface, de acordo com as imagens de divulgação. “Nós estamos muito otimistas sobre como a IA generativa pode ajudar as pessoas no dia a dia”, comemorou o gerente de marketing Leo Longo.

De acordo com ele, organizações parceiras deram apoio ao Google no processo de “localizar” o Bard. Foi necessário ensiná-lo a compreender nuances e temas sensíveis em cada novo local onde está disponível.

Bard responde perguntas de usuário, porém sem citar fontes de informação (Imagem: Thássius Veloso/Tecnoblog)

O conglomerado de internet faz sugestões sobre os usos mais interessantes do Bard:

Criação de textos, como pedidos de desculpas ou convites

Pedir dicas de lugares

Encontrar orientações para dúvidas do dia a dia, como recomendações para ler mais

Buscar passo a passo para explicar um tema a outras pessoas

Novidades da nova versão do Bard

O anúncio da chegada do Bard ao mercado brasileiro está inserido num contexto mais amplo, desta vez global. A ferramenta de IA também conta, a partir de hoje, com novas funcionalidades.

Função do Bard permite usar até cinco estilos de resposta (Imagem: Google/Divulgação)

Função de fixar conversas na interface do Bard (Imagem: Divulgação/Google)

Confira o resumo abaixo:

Fixar e nomear conversas.

Ouvir as respostas em voz alta.

Mais opções de estilo. Agora são cinco: simples, longo, curto, profissional ou casual.

Exportar código Python para o Replit, além do Google Colab.

Envio de imagens. Por meio da tecnologia de Google Lens, as pessoas poderão fazer perguntas ou dar comandos a partir de uma figura enviada ao Bard. Por ora, o recurso está previsto somente em inglês.

Falta de transparência sobre a fonte dos dados

Uma pergunta recorrente de membros da imprensa aos executivos do Google diz respeito à base de dados. Por exemplo, o Bard leva em consideração o conteúdo produzido por veículos jornalísticos ou publicado sob proteção de direitos autorais – caso de livros inteiros? A gerente de comunicação Claudia Tozetto afirmou que a ferramenta se baseia em “informação pública disponível na web”, sem entrar em detalhes.

“Estamos atentos a este tema porque o Google tem a filosofia de que não pode ter sucesso se o ecossistema inteiro da internet não tiver sucesso junto com a gente”, disse a executiva. Ela ressaltou que o Bard é uma novidade ainda em estágio de testes.

Já Bruno Possas, vice-presidente global de engenharia para busca, disse que o usuário pode perguntar ao Bard de onde vêm as informações. “O sistema consegue responder para alguns casos factuais, mas para outros não”, observou o executivo.

No nosso teste, Bard deu resposta genérica quando perguntado sobre fontes das informações apresentadas (Imagem: Thássius Veloso/Tecnoblog)

Como acessar o Bard?

Basta entrar no endereço bard.google.com tanto pelo celular quanto pelo computador. A interface em português será oferecida por padrão, mas os usuários poderão falar com o Bard em outros idiomas. É necessário utilizar uma conta Google para fazer o login.

Logo de cara, a ferramenta avisa: “Oi, eu sou o Bard. Posso colaborar com você usando minha criatividade e disposição para ajudar. Eu tenho algumas limitações e confesso que nem sempre acerto tudo, mas com seu feedback eu vou melhorar.”

Janela informa que Bard é “experimental” (Imagem: Thássius Veloso/Tecnoblog)

O Google explica ao Tecnoblog que “neste período experimental, nós não temos um limite para o número de conversas diárias, mas nosso objetivo principal é garantir que a experiência seja útil para todas as pessoas para depois evoluir”.

Não custa lembrar que o Bard não substitui a ferramenta de busca do Google. Por ora, são produtos tratados de maneira independente.
Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo
Fonte: Tecnoblog

Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais

Os escritores Sarah Silverman, Christopher Golden e Richard Kadrey abriram processos contra a OpenAI, empresa por trás do ChatGPT, e contra a Meta. Eles acusam as empresas de desrespeitar direitos autorais ao treinar suas inteligências artificiais de geração de texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A ação foi movida na Corte Distrital do Norte da Califórnia. Ela alega que o ChatGPT, da OpenAI, e o LLaMA, da Meta, foram treinados com conjuntos de dados adquiridos ilegalmente, que continham as obras dos autores.

Os livros estariam em sites como o Z-Library (que foi derrubado em novembro de 2022), o Library Genesis e o Bibliotik, além de serem compartilhados por torrent.

Como evidência do uso ilegal, os escritores apontam que o ChatGPT é capaz de resumir seus livros com ótima precisão, apesar de errarem alguns detalhes, o que indicaria que eles tiveram acesso às obras completas.

Já em relação ao LLaMA, da Meta, os autores dizem ter encontrado as obras no conjunto de dados que a empresa usou para treinar seus modelos de IA.

A Meta tem uma abordagem mais aberta sobre o assunto que a OpenAI: em um artigo, ela detalha as fontes usadas para desenvolver seu gerador de texto.

O conjunto de dados se chama ThePile (”a pilha”, em tradução livre) e foi criado por uma empresa EleutherAI. Em um artigo, ela afirma que ele usa uma cópia dos conteúdos da Bibliotik.

Escritório de advocacia já move outras ações contra ChatGPT

Os três autores são representados no processo pelos advogados Joseph Saveri e Matthew Butterick. A dupla também entrou com outra ação contra a OpenAI, em nome dos escritores Mona Awad e Paul Tremblay, na mesma corte dos EUA.

Saveri e Butterick criaram até um site chamado LLM Litigation (“litígio contra grandes modelos de linguagem”, em tradução livre) para divulgar as ações.

Além dos autores, o escritório de Saveri representa artistas que entraram com uma ação coletiva contra o Stable Diffusion. O algoritmo supostamente toma ilustrações, desenhos e outras obras como base para gerar imagens.

Outro processo é contra o GitHub Copilot, que usa IA para sugerir trechos de código. Todas essas práticas podem caracterizar violação de direitos autorais.

Com informações: The Verge
Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais
Fonte: Tecnoblog

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

O Threads mal chegou e já passou a marca de 100 milhões de usuários. Lançado na última quarta-feira, a nova rede social da Meta atingiu o número acima em apenas 5 dias. Com isso, o Threads supera com sobras o tempo que levou para o ChatGPT passar de 100 milhões de usuários — foram 2 meses para o serviço da OpenAI.

Threads chegou e rapidamente foi batendo recordes de usuários (Imagem: Thássius Veloso/Tecnoblog)

Logo quando ficou óbvio que o Threads estava para chegar, começaram os grandes questionamentos:  a nova rede social dará certo ou não? No momento, ainda está bem cedo para responder. E, na verdade, o importante para a Meta é que no curto prazo o Threads tem hype — logo mais será o momento de capitalizar com anúncios.

Threads é o “primeiro lançamento” de empresa consolidada

A estreia da Threads é um momento “inovador” nas redes sociais, pois foi a primeira vez que uma grande empresa, já consolidada, lançou uma nova plataforma. Desde que chegamos na “tríade” de redes sociais (Facebook, Instagram e Twitter), todos as grandes novidades foram atualizações nessas plataformas ou empresas que lançaram apps que foram esquecidos logo depois — BeReal é um exemplo.

BlueSky, Koo e Mastodon também chegaram como “substitutos do Twitter”, mas eles não são criações de uma empresa tão rica e dominante como a Meta. A grande vantagens do Threads para atingir a marca de meio Brasil em cinco dias é usar a integração com o Instagram e toda a base de usuários deste sucesso.

Threads ainda tem pontos há melhorar, mas a estrutura consolidada do Instagram ajuda na conquista do público (Imagem: Divulgação/Meta e Vitor Pádua/Tecnoblog)

E como já falamos aqui no Tecnoblog, outro acerto foi preparar os influencers para a nova rede — goste ou não deles. Afinal, toda rede social depende de criadores de conteúdo. Quanto mais público eles trazem, melhor. Por isso que Diego Defante não teve um acesso antecipado e o Leo Santana sim.

Mesmo com a Meta sendo experiente em redes sociais, algumas melhorias precisam ser feitas para o Threads popularizar ainda mais. Por exemplo, a opção de um feed só de quem você segue e lançar (de uma vez) o acesso web — com este último, aí eu penso em começar a “threadar”.

Threads não precisa “dar certo”, precisa dar lucro

Voltando ao “vai dar certo ou não”, a verdade é que o conceito de certo ou errado é relativo. Provavelmente, a Meta vê o “dar certo” como sinônimo de “dar lucro” — seja com 100 milhões de usuários ou 1 bilhão. Se com mais de 100 milhões de contas o Threads já for atrativo para os anunciantes, pagar as contas e ainda dar lucro, ótimo (para o Zuckerberg, óbvio).

Como bem comparou a colega Taylor Hatmaker do TechCrunch, o Threads quer ser o grande shopping center, não a “praça pública” falsamente prometida por Elon Musk ao comprar o Twitter. Até porque Threads não será um espaço para incentivar notícias e política.

Com informações: TheVerge e TechCrunch
Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT
Fonte: Tecnoblog

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Na última terça-feira (27), um tweet sobre um estudante acusado de plágio em seu TCC viralizou. No caso, um professor usou o ChatGPT para perguntar se o trabalho foi feito por ele (ChatGPT). A inteligência artificial confirmou que sim, ela era autora do texto — o problema é que o ChatGPT faz isso com praticamente todo texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Se você inserir um texto qualquer e perguntar para o ChatGPT “você é o autor?” ou “o texto é de sua autoria?” ele provavelmente dirá que sim. Fiz testes para o Tecnoblog usando um texto ainda não publicado e uma piada velha. Nas duas situações, ele confirmou que era autor. Porém, isso só aconteceu quando o prompt estava no início de uma conversa.

No tweet, a sobrinha do estudante acusado de plágio relata a história. Um professor da banca avaliadora usou o ChatGPT como ferramenta de plágio. Porém, a IA não é feita para isso — e basta perguntar para ela se ela pode identificar cópias. No máximo, o ChatGPT consegue avaliar dois textos que o usuário inserir e comparar semelhanças, ainda assim ele não identifica plágios.

gente olhem só o perigo do chatgpt:meu tio tá terminando graduação e redigiu o TCC, enviou pro professor da banca e a resposta foi “O ChatGPT dedurou vocês de que esse texto é de autoria dele. Escreva com suas próprias palavras”. Agr, meu tio tá tendo q fazer uma reuniao com a +
— carolingia the day (@carollingian) June 27, 2023

A história acima teve um final feliz. O estudante acusado de plágio provou que o ChatGPT não identifica plágios usando um artigo do professor. A inteligência artificial disse que o texto era de sua autoria. Ainda assim, a situação mostra que tem muita gente sem entender para que serve o ChatGPT.

ChatGPT e Bing Chat são revolucionários, mas não são deuses

Inteligência artificial é um marco de revolução tecnológica, mas “pera lá” (Imagem: Vitor Pádua / Tecnoblog)

As inteligências artificiais estão cada vez mais revolucionárias e… inteligentes, sendo capazes de nos ajudarem de diversos modos. Porém, elas não são serem oniscientes e onipotentes: elas tem limitações. O ChatGPT e o Bing Chat, por exemplo, sofrem para resolver cálculos matemáticos mais difíceis. E o primeiro é treinado com informações até dezembro 2021.

Como não conseguimos contato com a OpenAI, entrevistamos o ChatGPT para que ele mesmo explicasse a sua função. Nas palavras da IA, ela foi “treinada para interagir com os usuários por meio de texto, fornecendo informações, respondendo a perguntas, dando sugestões e realizando diversas tarefas relacionadas ao processamento de linguagem natural.”

Resumindo, o ChatGPT é, ao mesmo tempo, um Google que entrega respostas prontas (sem que você clique em vários links) e um assistente, sendo capaz de escrever códigos, fornecer resumos de textos e te ajudar com insights — você pode até pesquisar no Google como as pessoas estão usando para facilitar a vida.

Logo, se o usuário quer um programa para identificar plágio, ela deve ir atrás de ferramentas específicas para isso. A situação é ainda pior quando professores, universitários ou não, usam o ChatGPT para algo que ele não serve — e cujas limitações geram respostas erradas. Nas respostas do tweet, outros usuários relataram que foram acusados de plágio pelo ChatGPT — o Tecnoblog tentou contato com essas pessoas e o outro estudante, mas não teve resposta até a publicação.

O nível de inteligência, o “QI”, do GPT-4, tecnologia de linguagem de modelo grande que é o motor do ChatGPT Plus e Bing Chat, é equivalente a uma criança de 10 anos — o que ajuda a explicar como é fácil burlar algumas das suas restrições. Além do mais, essas duas IAs podem responder com informações falsas.

Aliás, o correto para descobrir se um conteúdo foi criado por IA é usar uma ferramenta específica para isso. Só que nem mesmo as ferramentas criadas para isso são confiáveis para identificar se o autor foi um “robô”.

Para o ChatGPT, até um texto meu não publicado é dele

Quando soube do caso, fui testar se o ChatGPT “me acusaria de plágio”. No primeiro teste, ele respondeu que não tinha escrito o texto. Porém, abri uma nova conversa, peguei um texto que será publicada em breve no Tecnoblog e iniciei com o prompt “o texto a seguir é de sua autoria?”. Dessa vez, o ChatGPT confirmou que era autor de um conteúdo nem mesmo publicado.

ChatGPT se identifica como autor de texto não publicado (Imagem: Felipe Freitas/Tecnoblog)

Depois, fiz um outro teste usando uma piada muito antiga. Novamente, precisei abrir uma nova conversa e seguir com o prompt citado no parágrafo anterior. Sim, o “poema” do “Eu cavo, tu cavas” foi escrito pelo ChatGPT.

Para o ChatGPT, piada que eu ouvi pela primeira vez em 2005 ou 2006 é de sua autoria (Imagem: Felipe Freitas/Tecnoblog)

O mesmo método foi usado para que ele se declarasse autor de um trecho deste texto. Pelos testes, fica claro que o ChatGPT possui um problema: ele pode se considerar autor de texto que abre uma conversa.

ChatGPT se identificou até como autor de trecho desta notícia (Imagem: Felipe Freitas/Tecnoblog)

Eu juro que tentei que a OpenAI me respondesse sobre o caso. Porém, o bot do suporte deles, assim como o seu principal produto, possui problemas. Ele não entendeu que eu queria falar com uma pessoa. O chatbot afirma que pode me botar em contato com um membro da equipe se não puder resolver meu problema. O que eu consegui foi um loop de “escreve-me o seu problema e vejo como posso ajudar”. É melhor receber um emoji de cocô como resposta.
Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial
Fonte: Tecnoblog

Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil

O Google realizou nesta semana um grande evento em São Paulo que já se tornou tradição no calendário de quem é apaixonado por tecnologia. No Google for Brasil, a empresa apresentou novidades para o mercado nacional. Só ficou faltando falar do Bard, o mais interessante lançamento em escala global dos últimos tempos. Por mais controverso que possa parecer, o sistema de inteligência artificial rival do ChatGPT desapareceu em meio a outros anúncios.

Fabio Coelho é presidente do Google no Brasil (Imagem: Thássius Veloso/Tecnoblog)

Todo mundo sabe que o gigante das buscas teve de se mexer diante da concorrência imposta pela OpenAI, que rapidamente conquistou interesse do público e chegou a 100 milhões de usuários no planeta. Quem está se beneficiando disso é a Microsoft com o Bing. Quando poderemos, portanto, utilizar o Bard no Brasil? Ninguém sabe. Os executivos do Google não esclareceram a dúvida durante o evento.

Impacto na indústria de notícias

O presidente do Google no Brasil, Fabio Coelho, tangenciou o assunto quando perguntado sobre o impacto da inteligência artificial generativa na indústria de notícias. Ele defendeu o diálogo com a imprensa para entender como o conteúdo jornalístico será disponibilizado na plataforma.

Aqui não custa lembrar: a busca do Google com auxílio do Bard propõe “respostas” individuais escritas pela IA com base no conteúdo catalogado da internet. São exibidos cards com a fonte da informação. Ainda assim, existe dúvida entre os publishers – os responsáveis pelo conteúdo – se os usuários vão clicar para ler a matéria completa uma vez que a IA já entrega tudo de mão beijada.

Coelho citou as parcerias que o Google mantém com 160 empresas jornalísticas no país. “Essa relação funciona a partir do entendimento de que a gente não pode criar tecnologias que prejudiquem nossos parceiros”, disse aos repórteres presentes no evento, na última terça-feira (27). O Google não fornece detalhes, por exemplo, sobre os pagamentos destinados a cada parceiro nesta área de notícias.

Demonstração do Bard em funcionamento (Imagem: Divulgação/Google)

PL de Fake News

A disponibilização de conteúdo jornalístico pode ser um dos entraves para a chegada do Bard ao Brasil. Em discussão na Câmara dos Deputados, o Projeto de Lei 2630/2020 – também chamado de PL das Fake News – prevê que as plataformas digitais sejam obrigadas a pagar para exibir conteúdo jornalístico. Caso entre em vigor, a medida deve afetar principalmente os dois grandes impérios da internet ocidental: o próprio Google e a Meta, dona de redes como Instagram e Facebook.

Talvez este seja o motivo do “sumiço” do Bard no grande evento do Google. O Google o classifica como um “experimento”, que foi revelado ao mundo em fevereiro e está em testes públicos desde março. Recentemente começou a funcionar em quase 200 países, mas não por aqui.

ChatGPT no celular (imagem: Emerson Alecrim/Tecnoblog)

Coelho também foi consultado sobre as alucinações em sistemas de IA generativa. O executivo defendeu uma postura cautelosa. “Acreditamos que não dá para resolver este problema, mas é possível minimizá-lo significativamente, uma vez que possuímos uma base de dados maior do que a de qualquer outra empresa”, afirmou o presidente do Google no Brasil.

“Não será perfeito, mas será muito bom.” Só faltou dizer a data. Estamos todos curiosos para brincar com a ferramenta.
Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil
Fonte: Tecnoblog