Category: Desinformação

TikTok lança Footnotes, sua versão das Notas da Comunidade

TikTok lança Footnotes, sua versão das Notas da Comunidade

Footnotes permite adicionar notas a vídeos com alegações enganosas (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O TikTok lançou nos EUA o recurso Footnotes, que permite a usuários adicionar notas explicativas a vídeos com potencial desinformativo.
As notas passam por uma avaliação comunitária e só são publicadas se forem consideradas “úteis” por outros colaboradores.
A iniciativa, ainda em fase inicial, exige que os participantes tenham mais de 18 anos, conta ativa há mais de seis meses e histórico limpo de violações.

Após permitir adicionar músicas direto do YouTube Music, o TikTok anunciou mais uma novidade nesta quarta-feira (30/07): o lançamento do Footnotes, seu próprio sistema de verificação de fatos baseado no feedback da comunidade.

A plataforma havia anunciado os planos de testar o recurso em abril. Disponível primeiro nos Estados Unidos, a iniciativa é mais uma criada para combater a desinformação e fornecer contexto para conteúdos com afirmações possivelmente enganosas.

Como funciona o Footnotes?

Assim como as Notas da Comunidade do X/Twitter, o sistema permite que usuários qualificados adicionem notas contextuais aos vídeos. Desse modo, eles participam da identificação e correção de conteúdo potencialmente problemático, oferecendo perspectivas adicionais ou refutações a informações imprecisas.

Quando um vídeo é sinalizado por conter informações potencialmente enganosas, usuários convidados a participar do programa podem escrever uma nota com contexto ou esclarecimento, como mostra a captura de tela abaixo.

Usuários selecionados adicionam contexto a vídeos, com notas validadas pela comunidade (imagem: reprodução/TikTok)

Essas notas são, então, submetidas à avaliação de outros contribuidores. Para ser publicada e visível publicamente, ela precisa ser classificada como “útil”. Esse processo de consenso, segundo o TikTok, garante a imparcialidade e a relevância das informações adicionadas.

O sistema é projetado para ser apolítico, acrescenta a rede social, focando rigorosamente na precisão dos fatos. Contribuidores não são remunerados por suas participações e devem aderir às diretrizes da comunidade do TikTok e às políticas específicas do programa, que incluem requisitos como a linguagem utilizada e a forma como as informações são apresentadas.

Critérios de seleção e expansão

Por enquanto, o TikTok está convidando um grupo limitado de usuários nos Estados Unidos para participar do Footnotes. O cadastro de colaboradores começou em abril e envolve alguns critérios: ter pelo menos 18 anos, estar no TikTok há mais de seis meses e não ter histórico recente de violação dos Padrões da Comunidade do TikTok. A rede social afirma que quase 80.000 usuários dos EUA se qualificaram.

A plataforma planeja expandir a base de participantes à medida que o programa evolui, mas não especificou um cronograma para a eventual expansão do “Footnotes” para fora dos Estados Unidos. O foco inicial está na avaliação e aprimoramento do sistema em um ambiente controlado, permitindo coletar feedback e fazer os ajustes necessários antes do lançamento em outros países.

Quase 80 mil usuários se qualificaram para participar do programa nos EUA (ilustração: Vitor Pádua/Tecnoblog)

A decisão de iniciar o programa nos EUA aconteceu por dois fatores: a importância do mercado para o TikTok e a prevalência de discussões sobre desinformação no país. A chegada do Footnotes também ocorre no momento em que as plataformas de mídia social enfrentam grande pressão para combater a disseminação de informações falsas.

Apesar da iniciativa, a plataforma de vídeos curtos indicou que continuará investindo em outras frentes, como inteligência artificial e moderação humana para complementar o novo sistema, reconhecendo que nenhuma solução sozinha é suficiente para enfrentar o desafio da desinformação online.

Atualmente, o TikTok trabalha com mais de 20 organizações de verificação de fatos, em mais de 60 idiomas e 130 mercados ao redor do mundo.

Com informações do TikTok e TechCrunch
TikTok lança Footnotes, sua versão das Notas da Comunidade

TikTok lança Footnotes, sua versão das Notas da Comunidade
Fonte: Tecnoblog

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog