Category: ChatGPT

Quênia suspende startup que oferece criptomoeda a quem escanear íris

Quênia suspende startup que oferece criptomoeda a quem escanear íris

O Worldcoin é um projeto ambicioso — e controverso. Ele se propõe a escanear a íris de toda a população global para criar um sistema único de autenticação. Além disso, promete distribuir renda, pagando quem se cadastrar. O governo do Quênia, um dos primeiros países a receber a iniciativa, decidiu proibir a coleta de dados.

Orb, equipamento da Worldcoin usado para leitura da íris (Imagem: Divulgação/Worldcoin)

A Autoridade de Comunicações do Quênia vai avaliar o Worldcoin devido à “falta de clareza sobre segurança e armazenamento” dos dados das íris escaneadas, bem como à “incerteza” em relação à criptomoeda oferecida a quem se cadastra.

O Quênia não é o único país a ficar de olho (com o perdão do trocadilho) no Worldcoin. França, Alemanha e Reino Unido são alguns dos países que estão avaliando se o projeto viola leis de privacidade.

Projeto paga US$ 50 por pessoa

Segundo reportagens do site Rest of World e do jornal queniano The Standard, muitas pessoas no país se interessaram em escanear suas íris devido ao pagamento de 25 Worldcoins, que equivalem a cerca de US$ 50 ou R$ 240.

A maioria dos participantes teria sido atraída pelo dinheiro e não estava ciente dos objetivos do projeto — uma situação que se repete em Hong Kong e em Bangalore (Índia).

Com a suspensão das atividades, autoridades do Quênia precisaram dispersar filas de milhares de pessoas.

Worldcoin foi idealizado por fundador da OpenAI

A pessoa por trás do Worldcoin é Sam Altman, que criou a startup Tools for Humanity. Altman também é um dos fundadores e atual CEO da OpenAI, que desenvolve o ChatGPT e o Dall-E.

O Worldcoin foi anunciado em junho de 2021. Ele promete fazer um pagamento em uma criptomoeda própria a cada pessoa que escanear sua íris em um equipamento específico, chamado Orb — uma esfera prateada, do tamanho de uma bola de boliche.

Em maio de 2023, o aplicativo World foi lançado em mais de 80 países, e o Brasil está na lista. Ele funciona como carteira de criptomoedas e passaporte para login sem senhas, por meio da World ID, carteira de identidade registrada em uma blockchain.

O lançamento oficial da Worldcoin aconteceu em 24 de julho de 2023, quando as Orbs começaram a funcionar em 35 cidades de 20 países. No Brasil, o projeto está presente em três locais na cidade de São Paulo.

Durante o período beta, mais de 2 milhões de pessoas fizeram o registro de seus dados biométricos. Uma reportagem da MIT Technology Review aponta que muitas não receberam o dinheiro prometido.

Com informações: The Verge, Rest of World
Quênia suspende startup que oferece criptomoeda a quem escanear íris

Quênia suspende startup que oferece criptomoeda a quem escanear íris
Fonte: Tecnoblog

IA do Google ensina tarefas para robô sem precisar de instruções básicas

IA do Google ensina tarefas para robô sem precisar de instruções básicas

A inteligência artificial vai muito além do ChatGPT, e o Google deu uma prova disso nesta sexta-feira (28). A empresa apresentou seu modelo de aprendizagem Robotic Transformer 2 (ou RT-2). Graças a ele, robôs conseguem executar tarefas complexas, sem que seja necessário ensiná-los os movimentos básicos envolvidos.

Braço robótico usado pelo Google para demonstrar o RT-2 (Imagem: Divulgação/Google)

Segundo a DeepMind, divisão de robótica do Google, com o RT-2, um usuário poderia dar o comando “jogue o lixo fora” a um robô, mesmo que ele não tenha sido treinado para essa tarefa específica.

A máquina conseguiria identificar o que é lixo — seja um pacote de batatinha vazio ou uma casca de banana — e o que é jogar fora.

Pode parecer bobo, mas não é. Um desafio do trabalho com robôs é a necessidade de ensinar movimentos básicos, como pegar um objeto, girá-lo, mover o braço, e assim por diante.

O RT-2, por outro lado, passou por um treinamento com uma grande quantidade de dados da web. Isso permite a ele ser capaz de fazer abstrações — entender que diferentes tipos de objeto podem ser lixo, por exemplo.

Os pesquisadores afirmam que, em testes realizados com um braço robótico em um cenário de cozinha, o modelo foi capaz de entender que objeto poderia ser improvisado como martelo (uma pedra) e escolher qual era a bebida mais apropriada para uma pessoa cansada (uma lata de energético).

Algumas tarefas possíveis com o RT-2 (Imagem: Divulgação/Google)

Nem tudo é perfeito, porém. A reportagem do jornal The New York Times viu uma demonstração ao vivo do robô e ele errou o sabor de refrigerantes e a cor de algumas frutas.

RT-2 se beneficiou da mesma tecnologia do Bard e ChatGPT

Eu abri este texto falando que a inteligência artificial é muito mais que o ChatGPT, mas existe uma relação entre ele e o modelo usado nos robôs.

O ChatGPT, o Bard e outros chatbots capazes de entender linguagem natural e responder perguntas complexas usam como base uma tecnologia chamada modelo de linguagem de larga escala, ou LLM, na sigla em inglês.

As pesquisas com LLMs foram determinantes para desenvolver o RT-2 e torná-lo capaz de entender instruções que não foram predeterminadas. O modelo é capaz até mesmo de obedecer comandos em outras línguas além de inglês — assim como os chatbots.

Para Ken Goldberg, professor de robótica da Universidade da Califórnia em Berkeley, o uso dos modelos de linguagem nas máquinas foi suficiente para dar a elas alguma capacidade de raciocínio e improviso. “Isso é muito animador”, avaliou o pesquisador em entrevista ao NYT.

Com informações: TechCrunch, The Verge, The New York Times
IA do Google ensina tarefas para robô sem precisar de instruções básicas

IA do Google ensina tarefas para robô sem precisar de instruções básicas
Fonte: Tecnoblog

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

Alphabet, Amazon, Apple e Microsoft são algumas das empresas cujo valor está estimado a partir de US$ 1 trilhão. Em junho, uma nova companhia entrou nesse grupo: a Nvidia. É a primeira vez que uma empresa do ramo de chips alcança este patamar.

Todo mundo quer comprar da Nvidia (Imagem: Vitor Pádua / Tecnoblog)

Para quem não está tão inteirado das movimentações da empresa, a informação pode gerar surpresa. Afinal, a Nvidia não é aquela que faz as placas de vídeo para o público gamer?

E a resposta é sim: no setor de chips gráficos dedicados, a Nvidia é dominante. Mas foi-se o tempo que esta era o único negócio da companhia presidida por Jensen Huang. A utilidade das GPUs em diversas áreas impulsionou a Nvidia para novas e lucrativas direções.

Games, cripto e IA

A Nvidia surgiu em 1993. O primeiro chip, NV1, chegou ao mercado dois anos depois, mas o sucesso mesmo veio em 1997, com o lançamento do RIVA 128. Mas talvez seu produto mais conhecido seja a linha GeForce, a primeira das GPUs modernas, introduzida em 1999. No mesmo ano, a empresa fez sua primeira oferta pública de ações.

O foco da Nvidia, nesses primeiros anos, estava nos games. Parcerias com Sega e Microsoft marcaram a trajetória da empresa — embora para a Sega as coisas não tenham saído como o esperado… ouça o Tecnocast 296 para entender essa história.

Mas a capacidade das GPUs vai muito além da renderização de gráficos, o que abriu uma nova gama de oportunidades. Aqui, vale uma explicação técnica.

Diferente da CPU, que processa tarefas de forma sequencial, a GPU tem como característica o processamento paralelo. Na prática, isso significa que ela consegue realizar várias instruções ao mesmo tempo. Isso é possível graças ao grande número de núcleos presente nas GPUs modernas. Quanto mais núcleos, melhor o desempenho.

Placa de vídeo Asus com GPU Nvidia GeForce RTX 4070 Ti (imagem: divulgação/Asus)

GPUs com muitos núcleos, portanto, são excelentes para aplicações que necessitam de alto volume de processamento. Um exemplo é a mineração de criptomoedas. Nos períodos de maior atividade dos mineradores, era até difícil encontrar chips no mercado, o que gerou disparos no preço.

Outro contexto muito importante do uso das GPUs é no machine learning, dentro do processo de treinamento de inteligências artificiais.

Vale destacar: a Nvidia não desenvolveu suas GPUs com estas aplicações em mente; elas foram descobertas ao longo do caminho. Chips poderosos eram necessários, e a Nvidia detinha a melhor tecnologia da área. Foi como somar dois e dois.

A empresa soube aproveitar esses novos desdobramentos. Hoje, colhe os frutos.

A Nvidia vende para quem quiser comprar

Segundo Jensen Huang, estamos atravessando o “momento iPhone da IA”. O ChatGPT teria provocado o mesmo agito no mercado que o smartphone da Apple provocou quando apareceu, em 2007. Para milhões de pessoas, foi o primeiro contato com uma inteligência artificial capaz de coisas extraordinárias.

Poucas empresas estão em melhor posição para aproveitar este momento do que a Nvidia. Suas GPUs são usadas para treinamento de inteligências artificiais há anos. Na parceria entre Microsoft e OpenAI para criação de produtos de IA, há “milhares” de GPUs já otimizadas para este fim.

Assim como no auge da mineração de criptomoedas, conseguir chips gráficos de alta performance no momento pode ser tarefa difícil. Elon Musk, por exemplo, comentou está mais fácil encontrar drogas do que GPUs atualmente. Há alguns meses, descobriu-se que o dono do Twitter também investia em IA. Como? Bem, ele comprou milhares de chips da Nvidia.

Intel e AMD não estão paradas, é claro, e tentam emplacar seus chips voltados para inteligência artificial. Porém, a dianteira da Nvidia é muito consolidada. Trata-se de um domínio construído ao longo de anos, e é improvável que as competidoras consigam atacá-lo num futuro próximo.

Jensen Huang, CEO da Nvidia

Assim, não é uma surpresa que o mercado esteja tão animado com a Nvidia. As ações da empresa subiram 181% no acumulado do ano; só no atual trimestre fiscal, a expectativa é de US$ 11 bilhões em vendas, um recorde para a empresa.

Além disso, há o posicionamento peculiar da companhia. Google e Microsoft, por exemplo, são concorrentes em áreas como busca e IA generativa. O objetivo de ambas é criar produtos melhores, obter vantagens competitivas e conquistar mais usuários. O escopo da Nvidia é outro: ela é quem fornece o poder computacional para quem estiver interessado. Seja o Google, a Microsoft, Elon Musk ou quem quer que seja.

Portanto, é seguro dizer que a Nvidia não tem favoritos na batalha da inteligência artificial. Ela torce mesmo é pela briga.
As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga
Fonte: Tecnoblog

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

A OpenAI anunciou na última quinta-feira (20) a ferramenta de instruções padrões para o ChatGPT. Ainda em fase beta e disponível apenas para os assinantes do ChatGPT Plus, o recurso deve facilitar o uso da IA, permitindo que os usuários criem uma “estrutura” para que a inteligência artificial responda um comando de modo específico. A OpenAI espera lançar o recurso definitivamente e para todos os usuários nas próximas semanas.

ChatGPT deve dar respostas mais objetivas com nova funcionalidade (Imagem: Vitor Pádua / Tecnoblog)

O exemplo dado pela OpenAI e que também usaremos aqui é o seguinte: um professor da terceira série registrará na sua conta a sua profissão, permitindo que ele não repita que é um professor toda vez que enviar um prompt para o ChatGPT.

Além disso, o usuário pode definir como deseja receber a resposta. Por exemplo, o professor imaginário citado anteriormente pode preferir uma tabela com coluna de lado positivo e negativo de um determinado assunto que será apresentado em sala.

Em outra situação, a OpenAI mostra que um programador pode pedir que a resposta do ChatGPT seja direta, sem explicação sobre como funciona o código e que ele busque pela solução mais eficiente. E neste caso, o programador ainda pode adicionar com qual linguagem ele trabalha. Assim, não precisa escrever “escreva um código em Python” ou “escreva um código GoLang”.

Com instruções predefinidas para responder na linguagem GoLang, ChatGPT entrega código sem precisar que o usuário definida a linguagem (Imagem: Reprodução/Tecnoblog)

Novidade da OpenAI é bem invasiva e a empresa “sabe disso”

Informar a sua profissão ou o tamanho da sua família e onde você mora (esse é um dos exemplos no site da OpenAI) é bem invasivo do ponto de vista de privacidade. Ciente disso, a OpenAI permite que o usuário desative o uso das informações das instruções padrões para melhorar o desempenho do ChatGPT.

A empresa afirma que os dados pessoais que facilitem a identificação de alguém são removidos quando usado para treinar a IA. Todavia, o problema é se acontecer um vazamento, como já sofreu a OpenAI duas vezes: uma por erro próprio e a outra na qual ela jogou a culpa nos usuários.

Com informações: OpenAI
OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT
Fonte: Tecnoblog

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

Um novo chatbot com inteligência artificial está chegando ao Brasil, e vai “morar” em dois apps bastante usados no país: WhatsApp e Telegram. Chamada LuzIA, a assistente tem poderes parecidos com os do ChatGPT, além de uma utilidade que vai interessar muita gente: ela transcreve áudios.

LuzIA no WhatsApp (Imagem: Reprodução/LuzIA)

A LuzIA faz muito daquilo que tornou o ChatGPT famoso nos últimos meses: ela pode ajudar a redigir mensagens, dar dicas de receitas, tirar dúvidas sobre conhecimentos gerais, sugerir viagens, livros, filmes e séries, e muitas outras coisas nessa linha.

Ela, porém, tem uma vantagem que vai deixar muita gente interessada. A LuzIA transcreve áudios. Basta encaminhar uma mensagem de voz para a inteligência artificial — ela a transcreve em alguns segundos.

Em conversa com o Tecnoblog, Álvaro Higes, CEO da LuzIA, destaca que o recurso vai além da praticidade: ele também ajuda na acessibilidade, facilitando a comunicação de pessoas com deficiência auditiva.

Outro diferencial em relação ao ChatGPT é a capacidade de criar imagens. Basta escrever “imagina” e a descrição desejada para receber uma figura gerada pela inteligência artificial.

IA via WhatsApp

A LuzIA não tem aplicativo. Para utilizá-la, basta enviar mensagens a um número de telefone, usando WhatsApp ou Telegram.

A empresa aponta que usar o WhatsApp tem também a vantagem de aproveitar os pacotes de dados ilimitados que as operadoras costumam oferecer para o mensageiro.

Desenvolvida na Espanha e lançada em março de 2023, a LuzIA está disponível em mais de 40 países. Para vir ao Brasil, ela ganhou um número de telefone local, com o código do país: +55 11 97255-3036.

Outra forma é acessar o site da LuzIA e tocar nos botões de WhatsApp ou Telegram para iniciar a conversa no mensageiro correspondente.

LuzIA usa GPT-3.5 e Stable Diffusion

Higes explica que o robô é “agnóstico” em relação aos modelos usados como base. Isso quer dizer que ela pode trocar de fornecedor, caso apareça uma solução melhor no mercado.

Atualmente, a LuzIA usa o GPT-3.5 para entender perguntas e gerar respostas em texto, e o Whisper para reconhecer fala e transcrever áudio. As duas soluções são da OpenAI, responsável pelo ChatGPT.

Para criar imagens, porém, a LuzIA usa o Stable Diffusion, da Stability AI, deixando de lado o Dall-E da OpenAI.

Sem cadastro e sem perfil

Em relação à privacidade, Higes explica que a LuzIA não exige cadastro, nem cria perfis dos usuários. “A única informação que ela armazena é o número, para que ela possa saber para quem enviar a resposta”, comenta.

Além disso, as conversas são “zeradas” após algum tempo. Isso quer dizer que não adianta continuar um bate-papo com a LuzIA depois de algumas horas — você vai ter que explicar tudo de novo.

A empresa fez uma parceria com a Meta para que seu número seja verificado e tenha o selo verde no WhatsApp, “para que o usuário possa ter certeza que está falando com a LuzIA e não caindo em um golpe”, comenta o CEO.

Além disso, a assistente traz o já habitual aviso de que inteligências artificiais podem alucinar na hora de gerar respostas.

A LuzIA é gratuita e, por enquanto, não há nenhum plano para cobrar pelo acesso a ela. Higes diz que, em um primeiro momento, a ideia é a ver como a base de usuários vai se comportar para só depois pensar em um modelo de negócios para sustentar a assistente.
LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios
Fonte: Tecnoblog

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

A tecnologia por trás do ChatGPT precisa ser treinada com muito conteúdo para funcionar corretamente. A OpenAI conseguiu acesso a quase quatro décadas de notícias para fazer isso: a empresa fechou um acordo com a agência de notícias Associated Press para usar seus arquivos. Em troca, ela dará acesso às suas tecnologias.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

O acordo foi anunciado nesta quinta-feira (13) e é um dos primeiros entre uma empresa de notícias e uma companhia de inteligência artificial. A OpenAI licenciará parte do arquivo de textos da AP desde 1985.

Além disso, as empresas tentarão entender formas de usar inteligência artificial na produção de notícias, para empregá-la em futuros produtos e serviços. Ou seja, o ChatGPT não vai começar a escrever notícias para a AP — não por enquanto, pelo menos.

“O feedback [da AP] — bem como o acesso a seu arquivo de textos factuais, de alta qualidade — vai ajudar a melhorar as capacidades e utilidades dos sistemas da OpenAI”, disse Brad Lightcap, diretor-chefe de operações da OpenAI.

Na prática, o licenciamento do conteúdo também ajuda a OpenAI a se proteger de processos por violação de direitos autorais, vindos de escritores e artistas. A empresa fechou um acordo parecido com a Shutterstock, para usar suas imagens, vídeos e música no treinamento do Dall-E.

AP usa inteligência artificial há nove anos

A AP começou a testar inteligências artificiais em 2014. De lá para cá, ela automatizou relatórios financeiros de empresas, além de usar robôs na cobertura de torneios locais de beisebol e competições esportivas universitárias.

No começo de 2023, a AP anunciou novos usos para a inteligência artificial. Ela passou a emitir alertas de notícias em espanhol. Além disso, o serviço de fotografias e vídeos ganhou uma busca com IA, que permite que seus clientes façam pesquisas descritivas para encontrar o que querem.

Com informações: Axios, The Verge
OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT
Fonte: Tecnoblog

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

O Google oficializa a chegada do Google Bard ao Brasil nesta quinta-feira (13) depois de muita expectativa. A ferramenta de inteligência artificial rivaliza com o ChatGPT e fala bom português. Executivos da empresa explicaram que os últimos três meses foram dedicados a treinamento e correções para que a plataforma fosse liberada por aqui. Além do Brasil, os 27 países da União Europeia passarão a contar com o Bard.

Google anunciou chegada do Bard ao Brasil em 13.07.2023 (Imagem: Divulgação/Google e Vitor Pádua/Tecnoblog)

A novidade tenta tirar proveito do alto interesse do público pela inteligência artificial generativa. O Bard se baseia num grande modelo de linguagem (LLM na sigla em inglês) para compreender o que é solicitado. Na sequência, propõe respostas.

Numa mesa redonda com jornalistas do país, os porta-vozes do Google reiteradamente disseram que o Bard é um experimento. Isto fica sinalizado na interface, de acordo com as imagens de divulgação. “Nós estamos muito otimistas sobre como a IA generativa pode ajudar as pessoas no dia a dia”, comemorou o gerente de marketing Leo Longo.

De acordo com ele, organizações parceiras deram apoio ao Google no processo de “localizar” o Bard. Foi necessário ensiná-lo a compreender nuances e temas sensíveis em cada novo local onde está disponível.

Bard responde perguntas de usuário, porém sem citar fontes de informação (Imagem: Thássius Veloso/Tecnoblog)

O conglomerado de internet faz sugestões sobre os usos mais interessantes do Bard:

Criação de textos, como pedidos de desculpas ou convites

Pedir dicas de lugares

Encontrar orientações para dúvidas do dia a dia, como recomendações para ler mais

Buscar passo a passo para explicar um tema a outras pessoas

Novidades da nova versão do Bard

O anúncio da chegada do Bard ao mercado brasileiro está inserido num contexto mais amplo, desta vez global. A ferramenta de IA também conta, a partir de hoje, com novas funcionalidades.

Função do Bard permite usar até cinco estilos de resposta (Imagem: Google/Divulgação)

Função de fixar conversas na interface do Bard (Imagem: Divulgação/Google)

Confira o resumo abaixo:

Fixar e nomear conversas.

Ouvir as respostas em voz alta.

Mais opções de estilo. Agora são cinco: simples, longo, curto, profissional ou casual.

Exportar código Python para o Replit, além do Google Colab.

Envio de imagens. Por meio da tecnologia de Google Lens, as pessoas poderão fazer perguntas ou dar comandos a partir de uma figura enviada ao Bard. Por ora, o recurso está previsto somente em inglês.

Falta de transparência sobre a fonte dos dados

Uma pergunta recorrente de membros da imprensa aos executivos do Google diz respeito à base de dados. Por exemplo, o Bard leva em consideração o conteúdo produzido por veículos jornalísticos ou publicado sob proteção de direitos autorais – caso de livros inteiros? A gerente de comunicação Claudia Tozetto afirmou que a ferramenta se baseia em “informação pública disponível na web”, sem entrar em detalhes.

“Estamos atentos a este tema porque o Google tem a filosofia de que não pode ter sucesso se o ecossistema inteiro da internet não tiver sucesso junto com a gente”, disse a executiva. Ela ressaltou que o Bard é uma novidade ainda em estágio de testes.

Já Bruno Possas, vice-presidente global de engenharia para busca, disse que o usuário pode perguntar ao Bard de onde vêm as informações. “O sistema consegue responder para alguns casos factuais, mas para outros não”, observou o executivo.

No nosso teste, Bard deu resposta genérica quando perguntado sobre fontes das informações apresentadas (Imagem: Thássius Veloso/Tecnoblog)

Como acessar o Bard?

Basta entrar no endereço bard.google.com tanto pelo celular quanto pelo computador. A interface em português será oferecida por padrão, mas os usuários poderão falar com o Bard em outros idiomas. É necessário utilizar uma conta Google para fazer o login.

Logo de cara, a ferramenta avisa: “Oi, eu sou o Bard. Posso colaborar com você usando minha criatividade e disposição para ajudar. Eu tenho algumas limitações e confesso que nem sempre acerto tudo, mas com seu feedback eu vou melhorar.”

Janela informa que Bard é “experimental” (Imagem: Thássius Veloso/Tecnoblog)

O Google explica ao Tecnoblog que “neste período experimental, nós não temos um limite para o número de conversas diárias, mas nosso objetivo principal é garantir que a experiência seja útil para todas as pessoas para depois evoluir”.

Não custa lembrar que o Bard não substitui a ferramenta de busca do Google. Por ora, são produtos tratados de maneira independente.
Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo
Fonte: Tecnoblog

Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais

Os escritores Sarah Silverman, Christopher Golden e Richard Kadrey abriram processos contra a OpenAI, empresa por trás do ChatGPT, e contra a Meta. Eles acusam as empresas de desrespeitar direitos autorais ao treinar suas inteligências artificiais de geração de texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A ação foi movida na Corte Distrital do Norte da Califórnia. Ela alega que o ChatGPT, da OpenAI, e o LLaMA, da Meta, foram treinados com conjuntos de dados adquiridos ilegalmente, que continham as obras dos autores.

Os livros estariam em sites como o Z-Library (que foi derrubado em novembro de 2022), o Library Genesis e o Bibliotik, além de serem compartilhados por torrent.

Como evidência do uso ilegal, os escritores apontam que o ChatGPT é capaz de resumir seus livros com ótima precisão, apesar de errarem alguns detalhes, o que indicaria que eles tiveram acesso às obras completas.

Já em relação ao LLaMA, da Meta, os autores dizem ter encontrado as obras no conjunto de dados que a empresa usou para treinar seus modelos de IA.

A Meta tem uma abordagem mais aberta sobre o assunto que a OpenAI: em um artigo, ela detalha as fontes usadas para desenvolver seu gerador de texto.

O conjunto de dados se chama ThePile (”a pilha”, em tradução livre) e foi criado por uma empresa EleutherAI. Em um artigo, ela afirma que ele usa uma cópia dos conteúdos da Bibliotik.

Escritório de advocacia já move outras ações contra ChatGPT

Os três autores são representados no processo pelos advogados Joseph Saveri e Matthew Butterick. A dupla também entrou com outra ação contra a OpenAI, em nome dos escritores Mona Awad e Paul Tremblay, na mesma corte dos EUA.

Saveri e Butterick criaram até um site chamado LLM Litigation (“litígio contra grandes modelos de linguagem”, em tradução livre) para divulgar as ações.

Além dos autores, o escritório de Saveri representa artistas que entraram com uma ação coletiva contra o Stable Diffusion. O algoritmo supostamente toma ilustrações, desenhos e outras obras como base para gerar imagens.

Outro processo é contra o GitHub Copilot, que usa IA para sugerir trechos de código. Todas essas práticas podem caracterizar violação de direitos autorais.

Com informações: The Verge
Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais
Fonte: Tecnoblog

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

O Threads mal chegou e já passou a marca de 100 milhões de usuários. Lançado na última quarta-feira, a nova rede social da Meta atingiu o número acima em apenas 5 dias. Com isso, o Threads supera com sobras o tempo que levou para o ChatGPT passar de 100 milhões de usuários — foram 2 meses para o serviço da OpenAI.

Threads chegou e rapidamente foi batendo recordes de usuários (Imagem: Thássius Veloso/Tecnoblog)

Logo quando ficou óbvio que o Threads estava para chegar, começaram os grandes questionamentos:  a nova rede social dará certo ou não? No momento, ainda está bem cedo para responder. E, na verdade, o importante para a Meta é que no curto prazo o Threads tem hype — logo mais será o momento de capitalizar com anúncios.

Threads é o “primeiro lançamento” de empresa consolidada

A estreia da Threads é um momento “inovador” nas redes sociais, pois foi a primeira vez que uma grande empresa, já consolidada, lançou uma nova plataforma. Desde que chegamos na “tríade” de redes sociais (Facebook, Instagram e Twitter), todos as grandes novidades foram atualizações nessas plataformas ou empresas que lançaram apps que foram esquecidos logo depois — BeReal é um exemplo.

BlueSky, Koo e Mastodon também chegaram como “substitutos do Twitter”, mas eles não são criações de uma empresa tão rica e dominante como a Meta. A grande vantagens do Threads para atingir a marca de meio Brasil em cinco dias é usar a integração com o Instagram e toda a base de usuários deste sucesso.

Threads ainda tem pontos há melhorar, mas a estrutura consolidada do Instagram ajuda na conquista do público (Imagem: Divulgação/Meta e Vitor Pádua/Tecnoblog)

E como já falamos aqui no Tecnoblog, outro acerto foi preparar os influencers para a nova rede — goste ou não deles. Afinal, toda rede social depende de criadores de conteúdo. Quanto mais público eles trazem, melhor. Por isso que Diego Defante não teve um acesso antecipado e o Leo Santana sim.

Mesmo com a Meta sendo experiente em redes sociais, algumas melhorias precisam ser feitas para o Threads popularizar ainda mais. Por exemplo, a opção de um feed só de quem você segue e lançar (de uma vez) o acesso web — com este último, aí eu penso em começar a “threadar”.

Threads não precisa “dar certo”, precisa dar lucro

Voltando ao “vai dar certo ou não”, a verdade é que o conceito de certo ou errado é relativo. Provavelmente, a Meta vê o “dar certo” como sinônimo de “dar lucro” — seja com 100 milhões de usuários ou 1 bilhão. Se com mais de 100 milhões de contas o Threads já for atrativo para os anunciantes, pagar as contas e ainda dar lucro, ótimo (para o Zuckerberg, óbvio).

Como bem comparou a colega Taylor Hatmaker do TechCrunch, o Threads quer ser o grande shopping center, não a “praça pública” falsamente prometida por Elon Musk ao comprar o Twitter. Até porque Threads não será um espaço para incentivar notícias e política.

Com informações: TheVerge e TechCrunch
Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT

Threads ultrapassa 100 milhões de usuários e supera marca do ChatGPT
Fonte: Tecnoblog