Category: ChatGPT

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT, da OpenAI, será usado pela Universidade do Estado do Arizona em seus computadores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI e a Universidade do Estado do Arizona (conhecida pela sigla ASU) anunciaram nesta semana uma parceria que levará o ChatGPT para os PCs da universidade. Esta é a primeira vez que uma instituição de ensino superior contrata o serviço de IA da empresa. O ChatGPT será usado por pesquisadores, funcionários e até mesmo alunos — mas não, a IA não fará os trabalhos de aula por eles.

O anúncio da parceria mostra que a percepção das instituições de ensino sobre a inteligência artificial está mudando. Com a popularização do ChatGPT, houve uma preocupação envolvendo o seu impacto nas instituições de ensino, tanto que algumas escolas bloquearam o acesso ao site da OpenAI.

O tempo foi passando e hoje a IA generativa passa a ser cotada como uma aliada no ensino e nas empresas — vide os funcionários da Samsung que usavam o ChatGPT para auxiliar em algumas tarefas. A ASU anunciou ainda que realizará um concurso para que alunos e funcionário deem dicas de como usar a IA nas atividades da universidade.

Funcionários da ASU ganharão conta do ChatGPT Enterprise

Com a parceria entre a Universidade do Estado do Arizona e OpenAI, funcionários da universidade terão contas para acessar o ChatGPT Enterprise, uma versão da IA com recursos extras. Entre essas funcionalidades estão a capacidade de analisar arquivos, receber prompts maiores e desempenho mais rápido.

O ChatGPT Enterprise usado pela ASU permite ainda que a instituição customize a IA com ferramentas dedicadas para as atividades da universidade. Um exemplo interessante para as universidades brasileiras seria um ChatGPT capaz de avaliar as ementas e conteúdos programáticos das disciplinas que um estudante deseja validar.

ChatGPT pode criar questões para que alunos treinem um determinado assunto (Imagem: Reprodução/Tecnoblog)

Se no início da sua popularização havia uma crença de que o ChatGPT iria prejudicar a educação, o tempo mostra que a IA generativa, quando bem usada, pode auxiliar as instituições de ensino. No exemplo acima, o ChatGPT mostra que ele pode ajudar os estudantes a treinar algum assunto criando novas questões — mas claro, ele ainda pode estar errado e as respostas da IA devem ser comparadas com as fontes, anotações e material de aula, por exemplo.

Com informações: TechCrunch
ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez
Fonte: Tecnoblog

OpenAI quer transformar o ChatGPT em um assistente virtual para celular

OpenAI quer transformar o ChatGPT em um assistente virtual para celular

App do ChatGPT para Android tem código sobre uso como assistente virtual (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI tem planos de transformar o ChatGPT no assistente virtual padrão do seu smartphone — pelo menos se você usar um Android. Na versão 1.2023.352 do aplicativo mobile da IA, lançado em dezembro, há algumas linhas de código que mostram que a empresa está preparando essa funcionalidade para o ChatGPT. Se tudo sair como esperado, você poderá substituir o Google Assistente no seu celular.

A descoberta desses códigos foi feita pelo jornalista Mishaal Rahman. Rahman é conhecido pelo seu trabalho envolvendo mineração de códigos e foi uma das principais fontes sobre os recursos do Android 14.

O jornalista conseguiu até ativar o recurso manualmente editando o código. Porém, ainda que a animação da função de prompt por áudio do ChatGPT seja aberta, o aplicativo fecha. Esse comportamento do recurso é normal, visto que ele não foi anunciado pela OpenAI e ainda deve estar na fase de desenvolvimento.

Funcionamento do ChatGPT como assistente virtual para celulares (Imagem: Mishaal Rahman/Android Authorithy)

ChatGPT como assistente virtual é caminho natural

O uso do ChatGPT e de outras IAs generativas como assistente virtual é o caminho esperado para essa tecnologia. A Siri e o Google Assistente são ferramentas limitadas, sem a capacidade de aprender e evoluir como acontece com o ChatGPT e o Bard.

Sem esquecer da Alexa, por mais que ela pareça uma inteligência artificial, suas skills são desenvolvidas e ela utiliza um algoritmo para “adivinhar” algumas coisas — como avisar que um produto que você listou está em promoção. Inclusive a Amazon já deu uma prévia de como será a Alexa inteligente.

Por isso, com a praticidade que as IAs podem entregar aos usuários, elas logo substituirão o Google Assistente, Siri e Bixby. Hoje, para usar o ChatGPT no celular, você precisa abrir o aplicativo. O plano da OpenAI é que você tenha mais praticidade para pedir que ele crie uma mensagem de aniversário, um convite, um email, uma tabela ou seja lá o que você precisa.

Com informações: Android Authority e 9to5Google
OpenAI quer transformar o ChatGPT em um assistente virtual para celular

OpenAI quer transformar o ChatGPT em um assistente virtual para celular
Fonte: Tecnoblog

OpenAI: Sam Altman volta a chefiar a produtora do ChatGPT

OpenAI: Sam Altman volta a chefiar a produtora do ChatGPT

ChatGPT e Sam Altman, CEO da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

O cientista da computação Sam Altman voltou a ser CEO da OpenAI, a produtora por trás do ChatGPT, depois de um confuso vaivém nos últimos dias. O executivo chegou a um acordo que prevê a formação de um novo conselho administrativo.

Talvez a gente ainda não saiba todos os detalhes destas movimentações. Por enquanto, está confirmado que Sam Altman volta a dirigir a organização dedicada à inteligência artificial. Ele postou na rede social X (antigo Twitter) que “ama a OpenAI” e que tudo o que fez nos últimos dias teve por objetivo manter o time e seu propósito unidos.

De forma resumida, eis o que ocorreu:

17/11: Sam Altman foi demitido do cargo de CEO pelo então conselho administrativo, por supostos problemas de comunicação com as demais lideranças da organização.

20/11: A Microsoft fechou a contratação de Sam Altman para chefiar uma equipe de cientistas que se dedicam à inteligência artificial. O cofundador da OpenAI Greg Brockman também entraria na companhia liderada por Satya Nadella.

Ainda em 20/11: Diversos funcionários da OpenAI ameaçaram conduzir uma demissão coletiva. Eles criticaram a má-fé do antigo conselho administrativo e demonstraram apoio a Sam Altman.

21/11: No fim da noite, a OpenAI informou que seu (ex?)principal executivo está de volta ao cargo de CEO. O comunicado no X disse que foi feito um “acordo inicial” que prevê a formação de um novo board. “Estamos colaborando para chegar aos detalhes finais. Obrigado a você pela paciência ao longo disso”, declarou a empresa.

Cofundador da OpenAI posta foto com funcionários (Imagem: Reprodução/Greg Brockman)

Mudanças no conselho da OpenAI

A nova formação da OpenAI parece ter o apoio da Microsoft, sua principal parceira no fornecimento de infraestrutura na nuvem. Satya Nadella declarou no X que está “encorajado pelas mudanças no conselho da OpenAI”. Ele também disse que foram dados passos iniciais para uma governança mais “estável, bem-informada e efetiva“.

Inicialmente, o novo conselho será formado por Brett Taylor, Larry Summers e Adam D’Angelo. O último executivo é o único remanescente do grupo que aprovou a demissão de Altman e terá a função de representar as opiniões do antigo board.

O conselho da OpenAI deve ser ampliado para nove membros no futuro. Com isso, a Microsoft deve ganhar uma cadeira no grupo devido à parceria e o amplo investimento realizado na empresa de IA.

O acordo para o retorno de Altman ainda envolve uma investigação sobre a demissão do executivo. Seguindo a proposta do então CEO interino Emmett Shear, a auditoria do caso será realizada por um escritório de advocacia independente.
OpenAI: Sam Altman volta a chefiar a produtora do ChatGPT

OpenAI: Sam Altman volta a chefiar a produtora do ChatGPT
Fonte: Tecnoblog

Sam Altman é demitido do cargo de CEO da OpenAI, empresa que faz o ChatGPT

Sam Altman é demitido do cargo de CEO da OpenAI, empresa que faz o ChatGPT

Sam Altman, ex-CEO da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Sam Altman não é mais o CEO da OpenAI, empresa de inteligência artificial responsável pelo ChatGPT e pelo Dall-E, entre outros produtos. Segundo a companhia, a decisão foi tomada após um processo de avaliação do conselho de diretores.

Eles consideraram que Altman não era consistentemente franco em suas comunicações com o conselho, o que dificultava sua capacidade de exercer o cargo e levou a uma quebra de confiança.

A decisão foi anunciada na tarde desta sexta-feira (17), no blog da OpenAI. Mira Murati, que atualmente é CTO (diretora-chefe de tecnologia), assumirá como CEO interina. A empresa está procurando alguém para suceder Altman como CEO permanente.

No X (anteriormente conhecido como Twitter), o agora ex-CEO disse ter “amado seu tempo na OpenAI” e que vai revelar em breve quais serão seus próximos passos. “Foi transformador para mim, e espero que tenha sido um pouquinho para o mundo também”, acrescentou.

OpenAI tem mais mudanças

Altman deixa também o conselho de diretores da OpenAI. Além dele, Greg Brockman deixa o cargo de presidente do conselho, seguindo apenas como presidente da empresa e se reportando ao CEO.

Há uma semana, quando ainda estava no cargo de CEO, Altman participou da conferência DevDay, realizada pela OpenAI para apresentar novidades para seus produtos e serviços. Isso torna sua saída surpreendente, de certa forma.

Ao Verge, a Microsoft, que é uma das maiores investidoras da OpenAI, diz que nada muda no relacionamento entre as duas. “Temos uma parceria de longo prazo com a OpenAI, e a Microsoft continua comprometida com Mira e sua equipe para trazer uma nova era de IA para nossos consumidores”, disse um porta-voz da empresa.

De co-fundador a demitido

Sam Altman é um dos co-fundadores da OpenAI, com Ilya Sutskever, atual cientista-chefe, e Elon Musk, que deixou a empresa em 2018, alegando conflitos de interesses com seu trabalho na Tesla. Altman e Musk foram co-presidentes da organização, que, na época, não tinha fins lucrativos.

Altman se tornou a cara conhecida da OpenAI. A empresa ganhou os holofotes desde o fim de 2022 com o lançamento do ChatGPT, que transformou a chamada inteligência artificial generativa em tendência no setor de tecnologia. A Microsoft e o Google lançaram o Microsoft Copilot e o Google Bard após a repercussão, e outras companhias seguiram o mesmo caminho.

O agora ex-CEO da OpenAI tem outros projetos no setor de tecnologia. Um deles é bastante controverso: o Worldcoin, que pretende escanear as íris das pessoas para gerar uma identificação digital e fazer pagamentos com criptomoedas. Altman também é investidor da Humane, startup que desenvolveu o AI Pin, aparelho vestível sem tela que quer substituir o celular.

Com informações: The Verge, CNBC
Sam Altman é demitido do cargo de CEO da OpenAI, empresa que faz o ChatGPT

Sam Altman é demitido do cargo de CEO da OpenAI, empresa que faz o ChatGPT
Fonte: Tecnoblog

ChatGPT: OpenAI permite criar versão personalizada do chatbot

ChatGPT: OpenAI permite criar versão personalizada do chatbot

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI anunciou nesta segunda-feira (6) que desenvolvedores poderão criar suas próprias versões do ChatGPT, sem precisar usar ferramentas de código. A empresa vai criar uma loja para que os criadores compartilhem seus modelos de linguagem com outros usuários e ganhem dinheiro com isso.

Segundo a empresa, estes “agentes de inteligência artificial” serão chamados GPTs, e a loja receberá o nome de GPT Store. Os GPTs estarão disponíveis para assinantes do ChatGPT Plus (que custa US$ 20 mensais) e clientes do plano empresarial. No segundo caso, os consumidores poderão criar GPTs para uso interno. Já a loja chega no mês que vem.

Configuração sem código

A ferramenta é uma evolução da ferramenta de instruções predefinidas, liberada pela OpenAI em julho de 2023. Com ela, usuários do ChatGPT Plus conseguem configurar instruções padrão. Assim, não é mais necessário repetir algumas preferências na hora de fazer pedidos ao chatbot.

“Muitos usuários avançados mantêm listas cuidadosamente construídas de pedidos e instruções, copiando-as manualmente para o ChatGPT. Os GPTs podem fazer tudo isso agora”, diz a OpenAI em um texto publicado no seu blog.

A reportagem do site The Verge testou os GPTs customizados. Um deles recebia arquivos PDF e dava dicas de como melhorar o texto enviado, sem que o usuário pedisse. Outro ajudava os participantes do DevDay, evento da OpenAI realizado nesta segunda (6).

Os GPTs podem ser configurados de várias formas. Dá para predefinir o tom que eles vão usar nas conversas e qual será a primeira pergunta feita por ele, por exemplo. Isso tudo pode ser feito por meio de uma interface simples, sem precisar mexer em códigos.

OpenAI vai criar loja de GPTs

Os GPTs têm acesso a ferramentas próprias da OpenAI, como navegação na web, Dall-E e interpretação de códigos, e serviços externos, como Canva e Zapier. Outra possibilidade é usar dados customizados — a plataforma permite o upload de informações próprias.

Os modelos poderão ser compartilhados e vendidos na GPT Store, que deve chegar mês que vem. Até agora, não há muitos detalhes sobre como ela deve funcionar, mas a OpenAI garante que os criadores não poderão ver as conversas envolvendo seus GPTs.

Com informações: OpenAI e The Verge
ChatGPT: OpenAI permite criar versão personalizada do chatbot

ChatGPT: OpenAI permite criar versão personalizada do chatbot
Fonte: Tecnoblog

Dall-E 3 será integrado ao ChatGPT e promete criar imagens melhores

Dall-E 3 será integrado ao ChatGPT e promete criar imagens melhores

A OpenAI anunciou nesta quarta-feira (20) o Dall-E 3, nova versão do seu modelo de inteligência artificial para criação de imagens. Como era de se esperar, a promessa é de que as artes geradas terão uma qualidade superior. Outra novidade é que vai dar para usar a ferramenta diretamente do ChatGPT. A previsão é que ele chegue em outubro.

Uma das ilustrações apresentadas pela OpenAI (Imagem: Divulgação/OpenAI)

Entre as melhorias na qualidade das imagens, a OpenAI promete que o Dall-E 3 será capaz de fazer mãos e textos melhores, dois pontos fracos das ferramentas do tipo disponibilizadas até aqui. Também será possível pedir ajustes em uma imagem já criada.

A empresa diz que os resultados serão mais fiéis ao que os usuários solicitarem. Para ilustrar, ela mostrou um desenho de um simpático abacate cortado ao meio, sem caroço, no divã, dizendo se sentir vazio por dentro.

Desenhos complexos e com textos devem ficar melhores no Dall-E 3 (Imagem: Divulgação/OpenAI)

Dall-E 3 será integrado ao ChatGPT

O Dall-E 3 também será integrado ao ChatGPT. Assim, os usuários não precisarão de duas ferramentas diferentes para gerar textos e imagens — vai dar para pedir tudo diretamente ao chatbot.

A nova versão da inteligência artificial geradora de imagens deve chegar em outubro para assinantes do ChatGPT Plus, plano pago que custa US$ 20 mensais, e também para os usuários corporativos.

OpenAI coloca regras para evitar acusações de plágio

Outra mudança está nas proteções. O Dall-E 3 deve rejeitar pedidos para criar uma imagem ao estilo de um artista vivo — você deve conseguir solicitar um quadro do Michael Jordan no estilo do Van Gogh, mas não do Romero Britto, por exemplo.

Além disso, artistas poderão impedir que todas as suas obras ou algumas delas não sejam usadas para treinar modelos de inteligência artificial da OpenAI.

Essas novidades parecem vir para evitar problemas relacionados a direitos autorais, como acusações de plágio, que surgiram desde que ferramentas do tipo foram liberadas para o público.

A Stability AI, concorrente da OpenAI, foi processada pela Getty Images, por exemplo. As criações do Stable Diffusion muitas vezes vinham com marcas d’água do banco de imagens. Para a Getty, isso é um indício de violação de direitos autorais.

Com informações: OpenAI, Axios, TechCrunch
Dall-E 3 será integrado ao ChatGPT e promete criar imagens melhores

Dall-E 3 será integrado ao ChatGPT e promete criar imagens melhores
Fonte: Tecnoblog

Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT

Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT

O ChatGPT é capaz de responder inúmeras perguntas com uma precisão razoável, já que foi treinado com grandes quantidades de texto, como livros, artigos e também sites. Estes últimos, no entanto, parecem bem preocupados. Levantamentos mostram que mais de 15 entre os 100 sites mais acessados bloquearam o GPTBot, robô da OpenAI responsável por coletar conteúdo. Nessa lista, estão Amazon, New York Times, CNN e outros.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Os dados são de uma análise da Originality.ai, empresa especializada em conferir se um conteúdo foi gerado por inteligência artificial ou plagiado.

Entre os 100 sites mais acessados da internet, pelo menos 15 já bloquearam o robô. Entre os 1000 mais acessados, mais de 70 tomaram esta mesma medida.

Entre os mais de 1000 sites que estão bloqueando o GPTBot, estão nomes famosos, como:

Amazon

The New York Times

CNN

Wikihow

Shutterstock

Quora

Bloomberg

Scribd

Reuters

Ikea

Airbnb

Coursera

ChatGPT e outras IAs são acusadas de violar copyright

Bloquear o robô da OpenAI é uma forma de impedir o uso de conteúdo protegido por direitos autorais.

“Propriedade intelectual é a força vital dos nossos negócios, e precisamos proteger os direitos autorais do nosso conteúdo”, declarou uma porta-voz da agência de notícias Reuters à reportagem do jornal The Guardian.

Já o New York Times atualizou os termos de serviço para incluir um item que proíbe a raspagem do conteúdo para treinamento e desenvolvimento de inteligências artificiais.

Este é um tema em debate desde que o ChatGPT e outras ferramentas de inteligência artificial generativa foram lançadas.

O banco de imagens Getty Images, por exemplo, processou os criadores do Stable Diffusion por treinar a IA com fotografias protegidas por copyright. Algumas das criações da ferramenta mostram até mesmo a marca d’água da Getty.

Escritores tomaram caminho parecido e processaram a OpenAI, enquanto uma ação coletiva foi movida contra Microsoft, GitHub e OpenAI por desrespeitar licenças de atribuição de códigos abertos usados no treinamento das ferramentas.

Sites também bloqueiam crawler de arquivo público

O GPTBot é o “crawler” da OpenAI. Este nome é dado a robôs que “rastejam” pela web indexando e coletando informações. Google e Bing, por exemplo, têm os seus, que catalogam as páginas da internet para mostrar resultados de buscas.

A ideia da OpenAI é coletar informações para treinar o modelo de linguagem em larga escala que faz o ChatGPT funcionar.

O GPTBot foi anunciado no começo de agosto de 2023. A OpenAI também disponibilizou informações sobre como os sites poderiam impedir que ele coletasse conteúdo: basta remover a permissão no arquivo robots.txt ou bloquear o IP.

Alguns (mas não todos) sites da lista também bloquearam o CCBot, crawler da organização sem fins lucrativos Common Crawl, cujo objetivo é criar arquivos públicos, para qualquer um acessar.

Parte dos dados usados no treinamento do ChatGPT — e também dos modelos do Google e de outras empresas — vem da Common Crawl.

Com informações: Business Insider, The Guardian, Search Engine Land
Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT

Amazon, CNN, New York Times e mais sites bloqueiam robô do ChatGPT
Fonte: Tecnoblog

Quênia suspende startup que oferece criptomoeda a quem escanear íris

Quênia suspende startup que oferece criptomoeda a quem escanear íris

O Worldcoin é um projeto ambicioso — e controverso. Ele se propõe a escanear a íris de toda a população global para criar um sistema único de autenticação. Além disso, promete distribuir renda, pagando quem se cadastrar. O governo do Quênia, um dos primeiros países a receber a iniciativa, decidiu proibir a coleta de dados.

Orb, equipamento da Worldcoin usado para leitura da íris (Imagem: Divulgação/Worldcoin)

A Autoridade de Comunicações do Quênia vai avaliar o Worldcoin devido à “falta de clareza sobre segurança e armazenamento” dos dados das íris escaneadas, bem como à “incerteza” em relação à criptomoeda oferecida a quem se cadastra.

O Quênia não é o único país a ficar de olho (com o perdão do trocadilho) no Worldcoin. França, Alemanha e Reino Unido são alguns dos países que estão avaliando se o projeto viola leis de privacidade.

Projeto paga US$ 50 por pessoa

Segundo reportagens do site Rest of World e do jornal queniano The Standard, muitas pessoas no país se interessaram em escanear suas íris devido ao pagamento de 25 Worldcoins, que equivalem a cerca de US$ 50 ou R$ 240.

A maioria dos participantes teria sido atraída pelo dinheiro e não estava ciente dos objetivos do projeto — uma situação que se repete em Hong Kong e em Bangalore (Índia).

Com a suspensão das atividades, autoridades do Quênia precisaram dispersar filas de milhares de pessoas.

Worldcoin foi idealizado por fundador da OpenAI

A pessoa por trás do Worldcoin é Sam Altman, que criou a startup Tools for Humanity. Altman também é um dos fundadores e atual CEO da OpenAI, que desenvolve o ChatGPT e o Dall-E.

O Worldcoin foi anunciado em junho de 2021. Ele promete fazer um pagamento em uma criptomoeda própria a cada pessoa que escanear sua íris em um equipamento específico, chamado Orb — uma esfera prateada, do tamanho de uma bola de boliche.

Em maio de 2023, o aplicativo World foi lançado em mais de 80 países, e o Brasil está na lista. Ele funciona como carteira de criptomoedas e passaporte para login sem senhas, por meio da World ID, carteira de identidade registrada em uma blockchain.

O lançamento oficial da Worldcoin aconteceu em 24 de julho de 2023, quando as Orbs começaram a funcionar em 35 cidades de 20 países. No Brasil, o projeto está presente em três locais na cidade de São Paulo.

Durante o período beta, mais de 2 milhões de pessoas fizeram o registro de seus dados biométricos. Uma reportagem da MIT Technology Review aponta que muitas não receberam o dinheiro prometido.

Com informações: The Verge, Rest of World
Quênia suspende startup que oferece criptomoeda a quem escanear íris

Quênia suspende startup que oferece criptomoeda a quem escanear íris
Fonte: Tecnoblog

IA do Google ensina tarefas para robô sem precisar de instruções básicas

IA do Google ensina tarefas para robô sem precisar de instruções básicas

A inteligência artificial vai muito além do ChatGPT, e o Google deu uma prova disso nesta sexta-feira (28). A empresa apresentou seu modelo de aprendizagem Robotic Transformer 2 (ou RT-2). Graças a ele, robôs conseguem executar tarefas complexas, sem que seja necessário ensiná-los os movimentos básicos envolvidos.

Braço robótico usado pelo Google para demonstrar o RT-2 (Imagem: Divulgação/Google)

Segundo a DeepMind, divisão de robótica do Google, com o RT-2, um usuário poderia dar o comando “jogue o lixo fora” a um robô, mesmo que ele não tenha sido treinado para essa tarefa específica.

A máquina conseguiria identificar o que é lixo — seja um pacote de batatinha vazio ou uma casca de banana — e o que é jogar fora.

Pode parecer bobo, mas não é. Um desafio do trabalho com robôs é a necessidade de ensinar movimentos básicos, como pegar um objeto, girá-lo, mover o braço, e assim por diante.

O RT-2, por outro lado, passou por um treinamento com uma grande quantidade de dados da web. Isso permite a ele ser capaz de fazer abstrações — entender que diferentes tipos de objeto podem ser lixo, por exemplo.

Os pesquisadores afirmam que, em testes realizados com um braço robótico em um cenário de cozinha, o modelo foi capaz de entender que objeto poderia ser improvisado como martelo (uma pedra) e escolher qual era a bebida mais apropriada para uma pessoa cansada (uma lata de energético).

Algumas tarefas possíveis com o RT-2 (Imagem: Divulgação/Google)

Nem tudo é perfeito, porém. A reportagem do jornal The New York Times viu uma demonstração ao vivo do robô e ele errou o sabor de refrigerantes e a cor de algumas frutas.

RT-2 se beneficiou da mesma tecnologia do Bard e ChatGPT

Eu abri este texto falando que a inteligência artificial é muito mais que o ChatGPT, mas existe uma relação entre ele e o modelo usado nos robôs.

O ChatGPT, o Bard e outros chatbots capazes de entender linguagem natural e responder perguntas complexas usam como base uma tecnologia chamada modelo de linguagem de larga escala, ou LLM, na sigla em inglês.

As pesquisas com LLMs foram determinantes para desenvolver o RT-2 e torná-lo capaz de entender instruções que não foram predeterminadas. O modelo é capaz até mesmo de obedecer comandos em outras línguas além de inglês — assim como os chatbots.

Para Ken Goldberg, professor de robótica da Universidade da Califórnia em Berkeley, o uso dos modelos de linguagem nas máquinas foi suficiente para dar a elas alguma capacidade de raciocínio e improviso. “Isso é muito animador”, avaliou o pesquisador em entrevista ao NYT.

Com informações: TechCrunch, The Verge, The New York Times
IA do Google ensina tarefas para robô sem precisar de instruções básicas

IA do Google ensina tarefas para robô sem precisar de instruções básicas
Fonte: Tecnoblog

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog