Category: OpenAI

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?

A abordagem da Meta na corrida da inteligência artificial é bem diferente da adotada por outras grandes empresas de tecnologia. Enquanto OpenAI, Google, Anthropic e outras oferecem modelos fechados, a Big Tech de Mark Zuckerberg abraçou o código aberto (pelo menos em parte), oferecendo seu LLM, o Llama, de graça. Com isso, toda uma comunidade de desenvolvedores se beneficia… mas como é que esse investimento volta para a Meta?

O que a Meta ganha com a Llama livre? (Imagem: Vitor Pádua/Tecnoblog)

É sobre isso que conversamos no episódio de hoje, com participação do especialista em finanças Rodrigo Fernandes. Será que existe uma estratégia bem delineada por trás da decisão da Meta? E o que ela significa para o mercado como um todo? Para acompanhar essa discussão, dá o play e vem com a gente!

Participantes

Thiago Mobilon

Josué de Oliveira

Rodrigo Fernandes

Citado no episódio

Comentário do Luiz Eduardo, lido na Caixa Postal

Mande seu recado

Grupos da Caixa Postal do Tecnocast:

Telegram: t.me/caixapostaltecnocast

WhatsApp: tbnet.me/caixapostaltecnocast

Você pode mandar comentários (inclusive em áudio, vai que você aparece no Tecnocast?), dúvidas, críticas e sugestões. Participe!Se preferir, você pode se comunicar conosco pela Comunidade e através do e-mail tecnocast@tecnoblog.net.

Entre também nos Canais do TB no WhatsApp

Canal do Tecnoblog

Canal do Achados do TB

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Maremoto

Arte da capa: Vitor Pádua

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?
Fonte: Tecnoblog

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

Usuários não pagantes do ChatGPT poderão criar apenas duas imagens por dia (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI disponibilizou o gerador de imagens Dall-E 3 para todos os usuários do ChatGPT, inclusive aqueles que não assinam o plano Plus. A ferramenta de inteligência artificial, porém, será limitada a duas imagens por dia para cada pessoa.

Até agora, ele só estava disponível para quem paga o Plus, que custa US$ 20 mensais (cerca de R$ 110, em conversão direta). Estes usuários continuarão tendo a vantagem de limites maiores, que permitem criar até 50 imagens por dia.

We’re rolling out the ability for ChatGPT Free users to create up to two images per day with DALL·E 3. Just ask ChatGPT to create an image for a slide deck, personalize a card for a friend, or show you what something looks like. pic.twitter.com/3csFTscA5I— OpenAI (@OpenAI) August 8, 2024

O Dall-E 3 no ChatGPT foi anunciado inicialmente há quase um ano, em setembro de 2023. Segundo a OpenAI, este modelo oferece mais fidelidade aos pedidos dos usuários. Além disso, ele deve lidar melhor com mãos e textos, dois problemas comuns a ferramentas deste tipo.

Com o novo modelo de IA, o ChatGPT é capaz de oferecer assistência, caso o usuário não saiba exatamente o que deseja. O chatbot também pode pedir mais informações e detalhes para gerar uma imagem.

Desenhos complexos e com textos devem ficar melhores no Dall-E 3 (Imagem: Divulgação / OpenAI)

Microsoft tem Dall-E 3 com limites maiores

Apesar de novo para os usuários não pagantes do ChatGPT, o Dall-E 3 já está disponível no Copilot da Microsoft. Por lá, é possível criar até 15 imagens por dia.

Não é a primeira vez que a Microsoft “se adianta” e coloca um modelo desenvolvido pela OpenAI em uma ferramenta para todos os usuários. O GPT-4, por exemplo, já é usado para geração de textos do Copilot, mas só está disponível para assinantes do ChatGPT Plus e clientes corporativos. Clientes gratuitos do assistente usam o GPT-4o Mini, mais limitado.

A Microsoft é uma das maiores investidoras da OpenAI, tendo colocado cerca de US$ 13 bilhões na startup. A desenvolvedora do ChatGPT começou como uma organização sem fins lucrativos, mas criou uma empresa com lucro limitado, como forma de facilitar a captação de recursos. Com seu investimento, a Microsoft tem direito a uma parte deste lucro.

Com informações: The Verge, ZDNet
ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo
Fonte: Tecnoblog

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT (imagem: Vitor Pádua/Tecnoblog)

A OpenAI tem uma interface de voz baseada em inteligência artificial (IA) que é muito parecida com a fala de uma pessoa real. Tão parecida que a organização publicou um alerta inusitado: a tecnologia pode levar usuários do ChatGPT a se apegarem emocionalmente ao chatbot.

Ficção virando realidade?

Tecnologias de IA têm sido associadas a riscos de diversas naturezas, como “roubo” de empregos, violação de direitos autorais na geração de conteúdo e comprometido de dados sensíveis do usuário.

O risco de um humano se apegar emocionalmente a uma tecnologia de IA parecia coisa de ficção, no entanto. Talvez a obra que mais bem retrate esse cenário é o filme Ela (Her), em que Theodore (Joaquin Phoenix) passa a conversar com uma inteligência artificial até se apaixonar por ela.

No caso da OpenAI, o aviso aparece na lista de riscos do modelo de linguagem GPT-4o. Além do possível apego emocional à voz do ChatGPT, a lista inclui pontos como risco de disseminação de desinformação e auxílio no desenvolvimento de armas químicas ou biológicas.

Presumivelmente, o ponto sobre apego emocional foi incluído na lista devido à possibilidade de o usuário sofrer abalos de natureza psicológica, dado que o contato “homem-máquina” não têm as qualidades das relações humanas.

Além disso, a pessoa pode tomar decisões precipitadas ou prejudiciais por conta da confiança desmedida que têm na interação via voz com a IA.

Não por acaso, quando a interface da OpenAI foi revelada, em maio, muitos usuários notaram que a tecnologia pronunciava frases de modo excessivamente “flertador”.

Cena do filme Her (imagem: divulgação/Warner Bros)

Possível risco às interações humanas

O alerta sobre a tecnologia de voz é descrito no tópico “Anthropomorphization and emotional reliance” (“Antropomorfização e Confiança Emocional”) na página da OpenAI.

Em linhas gerais, a organização afirma ter encontrado sinais de socialização com a IA durante a fase de testes da tecnologia. Esses sinais parecem ser benignos, mas os efeitos desse comportamento no longo prazo ainda não podem ser mensurados, e isso exige mais investigação sobre o assunto.

Um trecho do documento diz o seguinte:

A socialização no estilo humano com um modelo de IA pode produzir externalidades que impactam as interações entre pessoas. Por exemplo, usuários podem criar relacionamentos sociais com a IA, reduzindo a sua necessidade de interação humana — isso potencialmente beneficia indivíduos solitários, mas pode afetar relacionamentos [humanos] saudáveis.

Como tudo isso é muito novo, vale a máxima advinda das bebidas alcóolicas: aprecie com moderação.

Com informações: Wired
OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT
Fonte: Tecnoblog

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI está tentando novas formas de marcar textos gerados pelo ChatGPT (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI tem uma ferramenta para colocar “marcas d’água” em textos gerados pelo ChatGPT e detectá-los posteriormente, com precisão de 99,9%. O método é baseado em mudar como o modelo de linguagem prevê e escolhe as palavras seguintes, criando um padrão que possa ser identificado, sem afetar a qualidade das respostas.

As informações foram reveladas inicialmente pelo The Wall Street Journal, no domingo (4). A OpenAI confirmou a existência da ferramenta ao TechCrunch, além de atualizar um blog post publicado em maio sobre funcionalidades de marcação e detecção.

Professores estão entre os maiores interessados em detectar textos gerados por IA (Imagem: Emerson Alecrim / Tecnoblog)

No texto, a empresa diz estar testando métodos menos controversos. Um deles seria aplicar metadados — esta possibilidade está nos primeiros passos e ainda não é possível dizer se ela vai funcionar bem. Mesmo assim, ela seria assinada criptograficamente, o que impediria falsos positivos (a ferramenta nunca iria apontar incorretamente que um texto foi criado pelo ChatGPT, caso ele não tenha sido).

A OpenAI chegou a liberar uma ferramenta de detecção, mas ela era muito ruim, com precisão de apenas 26%. A própria empresa desistiu do recurso.

OpenAI teme estigmatização do ChatGPT

Apesar de a ferramenta existir, a OpenAI debate internamente se seria conveniente lançá-la neste momento, segundo o WSJ. Um problema é que ela pode ser burlada: basta pedir para outro modelo de linguagem reescrever o texto criado pelo ChatGPT. Uma ferramenta de tradução também é suficiente para descaracterizar a marcação.

A empresa também demonstra outra preocupação: isso poderia ter consequências ruins para quem usa o ChatGPT, devido aos estigmas que envolvem a inteligência artificial. A companhia acredita que pessoas que não têm o inglês como idioma principal e usam o assistente na hora de escrever poderiam ser prejudicadas.

Isso traria problemas para a própria OpenAI. Segundo a empresa, quase 30% dos entrevistados sobre este assunto disseram que usariam menos o ChatGPT se um sistema do tipo fosse implementado.

Apesar da relutância, um sistema para detectar o uso de IA poderia ser útil para professores, por exemplo. Além disso, em uma pesquisa encomendada pela OpenAI, cerca de 80% dos entrevistados apoiam a criação de uma ferramenta para identificar textos gerados pela tecnologia.

Com informações: The Verge, TechCrunch
OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta
Fonte: Tecnoblog

Microsoft e Apple se afastam de conselho da OpenAI para evitar problemas

Microsoft e Apple se afastam de conselho da OpenAI para evitar problemas

OpenAI recebeu investimentos da Microsoft e fechou parceria com a Apple (Imagem: Vitor Pádua / Tecnoblog)

A Microsoft deixou seu assento de observadora no conselho da OpenAI, posto que obteve em novembro de 2023, e a Apple recusou posição semelhante, que faria parte do acordo para colocar o ChatGPT nos iPhones. Segundo o Financial Times, o motivo do movimento é o crescente escrutínio de governos em todo o mundo sobre os investimentos de gigantes da tecnologia em startups de inteligência artificial.

A União Europeia e o Reino Unido, por exemplo, investigam a relação entre a Microsoft e a OpenAI: elas querem saber se a gigante de Redmond é dona ou exerce controle da desenvolvedora do ChatGPT. A Microsoft investiu mais de US$ 13 bilhões e tem direito a parte dos lucros da OpenAI, até um certo limite. Em seu site, a startup de IA diz ser totalmente independente e comandada pela OpenAI Nonprofit, organização sem fins lucrativos.

Tecnologias da OpenAI ajudaram a impulsionar ferramentas de IA da Microsoft (Foto: Thássius Veloso/Tecnoblog)

Já a Comissão Federal de Comércio dos Estados Unidos (FTC, na sigla em inglês) está examinado os investimentos feitos por Microsoft, Amazon e Google. Uma fonte ligada ao FTC disse ao Financial Times que a saída do conselho não deve resolver as preocupações da agência.

OpenAI fará reuniões com quem não está no conselho

Em uma carta escrita pelo conselheiro Keith Dolliver, a Microsoft diz que o assento de observadora no conselho da OpenAI não é mais necessário, já que a empresa viu “progresso significativo do novo conselho e está confiante nos rumos da companhia”.

A empresa comandada por Satya Nadella tinha esta posição desde novembro de 2023, quando Sam Altman, CEO e cofundador da OpenAI, foi demitido abruptamente e readmitido em um intervalo de menos de duas semanas.

Já o posto de observadora da Apple seria ocupado por Phil Schiller, líder da App Store e dos eventos, de acordo com informações publicadas pela Bloomberg na semana passada. Agora, de acordo com o Financial Times, isso não vai mais acontecer.

Segundo o jornal, apesar deste afastamento, o contato permanecerá: a OpenAI fará reuniões regulares com Microsoft e Apple, além de investidores como Thrive Capital e Khosla Ventures.

Com informações: Financial Times
Microsoft e Apple se afastam de conselho da OpenAI para evitar problemas

Microsoft e Apple se afastam de conselho da OpenAI para evitar problemas
Fonte: Tecnoblog

OpenAI quer usar IA para ajudar humanos que treinam IA

OpenAI quer usar IA para ajudar humanos que treinam IA

CriticGPT supera o próprio ChatGPT na hora de revisar códigos (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI revelou um novo modelo de inteligência artificial chamado CriticGPT. Ele é baseado no GPT-4, mas com outra especialidade: encontrar erros em códigos gerados pelo ChatGPT. A ideia é que ele ajude humanos na tarefa de treinar modelos de IA.

Pode parecer estranho, mas a empresa explica: seus modelos são treinados usando uma técnica chamada aprendizado por reforço com feedback humano (ou RLHF, na sigla em inglês). Nesta técnica, humanos avaliam as respostas dadas por modelos de IA. A ideia é aperfeiçoar o modelo, para que os resultados sejam mais úteis em situações reais e mais próximos ao desejado por humanos.

Novo modelo ajuda treinadores humanos a encontrar e explicar erros (Imagem: Kevin Ku / Unsplash)

Quando o ChatGPT gera um código, estes humanos, chamados treinadores de IA, revisam a resposta e apontam os erros, para que o modelo “aprenda” o que fazer. O problema é que humanos também podem errar e não perceber o que está incorreto em uma resposta.

O CriticGPT pode ajudar nisso. A ferramenta encontra erros nos códigos gerados pelo ChatGPT e escreve uma crítica (daí seu nome) explicando o problema.

CriticGPT explica onde ChatGPT errou (Imagem: Divulgação / OpenAI)

Segundo a OpenAI, treinadores de IA preferiram as críticas feitas por outros treinadores com ajuda do CriticGPT em 60% dos casos, em comparação com críticas feitas apenas por humanos.

A empresa diz que a “parceria” resulta em avaliações mais compreensivas dos que as feitas apenas por humanos e em menos alucinações que as feitas só pela IA.

Feedback humano também ajudou CriticGPT

Um ponto curioso é que o próprio CriticGPT foi desenvolvido usando RLHF. Os treinadores de IA colocaram manualmente erros em códigos criados pelo ChatGPT e escreveram avaliações como explicando os problemas, como se tivessem sido descobertos por eles.

Depois, estes funcionários verificavam várias avaliações feitas pelo CriticGPT e escolhiam a melhor, como forma de reforçar para o modelo o que ele deveria fazer.

CriticGPT ajuda, mas pode alucinar e ver erro onde não existe (Imagem: Vitor Pádua / Tecnoblog)

O próprio ChatGPT poderia ser usado para avaliar os códigos, mas o modelo especializado se sai melhor na tarefa. Treinadores de IA consideraram a crítica do CriticGPT melhor que a do ChatGPT em 63% dos casos. Para eles, a nova IA produz menos reclamações inúteis e menos alucinações.

Apesar das vantagens, o CriticGPT não é perfeito. A OpenAI admite que ele também pode alucinar, levando os treinadores a cometer erros. Além disso, o modelo foi treinado com respostas curtas e códigos com apenas um erro — para tarefas mais complexas, novos métodos serão necessários.

Com informações: OpenAI, Ars Technica
OpenAI quer usar IA para ajudar humanos que treinam IA

OpenAI quer usar IA para ajudar humanos que treinam IA
Fonte: Tecnoblog

ChatGPT apresenta instabilidade e fica fora do ar nesta terça-feira

ChatGPT apresenta instabilidade e fica fora do ar nesta terça-feira

ChatGPT apresenta instabilidade desde a madruga desta quarta-feira (Imagem: Vitor Pádua / Tecnoblog)

O ChatGPT apresentou uma instabilidade nesta terça-feira (4). O problema na IA generativa da OpenAI começou na madrugada. Alguns usuários ainda conseguiam acessar o serviço, mas para outros, o ChatGPT não carregava completamente.

Nos testes feitos pelo Tecnoblog, o serviço estava sem funcionar até aproximadamente 8h. Minutos depois, o ChatGPT voltou a carregar. Na página de status da OpenAI, a empresa seguia informando que a IA está indisponível para alguns usuários.

ChatGPT não carregava completamente durante período que esteve fora do ar (Imagem: Reprodução/Tecnoblog)

Segundo a classificação da OpenAI, o ChatGPT estava com um “major outage” — queda generalizada em tradução direta. A empresa afirma que já identificou a causa e que resolveu o problema às 8h19 (horário de Brasília). A OpenAI relata que segue monitorando os resultados da solução.

Painel de status da OpenAI indica que ChatGPT está com uma queda generalizada (Imagem: Reprodução/Tecnoblog)

Até o momento, a OpenAI não se pronunciou sobre o que causou a instabilidade no ChatGPT. O problema não afetou outros serviços da OpenAI, como a API do ChatGPT e o Labs. A IA generativa possui mais de 100 milhões de usuários semanais, segundo a própria empresa.

Problemas na terça-feira

Antes dessa queda total do ChatGPT, a IA generativa da OpenAI apresentou problemas de latência. A versão mobile, também na terça-feira, não estava gerando prompts com imagens. No dashboard, a OpenAI relata que corrigiu os problemas ainda na terça-feira.

Em 2023, após uma queda generalizada, a OpenAI passou por um dos seus piores problemas. Um bug no ChatGPT levou a um vazamento de dados dos usuários. Além de mostrar o histórico recente de conversas, o problema permitiu que usuários pudessem acessar dados de outras contas, além de receber emails de confirmações que deveriam ser enviados para outros usuários.

Com informações: The Verge e TechCrunch
ChatGPT apresenta instabilidade e fica fora do ar nesta terça-feira

ChatGPT apresenta instabilidade e fica fora do ar nesta terça-feira
Fonte: Tecnoblog

Até o Ctrl+V do Windows ganhou recursos de inteligência artificial

Até o Ctrl+V do Windows ganhou recursos de inteligência artificial

PowerToys, o “canivete suíço” do Windows 11, ganhou mais uma utilidade (Imagem: Guilherme Reis / Tecnoblog)

A ferramenta de recursos experimentais PowerToys agora conta com a opção de usar inteligência artificial na hora de copiar e colar conteúdo no Windows. A função se chama Paste With AI. Com ela, você pode escrever como quer formatar aquele conteúdo na hora de colar. No entanto, é preciso ter créditos da API da OpenAI para fazer isso.

O PowerToys é uma espécie de “canivete suíço” do Windows, com os mais variados recursos, como medir pixels, organizar janelas e até mesmo substituir o comando Executar. A versão 0.81 do utilitário vem com o Advanced Paste (ou “colar avançado”, em tradução livre), com opções adicionais na hora de colar — basta apertar o Botão Windows + Shift + V.

Ao apertar Windows + Shift + V, este menu suspenso aparece (Imagem: Reprodução / Microsoft)

Por padrão, ele tem um histórico da área de transferência e três alternativas extras: colar como texto sem formatação, como markdown ou como JSON.

O Paste With AI (“colar com IA”, em tradução livre) pode ser ativado nas configurações. Quando ele está ligado, o Advanced Paste mostra também um campo de texto, em que o usuário pode descrever como ele quer que o texto copiado anteriormente seja formatado na hora de colar.

A página de ajuda lista algumas possibilidades: resumir, traduzir, gerar código a partir de uma descrição, reescrever seguindo um pedido de tom ou estilo.

Paste With AI precisa de API da OpenAI, que é paga

No entanto, para usar o recurso, é preciso ter uma chave de API da OpenAI e colocá-la no PowerToys. Além disso, é necessário comprar créditos na plataforma de IA da empresa — o mínimo é de US$ 5, o que dá cerca de R$ 26, em conversão direta.

Preço mínimo de recarga para usar API da OpenAI é de US$ 5 (Imagem: Vitor Pádua / Tecnoblog)

O preço para usar é contado em tokens. No modelo mais barato, o milhão de tokens de entrada sai por US$ 0,50, enquanto o milhão de tokens de saída sai por US$ 1,50. Um milhão de tokens equivale a cerca de 750 mil palavras — US$ 5 devem durar um bom tempo se forem usados só neste recurso, portanto.

Vale dizer que esse pagamento não tem relação com ser assinante do ChatGPT Plus ou não.

Microsoft apresentou muitas novidades de IA

Apesar de não ter sido apresentado com muito destaque, o Paste With AI vem em um momento em que a Microsoft está lançando vários recursos de IA. Aqui estão alguns destaques.

O navegador Edge será capaz de dublar vídeos do YouTube em tempo real

O Copilot vai anotar o que foi dito durante reuniões no Teams

O Windows terá uma ferramenta chamada Recall para salvar as atividades no computador e ajudar o usuário a encontrar informações

Com informações: The Verge, Microsoft
Até o Ctrl+V do Windows ganhou recursos de inteligência artificial

Até o Ctrl+V do Windows ganhou recursos de inteligência artificial
Fonte: Tecnoblog

OpenAI removeu voz do ChatGPT após pedido de Scarlett Johansson

OpenAI removeu voz do ChatGPT após pedido de Scarlett Johansson

Scarlett Johansson revelou que pediu que OpenAI removesse a voz Sky do ChatGPT mobile (Imagem: Gage Skidmore)

A atriz Scarlett Johansson revelou na noite desta segunda-feira (dia 20/05) que foi procurada pelo CEO da OpenAI para emprestar sua voz para o ChatGPT. As tratativas teriam ocorrido em setembro de 2023. A vencedora do Oscar em 2020 recusou a proposta, e se disse chocada quando descobriu que o recente GPT-4o traz uma voz parecida com a dela. Johansson também disse que seus advogados entraram com um pedido formal para que a empresa retirasse a opção de voz Sky do app.

De acordo com a atriz, Sam Altman insinuou num tweet que a semelhança foi proposital. Ele publicou na rede X apenas a palavra “Her” — uma referência ao filme de 2013 no qual Johansson dubla uma assistente virtual. A acusação de que a semelhança foi intencional ganha força com a revelação da atriz.

Segundo Johansson, Altman a procurou novamente dois dias antes do lançamento do GPT-4o. Ele teria novamente tentado contratá-la para gravar uma das vozes do ChatGPT no smartphone.

Atriz pediu que OpenAI explicasse processo de gravação

Scarlett Johansson afirma em nota enviada para o The Washington Post que OpenAI queria contratá-la para gravar voz de assistente virtual (Imagem: Reprodução/OpenAI)

Em nota, a atriz revela que seu conselho jurídico pediu extrajudicialmente que a OpenAI explicasse como foi a gravação das vozes do aplicativo do ChatGPT. Isso explica a publicação oficial na qual a companhia dá mais detalhes sobre o processo de captura do material.

A OpenAI disse no texto que a voz da Sky, modelo de comparado com Scarlett Johansson, não foi produzida para imitar a atriz. A empresa não quis revelar o nome da dona da voz por questão de privacidade, mas afirmou que a Sky repete o tom de voz natural da autora.

Resta saber se Johansson acreditou na explicação. Na nota, a atriz disse que nem mesmo seus amigos próximos foram capazes de notar a diferença entre Sky e a voz da atriz.

Johansson conta que, após muita consideração, rejeitou a proposta de Altman por razões pessoais. No parágrafo final, ela afirma que estamos num momento de luta contra deep fakes e de proteção da identidade. A atriz se posicionou favorável a uma legislação que garanta os direitos individuais num ambiente repleto de IAs.

Com informações: The Washington Post
OpenAI removeu voz do ChatGPT após pedido de Scarlett Johansson

OpenAI removeu voz do ChatGPT após pedido de Scarlett Johansson
Fonte: Tecnoblog

OpenAI: ex-funcionário bota a boca no trombone após saída de fundador

OpenAI: ex-funcionário bota a boca no trombone após saída de fundador

Ex-funcionário era vice-líder de equipe de segurança da OpenAI e afirma que empresa não está preocupada com esse tema (Imagem: Vitor Pádua / Tecnoblog)

Resumo

Jan Leike, ex-vice-líder de segurança da OpenAI, criticou a empresa por não priorizar a segurança das IAs. Ele alegou que a cultura de segurança foi negligenciada.
Leike e outros funcionários, incluindo o cofundador Ilya Sutskever, deixaram a OpenAI devido a divergências na condução da equipe de superalinhamento. Esta equipe é responsável por manter as IAs seguras.
A equipe de superalinhamento frequentemente tinha seus pedidos negados, apesar da promessa de dedicar 20% da capacidade computacional da OpenAI para suas tarefas. Isso dificultava o trabalho em segurança, gestão de risco e impacto social das IAs.

Jan Leike, ex-funcionário da OpenAI e um dos membros do time de superalinhamento, publicou uma série de críticas à empresa após sua saída. Nesta sexta-feira (17), Leike foi ao X/Twitter explicar as razões de pedir demissão, assim como fez o cofundador da OpenAI, Ilya Sutskever.

As saídas de Sutskever e de Jan Leike podem estar ligadas a divergências na condução da equipe de superalinhamento, cuja função é pesquisar e desenvolver meios para manter as IAs seguras. Ela também auxilia na regulação dessa tecnologia. Contudo, a direção da OpenAI estaria prejudicando o trabalho do time.

Sustskever, Leike e mais alguns funcionários comunicaram a saída da OpenAI na quarta-feira (15), de acordo com o TechCrunch. A nota de despedida do fundador e ex-cientista chefe da empresa tem tom amigável, assim como as mensagens escritas por Sam Altman, CEO da OpenAI, e Greg Brockman, presidente.

Contudo, as informações divulgadas por um fonte de empresa para o TechCrunch sugere que o clima dentro da OpenAI não era tranquilo — no sentido de haver um certo ressentimento entre Altman e Sutskever por causa da demissão do primeiro. Inclusive o próprio Leike foi ao X/Twitter sendo mais direto sobre as divergências dentro da OpenAI.

Jan Leike relata que discordava das lideranças da OpenAI e que não via a empresa no caminho certo para IAs seguras (Imagem: Reprodução/X/Twitter)

Ex-funcionário alega que OpenAI não se preocupa com segurança

Em uma série de tweets, Jan Leike alega que a OpenAI tomou rumos diferentes nos últimos anos. Ele afirma que a empresa jogou a cultura de segurança no “banco de trás”. Também relata que estava em desacordo com as lideranças há tempo, mas ficou insustentável nos últimos dias.

O pesquisador, que já passou pela DeepMind, a empresa de IA do Google, diz acreditar que muito da capacidade computacional da OpenAI deveria ser usada para preparar as próximas gerações de LLM em segurança, gestão de risco, impacto social e outros temas.

“Esses problemas são difíceis de resolver e não sinto que estamos no caminho para chegar lá”, diz Leike. Entre as publicações, o pesquisador destaca que criar uma máquina mais inteligente que os humanos é um negócio arriscado.

Rápido avança da tecnologia de IA teria grandes impactos sociais (Imagem: Andrea De Santis / Unsplash)

Isso pode soar como algo do universo Exterminador do Futuro, mas o risco mais real e mais próximo de uma IA geral está ligado a uma crise social. Caso a tecnologia avance rapidamente, muitas pessoas perderão o emprego em pouco tempo. E esse é um dos principais pontos do tema de regulação das IAs, um dos escopos do time de superlinhamento da OpenAI.

Quando o time foi criado, foi prometido que 20% da capacidade computacional da OpenAI seria dedicada as suas tarefas. No entanto, conforme apurado pelo TechCrunch, a equipe geralmente tinha seus pedidos negados, o que impedia seu trabalho.

Com informações: TechCrunch
OpenAI: ex-funcionário bota a boca no trombone após saída de fundador

OpenAI: ex-funcionário bota a boca no trombone após saída de fundador
Fonte: Tecnoblog