Category: GPT-4

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

Empresa enfrenta desafios de infraestrutura para lançar novos modelos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O GPT-4 será desativado no ChatGPT em 30 de abril de 2025, mas continuará disponível via API para desenvolvedores.
O modelo substituto será o GPT-4o, com melhorias em escrita, programação e resolução de problemas científicos, segundo a OpenAI.
A OpenAI também pode lançar o GPT-4.1 na próxima semana, mas enfrenta desafios de infraestrutura, que já atrasaram o GPT-5.

A OpenAI anunciou que o GPT-4 deixará de estar disponível no ChatGPT a partir de 30 de abril de 2025. A partir dessa data, o chatbot com inteligência artificial passará a utilizar o GPT-4o — e novas versões já estão a caminho.

“Em comparações diretas, [o GPT-4o] supera consistentemente o GPT-4 em escrita, programação, problemas científicos e outras tarefas”, afirma a empresa no changelog do ChatGPT.

“Atualizações recentes ampliaram ainda mais a capacidade do GPT-4o de seguir instruções, solucionar questões e manter a fluidez nas conversas, tornando-o o substituto natural do GPT-4”, complementa a companhia.

Embora seja desativado no ChatGPT, o modelo continuará acessível via API, permitindo que desenvolvedores sigam utilizando essa alternativa em suas aplicações.

GPT-4.1 e novos modelos podem ser lançados em breve

A “aposentadoria” do GPT-4 reforça os rumores de que a OpenAI está prestes a lançar novos modelos. O engenheiro de software Tibor Blaho identificou que o ChatGPT já conta, em seu código, com referências ao o3, o o4 Mini e ao GPT-4.1 — este último, em variantes Nano e Mini.

Uma matéria publicada nesta quinta-feira (10/04) pelo Verge aponta que o o3 e o o4 Mini devem estrear nos próximos dias. Já o GPT-4.1 pode chegar a partir da semana que vem, embora ainda haja incertezas e risco de atrasos. A empresa tem enfrentado limitações de infraestrutura para desenvolver e disponibilizar suas novas soluções de IA generativa.

New ChatGPT web app version deployed just now (after midnight San Francisco time) adds mentions of “o4-mini”, “o4-mini-high” and “o3” pic.twitter.com/huz9XWQWGP— Tibor Blaho (@btibor91) April 10, 2025

Por esse mesmo motivo, o GPT-5 não deve aparecer tão cedo. Sam Altman, CEO da organização, já declarou que ainda levará alguns meses para que o modelo esteja pronto. Por outro lado, ele garante que o desempenho superará as expectativas iniciais.

GPT-4 foi um marco na evolução do ChatGPT

O GPT-4 foi revelado em março de 2023, poucos meses após o surgimento da onda da IA generativa. Inicialmente, ele esteve restrito aos assinantes do ChatGPT Plus, mesmo quando o Copilot da Microsoft (então conhecido como Bing Chat) já oferecia o modelo em sua versão gratuita.

O grande diferencial do GPT-4 foi o suporte à entrada de imagens, abrindo espaço para usos mais diversos. Além disso, trouxe respostas mais precisas e com tom mais natural.

“O GPT-4 marcou um momento crucial no desenvolvimento do ChatGPT. Agradecemos os avanços que ele proporcionou e os comentários dos usuários que contribuíram para a criação de seu sucessor”, escreveu a OpenAI no changelog.

Com informações do TechCrunch e Engadget
OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos

OpenAI “aposenta” o GPT-4 e abre caminho para novos modelos
Fonte: Tecnoblog

OpenAI adia lançamento do GPT-5 por mais alguns meses

OpenAI adia lançamento do GPT-5 por mais alguns meses

Vai demorar mais alguns meses para o ChatGPT estrear o LLM GPT-5 (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI adiou o lançamento do GPT-5 para integrá-lo melhor ao ecossistema atual, segundo o CEO Sam Altman.
O novo modelo deve unificar LLMs anteriores e trazer recursos como voz integrada, Canvas e Deep Research.
Enquanto isso, os modelos de raciocínio o3 e o4-mini, voltados para programação, ciência e matemática, serão lançados nas próximas semanas.

A OpenAI vai adiar o lançamento do LLM GPT-5, modelo de IA generativa que será utilizado no ChatGPT. O adiamento do GPT-5 foi anunciado por Sam Altman, CEO da OpenAI, em uma publicação no X. Segundo Altman, o próximo LLM da empresa será “muito melhor do que pensado originalmente”.

Por que a OpenAI adiou o lançamento do GPT-5?

Segundo Sam Altman, um dos motivos para adiar o lançamento do GPT-5 por mais alguns meses foi a dificuldade em integrar de modo mais suave o LLM com o sistema existente. Altman ainda explica no tweet que a empresa espera ter capacidade suficiente para atender à demanda após o lançamento do GPT-5.

Sam Altman publicou no X que GPT-5 será adiado (imagem: Felipe Freitas/Tecnoblog)

O CEO da OpenAI diz que a empresa espera uma “demanda sem precedentes” com a estreia do novo LLM. A previsão da empresa faz sentido quando analisamos as declarações de Altman, outros membros da OpenAI e fontes anônimas de jornalistas. O CEO já revelou que o GPT-5 terá vários recursos, como voz integrada, uso do Canvas, busca, Deep Research e integrará todos os outros LLMs da empresa.

Essa integração do LLM funcionará assim: em vez de você selecionar qual modelo usar, a IA vai identificar pela complexidade do prompt qual o LLM ideal para entregar a resposta desejada. Para a OpenAI isso é ótimo, já que não precisará escolher uma versão cara do GPT para responder ao usuário quanto é 1+1.

O GPT-5 também terá diferentes níveis de inteligência — que podemos chamar de desempenho. Quem usa o ChatGPT gratuito terá acesso ao LLM com um nível padrão de inteligência. Assinantes do Plus usarão um GPT-5 mais inteligente, enquanto membros do Pro terão a versão ainda mais inteligente, com o máximo de capacidade do modelo.

LLMs o3 e o4-mini chegam em breve

No mesmo tweet em que informa o adiamento do GPT-5, Altman revela que os modelos o3 e o4-mini serão lançados nas próximas semanas. Esses LLM integram a família de modelos de raciocínio da OpenAI, voltados para tarefas de programação, ciência e matemática — além de mostrar a linha de raciocínio usada para chegar na resposta.

Com informações do TechCrunch
OpenAI adia lançamento do GPT-5 por mais alguns meses

OpenAI adia lançamento do GPT-5 por mais alguns meses
Fonte: Tecnoblog

OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado

Segundo a OpenAI, o novo LLM desenvolvido para a ferramenta é mais um passo na busca pela inteligência artificial geral (imagem: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou o Deep Research, um agente de IA para análises complexas baseado no LLM o3.
Na prática, a ferramenta atua como um analista de mercado, processando rapidamente informações que levariam horas para um humano, a partir de prompts dos usuários.
Contudo, o Deep Research ainda está em fase de testes e não é totalmente confiável, com a própria OpenAI alertando que a IA pode não diferenciar rumores e informações precisas.

A OpenAI anunciou neste domingo (02/02) o Deep Research, novo agente de IA capaz de realizar buscas na internet para tarefas complexas. Apesar da funcionalidade, o produto não é um concorrente do Google ou uma nova versão do ChatGPT Search, ferramenta de pesquisa da OpenAI. O Deep Research está disponível para assinantes do ChatGPT Pro, mas será liberado em breve para os planos Plus e Team.

Como funciona o Deep Research?

No vídeo da sua demonstração, vemos que, entre as funções do Deep Research, está a de realizar análises de determinados assuntos após receber prompts dos usuários. Segundo a OpenAI, o Deep Research realiza em minutos tarefas que demorariam horas para serem feitas por pessoas. Este recurso utiliza o LLM o3 da própria empresa.

Deep Research pode levar até 30 minutos para gerar análise, mas aponta as fontes usadas (imagem: Felipe Freitas/Tecnoblog)

Por exemplo, se você quer uma análise da evolução da logística nos últimos anos, basta pedir que o Deep Research realize essa pesquisa. A IA pesquisa fontes online, usando páginas da web, PDFs e até imagens — o usuário também pode subir arquivos para complementar a pesquisa. Basicamente, o Deep Research funciona nesse cenário como um analista de mercado.

Para chegar no Deep Research, a OpenAI desenvolveu esse novo LLM o3, focado justamente na realização dessas tarefas de análise de dados e navegação em páginas da web. De acordo com a OpenAI, este LLM é mais um passo da empresa na busca pela inteligência artificial geral (AGI).

Deep Research não é 100% confiável

OpenAI diz que o Deep Research pode sofrer com alucinações (ilustração: Vitor Pádua/Tecnoblog)

Naturalmente, como ocorre com os resultados das respostas das inteligências artificiais, a análise gerada pela Deep Research não é completamente confiável. Na própria página do anúncio da ferramenta, a OpenAI destaca que ela pode alucinar ou gerar inferências erradas sobre o tópico desejado.

O Deep Research pode ter dificuldades em diferenciar rumores de informações precisas. Sendo uma ferramenta em estágio inicial, é natural existir problemas desse tipo. Contudo, a OpenAI afirma que os casos de alucinações e inferências erradas são menores do que os modelos no ChatGPT.

Por enquanto, os usuários do ChatGPT Pro podem usar 100 prompts do Deep Research por mês. A OpenAI reforça que seguirá aprimorando o recurso continuamente nos próximos meses.
OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado
Fonte: Tecnoblog

Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site

OpenAI pode lançar um LLM mais potente em dezembro e abandonar a nomenclatura GPT nos modelos de IA (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI pode lançar um novo modelo de IA, que seria altamente mais potente que o GPT-4, em dezembro. A informação foi apurada pelo The Verge em contato com uma fonte próxima do caso. O novo LLM, que pode se chamar Orion, não estrearia diretamente no ChatGPT, mas seria liberado para empresas parceiras criarem programas com ele antes de ser liberado para o público.

Em outros momentos, um funcionário da OpenAI chegou a comentar que o sucessor do GPT-4 teria até 100 vezes mais capacidade computacional. Vale lembrar que o GPT-4o é uma atualização do GPT-4, não uma nova geração. Já o GPT o1 é um LLM voltado para a resolução de problemas matemáticos.

Quem serão os primeiros a usar o Orion?

Microsoft deve estrear o Orion no Azure já no mesmo de novembro (Imagem: Vitor Pádua / Tecnoblog)

Segundo outra fonte ouvida pelo The Verge, a OpenAI fornecerá o Orion para que empresas criem seus produtos e recursos com o LLM. E sim, a Microsoft, maior investidora da OpenAI, será uma das primeiras a estrear o Orion. A fonte afirma que a big tech já trabalha em integrar o LLM no Azure já em novembro.

O treinamento do Orion, segundo apurou o site, terminou em setembro. Neste mesmo mês, Sam Altman, CEO da OpenAI, publicou uma mensagem nada misteriosa no X. Altman escreveu um “poema” no qual diz estar empolgado para ver as constelações de inverno ascenderem aos céus.

Bem, a constelação de Orion fica mais visível durante o mês de janeiro, inverno no hemisfério norte. Ainda que a fonte afirme que o lançamento do LLM será realizado em dezembro, a chegada em janeiro não seria nada fora da curva. Ou a estreia do Orion pode acontecer em dezembro nas empresas parceiras e em janeiro no ChatGPT.

Com informações: The Verge
Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site
Fonte: Tecnoblog

OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo

OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo

ChatGPT estava preguiçoso desde novembro, mas OpenAI afirma que resolveu (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI afirmou nesta quinta-feira (25) que resolveu a crise de preguiça do ChatGPT — em partes. A nova versão do GPT-4 Turbo, tecnologia mais avançada por trás da inteligência artificial, promete acabar com as respostas curtas — e casos de pedir para o usuário terminar uma tarefa. No comunicado publicado em seu site, a OpenAI destaca que a atualização do GPT-4 Turbo ainda é uma prévia e a tendência é que as respostas fracas diminuam.

Desde o fim de novembro, usuários pagos da IA generativa, que podem utilizar o GPT-4 Turbo, reclamavam de uma “preguicite” da inteligência artificial. Pouco depois, foi levantado até a teoria que o ChatGPT tinha aprendido sobre a “pausa de inverno” (levando em conta o hemisfério norte). A teoria se baseia no fato de que em dezembro, próximo das datas comemorativas, as pessoas tendem a se esforçar menos, postergando trabalhos maiores para janeiro — no nosso caso, o winter break é “calor demais para conseguir viver e trabalhar”.

ChatGPT deve diminuir respostas preguiçosas

ChatGPT não pode sentir preguiça, mas usuários relatam que ele estava preguiçoso (Imagem: Reprodução/Tecnoblog)

Com essa atualização, a OpenAI espera que o ChatGPT publique menos respostas curtas — e talvez pare de mandar o usuário fazer. Geralmente, a IA entrega respostas até que completas sobre alguns temas. No entanto, os usuários relatavam que o ChatGPT estava bem sucinto na conversa.

No post do Reddit linkado no parágrafo anterior, até o caso de um usuário relatando que pediu para o ChatGPT escrever um determinado código em C++. A IA apenas respondeu com o template, indicando onde o código do usuário deveria ser escrito.

Para resolver a situação, alguns usuários até davam algumas dicas de como contornar os problemas. Entre as possíveis soluções estavam repetir o prompt pedindo para que o ChatGPT fizesse o que foi pedido e até mensagens motivacionais como “você consegue! Eu confio”.

Se você não assina o ChatGPT Plus e está boiando sobre isso, tudo bem. A IA com GPT-4 e GPT-4 Turbo só está disponível para os assinantes. O GPT-3.5 segue sem preguicite.

Com informações: The Verge e Ars Technica
OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo

OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo
Fonte: Tecnoblog

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT, da OpenAI, será usado pela Universidade do Estado do Arizona em seus computadores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI e a Universidade do Estado do Arizona (conhecida pela sigla ASU) anunciaram nesta semana uma parceria que levará o ChatGPT para os PCs da universidade. Esta é a primeira vez que uma instituição de ensino superior contrata o serviço de IA da empresa. O ChatGPT será usado por pesquisadores, funcionários e até mesmo alunos — mas não, a IA não fará os trabalhos de aula por eles.

O anúncio da parceria mostra que a percepção das instituições de ensino sobre a inteligência artificial está mudando. Com a popularização do ChatGPT, houve uma preocupação envolvendo o seu impacto nas instituições de ensino, tanto que algumas escolas bloquearam o acesso ao site da OpenAI.

O tempo foi passando e hoje a IA generativa passa a ser cotada como uma aliada no ensino e nas empresas — vide os funcionários da Samsung que usavam o ChatGPT para auxiliar em algumas tarefas. A ASU anunciou ainda que realizará um concurso para que alunos e funcionário deem dicas de como usar a IA nas atividades da universidade.

Funcionários da ASU ganharão conta do ChatGPT Enterprise

Com a parceria entre a Universidade do Estado do Arizona e OpenAI, funcionários da universidade terão contas para acessar o ChatGPT Enterprise, uma versão da IA com recursos extras. Entre essas funcionalidades estão a capacidade de analisar arquivos, receber prompts maiores e desempenho mais rápido.

O ChatGPT Enterprise usado pela ASU permite ainda que a instituição customize a IA com ferramentas dedicadas para as atividades da universidade. Um exemplo interessante para as universidades brasileiras seria um ChatGPT capaz de avaliar as ementas e conteúdos programáticos das disciplinas que um estudante deseja validar.

ChatGPT pode criar questões para que alunos treinem um determinado assunto (Imagem: Reprodução/Tecnoblog)

Se no início da sua popularização havia uma crença de que o ChatGPT iria prejudicar a educação, o tempo mostra que a IA generativa, quando bem usada, pode auxiliar as instituições de ensino. No exemplo acima, o ChatGPT mostra que ele pode ajudar os estudantes a treinar algum assunto criando novas questões — mas claro, ele ainda pode estar errado e as respostas da IA devem ser comparadas com as fontes, anotações e material de aula, por exemplo.

Com informações: TechCrunch
ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez
Fonte: Tecnoblog

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

StableLM é um concorrente de código aberto para o ChatGPT

StableLM é um concorrente de código aberto para o ChatGPT

A Stability AI ficou famosa nos últimos meses com o Stable Diffusion, modelo de geração de imagens com inteligência artificial. Agora, ela vai partir para o campo da escrita. A empresa anunciou uma alternativa ao ChatGPT chamada StableLM, com código aberto.

Demonstração do StableLM (Imagem: Giovanni Santa Rosa/Tecnoblog)

O StableLM gera texto prevendo qual o próximo token, como é chamado o fragmento de palavra. A sequência começa com uma informação fornecida por um ser humano.

O funcionamento é bem parecido com o GPT-4, modelo grande de linguagem (LLM, na sigla em inglês) que serve de base para o ChatGPT.

“Modelos de linguagem formarão a espinha dorsal da nossa economia digital, e queremos que todo mundo possa opinar nesses projetos”, diz a Stability AI no blog post anunciando a novidade. “Modelos como o StableLM demonstram nosso compromisso com tecnologias de inteligência artificial transparentes, acessíveis e solidárias.”

StableLM promete ser mais eficiente

Por enquanto, o StableLM está em fase alpha. Ele foi disponibilizado no GitHub, nos tamanhos de 3 bilhões e 7 bilhões de parâmetros. A Stability AI promete que os modelos de 15 bilhões e 65 bilhões de parâmetros serão liberados em breve.

Os parâmetros são variáveis que um modelo usa para aprender a partir dos dados de treinamento. Números menores significam que os modelos podem ser mais eficientes, podendo rodar localmente em notebooks ou smartphones.

Por outro lado, eles precisam de projetos mais elaborados para conseguir entregar bons resultados usando menos recursos.

O StableLM é mais um dos modelos grandes de linguagem a prometer desempenho próximo ao do GPT-3, da OpenAI, com número menor de parâmetros — o GPT-3 usa 175 bilhões.

Outros são o LLaMA, da Meta; o Alpaca, de Stanford; o Dolly 2.0; e o Cerebras-GPT.

Os modelos foram disponibilizados sob a licença Creative Commons BY-SA-4.0. Isso significa que projetos derivados devem dar créditos ao autor original e ser compartilhados usando a mesma licença.

Por enquanto, é possível testar uma versão do modelo de 7 bilhões de parâmetros já customizada para chatbots no Hugging Face.

Com informações: Stability AI, Ars Technica
StableLM é um concorrente de código aberto para o ChatGPT

StableLM é um concorrente de código aberto para o ChatGPT
Fonte: Tecnoblog

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Na última quinta-feira (13), Sam Altman, CEO da OpenAI, declarou que a empresa não está “treinando” o GPT-5, modelo de linguagem (LLM) de inteligência artificial da empresa. Com a sua fala, Altman desmentiu os rumores e a carta que pedia a pausa no desenvolvimento de IAs. Ainda sobre a carta o CEO, relata que ela não informava o que especificamente as empresas deveriam parar.

GPT é o nome do “motor” equipado no ChatGPT e Bing Chat (imagem: Emerson Alecrim/Tecnoblog)

Sam Altman foi um dos convidados do evento “O Futuro dos Negócios IAs”, organizado pelo célebre Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês). Mesmo sem desenvolver o GPT-5, Altman revelou que a empresa está focada em aprimorar o GPT-4, LLM mais recente da OpenAi e que é usada no ChatGPT e Bing Chat.

CEO da OpenAI comenta carta para pausar desenvolvimento de IAs

Para Sam Altman, a carta aberta que pedia às empresas de inteligência artificial a interrupção do desenvolvimento de LLMs mais potentes que o GPT-4 não explicava de maneira técnica o que fazer. Ele ainda desmentiu a informação publicada na carta de que a OpenAI já estava treinando o GPT-5.

O documento foi publicado em março, pouco depois do lançamento oficial do GPT-4. A autoria é da fundação Future of Life publicou, que tem uma parte do seu financiamento oriundo do caixa de Elon Musk — que é um dos assinantes da carta junto de outros empresários techs.

Bing Chat com GPT-4 não consegue resolver regra de três composta — nem mesmo em inglês (Imagem: Reprodução /Tecnoblog)

O CEO da OpenAI afirmou ainda que o treinamento do GPT-5 não começará tão cedo. O foco é melhorar o que já tem. A “assustadora e potente” GPT-4 continua falhando em tarefas “simples”, como regra de três composta — seja no Bing ou no ChatGPT.

Mesmo parecendo que não levou a carta a sério, Altman disse que a OpenAI está resolvendo problemas de segurança no GPT-4. Na carta, este foi um dos pontos de “preocupação” levantado pela Future of Life.

Com informações: The Verge
Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo
Fonte: Tecnoblog

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

A OpenAI divulgou um artigo na quarta-feira (5), no qual fez afirmações sobre a segurança relacionada ao ChatGPT. Além de comentários focados no futuro da tecnologia, a empresa deu satisfações ao público no que se refere ao conteúdo prejudicial a crianças e a privacidade de usuários. Além disso, a companhia relatou melhorias na precisão factual do GPT-4.

Inteligência artificial (Imagem: Max Pixel)

Segundo a OpenAI, ferramentas como o ChatGPT vêm com riscos reais. Porém, a empresa afirmou que se dedica para garantir que a segurança seja incorporada ao sistema em todos os níveis.

Ela também disse que antes de lançar qualquer novidade, a companhia faz testes rigorosos e trabalha para “melhorar o comportamento do modelo com técnicas como aprendizado por reforço com feedback humano”. Entretanto, a marca confirmou que apesar de realizar testes e pesquisas extensas, ela não consegue prever todas as formas que as pessoas poderão abusar da tecnologia.

Sendo assim, o “mundo real” levou a OpenAI a desenvolver políticas cada vez mais diversificadas contra o comportamento que representa um risco genuíno para os indivíduos, enquanto ainda oferece benefícios para os usuários.

Página inicial do ChatGPT (Imagem: Reprodução / Internet)

Privacidade geral e CSAM

A segurança de crianças e a privacidade dos usuários, motivos que causaram o banimento do ChatGPT na Itália, é um assunto importante, conforme a OpenAI.

Ela afirmou que não vende dados, mas que os usa para tornar os modelos mais úteis. Por exemplo: o ChatGPT se aprimora a partir das conversas que os indivíduos têm com ele.

Mesmo que algumas das referências que alimentam o chatbot venham da internet, a empresa diz que quer que os robôs aprendam sobre o mundo e não sobre a vida particular de cada um.

Para prevenir isso, a firma trabalha para remover “informações pessoais do conjunto de dados sempre que possível. Tenta ajustar modelos para rejeitar solicitações desse tipo e responder a pedidos de indivíduos para excluir suas informações particulares dos sistemas”.

Outro fator importante é a proteção das crianças. Além de restringir que apenas maiores de 18 anos usem a IA (13 a 17 anos apenas com aprovação dos responsáveis), a OpenAI quer mais:

Fizemos um esforço significativo para minimizar o potencial de nossos sistemas de gerar conteúdo que prejudique as crianças. Por exemplo: quando os usuários tentam fazer upload de Material de Abuso de Segurança Infantil (CSAM) para nossas ferramentas de imagem, nós o bloqueamos e denunciamos ao Centro Nacional para Crianças Desaparecidas e Exploradas.

GPT-4 acerta mais do que a versão anterior

Ainda falando em segurança, a companhia ressaltou o avanço que conseguiu realizar com o GPT-4. Segundo a OpenAI, a nova versão tem 82% menos probabilidade de responder a solicitações de conteúdo não permitido em comparação com o GPT-3.5.

O aprimoramento de acertos factuais também foi exaltado pela empresa. Através do feedback de usuários em informações sinalizadas como incorretas no chatbot como uma fonte principal de dados, os desenvolvedores conseguiram melhorar a precisão factual do GPT-4. Eles disseram que ele tem 40% mais chances de produzir conteúdo verdadeiro do que sua versão anterior.

Com informações: OpenAI.
OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4
Fonte: Tecnoblog