Category: GPT-3

OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado

Segundo a OpenAI, o novo LLM desenvolvido para a ferramenta é mais um passo na busca pela inteligência artificial geral (imagem: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou o Deep Research, um agente de IA para análises complexas baseado no LLM o3.
Na prática, a ferramenta atua como um analista de mercado, processando rapidamente informações que levariam horas para um humano, a partir de prompts dos usuários.
Contudo, o Deep Research ainda está em fase de testes e não é totalmente confiável, com a própria OpenAI alertando que a IA pode não diferenciar rumores e informações precisas.

A OpenAI anunciou neste domingo (02/02) o Deep Research, novo agente de IA capaz de realizar buscas na internet para tarefas complexas. Apesar da funcionalidade, o produto não é um concorrente do Google ou uma nova versão do ChatGPT Search, ferramenta de pesquisa da OpenAI. O Deep Research está disponível para assinantes do ChatGPT Pro, mas será liberado em breve para os planos Plus e Team.

Como funciona o Deep Research?

No vídeo da sua demonstração, vemos que, entre as funções do Deep Research, está a de realizar análises de determinados assuntos após receber prompts dos usuários. Segundo a OpenAI, o Deep Research realiza em minutos tarefas que demorariam horas para serem feitas por pessoas. Este recurso utiliza o LLM o3 da própria empresa.

Deep Research pode levar até 30 minutos para gerar análise, mas aponta as fontes usadas (imagem: Felipe Freitas/Tecnoblog)

Por exemplo, se você quer uma análise da evolução da logística nos últimos anos, basta pedir que o Deep Research realize essa pesquisa. A IA pesquisa fontes online, usando páginas da web, PDFs e até imagens — o usuário também pode subir arquivos para complementar a pesquisa. Basicamente, o Deep Research funciona nesse cenário como um analista de mercado.

Para chegar no Deep Research, a OpenAI desenvolveu esse novo LLM o3, focado justamente na realização dessas tarefas de análise de dados e navegação em páginas da web. De acordo com a OpenAI, este LLM é mais um passo da empresa na busca pela inteligência artificial geral (AGI).

Deep Research não é 100% confiável

OpenAI diz que o Deep Research pode sofrer com alucinações (ilustração: Vitor Pádua/Tecnoblog)

Naturalmente, como ocorre com os resultados das respostas das inteligências artificiais, a análise gerada pela Deep Research não é completamente confiável. Na própria página do anúncio da ferramenta, a OpenAI destaca que ela pode alucinar ou gerar inferências erradas sobre o tópico desejado.

O Deep Research pode ter dificuldades em diferenciar rumores de informações precisas. Sendo uma ferramenta em estágio inicial, é natural existir problemas desse tipo. Contudo, a OpenAI afirma que os casos de alucinações e inferências erradas são menores do que os modelos no ChatGPT.

Por enquanto, os usuários do ChatGPT Pro podem usar 100 prompts do Deep Research por mês. A OpenAI reforça que seguirá aprimorando o recurso continuamente nos próximos meses.
OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado
Fonte: Tecnoblog

OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo

OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo

ChatGPT estava preguiçoso desde novembro, mas OpenAI afirma que resolveu (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI afirmou nesta quinta-feira (25) que resolveu a crise de preguiça do ChatGPT — em partes. A nova versão do GPT-4 Turbo, tecnologia mais avançada por trás da inteligência artificial, promete acabar com as respostas curtas — e casos de pedir para o usuário terminar uma tarefa. No comunicado publicado em seu site, a OpenAI destaca que a atualização do GPT-4 Turbo ainda é uma prévia e a tendência é que as respostas fracas diminuam.

Desde o fim de novembro, usuários pagos da IA generativa, que podem utilizar o GPT-4 Turbo, reclamavam de uma “preguicite” da inteligência artificial. Pouco depois, foi levantado até a teoria que o ChatGPT tinha aprendido sobre a “pausa de inverno” (levando em conta o hemisfério norte). A teoria se baseia no fato de que em dezembro, próximo das datas comemorativas, as pessoas tendem a se esforçar menos, postergando trabalhos maiores para janeiro — no nosso caso, o winter break é “calor demais para conseguir viver e trabalhar”.

ChatGPT deve diminuir respostas preguiçosas

ChatGPT não pode sentir preguiça, mas usuários relatam que ele estava preguiçoso (Imagem: Reprodução/Tecnoblog)

Com essa atualização, a OpenAI espera que o ChatGPT publique menos respostas curtas — e talvez pare de mandar o usuário fazer. Geralmente, a IA entrega respostas até que completas sobre alguns temas. No entanto, os usuários relatavam que o ChatGPT estava bem sucinto na conversa.

No post do Reddit linkado no parágrafo anterior, até o caso de um usuário relatando que pediu para o ChatGPT escrever um determinado código em C++. A IA apenas respondeu com o template, indicando onde o código do usuário deveria ser escrito.

Para resolver a situação, alguns usuários até davam algumas dicas de como contornar os problemas. Entre as possíveis soluções estavam repetir o prompt pedindo para que o ChatGPT fizesse o que foi pedido e até mensagens motivacionais como “você consegue! Eu confio”.

Se você não assina o ChatGPT Plus e está boiando sobre isso, tudo bem. A IA com GPT-4 e GPT-4 Turbo só está disponível para os assinantes. O GPT-3.5 segue sem preguicite.

Com informações: The Verge e Ars Technica
OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo

OpenAI diz ter resolvido “preguiça” do ChatGPT com GPT-4 Turbo
Fonte: Tecnoblog

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT, da OpenAI, será usado pela Universidade do Estado do Arizona em seus computadores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI e a Universidade do Estado do Arizona (conhecida pela sigla ASU) anunciaram nesta semana uma parceria que levará o ChatGPT para os PCs da universidade. Esta é a primeira vez que uma instituição de ensino superior contrata o serviço de IA da empresa. O ChatGPT será usado por pesquisadores, funcionários e até mesmo alunos — mas não, a IA não fará os trabalhos de aula por eles.

O anúncio da parceria mostra que a percepção das instituições de ensino sobre a inteligência artificial está mudando. Com a popularização do ChatGPT, houve uma preocupação envolvendo o seu impacto nas instituições de ensino, tanto que algumas escolas bloquearam o acesso ao site da OpenAI.

O tempo foi passando e hoje a IA generativa passa a ser cotada como uma aliada no ensino e nas empresas — vide os funcionários da Samsung que usavam o ChatGPT para auxiliar em algumas tarefas. A ASU anunciou ainda que realizará um concurso para que alunos e funcionário deem dicas de como usar a IA nas atividades da universidade.

Funcionários da ASU ganharão conta do ChatGPT Enterprise

Com a parceria entre a Universidade do Estado do Arizona e OpenAI, funcionários da universidade terão contas para acessar o ChatGPT Enterprise, uma versão da IA com recursos extras. Entre essas funcionalidades estão a capacidade de analisar arquivos, receber prompts maiores e desempenho mais rápido.

O ChatGPT Enterprise usado pela ASU permite ainda que a instituição customize a IA com ferramentas dedicadas para as atividades da universidade. Um exemplo interessante para as universidades brasileiras seria um ChatGPT capaz de avaliar as ementas e conteúdos programáticos das disciplinas que um estudante deseja validar.

ChatGPT pode criar questões para que alunos treinem um determinado assunto (Imagem: Reprodução/Tecnoblog)

Se no início da sua popularização havia uma crença de que o ChatGPT iria prejudicar a educação, o tempo mostra que a IA generativa, quando bem usada, pode auxiliar as instituições de ensino. No exemplo acima, o ChatGPT mostra que ele pode ajudar os estudantes a treinar algum assunto criando novas questões — mas claro, ele ainda pode estar errado e as respostas da IA devem ser comparadas com as fontes, anotações e material de aula, por exemplo.

Com informações: TechCrunch
ChatGPT: OpenAI firma parceria com universidade pela primeira vez

ChatGPT: OpenAI firma parceria com universidade pela primeira vez
Fonte: Tecnoblog

StableLM é um concorrente de código aberto para o ChatGPT

StableLM é um concorrente de código aberto para o ChatGPT

A Stability AI ficou famosa nos últimos meses com o Stable Diffusion, modelo de geração de imagens com inteligência artificial. Agora, ela vai partir para o campo da escrita. A empresa anunciou uma alternativa ao ChatGPT chamada StableLM, com código aberto.

Demonstração do StableLM (Imagem: Giovanni Santa Rosa/Tecnoblog)

O StableLM gera texto prevendo qual o próximo token, como é chamado o fragmento de palavra. A sequência começa com uma informação fornecida por um ser humano.

O funcionamento é bem parecido com o GPT-4, modelo grande de linguagem (LLM, na sigla em inglês) que serve de base para o ChatGPT.

“Modelos de linguagem formarão a espinha dorsal da nossa economia digital, e queremos que todo mundo possa opinar nesses projetos”, diz a Stability AI no blog post anunciando a novidade. “Modelos como o StableLM demonstram nosso compromisso com tecnologias de inteligência artificial transparentes, acessíveis e solidárias.”

StableLM promete ser mais eficiente

Por enquanto, o StableLM está em fase alpha. Ele foi disponibilizado no GitHub, nos tamanhos de 3 bilhões e 7 bilhões de parâmetros. A Stability AI promete que os modelos de 15 bilhões e 65 bilhões de parâmetros serão liberados em breve.

Os parâmetros são variáveis que um modelo usa para aprender a partir dos dados de treinamento. Números menores significam que os modelos podem ser mais eficientes, podendo rodar localmente em notebooks ou smartphones.

Por outro lado, eles precisam de projetos mais elaborados para conseguir entregar bons resultados usando menos recursos.

O StableLM é mais um dos modelos grandes de linguagem a prometer desempenho próximo ao do GPT-3, da OpenAI, com número menor de parâmetros — o GPT-3 usa 175 bilhões.

Outros são o LLaMA, da Meta; o Alpaca, de Stanford; o Dolly 2.0; e o Cerebras-GPT.

Os modelos foram disponibilizados sob a licença Creative Commons BY-SA-4.0. Isso significa que projetos derivados devem dar créditos ao autor original e ser compartilhados usando a mesma licença.

Por enquanto, é possível testar uma versão do modelo de 7 bilhões de parâmetros já customizada para chatbots no Hugging Face.

Com informações: Stability AI, Ars Technica
StableLM é um concorrente de código aberto para o ChatGPT

StableLM é um concorrente de código aberto para o ChatGPT
Fonte: Tecnoblog