Category: OpenAI

OpenAI e outras empresas podem ter que revelar uso de material com copyright

OpenAI e outras empresas podem ter que revelar uso de material com copyright

A inteligência artificial é um assunto em alta, e seus aspectos positivos e negativos ainda estão sob avaliação. A União Europeia, por exemplo, agora está interessada na questão dos direitos autorais. O bloco discute obrigar as empresas a revelar se materiais protegidos por copyright foram usados para treinar robôs como o ChatGPT.

Bandeiras da União Europeia (Imagem: Thijs ter Haar/Wikimedia Commons)

Esta exigência foi adicionada ao Regulamento da Inteligência Artificial nas duas últimas semanas, disse uma fonte interna à Reuters. Alguns membros do Parlamento Europeu queriam proibir o uso de material com copyright, mas uma proposta mais branda, exigindo apenas transparência, venceu as discussões.

Dessa forma, empresas que desenvolvem ferramentas geradoras de conteúdo, como o ChatGPT, o Dall-E, o Midjourney e muitas outras, precisarão revelar qualquer uso de material protegido por direitos autorais para treinar seus sistemas.

O Regulamento da Inteligência Artificial (ou AI Act, em inglês) vem sendo discutido há dois anos, antes mesmo do lançamento do ChatGPT pela OpenAI e de todo o destaque sobre o tema que veio desde então.

O Parlamento Europeu já tinha um rascunho da lei, e seus membros concordaram em avançar com a matéria para a fase de discussões.

As inteligências artificiais generativas dependem de treinamento com grandes quantidades de dados. Assim, elas entendem diversas formas de escrever, acumulam informações, aprendem como desenhar em vários estilos, e assim por diante.

Processos contra empresas podem aumentar

Empresas como a OpenAI se recusam a abrir detalhes sobre os dados usados para treinar seu software. Caso a legislação europeia seja aprovada, elas precisarão revelar de onde foi retirado o conteúdo.

Isso pode ter consequências negativas para as companhias: os processos por violação de direitos autorais devem se multiplicar.

Imagem gerada pelo Stable Diffusion tem marca d’água da Getty Images (Imagem: Reprodução/The Verge)

A questão do copyright já é uma realidade no cenário da inteligência artificial, principalmente entre artistas e fotógrafos. A empresa de bancos de imagens Getty Images está processando a Stability AI, por exemplo.

O Stable Diffusion, modelo desenvolvido pela Stability AI, foi “pego” criando imagens com a marca d’água da Getty. Isso indica que as fotos da empresa foram usadas indevidamente para treinar a inteligência artificial.

Além da briga entre as duas empresas, três artistas moveram uma ação coletiva contra a Stability AI, a Midjourney e a DeviantArt.

Eles alegam que as desenvolvedoras violaram os direitos de milhões de artistas ao usar 5 bilhões de imagens raspadas da internet sem o consentimento dos artistas.

Deixando as imagens um pouco de lado, a Microsoft e sua subsidiária GitHub foram acionadas na Justiça dos EUA por causa da ferramenta Copilot.

O Copilot foi treinado usando códigos abertos. A licença desses códigos, porém, exige que o autor esteja listado em trabalhos derivados.

Mesmo assim, o Copilot cria longos scripts a partir de trabalhos protegidos por essas licenças sem dar nenhum crédito, o que seria uma violação da lei de direitos autorais.

Com informações: Reuters, The Verge
OpenAI e outras empresas podem ter que revelar uso de material com copyright

OpenAI e outras empresas podem ter que revelar uso de material com copyright
Fonte: Tecnoblog

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

Depois de quase 30 dias banido na Itália, o ChatGPT volta a ser liberado no país. Acesso foi retomado dias depois da OpenAI atualizar suas políticas de privacidades, um dos pontos que motivou o banimento da IA generativa na Velha Bota (apelido para a Itália). O bloqueio ao ChatGPT também usou um vazamento de dados na justificativa.

ChatGPT volta a funcionar na Itália após alterações na política de privacidade (Imagem: Vitor Pádua/Tecnoblog)

Sobre a nova política de privacidade, a OpenAI agora permite que os usuários desativem o histórico de conversa com a IA. Ao ativar o recurso, o ChatGPT não utilizará a conversa para ser treinada. Porém, o conteúdo é guardado por 30 dias e revisado para monitorar possíveis abusos.

ChatGPT foi banido na Itália no fim de março

O bloqueio do ChatGPT na Itália aconteceu no dia 31 de março. Agência de Proteção de Dados do país acusou a OpenAI de recolher informações pessoais da população de maneira ilegal. Além disso, a agência apontou que a empresa não possuía métodos eficazes para verificar a idade dos usuários — somente maiores de 13 anos podem acessar o ChatGPT.

Para piorar a situação da OpenAI, dias antes do banimento, um bug na inteligência artificial levou ao vazamento de dado de usuários do serviço ChatGPT+ e permitiu que o histórico de conversa de uma conta fosse acessada por outro usuário.

Agora, quando um usuário com IP italiano entra no ChatGPT, um pop-up com a mensagem “a OpenAI está feliz em retomar o ChatGPT na Itália”. No texto também é pedido que a pessoa confirme ter mais de 18 anos ou que tem mais de 13 anos e foi autorizado pelos pais a acessar a IA generativa. O pop-up conta ainda com um link para acessar a política de privacidade da OpenAI.

ChatGPT agora pede confirmação de idade na Itália (Imagem: Unsplash / Jonathan Kemper)

OpenAI continua sob investigação na Espanha

Apesar das boas notícias na Itália, a OpenAI continua sob investigação na Espanha. Até o momento, o ChatGPT não foi banido no país. O motivo da investigação é quase o mesmo alegado pela Itália.

A Agência Espanhola de Proteção de Dados (AEPD) está investigando se a OpenAI segue o Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia. Na Velha Bota, a dúvida envolvia a legislação da própria Itália.

O Conselho Europeu de Proteção de Dados (EDPB na sigla em inglês) criou uma força-tarefa para investigar o cumprimento da GDPR pela OpenAI.

Com informações: TechCrunch
ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade

ChatGPT volta a funcionar na Itália após atender mudar políticas de privacidade
Fonte: Tecnoblog

DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA

DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA

A briga pelo futuro da inteligência artificial está só começando, e cada empresa tenta reunir o que tem de melhor. O Google, por exemplo, vai incorporar o laboratório DeepMind ao Brain, sua equipe de pesquisa em IA. A nova unidade se chamará Google DeepMind.

Google (Imagem: Vitor Pádua / Tecnoblog)

Demis Hassabis, CEO da DeepMind, terá o mesmo cargo no Google DeepMind. Já Jeff Dean, co-fundador da equipe Brain, será o cientista-chefe da Google Research e do Google DeepMind.

“Juntos, colaborando com nossos fantásticos colegas das áreas de produto do Google, temos uma oportunidade real para melhorar consideravelmente as vidas de bilhões de pessoas, transformar indústrias, levar a ciência adiante e ajudar comunidades diversas”, declarou Hassabis.

Nos últimos meses, o lançamento do ChatGPT colocou o Google em alerta.

A empresa estava acostumada a desenvolver inteligências artificiais para seu motor de buscas, “entendendo” conteúdo de páginas e buscas de usuários. Transformá-las em produtos para o usuário, porém, é algo novo.

Mesmo assim, o Google reagiu e vem liberando o Bard, seu chatbot com IA, aos poucos.

O lançamento foi cheio de problemas, como respostas erradas do programa e insatisfação de funcionários. Apesar disso, o CEO Sundar Pichai garante que sua empresa tem a melhor inteligência artificial do mercado.

A chegada da equipe da DeepMind pode ser vista nesse sentido: reforçar o desenvolvimento das tecnologias de IA para não ficar atrás da Microsoft e da OpenAI na corrida.

DeepMind era científica e queria mais independência

Dá para entender a declaração de Hassabis como um aviso que, daqui em diante, as tecnologias desenvolvidas serão voltadas para produtos e aplicações práticas.

Isso não é exatamente novidade: a DeepMind já realizou trabalhos para aumentar a duração da bateria dos smartphones com Android e reduzir o consumo de energia nos data centers da empresa. Mesmo assim, o foco era muito mais acadêmico e científico.

Como lembra o site The Verge, Google e DeepMind tinham um relacionamento tenso. Enquanto o laboratório tinha alguns dos melhores pesquisadores do mundo e uma reputação científica enorme, ele dava prejuízo, e era a gigante das buscas era quem pagava as contas.

Em 2021, o Google teria rejeitado um pedido da DeepMind para se tornar uma instituição sem fins lucrativos e ter mais independência.

Christopher Manning, diretor do Laboratório de Inteligência Artificial de Stanford, avalia que a fusão pode ser mais difícil do que parece. “Estrategicamente, faz sentido. Taticamente, será difícil gerenciar as diferenças organizacionais e culturais”, diz o cientista ao Wall Street Journal.

A DeepMind ficou famosa quando seu AlphaGo venceu um jogo de go contra o campeão mundial Lee Sedol. Outros feitos do laboratório foram o AlphaZero, que usou aprendizado por reforço para jogar go, xadrez e shogi, e o AlphaFold, especializado em enovelamento de proteínas.

Fundada em 2010 no Reino Unido, a DeepMind comprada pelo Google em 2014. No ano seguinte, a reestruturação corporativa formou o conglomerado Alphabet, com Google e DeepMind como subsidiárias separadas. Agora, elas estão novamente unidas.

Com informações: The Wall Street Journal, The Verge
DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA

DeepMind vai ajudar Google na corrida contra a OpenAI pelo futuro da IA
Fonte: Tecnoblog

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Na última quinta-feira (13), Sam Altman, CEO da OpenAI, declarou que a empresa não está “treinando” o GPT-5, modelo de linguagem (LLM) de inteligência artificial da empresa. Com a sua fala, Altman desmentiu os rumores e a carta que pedia a pausa no desenvolvimento de IAs. Ainda sobre a carta o CEO, relata que ela não informava o que especificamente as empresas deveriam parar.

GPT é o nome do “motor” equipado no ChatGPT e Bing Chat (imagem: Emerson Alecrim/Tecnoblog)

Sam Altman foi um dos convidados do evento “O Futuro dos Negócios IAs”, organizado pelo célebre Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês). Mesmo sem desenvolver o GPT-5, Altman revelou que a empresa está focada em aprimorar o GPT-4, LLM mais recente da OpenAi e que é usada no ChatGPT e Bing Chat.

CEO da OpenAI comenta carta para pausar desenvolvimento de IAs

Para Sam Altman, a carta aberta que pedia às empresas de inteligência artificial a interrupção do desenvolvimento de LLMs mais potentes que o GPT-4 não explicava de maneira técnica o que fazer. Ele ainda desmentiu a informação publicada na carta de que a OpenAI já estava treinando o GPT-5.

O documento foi publicado em março, pouco depois do lançamento oficial do GPT-4. A autoria é da fundação Future of Life publicou, que tem uma parte do seu financiamento oriundo do caixa de Elon Musk — que é um dos assinantes da carta junto de outros empresários techs.

Bing Chat com GPT-4 não consegue resolver regra de três composta — nem mesmo em inglês (Imagem: Reprodução /Tecnoblog)

O CEO da OpenAI afirmou ainda que o treinamento do GPT-5 não começará tão cedo. O foco é melhorar o que já tem. A “assustadora e potente” GPT-4 continua falhando em tarefas “simples”, como regra de três composta — seja no Bing ou no ChatGPT.

Mesmo parecendo que não levou a carta a sério, Altman disse que a OpenAI está resolvendo problemas de segurança no GPT-4. Na carta, este foi um dos pontos de “preocupação” levantado pela Future of Life.

Com informações: The Verge
Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo

Em palestra, OpenAI afirma que não está treinando GPT-5 e que ela não chega tão cedo
Fonte: Tecnoblog

ChatGPT será investigado na Espanha por violação de privacidade de usuários

ChatGPT será investigado na Espanha por violação de privacidade de usuários

O ChatGPT enfrenta mais um problema na Europa. A OpenAI, empresa responsável pela IA generativa, será alvo de investigação aberta pelo órgão da Espanha responsável por proteção de dados. Até o momento, a Agência Espanhola de Proteção de Dados (AEPD) não pediu o bloqueio do serviço em seu território.

Depois de investigação e bloqueio na Itália, agora é a vez da Espanha abrir um inquérito sobre o ChatGPT (Imagem: Reprodução/Tecnoblog)

Depois de ser bloqueado na Itália por possíveis violações de privacidade, o ChatGPT pode ver o mesmo acontecer no outro país. A AEPD investiga se a OpenAI está seguindo o Regulamento Geral sobre a Proteção de Dados (GDPR, na sigla em inglês) da União Europeia. O regulamento aponta as obrigações que devem ser seguidas por todas as entidades, públicas e privadas, que atuam nos países membros da União Europeia (UE).

GDPR regula como dados de europeus são geridos por estrangeiros

A legislação da EU fiscaliza, entre outros pontos, como os dados de cidadãos dos países membros são geridos por empresas estrangeiras. Por exemplo, se uma instituição está exportando informações privadas para fora do continente. Logo, a OpenAI, que é americana, precisa ser transparente sobre como lida com os dados sigilosos dos europeus.

Nesse ponto, a Itália e a Espanha têm dúvidas se a OpenAI de fato protege as informações privadas dos usuários do ChatGPT. Para evitar qualquer problema com dados sigiloso sendo “mal geridos”, o órgão italiano responsável por fiscalizar a GDPR bloqueou a IA generativa no país. A Espanha, até o momento, não seguiu esses passos.

Órgão da União Europeia também investigará como a OpenAI utiliza os dados sigilosos (Imagem: Thijs ter Haar/Wikimedia Commons)

Entretanto, a AEPD tomou um passo importante: pediu que o Conselho Europeu de Proteção de Dados (EDPB na sigla em inglês), órgão da EU que fiscaliza o Regulamento, discutisse o ChatGPT em uma discussão de plenário.

O resultado do debate levou o EDPB a criar uma força-tarefa para investigar a gestão de dados privados pela OpenAI. A investigação do Conselho será paralela aos trabalhos da Espanha e da Itália.

Bug no ChatGPT revelou dados sigilosos de usuários

ChatGPT enfrentou outros problemas antes de investigações na Europa (Imagem: Reprodução/Tecnoblog)

No dia 20 de março, um bug no ChatGPT permitiu que os e-mails de confirmação do ChatGPT Plus, com dados pessoais, fossem enviados aos assinantes errados. O problema também permitia que a primeira mensagem de uma conversa fosse acessada por outro usuário, mas só se as duas contas estivessem online ao mesmo tempo.

Para resolver o bug, a OpenAI deixou o ChatGPT fora do ar durante boa parte do dia 20 de março. Quatro dias depois, a empresa confirmou a razão de ter “desligado” a IA por várias horas. O caso foi um dos argumentos usados pela Itália para bloquear o serviço no país.

Com informações: Tech Crunch
ChatGPT será investigado na Espanha por violação de privacidade de usuários

ChatGPT será investigado na Espanha por violação de privacidade de usuários
Fonte: Tecnoblog

Atalho do ChatGPT está chegando para dispositivos da Apple

Atalho do ChatGPT está chegando para dispositivos da Apple

O desenvolvedor e editor do MacStories, Federico Viticci, anunciou que está lançando um atalho avançado para integrar o ChatGPT aos sistemas operacionais do iPhone, iPad, Apple Watch e Mac. Chamado de “S-GPT”, a novidade promete conectar a inteligência artificial da OpenAI com recursos nativos dos gadgets da Apple. Isso permitirá que o usuário converse com o chatbot sem precisar abrir a página da plataforma em um navegador.

O S-GPT (Imagem: Divulgação / Federico Viticci)

Segundo a página do S-GPT, o atalho serve para que o usuário faça perguntas para o ChatGPT a partir de uma caixa na tela do dispositivo. As respostas aparecem em um alerta no aparelho, como em uma notificação. Por enquanto, ele só aceitará textos, mas não há limite para o tamanho da questão.

Para se distanciar de outros produtos similares, o desenvolvedor destacou os diferenciais da novidade:

O S-GPT usa a nova API de bate-papo lançada pela OpenAI, que é mais econômica do que a API de conclusão de texto anterior e pode produzir resultados de alta qualidade. Mais importante ainda, o S-GPT suporta o modo de conversação: à medida que você conversa com o ChatGPT e faz perguntas de acompanhamento na mesma “sessão”, o S-GPT mantém o contexto de suas perguntas anteriores e a série de respostas do assistente. Na verdade, você pode parar o atalho a qualquer momento e exportar um log completo de uma conversa inteira como uma única transcrição.

Em outras palavras, Federico Viticci queria oferecer algo mais do que “perguntas simples ou pedidos de poemas”. Ele criou uma ferramenta para ser integrada às funcionalidades nativas dos produtos da Apple.

Uma conversa completa salva em arquivo de texto (Imagem: Divulgação / Federico Viticci)

S-GPT exige conta na OpenAI

O S-GPT (abreviação de Shortcuts-GPT) é “gratuito para qualquer usuário”, conforme afirmação do desenvolvedor. No entanto, é necessário ter uma inscrição na OpenAI com associação a um plano de pagamento “pay-as-you-go”, que é um sistema em que você paga por um serviço antes de usá-lo e você não pode usar mais do que você pagou.

Essa necessidade se deve ao fato de que o atalho aproveita a API de desenvolvedor da criadora da inteligência artificial, que tem um custo. Ele pode se conectar ao modelo 3.5 do ChatGPT e, caso o usuário tenha acesso à versão 4.0, também conseguirá usá-lo.

Alguns dos exemplos do que a novidade consegue fazer é responder a um comando para criar uma playlist com artistas específicos. Dessa forma, ele acessa o chatbot, que repassa a lista de faixas musicais e pede para você nomeá-la. Quando você abrir o aplicativo do Apple Music ou similar, as músicas ordenadas estarão te esperando.

Com isso, talvez a Siri precisará se preocupar em perder seu posto.

Com informações: TechRadar.
Atalho do ChatGPT está chegando para dispositivos da Apple

Atalho do ChatGPT está chegando para dispositivos da Apple
Fonte: Tecnoblog

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

A OpenAI divulgou um artigo na quarta-feira (5), no qual fez afirmações sobre a segurança relacionada ao ChatGPT. Além de comentários focados no futuro da tecnologia, a empresa deu satisfações ao público no que se refere ao conteúdo prejudicial a crianças e a privacidade de usuários. Além disso, a companhia relatou melhorias na precisão factual do GPT-4.

Inteligência artificial (Imagem: Max Pixel)

Segundo a OpenAI, ferramentas como o ChatGPT vêm com riscos reais. Porém, a empresa afirmou que se dedica para garantir que a segurança seja incorporada ao sistema em todos os níveis.

Ela também disse que antes de lançar qualquer novidade, a companhia faz testes rigorosos e trabalha para “melhorar o comportamento do modelo com técnicas como aprendizado por reforço com feedback humano”. Entretanto, a marca confirmou que apesar de realizar testes e pesquisas extensas, ela não consegue prever todas as formas que as pessoas poderão abusar da tecnologia.

Sendo assim, o “mundo real” levou a OpenAI a desenvolver políticas cada vez mais diversificadas contra o comportamento que representa um risco genuíno para os indivíduos, enquanto ainda oferece benefícios para os usuários.

Página inicial do ChatGPT (Imagem: Reprodução / Internet)

Privacidade geral e CSAM

A segurança de crianças e a privacidade dos usuários, motivos que causaram o banimento do ChatGPT na Itália, é um assunto importante, conforme a OpenAI.

Ela afirmou que não vende dados, mas que os usa para tornar os modelos mais úteis. Por exemplo: o ChatGPT se aprimora a partir das conversas que os indivíduos têm com ele.

Mesmo que algumas das referências que alimentam o chatbot venham da internet, a empresa diz que quer que os robôs aprendam sobre o mundo e não sobre a vida particular de cada um.

Para prevenir isso, a firma trabalha para remover “informações pessoais do conjunto de dados sempre que possível. Tenta ajustar modelos para rejeitar solicitações desse tipo e responder a pedidos de indivíduos para excluir suas informações particulares dos sistemas”.

Outro fator importante é a proteção das crianças. Além de restringir que apenas maiores de 18 anos usem a IA (13 a 17 anos apenas com aprovação dos responsáveis), a OpenAI quer mais:

Fizemos um esforço significativo para minimizar o potencial de nossos sistemas de gerar conteúdo que prejudique as crianças. Por exemplo: quando os usuários tentam fazer upload de Material de Abuso de Segurança Infantil (CSAM) para nossas ferramentas de imagem, nós o bloqueamos e denunciamos ao Centro Nacional para Crianças Desaparecidas e Exploradas.

GPT-4 acerta mais do que a versão anterior

Ainda falando em segurança, a companhia ressaltou o avanço que conseguiu realizar com o GPT-4. Segundo a OpenAI, a nova versão tem 82% menos probabilidade de responder a solicitações de conteúdo não permitido em comparação com o GPT-3.5.

O aprimoramento de acertos factuais também foi exaltado pela empresa. Através do feedback de usuários em informações sinalizadas como incorretas no chatbot como uma fonte principal de dados, os desenvolvedores conseguiram melhorar a precisão factual do GPT-4. Eles disseram que ele tem 40% mais chances de produzir conteúdo verdadeiro do que sua versão anterior.

Com informações: OpenAI.
OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4
Fonte: Tecnoblog

É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95

É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95

O ChatGPT vem marcando presença em diversas atividades, desde perguntas simples do dia a dia a criação de códigos para páginas inteiras. Um youtuber quis experimentar algo diferente com a plataforma da OpenAI, então decidiu tentar gerar chaves de licença do Windows 95. Após alguns testes e a utilização de matemática, ele enganou a inteligência artificial e conseguiu seu objetivo.

Windows 95 (Imagem: Yining Zhang/Flickr)

A experiência foi feita pelo youtuber Enderman, que preferiu usar o Windows 95, porque ele usa um sistema de validação mais simples do que seus sucessores. O formato utiliza uma combinação de números que pode ser descoberta através de matemática.

Outro motivo é que tudo foi feito para sanar a curiosidade e não para ensinar outros a burlarem o sistema operacional da Microsoft. Como a empresa encerrou qualquer suporte para esse SO há mais de 20 anos, o usuário decidiu seguir pelo caminho mais seguro nesta situação.

Para convencer o ChatGPT a gerar as chaves, o youtuber pediu por uma série de letras e números que correspondem às exigências do Windows 95. Isso porque se você pedir literalmente para o chatbot criar códigos de ativação de algum produto, ele vai recusar.

Após algumas tentativas e refinamentos, o usuário conseguiu fazer com que a IA gerasse uma chave de autenticação correta dentro de 30. Segundo Enderman, o que impediu o robô de fazer mais acertos foram suas dificuldades com matemática. Por fim, o produtor de conteúdo ainda brincou com a inteligência artificial apontando que conseguiu enganá-la.

Windows 95 tem mais de 25 anos

Quando a Microsoft lançou o Windows 95 em 24 de agosto de 1995, ela conseguiu popularizar o uso comum de computadores pessoais. Sua interface simples era o suficiente para chamar a atenção dos usuários, ainda mais daqueles que não eram acostumados com esse tipo de máquina dentro de casa.

Com ele, não era mais necessário fazer um boot do DOS e lembrar de digitar alguns comandos para acessar o SO. Bastava ligar o computador e voilà.

Essa facilidade ajudou muito na popularização dos PCs, pois permitia que qualquer pessoa conseguisse utilizar o computador. A Microsoft fez toda a interface do zero, uma criação do engenheiro de software Raymond Chen.

Em 2020, quando o Windows 95 celebrou 25 anos, a companhia de Redmond disponibilizou entrevistas com funcionários da época, além de um vídeo curto em comemoração. Sendo assim, o salto do Windows 3.1 para o 95 foi enorme e extremamente importante para o que temos hoje em dia.

Com informações: Digital Trends.
É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95

É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95
Fonte: Tecnoblog

Agradeça ao Google pelo ChatGPT

Agradeça ao Google pelo ChatGPT

Do ano passado para cá, houve uma mudança no discurso sobre inovação no setor de tecnologia. Se entre 2021 e 2022 termos como metaverso, web3 e cripto dominavam as conversas, em 2023 foi a inteligência artificial que se estabeleceu como o centro das atenções.

A OpenAI trouxe a inteligência artificial para o centro das discussões (Imagem: Vitor Pádua / Tecnoblog)

Faz sentido: ferramentas como o ChatGPT e Midjourney têm usos muito claros. O funcionamento destes produtos pode ser observado aqui e agora, com aplicações que vão desde a busca na internet até melhora na produtividade. Enquanto o metaverso é um empreendimento especulativo, IA já se mostra útil na prática.

A empolgação, portanto, se justifica. E fomenta uma corrida em pesquisa e desenvolvimento no campo, uma busca por novos potenciais a serem atingidos com a inteligência artificial.

Muita gente participa dessa busca, mas há um nome que tem se destacado entre os demais. Trata-se da organização que, em muitas sentidos, é a grande responsável pela nova onda de entusiasmo em relação às inteligências artificiais: OpenAI.

Um início sem fins lucrativos

A OpenAI foi fundada em 2015. Além de Sam Altman, atual CEO, e Ilya Sutskever, cientista-chefe, o grupo de fundadores incluía Elon Musk (que saiu da empresa em 2018). Entre os financiadores do projeto estavam o investidor Peter Thiel e a Amazon Web Services (AWS).

No começo, a OpenAI não era uma empresa tradicional, fundada visando o lucro, e sim uma organização sem fins lucrativos. E o “open” do nome expressava o direcionamento de operar de forma transparente, colaborando com outros players do setor.

Segundo o post inaugural no blog da empresa, o objetivo da OpenAI era promover a inteligência digital de modo que ela promovesse o benefício “da humanidade como um todo”, sem estarem presos à necessidade de gerar retorno financeiro.

Só que pesquisa no campo de IA não é barata, e a OpenAI precisava captar mais investimento. Para isso foi criada a OpenAI LP, entidade que operaria buscando “lucro limitado” (capped-profit). Isso ocorreu em 2019. No mesmo ano, a Microsoft injetou US$ 1 bilhão na empresa, iniciando uma parceria que perdura até hoje.

Sam Altman e Satya Nadella (Foto: Divulgação)

Juntas, as duas companhias começaram a mexer no jogo de buscas na internet, incomodando o Google. E aí é que está a ironia da coisa. Afinal, houve uma contribuição do Google naquilo que a OpenAI iria se tornaria.

Pesquisa feita às claras

Enquanto laboratório de pesquisa, a OpenAI fazia parte de um cenário colaborativo. Instituições privadas e universidades compartilhavam dados e modelos para que outros pesquisadores pudessem contribuir e refinar os resultados. A OpenAI se beneficiou muito disso.

É o que aponta Diogo Cortiz, cientista cognitivo e professor da PUC-SP, em entrevista no Tecnocast 282. Segundo ele, esse ambiente de cooperação se desenvolveu organicamente, com trocas entre diversos laboratórios. O progresso na área, portanto, se deu a partir de uma ciência feita com coletivamente.

Quando a gente pensa na própria ferramenta do ChatGPT, ele foi construído com base em uma arquitetura chamada Transformers, uma arquitetura de redes neurais que foi proposta pelo Google em 2017. Isso foi escrito num paper, depois foi implementado, o Google treinou o modelo, disponibilizou de forma aberta.
Diogo Cortiz

Pesquisadores da Meta também trabalharam em cima da mesma arquitetura disponibilizada pelo Google, assim como a OpenAI. De certa forma, a pesquisa aberta do Google fomentou quem viria a ser sua competição.

Aviso de que o ChatGPT está indisponível por alta procura (imagem: Emerson Alecrim/Tecnoblog)

Com o tempo, devido à necessidade por mais poder computacional para prosseguir nas pesquisas, o setor privado acabou ganhando proeminência na área, com destaque para as Big Techs. É nesse contexto de muito investimento que ferramentas como o ChatGPT surgiram, jogando a inteligência artificial no colo do público.

E, à medida que isso acontecia, a OpenAI foi deixando de lado a ênfase em abertura que parecia guiar a empresa.

A caixa preta

No anúncio do GPT-4, tecnologia que faz o ChatGPT e o novo Bing funcionarem, a OpenAI optou por não revelar informações sobre o treinamento do modelo de linguagem. Não sabemos, portanto, com quais dados a IA foi treinada, nem o número de parâmetros, nem a estratégia de aprendizado. Nada de abertura por aqui.

É um movimento que vai contra a ideia de transparência e conhecimento aberto que parecia tão cara à comunidade de pesquisadores. Por essa razão, a OpenAI vem recebendo críticas no setor. No entanto, essa mudança parece ter vindo para ficar.

É o que Ilya Sutskever dá a entender. Quando questionado pelo Verge sobre o motivo dessa guinada para longe da abertura do passado, o cofundador da OpenAI respondeu, curto e grosso: “Estávamos errados.”

A chegada das inteligências artificiais ao mainstream mudou o jogo. Agora, devido à forte competição na área – afinal, o Google também trabalha em ferramentas semelhantes –, a OpenAI pode se reservar o direito de não abrir seus dados.

Quão aberta é a OpenAI? (Imagem: Vitor Pádua/Tecnoblog)

A decisão pode ter impactos para além da OpenAI. Se outras empresas seguirem o mesmo raciocínio, o desenvolvimento de uma tecnologia potencialmente transformadora pode acabar avançando às escuras.

Diogo Cortiz resume a situação ao dizer que o novo modelo de linguagem da OpenAI é uma “caixa preta. Lacrada. E escondida no fundo do mar.” Após se beneficiar tanto de pesquisas abertas, a OpenAI não parece interessada em retribuir o favor.
Agradeça ao Google pelo ChatGPT

Agradeça ao Google pelo ChatGPT
Fonte: Tecnoblog

CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado

CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado

Dias após o Google liberar o Bard para o público americano, o CEO da empresa reforça a defesa da sua IA generativa. Para Sundar Pichai, o modelo de linguagem PaLM, utilizado como “motor” para inteligências artificiais, é o mais capaz do mercado. O Bard começou a usar esse modelo recentemente, abandonando o LaMDA.

Sundar Pichai afirma que Google tem o melhor modelo de linguagem para IAs (Imagem: Vitor Pádua / Tecnoblog)

A declaração de Pichai foi dada durante o podcast Hard Fork, do The New York Times. Na entrevista, o CEO do Google revelou que o Bard seria migrado para o modelo PaLM “muito em breve”. Em suas palavras, “provavelmente assim que o podcast for ao ar”. Logo, podemos deduzir que o Bard já opera com o novo modelo de linguagem.

Pichai compara lançamento do Bard a um Honda Civic

Na entrevista para o NYT, Pichai comparou o lançamento do Bard com o modelo de linguagem LaMDA a colocar um Honda Civic para correr com carros mais poderosos. “[…] eu sinto que nós pegamos um Civic ‘tunado’ e colocamos para correr com carros mais potentes”. Ainda que indiretamente, a declaração sugere que Pichai reconhece os problemas do início do Bard.

Com o PaLM, tecnologia apresentada em 2022 e um modelo de linguagem com escalonamento maior que o LaMDA, o Bard será capaz de entregar mais desempenho — disse Pichai. “Seja em argumentação, programação, ele pode responder melhor as perguntas de matemática. Você verá o progresso durante a próxima semana”, reforçou o CEO do Google.

O Bard ainda não foi liberado no Brasil. Todavia, os testes feitos pelos gringos mostraram que ele ainda não comeu arroz e feijão o suficiente. A IA generativa do Google não conseguiu ser tão eficiente e “hypada” como os rivais ChatGPT e Bing Chat.

Apresenação do LaMDA por Sundar Pichai, CEO do Google, em 2022 (imagem: reprodução/Google)

Pichai também comenta carta que pede pausa em IAs

Publicada no início da semana, a carta que pede uma pausa no desenvolvimento das IAs foi assunto na conversa de Sundar Pichai com os apresentadores do podcast Hardfork. Para o CEO do Google, é importante ouvir as preocupações. Contudo, ele não vê necessidade na regulação das IAs.

Para Pichai, é melhor aplicar regulações nas indústrias já existentes, tratando de segmentos de privacidade e de saúde, do criar leis específicas para atacar as IAs.

Com informações: The Verge e The New York Times
CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado

CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado
Fonte: Tecnoblog