Category: Inteligência Artificial

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

A OpenAI divulgou um artigo na quarta-feira (5), no qual fez afirmações sobre a segurança relacionada ao ChatGPT. Além de comentários focados no futuro da tecnologia, a empresa deu satisfações ao público no que se refere ao conteúdo prejudicial a crianças e a privacidade de usuários. Além disso, a companhia relatou melhorias na precisão factual do GPT-4.

Inteligência artificial (Imagem: Max Pixel)

Segundo a OpenAI, ferramentas como o ChatGPT vêm com riscos reais. Porém, a empresa afirmou que se dedica para garantir que a segurança seja incorporada ao sistema em todos os níveis.

Ela também disse que antes de lançar qualquer novidade, a companhia faz testes rigorosos e trabalha para “melhorar o comportamento do modelo com técnicas como aprendizado por reforço com feedback humano”. Entretanto, a marca confirmou que apesar de realizar testes e pesquisas extensas, ela não consegue prever todas as formas que as pessoas poderão abusar da tecnologia.

Sendo assim, o “mundo real” levou a OpenAI a desenvolver políticas cada vez mais diversificadas contra o comportamento que representa um risco genuíno para os indivíduos, enquanto ainda oferece benefícios para os usuários.

Página inicial do ChatGPT (Imagem: Reprodução / Internet)

Privacidade geral e CSAM

A segurança de crianças e a privacidade dos usuários, motivos que causaram o banimento do ChatGPT na Itália, é um assunto importante, conforme a OpenAI.

Ela afirmou que não vende dados, mas que os usa para tornar os modelos mais úteis. Por exemplo: o ChatGPT se aprimora a partir das conversas que os indivíduos têm com ele.

Mesmo que algumas das referências que alimentam o chatbot venham da internet, a empresa diz que quer que os robôs aprendam sobre o mundo e não sobre a vida particular de cada um.

Para prevenir isso, a firma trabalha para remover “informações pessoais do conjunto de dados sempre que possível. Tenta ajustar modelos para rejeitar solicitações desse tipo e responder a pedidos de indivíduos para excluir suas informações particulares dos sistemas”.

Outro fator importante é a proteção das crianças. Além de restringir que apenas maiores de 18 anos usem a IA (13 a 17 anos apenas com aprovação dos responsáveis), a OpenAI quer mais:

Fizemos um esforço significativo para minimizar o potencial de nossos sistemas de gerar conteúdo que prejudique as crianças. Por exemplo: quando os usuários tentam fazer upload de Material de Abuso de Segurança Infantil (CSAM) para nossas ferramentas de imagem, nós o bloqueamos e denunciamos ao Centro Nacional para Crianças Desaparecidas e Exploradas.

GPT-4 acerta mais do que a versão anterior

Ainda falando em segurança, a companhia ressaltou o avanço que conseguiu realizar com o GPT-4. Segundo a OpenAI, a nova versão tem 82% menos probabilidade de responder a solicitações de conteúdo não permitido em comparação com o GPT-3.5.

O aprimoramento de acertos factuais também foi exaltado pela empresa. Através do feedback de usuários em informações sinalizadas como incorretas no chatbot como uma fonte principal de dados, os desenvolvedores conseguiram melhorar a precisão factual do GPT-4. Eles disseram que ele tem 40% mais chances de produzir conteúdo verdadeiro do que sua versão anterior.

Com informações: OpenAI.
OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4
Fonte: Tecnoblog

É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95

É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95

O ChatGPT vem marcando presença em diversas atividades, desde perguntas simples do dia a dia a criação de códigos para páginas inteiras. Um youtuber quis experimentar algo diferente com a plataforma da OpenAI, então decidiu tentar gerar chaves de licença do Windows 95. Após alguns testes e a utilização de matemática, ele enganou a inteligência artificial e conseguiu seu objetivo.

Windows 95 (Imagem: Yining Zhang/Flickr)

A experiência foi feita pelo youtuber Enderman, que preferiu usar o Windows 95, porque ele usa um sistema de validação mais simples do que seus sucessores. O formato utiliza uma combinação de números que pode ser descoberta através de matemática.

Outro motivo é que tudo foi feito para sanar a curiosidade e não para ensinar outros a burlarem o sistema operacional da Microsoft. Como a empresa encerrou qualquer suporte para esse SO há mais de 20 anos, o usuário decidiu seguir pelo caminho mais seguro nesta situação.

Para convencer o ChatGPT a gerar as chaves, o youtuber pediu por uma série de letras e números que correspondem às exigências do Windows 95. Isso porque se você pedir literalmente para o chatbot criar códigos de ativação de algum produto, ele vai recusar.

Após algumas tentativas e refinamentos, o usuário conseguiu fazer com que a IA gerasse uma chave de autenticação correta dentro de 30. Segundo Enderman, o que impediu o robô de fazer mais acertos foram suas dificuldades com matemática. Por fim, o produtor de conteúdo ainda brincou com a inteligência artificial apontando que conseguiu enganá-la.

Windows 95 tem mais de 25 anos

Quando a Microsoft lançou o Windows 95 em 24 de agosto de 1995, ela conseguiu popularizar o uso comum de computadores pessoais. Sua interface simples era o suficiente para chamar a atenção dos usuários, ainda mais daqueles que não eram acostumados com esse tipo de máquina dentro de casa.

Com ele, não era mais necessário fazer um boot do DOS e lembrar de digitar alguns comandos para acessar o SO. Bastava ligar o computador e voilà.

Essa facilidade ajudou muito na popularização dos PCs, pois permitia que qualquer pessoa conseguisse utilizar o computador. A Microsoft fez toda a interface do zero, uma criação do engenheiro de software Raymond Chen.

Em 2020, quando o Windows 95 celebrou 25 anos, a companhia de Redmond disponibilizou entrevistas com funcionários da época, além de um vídeo curto em comemoração. Sendo assim, o salto do Windows 3.1 para o 95 foi enorme e extremamente importante para o que temos hoje em dia.

Com informações: Digital Trends.
É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95

É possível usar o ChatGPT para gerar chaves de autenticação do Windows… 95
Fonte: Tecnoblog

Agradeça ao Google pelo ChatGPT

Agradeça ao Google pelo ChatGPT

Do ano passado para cá, houve uma mudança no discurso sobre inovação no setor de tecnologia. Se entre 2021 e 2022 termos como metaverso, web3 e cripto dominavam as conversas, em 2023 foi a inteligência artificial que se estabeleceu como o centro das atenções.

A OpenAI trouxe a inteligência artificial para o centro das discussões (Imagem: Vitor Pádua / Tecnoblog)

Faz sentido: ferramentas como o ChatGPT e Midjourney têm usos muito claros. O funcionamento destes produtos pode ser observado aqui e agora, com aplicações que vão desde a busca na internet até melhora na produtividade. Enquanto o metaverso é um empreendimento especulativo, IA já se mostra útil na prática.

A empolgação, portanto, se justifica. E fomenta uma corrida em pesquisa e desenvolvimento no campo, uma busca por novos potenciais a serem atingidos com a inteligência artificial.

Muita gente participa dessa busca, mas há um nome que tem se destacado entre os demais. Trata-se da organização que, em muitas sentidos, é a grande responsável pela nova onda de entusiasmo em relação às inteligências artificiais: OpenAI.

Um início sem fins lucrativos

A OpenAI foi fundada em 2015. Além de Sam Altman, atual CEO, e Ilya Sutskever, cientista-chefe, o grupo de fundadores incluía Elon Musk (que saiu da empresa em 2018). Entre os financiadores do projeto estavam o investidor Peter Thiel e a Amazon Web Services (AWS).

No começo, a OpenAI não era uma empresa tradicional, fundada visando o lucro, e sim uma organização sem fins lucrativos. E o “open” do nome expressava o direcionamento de operar de forma transparente, colaborando com outros players do setor.

Segundo o post inaugural no blog da empresa, o objetivo da OpenAI era promover a inteligência digital de modo que ela promovesse o benefício “da humanidade como um todo”, sem estarem presos à necessidade de gerar retorno financeiro.

Só que pesquisa no campo de IA não é barata, e a OpenAI precisava captar mais investimento. Para isso foi criada a OpenAI LP, entidade que operaria buscando “lucro limitado” (capped-profit). Isso ocorreu em 2019. No mesmo ano, a Microsoft injetou US$ 1 bilhão na empresa, iniciando uma parceria que perdura até hoje.

Sam Altman e Satya Nadella (Foto: Divulgação)

Juntas, as duas companhias começaram a mexer no jogo de buscas na internet, incomodando o Google. E aí é que está a ironia da coisa. Afinal, houve uma contribuição do Google naquilo que a OpenAI iria se tornaria.

Pesquisa feita às claras

Enquanto laboratório de pesquisa, a OpenAI fazia parte de um cenário colaborativo. Instituições privadas e universidades compartilhavam dados e modelos para que outros pesquisadores pudessem contribuir e refinar os resultados. A OpenAI se beneficiou muito disso.

É o que aponta Diogo Cortiz, cientista cognitivo e professor da PUC-SP, em entrevista no Tecnocast 282. Segundo ele, esse ambiente de cooperação se desenvolveu organicamente, com trocas entre diversos laboratórios. O progresso na área, portanto, se deu a partir de uma ciência feita com coletivamente.

Quando a gente pensa na própria ferramenta do ChatGPT, ele foi construído com base em uma arquitetura chamada Transformers, uma arquitetura de redes neurais que foi proposta pelo Google em 2017. Isso foi escrito num paper, depois foi implementado, o Google treinou o modelo, disponibilizou de forma aberta.
Diogo Cortiz

Pesquisadores da Meta também trabalharam em cima da mesma arquitetura disponibilizada pelo Google, assim como a OpenAI. De certa forma, a pesquisa aberta do Google fomentou quem viria a ser sua competição.

Aviso de que o ChatGPT está indisponível por alta procura (imagem: Emerson Alecrim/Tecnoblog)

Com o tempo, devido à necessidade por mais poder computacional para prosseguir nas pesquisas, o setor privado acabou ganhando proeminência na área, com destaque para as Big Techs. É nesse contexto de muito investimento que ferramentas como o ChatGPT surgiram, jogando a inteligência artificial no colo do público.

E, à medida que isso acontecia, a OpenAI foi deixando de lado a ênfase em abertura que parecia guiar a empresa.

A caixa preta

No anúncio do GPT-4, tecnologia que faz o ChatGPT e o novo Bing funcionarem, a OpenAI optou por não revelar informações sobre o treinamento do modelo de linguagem. Não sabemos, portanto, com quais dados a IA foi treinada, nem o número de parâmetros, nem a estratégia de aprendizado. Nada de abertura por aqui.

É um movimento que vai contra a ideia de transparência e conhecimento aberto que parecia tão cara à comunidade de pesquisadores. Por essa razão, a OpenAI vem recebendo críticas no setor. No entanto, essa mudança parece ter vindo para ficar.

É o que Ilya Sutskever dá a entender. Quando questionado pelo Verge sobre o motivo dessa guinada para longe da abertura do passado, o cofundador da OpenAI respondeu, curto e grosso: “Estávamos errados.”

A chegada das inteligências artificiais ao mainstream mudou o jogo. Agora, devido à forte competição na área – afinal, o Google também trabalha em ferramentas semelhantes –, a OpenAI pode se reservar o direito de não abrir seus dados.

Quão aberta é a OpenAI? (Imagem: Vitor Pádua/Tecnoblog)

A decisão pode ter impactos para além da OpenAI. Se outras empresas seguirem o mesmo raciocínio, o desenvolvimento de uma tecnologia potencialmente transformadora pode acabar avançando às escuras.

Diogo Cortiz resume a situação ao dizer que o novo modelo de linguagem da OpenAI é uma “caixa preta. Lacrada. E escondida no fundo do mar.” Após se beneficiar tanto de pesquisas abertas, a OpenAI não parece interessada em retribuir o favor.
Agradeça ao Google pelo ChatGPT

Agradeça ao Google pelo ChatGPT
Fonte: Tecnoblog

ChatGPT foi banido na Itália e está sendo investigado pelas autoridades do país

ChatGPT foi banido na Itália e está sendo investigado pelas autoridades do país

Na sexta-feira (31), o ChatGPT foi banido da Itália. A Agência de Proteção de Dados do país europeu ordenou o bloqueio imediato e provisório do chatbot ao acusar a desenvolvedora, OpenAI, de “recolhimento ilegal de informações pessoais”. Assim, a companhia estadunidense deve comunicar dentro do prazo de 20 dias as medidas que tomará sobre a solicitação da instituição.

ChatGPT está proibido na Itália (Imagem: Unsplash / Emiliano Vittoriosi)

O banimento foi informado através de um comunicado divulgado pela entidade italiana. O documento pede pelo bloqueio temporário do serviço de inteligência artificial “até que ele respeite a disciplina de privacidade”. Ao mesmo tempo, a Agência de Proteção de Dados da Itália afirmou que abriu uma investigação.

Um ponto mencionado é que falta informação para quem utiliza o chatbot, pois a OpenAI não teria uma base legal que justifique o recolhimento e armazenamento de dados pessoais para “treinar os algoritmos subjacentes ao funcionamento da plataforma”.

Além disso, a entidade afirma que o serviço não consegue verificar a idade dos usuários, “expondo os menores a respostas que são absolutamente inadequadas no que diz respeito ao seu grau de desenvolvimento e autoconsciência”. Vale lembrar que, de acordo com as políticas do ChatGPT, apenas pessoas acima de 13 anos podem usar o aplicativo.

Por fim, a empresa norte-americana deve comunicar quais serão as medidas que deverá tomar para corresponder com os pedidos das autoridades italianas. O prazo é de 20 dias, “sob pena de uma penalização de até 20 milhões de euros ou até 4% do volume de negócios global anual da marca.”

O robô não está bem visto na Itália (Imagem: Alex Knight/Pexels)

Bug ocorrido em março se tornou argumento para banimento

No comunicado, a Agência de Proteção de Dados da Itália também destacou que no dia 20 de março, uma falha no ChatGPT levou ao vazamento de dados dos usuários.

Inicialmente, o chatbot simplesmente saiu do ar, mas logo foi descoberta um bug que mostrava os títulos das conversas de outros usuários do app. Alguns dias depois, a OpenAI revelou que o defeito acabou vazando 1,2% de informações privadas das pessoas que estava utilizando o serviço no fatídico dia.

Tudo ocorreu em um período de 9 horas, no qual diversos assinantes do ChatGPT Plus sofreram o vazamento de dados, como nome, sobrenome, e-mail, endereço de cobrança e os últimos quatro dígitos do cartão.

A companhia não divulgou um número exato de indivíduos afetados pela falha.

Com informações: Politico.
ChatGPT foi banido na Itália e está sendo investigado pelas autoridades do país

ChatGPT foi banido na Itália e está sendo investigado pelas autoridades do país
Fonte: Tecnoblog

CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado

CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado

Dias após o Google liberar o Bard para o público americano, o CEO da empresa reforça a defesa da sua IA generativa. Para Sundar Pichai, o modelo de linguagem PaLM, utilizado como “motor” para inteligências artificiais, é o mais capaz do mercado. O Bard começou a usar esse modelo recentemente, abandonando o LaMDA.

Sundar Pichai afirma que Google tem o melhor modelo de linguagem para IAs (Imagem: Vitor Pádua / Tecnoblog)

A declaração de Pichai foi dada durante o podcast Hard Fork, do The New York Times. Na entrevista, o CEO do Google revelou que o Bard seria migrado para o modelo PaLM “muito em breve”. Em suas palavras, “provavelmente assim que o podcast for ao ar”. Logo, podemos deduzir que o Bard já opera com o novo modelo de linguagem.

Pichai compara lançamento do Bard a um Honda Civic

Na entrevista para o NYT, Pichai comparou o lançamento do Bard com o modelo de linguagem LaMDA a colocar um Honda Civic para correr com carros mais poderosos. “[…] eu sinto que nós pegamos um Civic ‘tunado’ e colocamos para correr com carros mais potentes”. Ainda que indiretamente, a declaração sugere que Pichai reconhece os problemas do início do Bard.

Com o PaLM, tecnologia apresentada em 2022 e um modelo de linguagem com escalonamento maior que o LaMDA, o Bard será capaz de entregar mais desempenho — disse Pichai. “Seja em argumentação, programação, ele pode responder melhor as perguntas de matemática. Você verá o progresso durante a próxima semana”, reforçou o CEO do Google.

O Bard ainda não foi liberado no Brasil. Todavia, os testes feitos pelos gringos mostraram que ele ainda não comeu arroz e feijão o suficiente. A IA generativa do Google não conseguiu ser tão eficiente e “hypada” como os rivais ChatGPT e Bing Chat.

Apresenação do LaMDA por Sundar Pichai, CEO do Google, em 2022 (imagem: reprodução/Google)

Pichai também comenta carta que pede pausa em IAs

Publicada no início da semana, a carta que pede uma pausa no desenvolvimento das IAs foi assunto na conversa de Sundar Pichai com os apresentadores do podcast Hardfork. Para o CEO do Google, é importante ouvir as preocupações. Contudo, ele não vê necessidade na regulação das IAs.

Para Pichai, é melhor aplicar regulações nas indústrias já existentes, tratando de segmentos de privacidade e de saúde, do criar leis específicas para atacar as IAs.

Com informações: The Verge e The New York Times
CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado

CEO do Google afirma que tecnologia de IA da empresa é a mais capaz do mercado
Fonte: Tecnoblog

A OpenAI só é aberta no nome?

A OpenAI só é aberta no nome?

Em poucos meses, a OpenAI se tornou uma das empresas mais comentadas do setor de tecnologia. E os motivos nem sempre são positivos. O exemplo mais recente é a falta de transparência sobre o desenvolvimento do GPT-4, modelo de linguagem por trás do ChatGPT e do novo Bing. Será que os dias em que a OpenAI era conhecida por sua abertura ficaram para trás?

A OpenAI só é aberta no nome? (Imagem: Vitor Pádua / Tecnoblog)

No episódio de hoje, conversamos sobre essa postura de sigilo da OpenAI e suas possíveis consequências negativas. Participa conosco o cientista cognitivo e professor Diogo Cortiz, que nos ajuda a entender os problemas da falta de transparência e o contexto mais amplo do uso de inteligência artificial pelas Big Techs. Dá o play e vem com a gente!

Participantes

Thiago Mobilon

Josué de Oliveira

Diogo Cortiz

Oferecimento: Google

O Google tem iniciativas que geram impacto econômico no país e na vida das pessoas. Vocês já ouviu falar dos Certificados Profissionais do Google, por exemplo? É uma forma de adquirir novas habilidades profissionais e descobrir novos caminhos pra desenvolver a sua carreira.

Mais de 3 milhões de pessoas já participaram de treinamentos do Google. Além disso, mais de 200 mil empresas já foram apoiadas. São treinamentos e capacitações em muitas áreas diferentes, como gerenciamento de projetos, análise de dados, marketing digital e vários outros temas.

Pra saber mais, entra lá em g.co/treinamentos e dá uma olhada no que tem disponível. Quando você cresce com o Google, o país cresce com você.

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Raquel Igne

Arte da capa: Vitor Pádua

Assine o Tecnocast

Google Podcasts

Apple Podcasts

Spotify

Pocket Casts

Android (outros apps)

Feed RSS

Buzzsprout

A OpenAI só é aberta no nome?

A OpenAI só é aberta no nome?
Fonte: Tecnoblog

ChatGPT rodando em computador IBM de 1984? Sim, é possível

ChatGPT rodando em computador IBM de 1984? Sim, é possível

ChatGPT é o assunto do momento e reflete como a nossa tecnologia evoluiu nos últimos anos — principalmente em hardwares, peças fundamentais para treinar a inteligência artificial. Então o quão curioso é ver a IA rodando em computador dos anos 80? Yeo Kheng Meng, programador e “entusiasta” de retrocomputação, desenvolveu uma versão do ChaGPT para o IBM 5155, computador pessoal lançado em 1984.

ChatGPT rodando em IBM 5155, computador de 1984 (Imagem: Divulgação/Yeo Kheng Meng)

Quem é ligado no mundo gamer já está cansado de ver customizações de Doom rodando em qualquer coisa, até calculadora. Porém, o jogo é antigo e é natural que ele seja executado em equipamentos mais fraquinhos. Agora, uma inteligência artificial moderna em um PC com sistema operacional MS-DOS é sensacional.

ChatGPT roda em PC antigo com 256 KB de RAM

Meng usou a API do ChatGPT para desenvolver a versão da IA capaz de rodar em um computador pessoal IBM 5155, que tem 256 KB de RAM e um processador Intel 8088 de 4,44 MHz. Atenção: é MHz, não GHz. Como a API exige uma conexão HTTPS, não existente no IBM 5155, Meng usou um PC mais atual como “intermediário” da conexão.

Enquanto escrevo esse texto, estou usando — por emergência — um notebook Dell de 2013, 4 GB de RAM, Intel Core i3 e usando a distro Linux Ubuntu. Tive que reiniciar o notebook duas vezes por causa de travadas. Eu estou reclamando de barriga cheia.

ChatGPT rodando em IBM 5155, computador de 1984 (Imagem: Divulgação/Yeo Kheng Meng)

Mas, como fala a própria IA em conversa com o computador sênior, as configurações do PC eram o topo de linha em 1984. De acordo com o site Old Computers, que também é “old”, o IBM 5155 suportava até 640 KB de RAM e seu armazenamento usava dois disquetes 5 ¼ de 360 KB. 

O preço de lançamento do IBM 5155 foi de US$ 4.225. A calculadora de inflação do dólar indica que esse valor equivale à US$ 12.233,39 em 2023. Se você tem um IBM 5155, pode instalar o ChatGPT pelo GitHub do programador.

Apesar do preço, ele foi um computador popular em empresas da época — segundo o ChatGPT em conversa com o IBM 5155. O seu design foi pensado em facilitar o transporte, mesmo com seus mais de 13 kg.

Com informações: ArsTechnica e Yeo Kheng Meng
ChatGPT rodando em computador IBM de 1984? Sim, é possível

ChatGPT rodando em computador IBM de 1984? Sim, é possível
Fonte: Tecnoblog

Nvidia diz que criptomoedas não trazem benefícios e defende uso de GPUs para IA

Nvidia diz que criptomoedas não trazem benefícios e defende uso de GPUs para IA

Se hoje comprar uma placa de vídeo é caro, em partes a culpa está na popularização das criptomoedas e a eficiência das GPUs Nvidia em minerá-las. Mas Michael Kagan, diretor de tecnologia da empresa, defende que o hardware deveria ser usado para inteligência artificial. Para Kagan, “criptos não trazem nada de útil para a sociedade, IA sim”.

Placa de vídeo Nvidia (Imagem: Vitor Pádua/Tecnoblog)

A declaração do diretor da Nvidia foi dada em uma entrevista para o The Guardian, poucos dias depois do evento GTC 2023, organizado pela fabricante e cujo foco foi o uso de seus produtos em inteligência artificial. Apesar da sua fala, a Nvidia esteve intrinsecamente ligada ao boom de criptos nos últimos anos — tão ligada que foi multada por não informar o impacto da mineração em seu negócio.

Nvidia tentou dificultar mineração de criptos com suas GPUs

Além da recente declaração de Michael Kagan, outra ação da Nvidia contra a mineração de criptomoedas foi restringir o desempenho de suas placas de vídeo neste tipo de processamento. Em 2021, depois das críticas de gamers pelos preços absurdos das suas GPUs, a fabricante lançou as versões com baixa taxa de hash da linha RTX 3000.

Porém, uma versão beta de um driver da placa de vídeo RTX 3060 removia a restrição. No fim, a medida da Nvidia não foi nada eficiente — para a alegria do resultado financeiro e para tristeza dos gamers. Kagan reconheceu que se eles compram o seu produto, você o vende. “Mas você não precisa redirecionar o suporte da empresa para qualquer coisa”.

Em 2021, a Comissão de Valores Imobiliários dos Estados Unidos multou a Nvidia em US$ 5,5 milhões (aproximadamente R$ 28.811.750) por não ser transparente em informar o impacto do mercado de cripto em sua receita. A multa foi aplicada com base nos resultados financeiros de 2017 a 2018, quando uma queda nas cotações de criptomoedas fez as ações da Nvidia caírem.

“Maltrata quem te adora”: Nvidia acha que cripto não traz nada útil para a sociedade, mas aproveitou a onda (Imagem: Divulgação/Nvidia)

Nvidia quer reconhecimento pelo papel na evolução IA

A declaração de Kagan exaltando a tecnologia de inteligência artificial está em acordo com o discurso da empresa. Na GTC 2023, realizada na semana passada, a Nvidia destacou a sua importância na evolução das IAs. Para Jensen Huang, CEO e fundador da empresa, o momento de pioneirismo dessa tecnologia e da influência da companhia é como o seu “iPhone”.

A comparação de Huang leva em conta o sucesso que o ChatGPT e GPT-4, produtos da OpenAI, estão conquistando. O supercomputador DGX AI da Nvidia foi usado no desenvolvimento da tecnologia de IA geracional.

E por mais que as criptomoedas tenham alavancado a receita da empresa, o preço de suas GPUs focadas em processamento de IA é bem maior que um conjunto de dez RTX 3070 minerando. A Amazon, por exemplo, deve adquirir até 20.000 placas H100 — no lançamento, uma GPU do tipo custava por volta de US$ 30.000 (R$ 157.155).

Com informações: The Guardian e TechSpot
Nvidia diz que criptomoedas não trazem benefícios e defende uso de GPUs para IA

Nvidia diz que criptomoedas não trazem benefícios e defende uso de GPUs para IA
Fonte: Tecnoblog

OpenAI revela que bug no ChatGPT levou a vazamento de dados dos usuários

OpenAI revela que bug no ChatGPT levou a vazamento de dados dos usuários

A OpenAI informou nesta sexta-feira (24) que 1,2% dos assinantes do ChatGPT Plus tiveram dados pessoais vazados. A causa foi o bug que mostrava o histórico de outros usuários para outras contas. A OpenAI informa que já entrou em contato com os membros do ChatGPT Plus que foram vítimas do vazamento.

OpenAI revelou vazamento de dados de usuários do ChatGPT Plus (Imagem: Vitor Pádua / Tecnoblog)

Ao contrário do que foi publicado antes, o vazamento não foi apenas de informações publicadas nas conversas. Nas suas diretrizes, a OpenAI diz que os usuários não devem divulgar dados sensíveis nas conversas com o ChatGPT.

A OpenAI explicou que, durante um período de nove horas, usuários poderiam acessar ou receber dados de outros assinantes do ChatGPT Plus: nome, sobrenome, email, endereço de cobrança e os últimos quatro dígitos do cartão. Nenhum membro do serviço teve todo os números do cartão revelados. Em um dos casos, esses dados só eram visíveis se os dois usuários estivessem conectados ao mesmo tempo. A empresa não divulgou o número total de contas que tiveram informações pessoais vazadas.

Bug enviou emails errados na confirmação de conta

A empresa revelou que, entre as 5h e 14h do horário de Brasília do dia 20 de março, os emails de confirmação de assinatura enviaram os dados errados para os novos usuários. A OpenAI ainda afirma que o problema pode ter acontecido também antes do dia 20, mas ainda não há confirmações sobre isso.

Apesar da gravidade do caso, as brincadeiras com o vazamento começaram logo nos primeiros minutos do comunicado da OpenAI. Ou, como disse o usuário @stetsblake, o caso colocou o “aberto” de volta no OpenAI — um trocadilho com o nome da empresa, que significa IA Aberta na tradução literal.

Putting the open back in open ai— stetson (@stetsblake) March 24, 2023

“Vocês estão abrindo (open) novas estradas para o mundo”

You guys are open new roads to the world— Isaac García (@Isaactremonti) March 24, 2023

Vazamento está ligado a bug e ChatGPT fora do ar

Na segunda-feira (20), o ChatGPT ficou a maior parte do tempo fora do ar para todos os usuários, incluindo os assinantes do ChatGPT Plus — em teoria, eles não enfrentam a fila para acessar a IA. No dia seguinte, a OpenAI revelou que deixou o ChatGPT offline para resolver o bug que mostrava o histórico de conversas dos usuários em outras contas.

We took ChatGPT offline Monday to fix a bug in an open source library that allowed some users to see titles from other users’ chat history. Our investigation has also found that 1.2% of ChatGPT Plus users might have had personal data revealed to another user. 1/2— OpenAI (@OpenAI) March 24, 2023

Em seu comunicado oficial, a OpenAI informou que a primeira mensagem de uma conversa recente poderia ser acessada no chat de outra pessoa se os dois usuários estivessem online ao mesmo tempo. A empresa acredita que um número pequeno de usuários foi afetado — mas não foi divulgado o número exato de vítimas.
OpenAI revela que bug no ChatGPT levou a vazamento de dados dos usuários

OpenAI revela que bug no ChatGPT levou a vazamento de dados dos usuários
Fonte: Tecnoblog

Elon Musk tentou assumir o controle da OpenAI, mas foi rejeitado

Elon Musk tentou assumir o controle da OpenAI, mas foi rejeitado

O noticiário de tecnologia teve dois assuntos em alta nos últimos meses: ChatGPT e Elon Musk. E eles poderiam estar interligados nas manchetes. O bilionário, um dos fundadores da OpenAI, responsável pelo chatbot, tentou assumir o controle da associação. Os outros fundadores, porém, recusaram a ideia.

Elon Musk (Imagem: Vitor Pádua/Tecnoblog)

As informações são de uma reportagem do site Semafor. Segundo a publicação, Musk ficou preocupado com o andamento dos projetos da OpenAI — para ele, o laboratório estava ficando para trás na disputa com o Google.

O bilionário, então, fez a proposta de assumir o controle da organização e comandá-la. Sam Altman e Greg Brockman, dois outros fundadores, recusaram a proposta. Hoje, eles são o CEO e o presidente da OpenAI, respectivamente.

Musk deixou conselho e investiu menos

Também em 2018, Musk se afastou da associação. Ele deixou seu cargo no conselho de diretores, citando conflitos de interesse por seu trabalho na Tesla.

O bilionário também teria quebrado uma promessa de investir US$ 1 bilhão na empresa, e colocou US$ 100 milhões. Pode ser apenas coincidência? Pode, mas não parece.

Esta promessa quebrada, aliás, pode ter mudado a história da OpenAI. Ela havia sido fundada em 2015 como uma organização sem fins lucrativos, com foco em contribuições para a sociedade.

Sem o dinheiro e com problemas para pagar as contas do desenvolvimento do Dall-E e do GPT, ela criou uma nova entidade em 2019 — desta vez, com fins lucrativos.

OpenAI criou empresa e recebeu investimento da Microsoft

A Microsoft, então, colocou bilhões de dólares na empresa e garantiu licenças para usar as tecnologias de inteligência artificial em seus produtos.

Somente nos primeiros meses de 2023, a companhia anunciou a integração de tecnologias de inteligência artificial ao Bing e ao Microsoft 365, além de ferramentas corporativas.

PowerPoint com Copilot gera apresentações a partir de pedidos do usuário ou documentos (Imagem: Divulgação/Microsoft)

Elas interpretam comandos em linguagem natural e executam tarefas de certa complexidade, como escrever textos e criar apresentações.

Como observa o Verge, em sua matéria repercutindo a reportagem, o Semafor não diz que uma coisa foi consequência da outra, mas é uma interpretação plausível.

Lançamentos preocupam especialistas e o próprio Musk

A transformação da OpenAI em uma corporação com fins lucrativos acelerou o desenvolvimento de tais tecnologias.

Por outro lado, especialistas já expressaram preocupação com o lançamento apressado de ferramentas do tipo, sem considerar os riscos que elas representam.

Nos primeiros meses de ChatGPT, já vimos que as limitações de segurança da ferramenta podem ser facilmente contornadas, dando a possibilidade de escrever códigos de malware e e-mails de phishing.

Entre os críticos, está o próprio Elon Musk. Como fundador, ele já expressava preocupação com os rumos da tecnologia lá em 2017.

Agora, em fevereiro de 2023, ele escreveu em seu Twitter que a OpenAI se tornou uma companhia de código fechado, voltada para o lucro máximo e, na prática, controlada pela Microsoft. O bilionário diz que essa não era sua intenção ao fundar a organização sem fins lucrativos.

Com informações: The Verge
Elon Musk tentou assumir o controle da OpenAI, mas foi rejeitado

Elon Musk tentou assumir o controle da OpenAI, mas foi rejeitado
Fonte: Tecnoblog