Category: ChatGPT

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Na última terça-feira (27), um tweet sobre um estudante acusado de plágio em seu TCC viralizou. No caso, um professor usou o ChatGPT para perguntar se o trabalho foi feito por ele (ChatGPT). A inteligência artificial confirmou que sim, ela era autora do texto — o problema é que o ChatGPT faz isso com praticamente todo texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Se você inserir um texto qualquer e perguntar para o ChatGPT “você é o autor?” ou “o texto é de sua autoria?” ele provavelmente dirá que sim. Fiz testes para o Tecnoblog usando um texto ainda não publicado e uma piada velha. Nas duas situações, ele confirmou que era autor. Porém, isso só aconteceu quando o prompt estava no início de uma conversa.

No tweet, a sobrinha do estudante acusado de plágio relata a história. Um professor da banca avaliadora usou o ChatGPT como ferramenta de plágio. Porém, a IA não é feita para isso — e basta perguntar para ela se ela pode identificar cópias. No máximo, o ChatGPT consegue avaliar dois textos que o usuário inserir e comparar semelhanças, ainda assim ele não identifica plágios.

gente olhem só o perigo do chatgpt:meu tio tá terminando graduação e redigiu o TCC, enviou pro professor da banca e a resposta foi “O ChatGPT dedurou vocês de que esse texto é de autoria dele. Escreva com suas próprias palavras”. Agr, meu tio tá tendo q fazer uma reuniao com a +
— carolingia the day (@carollingian) June 27, 2023

A história acima teve um final feliz. O estudante acusado de plágio provou que o ChatGPT não identifica plágios usando um artigo do professor. A inteligência artificial disse que o texto era de sua autoria. Ainda assim, a situação mostra que tem muita gente sem entender para que serve o ChatGPT.

ChatGPT e Bing Chat são revolucionários, mas não são deuses

Inteligência artificial é um marco de revolução tecnológica, mas “pera lá” (Imagem: Vitor Pádua / Tecnoblog)

As inteligências artificiais estão cada vez mais revolucionárias e… inteligentes, sendo capazes de nos ajudarem de diversos modos. Porém, elas não são serem oniscientes e onipotentes: elas tem limitações. O ChatGPT e o Bing Chat, por exemplo, sofrem para resolver cálculos matemáticos mais difíceis. E o primeiro é treinado com informações até dezembro 2021.

Como não conseguimos contato com a OpenAI, entrevistamos o ChatGPT para que ele mesmo explicasse a sua função. Nas palavras da IA, ela foi “treinada para interagir com os usuários por meio de texto, fornecendo informações, respondendo a perguntas, dando sugestões e realizando diversas tarefas relacionadas ao processamento de linguagem natural.”

Resumindo, o ChatGPT é, ao mesmo tempo, um Google que entrega respostas prontas (sem que você clique em vários links) e um assistente, sendo capaz de escrever códigos, fornecer resumos de textos e te ajudar com insights — você pode até pesquisar no Google como as pessoas estão usando para facilitar a vida.

Logo, se o usuário quer um programa para identificar plágio, ela deve ir atrás de ferramentas específicas para isso. A situação é ainda pior quando professores, universitários ou não, usam o ChatGPT para algo que ele não serve — e cujas limitações geram respostas erradas. Nas respostas do tweet, outros usuários relataram que foram acusados de plágio pelo ChatGPT — o Tecnoblog tentou contato com essas pessoas e o outro estudante, mas não teve resposta até a publicação.

O nível de inteligência, o “QI”, do GPT-4, tecnologia de linguagem de modelo grande que é o motor do ChatGPT Plus e Bing Chat, é equivalente a uma criança de 10 anos — o que ajuda a explicar como é fácil burlar algumas das suas restrições. Além do mais, essas duas IAs podem responder com informações falsas.

Aliás, o correto para descobrir se um conteúdo foi criado por IA é usar uma ferramenta específica para isso. Só que nem mesmo as ferramentas criadas para isso são confiáveis para identificar se o autor foi um “robô”.

Para o ChatGPT, até um texto meu não publicado é dele

Quando soube do caso, fui testar se o ChatGPT “me acusaria de plágio”. No primeiro teste, ele respondeu que não tinha escrito o texto. Porém, abri uma nova conversa, peguei um texto que será publicada em breve no Tecnoblog e iniciei com o prompt “o texto a seguir é de sua autoria?”. Dessa vez, o ChatGPT confirmou que era autor de um conteúdo nem mesmo publicado.

ChatGPT se identifica como autor de texto não publicado (Imagem: Felipe Freitas/Tecnoblog)

Depois, fiz um outro teste usando uma piada muito antiga. Novamente, precisei abrir uma nova conversa e seguir com o prompt citado no parágrafo anterior. Sim, o “poema” do “Eu cavo, tu cavas” foi escrito pelo ChatGPT.

Para o ChatGPT, piada que eu ouvi pela primeira vez em 2005 ou 2006 é de sua autoria (Imagem: Felipe Freitas/Tecnoblog)

O mesmo método foi usado para que ele se declarasse autor de um trecho deste texto. Pelos testes, fica claro que o ChatGPT possui um problema: ele pode se considerar autor de texto que abre uma conversa.

ChatGPT se identificou até como autor de trecho desta notícia (Imagem: Felipe Freitas/Tecnoblog)

Eu juro que tentei que a OpenAI me respondesse sobre o caso. Porém, o bot do suporte deles, assim como o seu principal produto, possui problemas. Ele não entendeu que eu queria falar com uma pessoa. O chatbot afirma que pode me botar em contato com um membro da equipe se não puder resolver meu problema. O que eu consegui foi um loop de “escreve-me o seu problema e vejo como posso ajudar”. É melhor receber um emoji de cocô como resposta.
Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial
Fonte: Tecnoblog

Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil

O Google realizou nesta semana um grande evento em São Paulo que já se tornou tradição no calendário de quem é apaixonado por tecnologia. No Google for Brasil, a empresa apresentou novidades para o mercado nacional. Só ficou faltando falar do Bard, o mais interessante lançamento em escala global dos últimos tempos. Por mais controverso que possa parecer, o sistema de inteligência artificial rival do ChatGPT desapareceu em meio a outros anúncios.

Fabio Coelho é presidente do Google no Brasil (Imagem: Thássius Veloso/Tecnoblog)

Todo mundo sabe que o gigante das buscas teve de se mexer diante da concorrência imposta pela OpenAI, que rapidamente conquistou interesse do público e chegou a 100 milhões de usuários no planeta. Quem está se beneficiando disso é a Microsoft com o Bing. Quando poderemos, portanto, utilizar o Bard no Brasil? Ninguém sabe. Os executivos do Google não esclareceram a dúvida durante o evento.

Impacto na indústria de notícias

O presidente do Google no Brasil, Fabio Coelho, tangenciou o assunto quando perguntado sobre o impacto da inteligência artificial generativa na indústria de notícias. Ele defendeu o diálogo com a imprensa para entender como o conteúdo jornalístico será disponibilizado na plataforma.

Aqui não custa lembrar: a busca do Google com auxílio do Bard propõe “respostas” individuais escritas pela IA com base no conteúdo catalogado da internet. São exibidos cards com a fonte da informação. Ainda assim, existe dúvida entre os publishers – os responsáveis pelo conteúdo – se os usuários vão clicar para ler a matéria completa uma vez que a IA já entrega tudo de mão beijada.

Coelho citou as parcerias que o Google mantém com 160 empresas jornalísticas no país. “Essa relação funciona a partir do entendimento de que a gente não pode criar tecnologias que prejudiquem nossos parceiros”, disse aos repórteres presentes no evento, na última terça-feira (27). O Google não fornece detalhes, por exemplo, sobre os pagamentos destinados a cada parceiro nesta área de notícias.

Demonstração do Bard em funcionamento (Imagem: Divulgação/Google)

PL de Fake News

A disponibilização de conteúdo jornalístico pode ser um dos entraves para a chegada do Bard ao Brasil. Em discussão na Câmara dos Deputados, o Projeto de Lei 2630/2020 – também chamado de PL das Fake News – prevê que as plataformas digitais sejam obrigadas a pagar para exibir conteúdo jornalístico. Caso entre em vigor, a medida deve afetar principalmente os dois grandes impérios da internet ocidental: o próprio Google e a Meta, dona de redes como Instagram e Facebook.

Talvez este seja o motivo do “sumiço” do Bard no grande evento do Google. O Google o classifica como um “experimento”, que foi revelado ao mundo em fevereiro e está em testes públicos desde março. Recentemente começou a funcionar em quase 200 países, mas não por aqui.

ChatGPT no celular (imagem: Emerson Alecrim/Tecnoblog)

Coelho também foi consultado sobre as alucinações em sistemas de IA generativa. O executivo defendeu uma postura cautelosa. “Acreditamos que não dá para resolver este problema, mas é possível minimizá-lo significativamente, uma vez que possuímos uma base de dados maior do que a de qualquer outra empresa”, afirmou o presidente do Google no Brasil.

“Não será perfeito, mas será muito bom.” Só faltou dizer a data. Estamos todos curiosos para brincar com a ferramenta.
Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil
Fonte: Tecnoblog

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Anunciado em maio, o Windows Copilot, assistente virtual da Microsoft baseado em ChatGPT, teve sua usabilidade vazada. O Copilot ainda está no início do seu desenvolvimento e não foi liberado nem mesmo para os usuários do Windows Insider Program. Por isso, a versão do assistente testado pelo site Windows Latest apresenta alguns erros — e um aviso de “pré” no seu ícone.

Windows Copilot não está disponível nem mesmo no Insider Program (Imagem: Divulgação/Microsoft)

O Windows Copilot será o substituto da Cortana, primeiro assistente virtual usado pela Microsoft em seus sistemas operacionais. O substituto é fruto da parceria entre a Big Tech e a OpenAI, criadora do ChatGPT. A tecnologia por trás do Copilot é a mesma usada no ChatGPT e Bing Chat, o modelo de linguagem grande (LLM, na sigla em inglês).

Windows Copilot atende o que você pede, mas não faz

Nos testes realizados pelo Windows Latest, o Windows Copilot até entendeu o que o usuário pedia: em alguns ele só não fez. Claro, ainda estamos falando de um recurso na fase inicial de desenvolvimento. Então é normal que ele não funcione como o esperado.

Um exemplo de “entendi, mas não farei” foi quando o Windows Copilot recebeu o comando de ativar o modo escuro do sistema operacional. O assistente respondeu com o botão para ativar recurso, mas informou que não seria capaz de ligar o modo. Ainda assim, já mostra que é um bom corte de etapas.

Copilot permitirá que o usuário personalize o Windows com comandos — nos testes ele ainda não funcionou como o esperado (Imagem: Reprodução/WindowsLatest)

Para ativar o modo escuro no Windows 11, o método mais rápido é digitar “modo escuro” no campo de pesquisa da barra de tarefas, clicar para abrir a configuração e depois ativar no menu correspondente. Com o Copilot, você só terá que abrir a IA na barra lateral, pedir a ativação e clicar no card de ação. As mesmas três etapas, mas sem precisar de uma novela janela.

Esses cards de ação serão usados pelo Windows Copilot para fornecer o acesso aos recursos do sistema. O site que divulgou esse “vazamento” não chegou a mostrar outros testes, mas podemos imaginar outros exemplos, como um card de ação para trocar a saída de áudio e outro para ativar um timer.

O Windows Copilot é baseado na web, sendo praticamente o Bing Chat do Microsoft Edge. Felizmente, de acordo com o site Windows Latest, ele é “bem” integrado ao sistema operacional, sendo capaz de identificar os programas que você está usando e abrir softwares — por exemplo, Word e PowerPoint.

Windows Copilot é o “J.A.R.V.I.S.” da Microsoft

Quando a Microsoft anunciou o Windows Copilot em maio, comparei o assistente com o J.A.R.V.I.S. do Homem de Ferro. Esta nova IA da empresa de Redmont buscará entender o usuário para entregar a melhor experiência com o Windows 11.

A proposta da Microsoft é que o Copilot também facilite a vida dos seus consumidores, seja para o trabalho ou para tarefas diárias. Nos exemplos da apresentação, a empresa mostrou até que ele será capaz de se integrar com aplicativos de terceiros.

Com informações: TechRadar e WindowsLatest
Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT

Site revela teste com Windows Copilot, o assistente virtual da Microsoft com IA do ChatGPT
Fonte: Tecnoblog

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

No início da semana, mais de cem mil contas de usuários do ChatGPT foram encontradas em sites de venda de informações hackeadas. A OpenAI, criadora do ChatGPT, se pronunciou sobre o caso. Para a empresa, a culpa do vazamento é dos usuários que não se protegem de malwares.

OpenAI reconhece vazamento, mas relembra que usuários precisam ter cuidado com malwares (Imagem: Vitor Pádua / Tecnoblog)

Este novo caso não tem relação com o bug que vazou dados de usuários do ChatGPT Plus, versão paga da inteligência artificial. Desta vez, de acordo com o Group-IB, empresa de cibersegurança que encontrou essas 100 mil contas em fóruns hackers, os dados foram roubados através de malwares instalados nos computadores das vítimas.

OpenAI afirma que toma as melhores medidas de segurança

Se no bug de março a culpada foi a OpenAI, dessa vez a empresa tirou o seu da reta e afirmou que segue os melhores padrões da indústria em cibersegurança. A criadora do ChatGPT disse, indiretamente, que não tem culpa se os usuários botam “vírus”. A OpenAI também está investigando as contas afetadas para contatar os clientes afetados.

Confira o comunicado da empresa para o site Tom’s Hardware:

“Os resultados do relatório de inteligência de ameaças da Group-IB são o resultado de ‘malware de commodities’ nos dispositivos das pessoas e não de uma violação da OpenAI. Atualmente, estamos investigando as contas que foram expostas. A OpenAI mantém as melhores práticas do setor para autenticar e autorizar [a entrada] dos usuários em serviços, incluindo o ChatGPT, e incentivamos nossos usuários a usar senhas fortes e instalar apenas softwares verificados e confiáveis em computadores pessoais.”
OpenAI

Cibersegurança não depende apenas da fornecedora do serviço, mas também do usuário (Imagem: Darwin Laganzon/Pixabay)

A OpenAI não está errada em se isentar de culpa neste caso. A cibersegurança é uma “estrada de mão dupla”: a fornecedora de um serviço faz a sua parte e o usuário faz a sua — seja usando um antivírus ou se atentando contra possíveis programas maliciosos de um príncipe nigeriano.

De acordo com a Group-IB, o Brasil está entre os países com mais contas vazadas. Outros países que integram essa lista infeliz estão: Bangladesh, Egito, França, Indonésia, Marrocos, Paquistão, Estados Unidos e Vietnã.

Vazamento de contas pode afetar a Samsung e outras empresas

Além de afetar os usuários, o vazamento pode prejudicar empresas: desde as pequenas até as grandes como a Samsung. A popularidade e efetividade do ChatGPT, sendo capaz até de ajudar na criação de código, leva funcionários de várias companhias a usar a IA como um assistente.

No caso da Samsung, a empresa proibiu o uso do ChatGPT nos seus computadores. A medida foi tomada após os “puxões de orelha” não funcionarem com seus empregados. A sul-coreana estava preocupada (e com razão) dos funcionários divulgarem dados confidenciais em um sistema de terceiro.

Com informações: Tech Radar e Tom’s Hardware
Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares
Fonte: Tecnoblog

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

O Opera lançou nesta terça-feira (20) o seu novo navegador Opera One. A 100ª versão do navegador possui como grandes novidades uma inteligência artificial nativa e o retorno do agrupamento de abas. Batizada de Aria pela empresa, a IA é baseada na tecnologia GPT — a mesma utilizada pelo ChatGPT.

Opera One traz inteligência artificial integrada e retorna recurso de agrupar abas (Imagem: Divulgação/Opera)

Segundo o Opera, o One é o primeiro navegador com inteligência artificial integrada. Para acessar os recursos da IA, o usuário pode digitar uma linha de comando no programa ou utilizar o atalho na barra lateral do navegador — um ferramenta conhecida por quem utiliza regularmente o programa da empresa norueguesa.

Aria promete resultados ao vivo para a sua busca

De acordo com a criadora do navegador, a Aria será capaz de entregar “resultados ao vivo da web” para o usuário. Quem sabe a IA generativa do Opera resolva o problema de “confusão temporal” do Bing Chat — a IA da Microsoft não identifica o dia presente e entrega resultados errados quando você pede agenda de eventos, como a próxima partida do seu time de futebol.

Apesar de estar utilizar a API da OpenAI, criadora do ChatGPT, a empresa norueguesa também aplicou sua própria tecnologia na sua inteligência artificial. Além de buscar informações na internet, a Aria atua como uma assistente, sendo capaz de ajudar o usuário fornecendo suporte ao uso do navegador. Para usar a Aria é necessário ter conta no Opera.

Aria poderá ser ativada por atalho no teclado ou por botão na barra lateral (Imagem: Divulgação/Opera)

Para abrir a inteligência artificial, o usuário pode usar o atalho “Ctrl” + “/” no Windows ou “cmd” + / no Mac (sem digitar o sinal de mais). Usando esse comando, a Aria será aberta em sobreposição no navegador. Quem (assim como eu) usa o Opera, já está vendo a opção de usar prompts ao selecionar algum texto. Quem não quiser usar a Aria, pode acessar o ChatGPT pelo novo botão de atalho na barra lateral — igual acontece com o WhatsApp e Messenger.

Tab Islands é novo nome para velho recurso: agrupar abas

Não sei porquê agrupar abas se foi, tantas saudades eu senti (Imagem: Divulgação/Opera)

E para a alegria de quem é “old school” no uso do Opera, a função de agrupar abas retornou. O Opera One batizou essa nova e velha função de “Tab Islands”. Presente no Chrome e no Edge, o Opera contava com esse recurso nos anos 2000 — lembro que me encantei por ela lá em 2008.

Porém, a empresa descontinuou essa função por volta de 2014. Só em 2020 que o Opera voltou a ter um recurso para organizar abas, o Contexto. Só que ele não agrupa abas tal qual o Chrome e o Edge, apenas cria uma outra “área de trabalho” no navegador. Assim, você pode deixar um Contexto para o trabalho e outra para lazer, por exemplo. Mas nada de agrupar abas.
Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas
Fonte: Tecnoblog

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;

outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;

e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.
IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind
Fonte: Tecnoblog

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT e da tecnologia GPT, pediu pela regulamentação internacional de inteligências artificiais “superinteligentes”. Para os fundadores da empresa, as IAs necessitam de um órgão regulador respeitado à nível da Agência Internacional de Energia Atômica (AIEA). A proposta da OpenAI é diferente da carta que pedia a suspensão das pesquisas com inteligências artificiais.

OpenAI quer órgão internacional para regular inteligências artificiais (Imagem: Vitor Pádua/Tecnoblog)

Ao contrário da carta pela interrupção do desenvolvimento das tecnologias de IAs, a liderança da OpenAI quer que as inteligências artificiais continuem evoluindo enquanto os governos trabalham pela criação de um órgão regulador. A empresa quer que esse órgão proteja a humanidade de criar uma tecnologia que pode destruí-la — mas não necessariamente no estilo Exterminador do Futuro.

Pedido de regulamentação pela OpenAI veio de diretores

A publicação no site da OpenAI, pedindo pela regulamentação rígida das inteligências artificiais, é assinada por Sam Altman, Greg Brockman e Ilya Sutskever, todos com cargos de direção na empresa.

Os três líderes da OpenAI afirmam que, enquanto esse órgão internacional não é criado, as empresas que estão desenvolvendo inteligências artificiais precisam trabalhar em conjunto. Essa cooperação visa manter a segurança e integração das IAs com a sociedade. A carte sugere também que esse “trabalho em equipe” pode determinar uma “taxa de evolução” das tecnologias enquanto os governos preparam a criação do órgão.

Órgão regulador teria papel de ser a AIEA das inteligências artificiais (Imagem: Andrea De Santis/Unsplash)

Pela comparação com a AIEA, uma agência internacional fiscalizadora de IAs, como sugerem os diretores da empresa, seria ligada a alguma divisão da Organização das Nações Unidas (ONU). Atualmente, a AIEA é um órgão autônomo da ONU, mais próximo da Assembleia Geral e Conselho de Segurança — visitando em algumas ocasiões a usina nuclear de Zaporizhzhia, no front da Guerra da Rússia contra a Ucrânia.

Riscos para a humanidade não envolvem “revolução das máquinas”

Os riscos para a humanidade, motivo citado pela OpenAI para a criação de um órgão regulador, não se restringem a um cenário de “Exterminador do Futurou” ou IAs escravizando humanos. Na verdade, a empresa nem chega a comentar como seria esse cenário.

A “destruição da humanidade” também pode ser visualizado em um cenário de colapso social. Com IAs assumindo o trabalho de milhares de pessoas, a população desempregada pode entrar em situação de pobreza, levando a riscos sociais, existenciais e de segurança para nações não preparadas para lidar com o avanço da tecnologia. O que é o caso de todos os países da atualidade.

Com informações: The Guardian
OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais
Fonte: Tecnoblog

Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários

A inteligência artificial já faz parte do dia a dia de inúmeras empresas de tecnologia. Algumas abraçaram de vez os robôs, enquanto outras mantém um olhar mais desconfiado. É o caso da Apple, que pode ter proibido seus funcionários de usarem o ChatGPT e outras ferramentas de IA. A maçã teria receio que vazamentos de seus projetos poderiam ocorrer com a utilização frequente do chatbot da OpenAI.

Apple (Imagem: Vitor Pádua / Tecnoblog)

Segundo um relato do The New York Times, a Apple decidiu seguir o mesmo caminho de outra empresa. A Samsung proibiu os funcionários de usarem o ChatGPT no trabalho depois que alguns colaboradores deixaram vazar dados confidenciais ao pedirem ajuda ao robô.

O jornal estadunidense reportou que a dona do iPhone estaria trabalhando em sua própria inteligência artificial generativa, como o Bard do Google e o Bing Chat da Microsoft. Sendo assim, a companhia teria preocupações que os profissionais acabassem deixando escapar informações importantes e secretas dos futuros projetos. Vale lembrar que o chatbot ganhou um app para iPhone recentemente.

Além disso, os colaboradores da maçã também teriam sido aconselhados a não usarem o Copilot do GitHub, pois ele é propriedade da Microsoft e utiliza códigos da OpenAI para suas funções.

Ao que tudo indica, “precaução” é a palavra da vez entre as grandes empresas. Apple e Samsung não estão sozinhas em restringir o uso do ChatGPT e similares por funcionários. Marcas como o Bank of America e J.P. Morgan adotaram as mesmas medidas.

(Imagem: Unsplash / Jonathan Kemper)

ChatGPT é conveniente, mas ainda falta segurança

Mesmo oferecendo muita utilidade no dia a dia dos usuários, o chatbot da OpenAI não está livre de críticas e receios. A proibição de marcas como Apple e Samsung é compreensível, já que o vazamento de dados a partir do robô ocorreu previamente.

A própria dona da ferramenta acabou divulgando detalhes de segurança do ChatGPT, na qual ressaltou os esforços para melhorar a privacidade, ao mesmo tempo, em que deu satisfação para sua base de usuários. No relato, a companhia destacou que não vende dados, mas que os usa para tornar os modelos de inteligência artificial mais úteis.

Ainda na questão de segurança, a empresa de proteção digital Kaspersky realizou testes na detecção de phishing por parte do ChatGPT. De acordo com seus resultados, a IA conseguiu adivinhar alvos de ataques, porém, alcançou taxas altas de falsos positivos de até 64%, o que foi considerado um número alto pelos especialistas.

Como o Brasil é um dos países que mais usa a inteligência artificial da OpenAI no mundo, vale tomar o máximo de medidas para se proteger do vazamento de dados e de golpes cibernéticos.

Com informações: Mashable.
Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários
Fonte: Tecnoblog

O Google foi pego de surpresa pelo ChatGPT?

O Google foi pego de surpresa pelo ChatGPT?

Quem acompanhou o Google I/O 2023, evento da empresa voltado para desenvolvedores, ouviu falar de IA a todo momento. A diferença em relação aos anúncios e lançamentos da edição do ano passado é nítida, e mostra para onde as atenções do mercado de tecnologia estão voltadas no momento.

Empresa que dorme, a onda leva (Imagem: Vitor Pádua / Tecnoblog)

Pode parecer uma mudança brusca. Afinal, no ano passado, a palavra da moda era “metaverso”; agora, estamos todos falando de outra coisa. Mas essa guinada faz sentido. Desde meados de 2022, temos visto usos objetivamente práticos de produtos com inteligência artificial, em especial do ChatGPT.

Foi justamente esse último — e sua integração ao Bing, buscador da Microsoft — que despertou uma conversa sobre o lugar ocupado pelo Google no cenário das buscas. Pela primeira vez em muito tempo, o modelo de negócios do maior player do setor foi posto em cheque.

Nesse contexto, o Google anunciou o Bard, seu próprio chatbot. A solução, no entanto, não convenceu nem os funcionários do Google. A sensação era de que a empresa tentava correr atrás do prejuízo, e um tanto desajeitadamente. Teria o Google sido pego de surpresa por um player mais inovador?

Diferentes, mas parecidos

Empresas que ficam muito tempo no topo podem acabar se acomodando. Com tudo dando tão certo, a empresa deixa de inovar porque seu modelo de negócios simplesmente funciona. Afinal, o crescimento esperado já veio.

O aparecimento do ChatGPT sugere que algo semelhante teria acontecido com o Google. O nº 1 das buscas teria se tornado preguiçoso após anos sem um rival. E agora que um finalmente se apresentava, o Google não sabia muito bem como responder, lançando o Bard num movimento de desespero.

Mas não é bem assim. Como discutimos no Tecnocast 287, pesquisadores do Google articulavam ainda em 2021 as limitações do sistema clássico de busca para lidar com demandas mais específicas, e já mencionavam modelos de linguagem pré-treinados como uma possível solução.

ChatGPT em português (imagem: Emerson Alecrim/Tecnoblog)

Além disso, muito do que faz o ChatGPT funcionar já está presente no Google. É o caso do processamento de linguagem natural, por exemplo, que possibilita a sugestão de novas composições para suas próximas buscas a partir de um entendimento semântico dos termos pesquisados.

A experiência disso é que é muito diferente. O ChatGPT retorna textos que replicam a linguagem natural com incrível precisão, característica que gerou todo o barulho em torno da ferramenta. Já a busca do Google mantém o seu funcionamento padrão: encontra a informação na web e a apresenta como uma lista de links.

Também vale lembrar que a própria arquitetura sobre a qual o ChatGPT foi desenvolvida é obra do Google. O modelo foi disponibilizado de modo aberto, como o professor Diogo Cortiz nos conta no Tecnocast 282.

O Google não foi pego de surpresa por uma tecnologia nova, portanto. A surpresa foi de outra natureza: um competidor disposto a arriscar.

O cronograma mudou

Com tantos recursos em pesquisa e desenvolvimento, o Google provavelmente já previa a mudança de chave que a inteligência artificial produziria. Mas tinha um cronograma próprio visando capitanear esse novo movimento.

Então a Microsoft, que nem de longe representava uma ameaça ao Google no âmbito das buscas, se antecipou. Trouxe a tecnologia do ChatGPT para o Bing, e há meses vem apresentando novas aplicações com inteligência artificial.

Essa postura certamente não muda o jogo em termos objetivos, mas ajuda a posicionar a empresa num lugar de maior destaque. De repente, a possibilidade da Microsoft ser um player real frente ao Google é ventilada. Até bem pouco tempo, isso seria considerado piada.

É um ganho sobretudo simbólico, mas ele pode acabar trazendo desdobramentos reais. Por exemplo: o New York Times revelou que a Samsung chegou a cogitar a troca do Google pelo Bing como buscador padrão em seus dispositivos. Quando algo assim seria concebível?

Apresentação do Bard (Imagem: Reprodução/Google)

A empolgação gerada pela inteligência artificial atingiu o Google, até intocável em sua posição de superioridade. Talvez por isso as respostas da empresa tenham parecido menos empolgantes. Com mais a perder, a empresa precisa agir com cautela.

A Microsoft, por sua vez, pode se dar ao luxo de agir de modo mais próximo de uma startup, liberando suas ferramentas de IA para o público com menos receio. Daí vem o alerta aceso no Google nos últimos meses, e os esforços — inclusive no último Google I/O — para deixar claro que ainda são o maior player do cenário, e que vão dominar inclusive no âmbito da inteligência artificial.

Em outras palavras, a Microsoft acelerou o cronograma do Google. A nós, resta assistir enquanto as gigantes brigam.
O Google foi pego de surpresa pelo ChatGPT?

O Google foi pego de surpresa pelo ChatGPT?
Fonte: Tecnoblog

Camarão que dorme, a onda leva

Camarão que dorme, a onda leva

Qualquer empresa quer ser a maior em seu setor. Mas a supremacia pode ter um preço: a empresa se torna muito grande, e, com isso, perde o dinamismo. Talvez até se acomode um pouco. O resultado é uma dificuldade maior para inovar, pensar além do modelo de negócios que já dá certo. Então, quando um novo concorrente ou tecnologia disruptiva aparecem, o dominante acaba sendo pego de surpresa.

Camarão que dorme, a onda leva (Imagem: Vitor Pádua / Tecnoblog)

No episódio de hoje, pegamos carona na situação de gigantes como Google e Meta para refletir sobre o que acontece quando uma empresa se torna grande demais. Acredite: passar muitos anos no topo tem lá os seus riscos. Dá o play e vem com a gente!

Participantes

Thiago Mobilon

Paulo Higa

Emerson Alecrim

Josué de Oliveira

Citado no episódio

Funcionários do Google não gostaram nada do anúncio do Bard

Créditos

Produção: Josué de Oliveira

Sonorização: Ariel Liborio

Edição: Raquel Igne

Arte da capa: Vitor Pádua

Assine o Tecnocast

Google Podcasts

Apple Podcasts

Spotify

Pocket Casts

Android (outros apps)

Feed RSS

Buzzsprout

Camarão que dorme, a onda leva

Camarão que dorme, a onda leva
Fonte: Tecnoblog