Category: Inteligência Artificial

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

No início da semana, mais de cem mil contas de usuários do ChatGPT foram encontradas em sites de venda de informações hackeadas. A OpenAI, criadora do ChatGPT, se pronunciou sobre o caso. Para a empresa, a culpa do vazamento é dos usuários que não se protegem de malwares.

OpenAI reconhece vazamento, mas relembra que usuários precisam ter cuidado com malwares (Imagem: Vitor Pádua / Tecnoblog)

Este novo caso não tem relação com o bug que vazou dados de usuários do ChatGPT Plus, versão paga da inteligência artificial. Desta vez, de acordo com o Group-IB, empresa de cibersegurança que encontrou essas 100 mil contas em fóruns hackers, os dados foram roubados através de malwares instalados nos computadores das vítimas.

OpenAI afirma que toma as melhores medidas de segurança

Se no bug de março a culpada foi a OpenAI, dessa vez a empresa tirou o seu da reta e afirmou que segue os melhores padrões da indústria em cibersegurança. A criadora do ChatGPT disse, indiretamente, que não tem culpa se os usuários botam “vírus”. A OpenAI também está investigando as contas afetadas para contatar os clientes afetados.

Confira o comunicado da empresa para o site Tom’s Hardware:

“Os resultados do relatório de inteligência de ameaças da Group-IB são o resultado de ‘malware de commodities’ nos dispositivos das pessoas e não de uma violação da OpenAI. Atualmente, estamos investigando as contas que foram expostas. A OpenAI mantém as melhores práticas do setor para autenticar e autorizar [a entrada] dos usuários em serviços, incluindo o ChatGPT, e incentivamos nossos usuários a usar senhas fortes e instalar apenas softwares verificados e confiáveis em computadores pessoais.”
OpenAI

Cibersegurança não depende apenas da fornecedora do serviço, mas também do usuário (Imagem: Darwin Laganzon/Pixabay)

A OpenAI não está errada em se isentar de culpa neste caso. A cibersegurança é uma “estrada de mão dupla”: a fornecedora de um serviço faz a sua parte e o usuário faz a sua — seja usando um antivírus ou se atentando contra possíveis programas maliciosos de um príncipe nigeriano.

De acordo com a Group-IB, o Brasil está entre os países com mais contas vazadas. Outros países que integram essa lista infeliz estão: Bangladesh, Egito, França, Indonésia, Marrocos, Paquistão, Estados Unidos e Vietnã.

Vazamento de contas pode afetar a Samsung e outras empresas

Além de afetar os usuários, o vazamento pode prejudicar empresas: desde as pequenas até as grandes como a Samsung. A popularidade e efetividade do ChatGPT, sendo capaz até de ajudar na criação de código, leva funcionários de várias companhias a usar a IA como um assistente.

No caso da Samsung, a empresa proibiu o uso do ChatGPT nos seus computadores. A medida foi tomada após os “puxões de orelha” não funcionarem com seus empregados. A sul-coreana estava preocupada (e com razão) dos funcionários divulgarem dados confidenciais em um sistema de terceiro.

Com informações: Tech Radar e Tom’s Hardware
Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares

Após vazamento de dados, OpenAI culpa usuários por não tomarem cuidado com malwares
Fonte: Tecnoblog

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

O Opera lançou nesta terça-feira (20) o seu novo navegador Opera One. A 100ª versão do navegador possui como grandes novidades uma inteligência artificial nativa e o retorno do agrupamento de abas. Batizada de Aria pela empresa, a IA é baseada na tecnologia GPT — a mesma utilizada pelo ChatGPT.

Opera One traz inteligência artificial integrada e retorna recurso de agrupar abas (Imagem: Divulgação/Opera)

Segundo o Opera, o One é o primeiro navegador com inteligência artificial integrada. Para acessar os recursos da IA, o usuário pode digitar uma linha de comando no programa ou utilizar o atalho na barra lateral do navegador — um ferramenta conhecida por quem utiliza regularmente o programa da empresa norueguesa.

Aria promete resultados ao vivo para a sua busca

De acordo com a criadora do navegador, a Aria será capaz de entregar “resultados ao vivo da web” para o usuário. Quem sabe a IA generativa do Opera resolva o problema de “confusão temporal” do Bing Chat — a IA da Microsoft não identifica o dia presente e entrega resultados errados quando você pede agenda de eventos, como a próxima partida do seu time de futebol.

Apesar de estar utilizar a API da OpenAI, criadora do ChatGPT, a empresa norueguesa também aplicou sua própria tecnologia na sua inteligência artificial. Além de buscar informações na internet, a Aria atua como uma assistente, sendo capaz de ajudar o usuário fornecendo suporte ao uso do navegador. Para usar a Aria é necessário ter conta no Opera.

Aria poderá ser ativada por atalho no teclado ou por botão na barra lateral (Imagem: Divulgação/Opera)

Para abrir a inteligência artificial, o usuário pode usar o atalho “Ctrl” + “/” no Windows ou “cmd” + / no Mac (sem digitar o sinal de mais). Usando esse comando, a Aria será aberta em sobreposição no navegador. Quem (assim como eu) usa o Opera, já está vendo a opção de usar prompts ao selecionar algum texto. Quem não quiser usar a Aria, pode acessar o ChatGPT pelo novo botão de atalho na barra lateral — igual acontece com o WhatsApp e Messenger.

Tab Islands é novo nome para velho recurso: agrupar abas

Não sei porquê agrupar abas se foi, tantas saudades eu senti (Imagem: Divulgação/Opera)

E para a alegria de quem é “old school” no uso do Opera, a função de agrupar abas retornou. O Opera One batizou essa nova e velha função de “Tab Islands”. Presente no Chrome e no Edge, o Opera contava com esse recurso nos anos 2000 — lembro que me encantei por ela lá em 2008.

Porém, a empresa descontinuou essa função por volta de 2014. Só em 2020 que o Opera voltou a ter um recurso para organizar abas, o Contexto. Só que ele não agrupa abas tal qual o Chrome e o Edge, apenas cria uma outra “área de trabalho” no navegador. Assim, você pode deixar um Contexto para o trabalho e outra para lazer, por exemplo. Mas nada de agrupar abas.
Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas

Navegador Opera lança sua versão com inteligência artificial nativa e volta a agrupar abas
Fonte: Tecnoblog

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

Quando um grupo influente de executivos e pesquisadores de inteligência artificial apresenta uma declaração aberta sobre os perigos desta tecnologia para a humanidade, é impossível não prestar atenção. Ainda mais quando a palavra “extinção” é utilizada.

Vamos ser substituídos pela IA ou simplesmente extintos? (Imagem: Vitor Pádua / Tecnoblog)

Entre os signatários do alerta, divulgado no dia 30 de maio, estão os CEOs de empresas como OpenAI e Google DeepMind, além de estudiosos muito respeitados na área, como Geoffrey Hinton e Yoshua Bengio, considerados padrinhos da IA moderna. A mensagem era bem direta: “Mitigar o risco de extinção da IA deve ser uma prioridade global junto a outros riscos em escala social, como pandemias e guerra nuclear”.

Há uma organização sem fins lucrativos por trás da iniciativa, o Center for AI Safety. Seu diretor-executivo, Dan Hendrycks, é também um pesquisador de inteligências artificiais. Sua preocupação a respeito do futuro delas e sua relação conosco está expressa num artigo intitulado “Natural Selection Favors AIs over Humans” — algo como “A Seleção Natural favorece IAs em detrimento dos humanos.”

É, eu sei. Nem um pouco animador.

Mas como exatamente uma inteligência artificial causaria algo tão grave quanto a extinção humana? Aqui, vale olhar para o que diz o Center for AI Safety.

Não precisa ser extinção para ser grave

Para a maioria de nós, a inteligência artificial se resume ao ChatGPT ou geradores de imagens. Não é disso que Hendrycks e a organização que lidera estão falando. Os riscos apontados pela entidade só poderiam ser oferecidos por sistemas muito mais evoluídos, que hoje ainda não existem — mas podem vir a existir.

Entre as ameaças apontadas no site do grupo, estão perigos sérios, e é possível argumentar que alguns deles seriam capazes de gerar cenários destruição para a humanidade. Mas nem todos os riscos levariam a esse desfecho, é bom apontar. Há diferentes níveis de estrago. Conversamos sobre alguns deles no Tecnocast 293.

O cenário mais grave envolveria a armamentização (weaponization). Aqui, teríamos uma IA sendo usada intencionalmente para causar danos diversos. O texto no site do Center for AI Safety levanta, por exemplo, a possibilidade de seu uso para ciberataques automatizados.

Mas poderia ser pior, já que inteligências artificiais poderiam ser usadas no controle de armas, inclusive as químicas. Nesse contexto, um erro de interpretação do sistema poderia ter resultados catastróficos, como o início de uma guerra.

Inteligência artificial (imagem ilustrativa: Max Pixel)

Do restante dos riscos apresentados, alguns se baseiam num agravamento de fenômenos que já podemos observar hoje, como o uso de IA para fins de desinformação e a concentração dessas ferramentas nas mãos de poucos agentes, como empresas e países. Nada de extinção aqui, mas, ainda assim, são problemas graves.

É mais para o final da lista que vemos os riscos mais, digamos, especulativos.

E se a máquina decidir outra coisa?

Boa parte da ficção científica que especula sobre possíveis tensões entre a humanidade e os agentes de IA — incluindo aí robôs — parte da desconfiança. O que faríamos ser uma inteligência superior à nossa resolvesse fazer algo diferente do que a construímos para fazer?

O Center for AI Safety lista alguns riscos que dialogam com esse temor humano diante das máquinas. Objetivos emergentes (emergent goals): em sua evolução, as inteligências artificiais poderiam desenvolver metas e comportamentos que não previmos, e que poderiam — veja bem, poderiam — ser prejudiciais para nós.

E o que dizer de sistemas que tentam ativamente nos enganar (deception)? E nem precisa ser por um desejo de nos passar para trás, apenas pelo cálculo — estamos falando de uma máquina, certo? — de que mentir ajudaria a cumprir determinado objetivo. Imagine de eles pudessem, inclusive, enganar os humanos responsáveis por monitorá-los…

Estas são as hipóteses que provocam a desconfiança, que a ficção explora tão bem. No filme Eu, Robô, por exemplo, vemos como uma IA chega a uma nova interpretação de suas diretrizes, entendendo que a forma mais segura de cumprir sua principal regra, proteger os humanos, era através do controle. Mesmo contra nossa vontade.

O Exterminador do Futuro

Com tantas empresas correndo para criar sistemas mais sofisticados, não é surpreendente que essas preocupações comecem a ser ventiladas. Pode haver certo exagero na conversa sobre risco de extinção, mas a mensagem geral está clara: vamos manter os olhos abertos.

Também devemos ouvir os céticos

Claro que a carta do Center for AI Safety gera apreensão, mas é importante destacar que há muita gente que entende do assunto e que não a levou a sério.

Entre eles estão Yann LeCun, cientista da computação francês. Ele também é considerado, junto com Geoffrey Hinton e Yoshua Bengio, um dos padrinhos da pesquisa em IA. Ao contrário dos colegas, no entanto, LeCun — que também trabalha na Meta — não assinou a declaração, e se manifestou no Twitter a respeito.

A reação mais comum dos pesquisadores de IA a essas profecias de desgraça é um facepalm.
Yann LeCun

LeCun respondia a um tweet do professor Pedro Domingos, da Escola de Ciência da Computação e Engenharia da Universidade de Washington. Domingos também manifestou seu ceticismo: “Lembrete: a maioria dos pesquisadores de IA acha que a noção da IA acabar com a civilização humana é bobagem.”.

Arvind Narayanan, cientista da computação da Universidade de Princeton, disse à BBC: “A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, ela desvia a atenção dos danos de curto prazo da IA.”.

Quais danos a curto prazo? Diogo Cortiz, cientista cognitivo e professor da PUC/SP, chama a atenção para algumas.

Dizer que a sociedade corre risco de extinção é uma forma de tentar controlar a narrativa. Ajuda a comunicar a ideia de que as tecnologias que eles detém são mais poderosas do que de fato são enquanto desvia o foco de problemas reais e atuais: vieses, consentimento do uso de dados, uso indevido, responsabilidade e accountability, propriedade intelectual, empregos, concentração, etc.
Diogo Cortiz

Imagem de astronauta em um cavalo gerada pelo Dall-E (imagem: reprodução/OpenAI)

De fato, todos os pontos citados acima são reais e geram problemas aqui e agora. O caminho para resolvê-los passa por dados mais abertos — coisa que a OpenAI parece ter deixado apenas no nome — e por alguma forma de regulação, algo que os próprios executivos reconhecem.

Os riscos das IAs avançadíssimas continuarão a nos assombrar, e, em certa medida, é bom que seja assim. Não queremos ter surpresas desagradáveis. No entanto, um pouco de ceticismo quanto aos motivos de tantos executivos também é bem-vindo.

Vale lembrar que, em março, Elon Musk assinou uma carta aberta pedindo uma pausa no desenvolvimento de IAs. O mesmo Musk iniciou, pouco tempo depois, um projeto de inteligência artificial para o Twitter, mostrando que nunca quis, de fato, uma interrupção nas pesquisas.

Em resumo, o ideal é ser vigilante. Em relação ao futuro, mas também ao agora.
O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs

O que temem os especialistas que alertam para o “risco de extinção” gerado por IAs
Fonte: Tecnoblog

Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos

A Meta anunciou o desenvolvimento de uma ferramenta de inteligência artificial capaz de gerar falas humanas. O modelo precisa ser abastecido com algumas frases gravadas pelo usuário. Depois, o Voicebox permite criar novos áudios a partir de texto escrito. O próprio Mark Zuckerberg surgiu, num clipe divulgado via Instagram, falando bom português – com direito a um “s” bastante carioca na palavra “ todos”. Tudo gerado por IA.

Em 2023, principal foco da Meta está na inteligência artificial (Imagem: Vitor Pádua/Tecnoblog)

De acordo com o conglomerado digital, bastam apenas 2 segundos de amostra de áudio para que o sistema consiga produzir novas falas. A ideia é realizar o text-to-speech para evitar os transtornos de eventualmente regravar todo o material de áudio.

Ainda segundo a empresa, a tecnologia permitiria que pessoas com deficiência visual ouçam as mensagens dos amigos ou que personagens não-jogáveis de games – os famosos NPCs – tenham voz. O Voicebox também poderia fornecer sons naturais para assistentes de voz.

Confira em ação no vídeo abaixo:

Edição fácil de conteúdo

Outro ponto importante diz respeito à edição de conteúdo. No exemplo, Zuckerberg está gravado um áudio quando se escuta uma buzina. A ferramenta, porém, consegue “limpar” o material. Hoje em dia existem softwares profissionais e outros amadores com função similar, então resta saber de que forma o recurso chegaria aos aplicativos da Meta.

Aliás, a empresa não fez nenhum anúncio oficial da implementação do Voicebox no Instagram, WhatsApp ou Facebook. Por enquanto, tudo leva a crer que Zuckerberg deseja apenas demonstrar os avanços que a empresa está fazendo no campo da IA generativa. Este é o principal foco do momento, junto com o desenvolvimento (de longo prazo) em tecnologias de metaverso.

Concorrência também está agindo

A Meta não está sozinha na pesquisa e desenvolvimento de IA generativa para voz. O anúncio desta sexta-feira me lembrou do Vall-E, sistema apresentado pela Microsoft em janeiro com a proposta de receber áudios curtos, da própria pessoa falando, para gerar novos arquivos.

O Vall-E requer uma amostra de apenas três segundos (imagem: divulgação/Microsoft)

Já a Apple apresentou um recurso batizado de Personal Voice na WWDC 2023, realizada na semana passada. Ele estará no iOS 17. Como parte dos esforços de acessibilidade, usuários poderão ler em voz alta um script de frases. Depois, o sistema do iPhone passará a recriar a voz sintetizada da pessoa. A tecnologia da Apple, porém, requer cerca de 15 minutos de gravação original.

Com informações: Meta, Facebook Research e 9to5 Mac
Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos
Fonte: Tecnoblog

Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele

Combine as câmeras de alta resolução dos celulares atuais com o visão computacional do Google, e você terá uma importante ferramenta para informar sobre eventuais problemas de saúde. O Google informou nesta semana que o sistema Google Lens é capaz de detectar diversas condições relacionadas à pele do usuário.

Marca do Google (Imagem: Vitor Pádua/Tecnoblog)

Tudo começa com o app oficial do Google para Android ou iPhone. Ao enviar uma imagem na área de busca visual, a plataforma apresenta fotos similares àquelas que você mandou.

Na demonstração, a tela do Google Lens diz que “os resultados da busca são apenas informacionais e não um diagnóstico”. Abaixo surgem opções de saber mais sobre dermatite atópica e psoríase, entre outras situações. A própria interface do app do Google lembra que é precisa buscar um médico para receber todas as orientações.

Busca por foto de pele no Google Lens retorna resultado com doenças dermatológicas (Imagem: Divulgação/Google)

O potencial da visão computacional

Conforme lembra o portal The Verge, o Google está trabalhando em projetos de inteligência artificial para reconhecimento de imagens há anos. Desde 2021, as ferramentas da empresa são capazes de identificar problemas de saúde relacionados com pele, cabelo e unhas.

A chamada visão computacional tem um baita potencial de auxiliar na vida das pessoas, uma vez que traz informações complementares para preocupações reais dos usuários. Alguns deles, aliás, que normalmente não teriam condições de buscar um médico. Por outro lado, quantas não foram as vezes que pesquisamos por um determinado sintoma no Google e esbarramos em diagnósticos assustadores (e descabidos)? Já aconteceu muito comigo.

Outro ponto a se considerar tem a ver com o viés dos algoritmos. Muitos dos datasets atuais usados para treinar estes sistemas levam em consideração imagens de pessoas de pele mais clara, o que reduz sua eficácia quando as ferramentas são consultadas por usuários com tons de pele mais escuros.

Mais usabilidade

Por fim, mas não menos importante: a busca a partir de uma foto pode ser muito mais interessante do que tentar descrever em palavras aquilo que está diante de ti.

Com informações: The Verge e Google
Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele
Fonte: Tecnoblog

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Quando a Nvidia começou a sequência de anúncios das suas tecnologias para inteligência artificial e computação de alto desempenho, os gamers ficaram com uma dúvida: a empresa vai deixar as GPUs para desktops de lado? Na Computex 2023, Jensen Huang afirmou que não — e ficou “magoado” com a pergunta.

Jensen Huang afirma que Nvidia não deixou gamers de lado (Imagem: Divulgação/Nvidia)

Huang disse para Gordon Ung, editor do site PC World, que o público gamer continua relevante para a Nvidia. Para provar isso, o Jensen jaquetinha (apelido dado por uma parte do público) relembrou que a primeira IA desenvolvida pela empresa, o DLSS, foi para os jogadores. E que sem inteligência artificial não existiria ray tracing em tempo real.

CEO da Nvidia ficou “magoado” com questão sobre foco da empresa

Brincando com Ung, Jensen Huang disse que ficou “profundamente magoado” com a pergunta sobre o foco da Nvidia. O CEO-fundador da empresa, ambos cada vez mais ricos nos últimos dias, comentou ainda que a primeira aplicação de IA generativa da Nvidia é o ACE, que permitirá que NPCs desenvolvam diálogos naturais — ainda que a demonstração seja parecida com qualquer NPC de Skyrim.

Indiretamente, Jensen afirmou que inteligência artificial é o pilar das GPUs RTX, lançadas em 2020. Ao responder que DLSS foi a primeira IA criada pela Nvidia, o CEO da empresa afirmou que a tecnologia de deep learning é o pilar da série RTX.

DLSS foi primeira IA da Nvidia e feita para a RTX (Imagem: Divulgação/Nvidia)

Enquanto o público gamer está preocupado se será ou não abandonado pela Nvidia, a empresa atingiu a capitalização de US$ 1 trilhão de dólares. Com os novos anúncios de IA e computação de alto desempenho, a empresa se tornou a primeira fabricante de chips a chegar nesse valor de mercado. Agora, a Nvidia vira colega da Apple, Aramco, Amazon, Alphabet e Microsoft — estas duas últimas são suas clientes.

Se time que está ganhando não se mexe, podemos fazer um paralelo com “empresa que está lucrando não vai perder dinheiro”. Hoje, a Nvidia gera receita com gamers e IA. Ela não deixará as RTXs de lado — até porque os jogadores não estão pagando barato.

Com informações: PC World e WCCF Tech
Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers
Fonte: Tecnoblog

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;

outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;

e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.
IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind
Fonte: Tecnoblog

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT e da tecnologia GPT, pediu pela regulamentação internacional de inteligências artificiais “superinteligentes”. Para os fundadores da empresa, as IAs necessitam de um órgão regulador respeitado à nível da Agência Internacional de Energia Atômica (AIEA). A proposta da OpenAI é diferente da carta que pedia a suspensão das pesquisas com inteligências artificiais.

OpenAI quer órgão internacional para regular inteligências artificiais (Imagem: Vitor Pádua/Tecnoblog)

Ao contrário da carta pela interrupção do desenvolvimento das tecnologias de IAs, a liderança da OpenAI quer que as inteligências artificiais continuem evoluindo enquanto os governos trabalham pela criação de um órgão regulador. A empresa quer que esse órgão proteja a humanidade de criar uma tecnologia que pode destruí-la — mas não necessariamente no estilo Exterminador do Futuro.

Pedido de regulamentação pela OpenAI veio de diretores

A publicação no site da OpenAI, pedindo pela regulamentação rígida das inteligências artificiais, é assinada por Sam Altman, Greg Brockman e Ilya Sutskever, todos com cargos de direção na empresa.

Os três líderes da OpenAI afirmam que, enquanto esse órgão internacional não é criado, as empresas que estão desenvolvendo inteligências artificiais precisam trabalhar em conjunto. Essa cooperação visa manter a segurança e integração das IAs com a sociedade. A carte sugere também que esse “trabalho em equipe” pode determinar uma “taxa de evolução” das tecnologias enquanto os governos preparam a criação do órgão.

Órgão regulador teria papel de ser a AIEA das inteligências artificiais (Imagem: Andrea De Santis/Unsplash)

Pela comparação com a AIEA, uma agência internacional fiscalizadora de IAs, como sugerem os diretores da empresa, seria ligada a alguma divisão da Organização das Nações Unidas (ONU). Atualmente, a AIEA é um órgão autônomo da ONU, mais próximo da Assembleia Geral e Conselho de Segurança — visitando em algumas ocasiões a usina nuclear de Zaporizhzhia, no front da Guerra da Rússia contra a Ucrânia.

Riscos para a humanidade não envolvem “revolução das máquinas”

Os riscos para a humanidade, motivo citado pela OpenAI para a criação de um órgão regulador, não se restringem a um cenário de “Exterminador do Futurou” ou IAs escravizando humanos. Na verdade, a empresa nem chega a comentar como seria esse cenário.

A “destruição da humanidade” também pode ser visualizado em um cenário de colapso social. Com IAs assumindo o trabalho de milhares de pessoas, a população desempregada pode entrar em situação de pobreza, levando a riscos sociais, existenciais e de segurança para nações não preparadas para lidar com o avanço da tecnologia. O que é o caso de todos os países da atualidade.

Com informações: The Guardian
OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais

OpenAI, criadora do ChatGPT, pede regulamentação para inteligências artificiais
Fonte: Tecnoblog

Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários

A inteligência artificial já faz parte do dia a dia de inúmeras empresas de tecnologia. Algumas abraçaram de vez os robôs, enquanto outras mantém um olhar mais desconfiado. É o caso da Apple, que pode ter proibido seus funcionários de usarem o ChatGPT e outras ferramentas de IA. A maçã teria receio que vazamentos de seus projetos poderiam ocorrer com a utilização frequente do chatbot da OpenAI.

Apple (Imagem: Vitor Pádua / Tecnoblog)

Segundo um relato do The New York Times, a Apple decidiu seguir o mesmo caminho de outra empresa. A Samsung proibiu os funcionários de usarem o ChatGPT no trabalho depois que alguns colaboradores deixaram vazar dados confidenciais ao pedirem ajuda ao robô.

O jornal estadunidense reportou que a dona do iPhone estaria trabalhando em sua própria inteligência artificial generativa, como o Bard do Google e o Bing Chat da Microsoft. Sendo assim, a companhia teria preocupações que os profissionais acabassem deixando escapar informações importantes e secretas dos futuros projetos. Vale lembrar que o chatbot ganhou um app para iPhone recentemente.

Além disso, os colaboradores da maçã também teriam sido aconselhados a não usarem o Copilot do GitHub, pois ele é propriedade da Microsoft e utiliza códigos da OpenAI para suas funções.

Ao que tudo indica, “precaução” é a palavra da vez entre as grandes empresas. Apple e Samsung não estão sozinhas em restringir o uso do ChatGPT e similares por funcionários. Marcas como o Bank of America e J.P. Morgan adotaram as mesmas medidas.

(Imagem: Unsplash / Jonathan Kemper)

ChatGPT é conveniente, mas ainda falta segurança

Mesmo oferecendo muita utilidade no dia a dia dos usuários, o chatbot da OpenAI não está livre de críticas e receios. A proibição de marcas como Apple e Samsung é compreensível, já que o vazamento de dados a partir do robô ocorreu previamente.

A própria dona da ferramenta acabou divulgando detalhes de segurança do ChatGPT, na qual ressaltou os esforços para melhorar a privacidade, ao mesmo tempo, em que deu satisfação para sua base de usuários. No relato, a companhia destacou que não vende dados, mas que os usa para tornar os modelos de inteligência artificial mais úteis.

Ainda na questão de segurança, a empresa de proteção digital Kaspersky realizou testes na detecção de phishing por parte do ChatGPT. De acordo com seus resultados, a IA conseguiu adivinhar alvos de ataques, porém, alcançou taxas altas de falsos positivos de até 64%, o que foi considerado um número alto pelos especialistas.

Como o Brasil é um dos países que mais usa a inteligência artificial da OpenAI no mundo, vale tomar o máximo de medidas para se proteger do vazamento de dados e de golpes cibernéticos.

Com informações: Mashable.
Apple pode ter banido o ChatGPT das mãos de seus funcionários

Apple pode ter banido o ChatGPT das mãos de seus funcionários
Fonte: Tecnoblog

O Google foi pego de surpresa pelo ChatGPT?

O Google foi pego de surpresa pelo ChatGPT?

Quem acompanhou o Google I/O 2023, evento da empresa voltado para desenvolvedores, ouviu falar de IA a todo momento. A diferença em relação aos anúncios e lançamentos da edição do ano passado é nítida, e mostra para onde as atenções do mercado de tecnologia estão voltadas no momento.

Empresa que dorme, a onda leva (Imagem: Vitor Pádua / Tecnoblog)

Pode parecer uma mudança brusca. Afinal, no ano passado, a palavra da moda era “metaverso”; agora, estamos todos falando de outra coisa. Mas essa guinada faz sentido. Desde meados de 2022, temos visto usos objetivamente práticos de produtos com inteligência artificial, em especial do ChatGPT.

Foi justamente esse último — e sua integração ao Bing, buscador da Microsoft — que despertou uma conversa sobre o lugar ocupado pelo Google no cenário das buscas. Pela primeira vez em muito tempo, o modelo de negócios do maior player do setor foi posto em cheque.

Nesse contexto, o Google anunciou o Bard, seu próprio chatbot. A solução, no entanto, não convenceu nem os funcionários do Google. A sensação era de que a empresa tentava correr atrás do prejuízo, e um tanto desajeitadamente. Teria o Google sido pego de surpresa por um player mais inovador?

Diferentes, mas parecidos

Empresas que ficam muito tempo no topo podem acabar se acomodando. Com tudo dando tão certo, a empresa deixa de inovar porque seu modelo de negócios simplesmente funciona. Afinal, o crescimento esperado já veio.

O aparecimento do ChatGPT sugere que algo semelhante teria acontecido com o Google. O nº 1 das buscas teria se tornado preguiçoso após anos sem um rival. E agora que um finalmente se apresentava, o Google não sabia muito bem como responder, lançando o Bard num movimento de desespero.

Mas não é bem assim. Como discutimos no Tecnocast 287, pesquisadores do Google articulavam ainda em 2021 as limitações do sistema clássico de busca para lidar com demandas mais específicas, e já mencionavam modelos de linguagem pré-treinados como uma possível solução.

ChatGPT em português (imagem: Emerson Alecrim/Tecnoblog)

Além disso, muito do que faz o ChatGPT funcionar já está presente no Google. É o caso do processamento de linguagem natural, por exemplo, que possibilita a sugestão de novas composições para suas próximas buscas a partir de um entendimento semântico dos termos pesquisados.

A experiência disso é que é muito diferente. O ChatGPT retorna textos que replicam a linguagem natural com incrível precisão, característica que gerou todo o barulho em torno da ferramenta. Já a busca do Google mantém o seu funcionamento padrão: encontra a informação na web e a apresenta como uma lista de links.

Também vale lembrar que a própria arquitetura sobre a qual o ChatGPT foi desenvolvida é obra do Google. O modelo foi disponibilizado de modo aberto, como o professor Diogo Cortiz nos conta no Tecnocast 282.

O Google não foi pego de surpresa por uma tecnologia nova, portanto. A surpresa foi de outra natureza: um competidor disposto a arriscar.

O cronograma mudou

Com tantos recursos em pesquisa e desenvolvimento, o Google provavelmente já previa a mudança de chave que a inteligência artificial produziria. Mas tinha um cronograma próprio visando capitanear esse novo movimento.

Então a Microsoft, que nem de longe representava uma ameaça ao Google no âmbito das buscas, se antecipou. Trouxe a tecnologia do ChatGPT para o Bing, e há meses vem apresentando novas aplicações com inteligência artificial.

Essa postura certamente não muda o jogo em termos objetivos, mas ajuda a posicionar a empresa num lugar de maior destaque. De repente, a possibilidade da Microsoft ser um player real frente ao Google é ventilada. Até bem pouco tempo, isso seria considerado piada.

É um ganho sobretudo simbólico, mas ele pode acabar trazendo desdobramentos reais. Por exemplo: o New York Times revelou que a Samsung chegou a cogitar a troca do Google pelo Bing como buscador padrão em seus dispositivos. Quando algo assim seria concebível?

Apresentação do Bard (Imagem: Reprodução/Google)

A empolgação gerada pela inteligência artificial atingiu o Google, até intocável em sua posição de superioridade. Talvez por isso as respostas da empresa tenham parecido menos empolgantes. Com mais a perder, a empresa precisa agir com cautela.

A Microsoft, por sua vez, pode se dar ao luxo de agir de modo mais próximo de uma startup, liberando suas ferramentas de IA para o público com menos receio. Daí vem o alerta aceso no Google nos últimos meses, e os esforços — inclusive no último Google I/O — para deixar claro que ainda são o maior player do cenário, e que vão dominar inclusive no âmbito da inteligência artificial.

Em outras palavras, a Microsoft acelerou o cronograma do Google. A nós, resta assistir enquanto as gigantes brigam.
O Google foi pego de surpresa pelo ChatGPT?

O Google foi pego de surpresa pelo ChatGPT?
Fonte: Tecnoblog