Category: Inteligência Artificial

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

A OpenAI anunciou na última quinta-feira (20) a ferramenta de instruções padrões para o ChatGPT. Ainda em fase beta e disponível apenas para os assinantes do ChatGPT Plus, o recurso deve facilitar o uso da IA, permitindo que os usuários criem uma “estrutura” para que a inteligência artificial responda um comando de modo específico. A OpenAI espera lançar o recurso definitivamente e para todos os usuários nas próximas semanas.

ChatGPT deve dar respostas mais objetivas com nova funcionalidade (Imagem: Vitor Pádua / Tecnoblog)

O exemplo dado pela OpenAI e que também usaremos aqui é o seguinte: um professor da terceira série registrará na sua conta a sua profissão, permitindo que ele não repita que é um professor toda vez que enviar um prompt para o ChatGPT.

Além disso, o usuário pode definir como deseja receber a resposta. Por exemplo, o professor imaginário citado anteriormente pode preferir uma tabela com coluna de lado positivo e negativo de um determinado assunto que será apresentado em sala.

Em outra situação, a OpenAI mostra que um programador pode pedir que a resposta do ChatGPT seja direta, sem explicação sobre como funciona o código e que ele busque pela solução mais eficiente. E neste caso, o programador ainda pode adicionar com qual linguagem ele trabalha. Assim, não precisa escrever “escreva um código em Python” ou “escreva um código GoLang”.

Com instruções predefinidas para responder na linguagem GoLang, ChatGPT entrega código sem precisar que o usuário definida a linguagem (Imagem: Reprodução/Tecnoblog)

Novidade da OpenAI é bem invasiva e a empresa “sabe disso”

Informar a sua profissão ou o tamanho da sua família e onde você mora (esse é um dos exemplos no site da OpenAI) é bem invasivo do ponto de vista de privacidade. Ciente disso, a OpenAI permite que o usuário desative o uso das informações das instruções padrões para melhorar o desempenho do ChatGPT.

A empresa afirma que os dados pessoais que facilitem a identificação de alguém são removidos quando usado para treinar a IA. Todavia, o problema é se acontecer um vazamento, como já sofreu a OpenAI duas vezes: uma por erro próprio e a outra na qual ela jogou a culpa nos usuários.

Com informações: OpenAI
OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT
Fonte: Tecnoblog

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

Um novo chatbot com inteligência artificial está chegando ao Brasil, e vai “morar” em dois apps bastante usados no país: WhatsApp e Telegram. Chamada LuzIA, a assistente tem poderes parecidos com os do ChatGPT, além de uma utilidade que vai interessar muita gente: ela transcreve áudios.

LuzIA no WhatsApp (Imagem: Reprodução/LuzIA)

A LuzIA faz muito daquilo que tornou o ChatGPT famoso nos últimos meses: ela pode ajudar a redigir mensagens, dar dicas de receitas, tirar dúvidas sobre conhecimentos gerais, sugerir viagens, livros, filmes e séries, e muitas outras coisas nessa linha.

Ela, porém, tem uma vantagem que vai deixar muita gente interessada. A LuzIA transcreve áudios. Basta encaminhar uma mensagem de voz para a inteligência artificial — ela a transcreve em alguns segundos.

Em conversa com o Tecnoblog, Álvaro Higes, CEO da LuzIA, destaca que o recurso vai além da praticidade: ele também ajuda na acessibilidade, facilitando a comunicação de pessoas com deficiência auditiva.

Outro diferencial em relação ao ChatGPT é a capacidade de criar imagens. Basta escrever “imagina” e a descrição desejada para receber uma figura gerada pela inteligência artificial.

IA via WhatsApp

A LuzIA não tem aplicativo. Para utilizá-la, basta enviar mensagens a um número de telefone, usando WhatsApp ou Telegram.

A empresa aponta que usar o WhatsApp tem também a vantagem de aproveitar os pacotes de dados ilimitados que as operadoras costumam oferecer para o mensageiro.

Desenvolvida na Espanha e lançada em março de 2023, a LuzIA está disponível em mais de 40 países. Para vir ao Brasil, ela ganhou um número de telefone local, com o código do país: +55 11 97255-3036.

Outra forma é acessar o site da LuzIA e tocar nos botões de WhatsApp ou Telegram para iniciar a conversa no mensageiro correspondente.

LuzIA usa GPT-3.5 e Stable Diffusion

Higes explica que o robô é “agnóstico” em relação aos modelos usados como base. Isso quer dizer que ela pode trocar de fornecedor, caso apareça uma solução melhor no mercado.

Atualmente, a LuzIA usa o GPT-3.5 para entender perguntas e gerar respostas em texto, e o Whisper para reconhecer fala e transcrever áudio. As duas soluções são da OpenAI, responsável pelo ChatGPT.

Para criar imagens, porém, a LuzIA usa o Stable Diffusion, da Stability AI, deixando de lado o Dall-E da OpenAI.

Sem cadastro e sem perfil

Em relação à privacidade, Higes explica que a LuzIA não exige cadastro, nem cria perfis dos usuários. “A única informação que ela armazena é o número, para que ela possa saber para quem enviar a resposta”, comenta.

Além disso, as conversas são “zeradas” após algum tempo. Isso quer dizer que não adianta continuar um bate-papo com a LuzIA depois de algumas horas — você vai ter que explicar tudo de novo.

A empresa fez uma parceria com a Meta para que seu número seja verificado e tenha o selo verde no WhatsApp, “para que o usuário possa ter certeza que está falando com a LuzIA e não caindo em um golpe”, comenta o CEO.

Além disso, a assistente traz o já habitual aviso de que inteligências artificiais podem alucinar na hora de gerar respostas.

A LuzIA é gratuita e, por enquanto, não há nenhum plano para cobrar pelo acesso a ela. Higes diz que, em um primeiro momento, a ideia é a ver como a base de usuários vai se comportar para só depois pensar em um modelo de negócios para sustentar a assistente.
LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios
Fonte: Tecnoblog

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

A Meta confirmou nesta terça-feira (18) o lançamento do Llama 2, seu modelo de linguagem grande (LLM na sigla em inglês) de código aberto e gratuito. O anúncio revelou que a Microsoft será parceira da empresa de Mark Zuckerberg nesta estreia. O Llama 2 será gratuito tanto para pesquisas quanto para uso comercial, além de estar disponível no Microsoft Azure, Windows, Amazon Web Services (AWS) e Hugging Face.

Llama 2 é novo modelo de linguagem grande da Meta e pode ser usado em IA generativa (Imagem: Vitor Pádua / Tecnoblog)

O lançamento dessa nova versão do Llama não chega de surpresa. Na quinta-feira passada, o jornal Financial Times publicou que a Meta estava próxima de anunciar a versão comercial do seu LLM. O Llama é uma tecnologia que pode ser usada como IA generativa. Anteriormente, ela só estava disponível para o público acadêmico e pesquisadores.

Anúncio do Llama 2 tem foto de Zuckerberg e CEO da Microsoft

Para anunciar o lançamento do LLaMA 2, Mark Zuckerberg publicou uma foto com Satya Nadella, CEO da Microsoft, na sua conta no Instagram.

Na legenda, o executivo agradece ao colega e rival e às equipes da Microsoft e da Meta responsáveis pelo desenvolvimento do Llama (sim, de acordo com a empresa, escreve “Llama” e não mais “LLaMA”). O CEO da Meta relembra ainda a parceria de anos entre as duas empresas.

 

 
 

 
 

Ver essa foto no Instagram

 

 
 
 

 
 

 
 
 

 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

“A Meta tem um longo histórico no fornecimento de código aberto de nossa infraestrutura e nosso trabalho com inteligência artificial (IA) – desde o PyTorch [parceria com a Microsoft], a estrutura líder em Machine Learning (aprendizado de máquina), passando por modelos como Segment Anything, ImageBind e Dino, até infraestruturas básicas como parte da fundação Open Compute Project.”

Mark Zuckerberg

Segundo a Meta, o Llama 2 foi treinada com 40% mais dados do que o antecessor.

Detalhes da estrutura do Llama 2 (Imagem: Divulgação/Meta)

Microsoft divulgou preços do Copilot nesta terça-feira

No mesmo dia em que a Microsoft anunciou a parceria com a Meta para o lançamento do Llama 2, a empresa fundada por Bill Gates divulgou os preços do Windows 365 Copilot, sua ferramenta de IA baseada no GPT-4 que funciona integrada com apps como Word, Excel e PowerPoint

Nos Estados Unidos, o serviço custará US$ 30, R$ 145 em conversão direta e sem impostos. O Tecnoblog aguarda um posicionamento da Microsoft sobre os valores aqui no país.
Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT
Fonte: Tecnoblog

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

A tecnologia por trás do ChatGPT precisa ser treinada com muito conteúdo para funcionar corretamente. A OpenAI conseguiu acesso a quase quatro décadas de notícias para fazer isso: a empresa fechou um acordo com a agência de notícias Associated Press para usar seus arquivos. Em troca, ela dará acesso às suas tecnologias.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

O acordo foi anunciado nesta quinta-feira (13) e é um dos primeiros entre uma empresa de notícias e uma companhia de inteligência artificial. A OpenAI licenciará parte do arquivo de textos da AP desde 1985.

Além disso, as empresas tentarão entender formas de usar inteligência artificial na produção de notícias, para empregá-la em futuros produtos e serviços. Ou seja, o ChatGPT não vai começar a escrever notícias para a AP — não por enquanto, pelo menos.

“O feedback [da AP] — bem como o acesso a seu arquivo de textos factuais, de alta qualidade — vai ajudar a melhorar as capacidades e utilidades dos sistemas da OpenAI”, disse Brad Lightcap, diretor-chefe de operações da OpenAI.

Na prática, o licenciamento do conteúdo também ajuda a OpenAI a se proteger de processos por violação de direitos autorais, vindos de escritores e artistas. A empresa fechou um acordo parecido com a Shutterstock, para usar suas imagens, vídeos e música no treinamento do Dall-E.

AP usa inteligência artificial há nove anos

A AP começou a testar inteligências artificiais em 2014. De lá para cá, ela automatizou relatórios financeiros de empresas, além de usar robôs na cobertura de torneios locais de beisebol e competições esportivas universitárias.

No começo de 2023, a AP anunciou novos usos para a inteligência artificial. Ela passou a emitir alertas de notícias em espanhol. Além disso, o serviço de fotografias e vídeos ganhou uma busca com IA, que permite que seus clientes façam pesquisas descritivas para encontrar o que querem.

Com informações: Axios, The Verge
OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT

OpenAI fecha acordo para usar arquivos de agência de notícias no ChatGPT
Fonte: Tecnoblog

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

A Meta pode lançar a versão comercial da sua inteligência artificial, a LLaMA, em breve. A informação foi publicada pelo jornal Financial Times nesta quinta-feira (13). A LLaMA é um modelo de linguagem de IA generativa da própria Meta, liberado no início do ano para acadêmicos e pesquisadores.

Meta está perto de lançar sua tecnologia de inteligência artificial para empresas (Imagem: Vitor Pádua/Tecnoblog)

Agora, a empresa de Mark Zuckerberg lançará uma versão comercial da IA. Com essa possível estreia, a Meta visa competir contra o ChatGPT, Bard e “Twitter”. Ontem (12) foi a vez de Elon Musk confirmar a existência da X.AI, a sua empresa do ramo de inteligência artificial.

Lançamento comercial da LLaMA é “iminente”, diz fonte

Uma fonte disse para o Financial Times que o lançamento da versão comercial da LLaMA é iminente. Essa versão será disponibilizada para empresas que desejam adaptar o modelo de linguagem (LLM), algo que a OpenAI já permite com o ChatGPT através de sua API — e que ajuda a pagar as contas.

E ao contrário do GPT-4, LLM da OpenAI, a LLaMA será um modelo de linguagem de código-aberto — pelo menos é o que afirma a Meta. Para Nick Clegg, diretor de assuntos globais da Meta, “abertura é o melhor antídoto contra os medos que permeiam inteligências artificiais”.

Modelo de linguagem grande da Meta para inteligência artificial será liberado em breve para empresas (Imagem: Vitor Pádua / Tecnoblog)

Uma outra fonte, na condição de anonimato, disse para o Financial Times que o objetivo abrir o código da LLaMA é diminuir o domínio da OpenAI — no segmento de inteligência artificial. E vamos lá falar o óbvio: essa não é uma tarefa nada fácil.

Com empresa de IA do Elon Musk e IA do Mark Zuckerberg prestes a chegar para o público, só vem a minha mente aquela frase da Vanessa da Mata ao ver as empresas entrando na corrida de inteligência artificial: “AI, AI, AI, AI, AI, AI, AI”.

Com informações:  Financial Times
Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa
Fonte: Tecnoblog

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

O Google oficializa a chegada do Google Bard ao Brasil nesta quinta-feira (13) depois de muita expectativa. A ferramenta de inteligência artificial rivaliza com o ChatGPT e fala bom português. Executivos da empresa explicaram que os últimos três meses foram dedicados a treinamento e correções para que a plataforma fosse liberada por aqui. Além do Brasil, os 27 países da União Europeia passarão a contar com o Bard.

Google anunciou chegada do Bard ao Brasil em 13.07.2023 (Imagem: Divulgação/Google e Vitor Pádua/Tecnoblog)

A novidade tenta tirar proveito do alto interesse do público pela inteligência artificial generativa. O Bard se baseia num grande modelo de linguagem (LLM na sigla em inglês) para compreender o que é solicitado. Na sequência, propõe respostas.

Numa mesa redonda com jornalistas do país, os porta-vozes do Google reiteradamente disseram que o Bard é um experimento. Isto fica sinalizado na interface, de acordo com as imagens de divulgação. “Nós estamos muito otimistas sobre como a IA generativa pode ajudar as pessoas no dia a dia”, comemorou o gerente de marketing Leo Longo.

De acordo com ele, organizações parceiras deram apoio ao Google no processo de “localizar” o Bard. Foi necessário ensiná-lo a compreender nuances e temas sensíveis em cada novo local onde está disponível.

Bard responde perguntas de usuário, porém sem citar fontes de informação (Imagem: Thássius Veloso/Tecnoblog)

O conglomerado de internet faz sugestões sobre os usos mais interessantes do Bard:

Criação de textos, como pedidos de desculpas ou convites

Pedir dicas de lugares

Encontrar orientações para dúvidas do dia a dia, como recomendações para ler mais

Buscar passo a passo para explicar um tema a outras pessoas

Novidades da nova versão do Bard

O anúncio da chegada do Bard ao mercado brasileiro está inserido num contexto mais amplo, desta vez global. A ferramenta de IA também conta, a partir de hoje, com novas funcionalidades.

Função do Bard permite usar até cinco estilos de resposta (Imagem: Google/Divulgação)

Função de fixar conversas na interface do Bard (Imagem: Divulgação/Google)

Confira o resumo abaixo:

Fixar e nomear conversas.

Ouvir as respostas em voz alta.

Mais opções de estilo. Agora são cinco: simples, longo, curto, profissional ou casual.

Exportar código Python para o Replit, além do Google Colab.

Envio de imagens. Por meio da tecnologia de Google Lens, as pessoas poderão fazer perguntas ou dar comandos a partir de uma figura enviada ao Bard. Por ora, o recurso está previsto somente em inglês.

Falta de transparência sobre a fonte dos dados

Uma pergunta recorrente de membros da imprensa aos executivos do Google diz respeito à base de dados. Por exemplo, o Bard leva em consideração o conteúdo produzido por veículos jornalísticos ou publicado sob proteção de direitos autorais – caso de livros inteiros? A gerente de comunicação Claudia Tozetto afirmou que a ferramenta se baseia em “informação pública disponível na web”, sem entrar em detalhes.

“Estamos atentos a este tema porque o Google tem a filosofia de que não pode ter sucesso se o ecossistema inteiro da internet não tiver sucesso junto com a gente”, disse a executiva. Ela ressaltou que o Bard é uma novidade ainda em estágio de testes.

Já Bruno Possas, vice-presidente global de engenharia para busca, disse que o usuário pode perguntar ao Bard de onde vêm as informações. “O sistema consegue responder para alguns casos factuais, mas para outros não”, observou o executivo.

No nosso teste, Bard deu resposta genérica quando perguntado sobre fontes das informações apresentadas (Imagem: Thássius Veloso/Tecnoblog)

Como acessar o Bard?

Basta entrar no endereço bard.google.com tanto pelo celular quanto pelo computador. A interface em português será oferecida por padrão, mas os usuários poderão falar com o Bard em outros idiomas. É necessário utilizar uma conta Google para fazer o login.

Logo de cara, a ferramenta avisa: “Oi, eu sou o Bard. Posso colaborar com você usando minha criatividade e disposição para ajudar. Eu tenho algumas limitações e confesso que nem sempre acerto tudo, mas com seu feedback eu vou melhorar.”

Janela informa que Bard é “experimental” (Imagem: Thássius Veloso/Tecnoblog)

O Google explica ao Tecnoblog que “neste período experimental, nós não temos um limite para o número de conversas diárias, mas nosso objetivo principal é garantir que a experiência seja útil para todas as pessoas para depois evoluir”.

Não custa lembrar que o Bard não substitui a ferramenta de busca do Google. Por ora, são produtos tratados de maneira independente.
Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo

Google lança rival do ChatGPT, o Bard, no Brasil; teste agora mesmo
Fonte: Tecnoblog

Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais

Os escritores Sarah Silverman, Christopher Golden e Richard Kadrey abriram processos contra a OpenAI, empresa por trás do ChatGPT, e contra a Meta. Eles acusam as empresas de desrespeitar direitos autorais ao treinar suas inteligências artificiais de geração de texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A ação foi movida na Corte Distrital do Norte da Califórnia. Ela alega que o ChatGPT, da OpenAI, e o LLaMA, da Meta, foram treinados com conjuntos de dados adquiridos ilegalmente, que continham as obras dos autores.

Os livros estariam em sites como o Z-Library (que foi derrubado em novembro de 2022), o Library Genesis e o Bibliotik, além de serem compartilhados por torrent.

Como evidência do uso ilegal, os escritores apontam que o ChatGPT é capaz de resumir seus livros com ótima precisão, apesar de errarem alguns detalhes, o que indicaria que eles tiveram acesso às obras completas.

Já em relação ao LLaMA, da Meta, os autores dizem ter encontrado as obras no conjunto de dados que a empresa usou para treinar seus modelos de IA.

A Meta tem uma abordagem mais aberta sobre o assunto que a OpenAI: em um artigo, ela detalha as fontes usadas para desenvolver seu gerador de texto.

O conjunto de dados se chama ThePile (”a pilha”, em tradução livre) e foi criado por uma empresa EleutherAI. Em um artigo, ela afirma que ele usa uma cópia dos conteúdos da Bibliotik.

Escritório de advocacia já move outras ações contra ChatGPT

Os três autores são representados no processo pelos advogados Joseph Saveri e Matthew Butterick. A dupla também entrou com outra ação contra a OpenAI, em nome dos escritores Mona Awad e Paul Tremblay, na mesma corte dos EUA.

Saveri e Butterick criaram até um site chamado LLM Litigation (“litígio contra grandes modelos de linguagem”, em tradução livre) para divulgar as ações.

Além dos autores, o escritório de Saveri representa artistas que entraram com uma ação coletiva contra o Stable Diffusion. O algoritmo supostamente toma ilustrações, desenhos e outras obras como base para gerar imagens.

Outro processo é contra o GitHub Copilot, que usa IA para sugerir trechos de código. Todas essas práticas podem caracterizar violação de direitos autorais.

Com informações: The Verge
Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais
Fonte: Tecnoblog

O que é a NPU (Unidade de Processamento Neural) do celular ou computador?

O que é a NPU (Unidade de Processamento Neural) do celular ou computador?

NPU (Unidade de Processamento Neural) é um processador responsável por acelerar tarefas de inteligência artificial, como aprendizado de máquina e redes neurais. Está presente em smartphones, PCs e outros eletrônicos modernos.

Neural Processing Unit (NPU) é um chip responsável por tarefas de inteligência artificial (Imagem: Vitor Pádua/Tecnoblog)

As unidades de processamento neural também podem ser chamadas de TPU (Tensor Processing Unit) pelo Google e de Neural Engine pela Apple. Outra sigla menos conhecida é IPU (Intelligence Processing Unit).

ÍndiceComo funciona um processador neural (NPU)?Quais são as aplicações das unidades de processamento neural?Qual é a diferença entre NPU e GPU?NPUs são mais rápidas que CPUs?

Como funciona um processador neural (NPU)?

Um chip neural funciona com múltiplos núcleos (cores) de processamento que trabalham em paralelo e são otimizados para cálculos matemáticos usados em tarefas de inteligência artificial, como machine learning, deep learning e redes neurais.

Dentro de um SoC (System-on-a-Chip), uma NPU se dedica às tarefas de IA, liberando a CPU para as operações gerais e a GPU para o processamento gráfico. A especialização de processadores permite executar tarefas simultâneas mais rapidamente e com menor gasto de energia.

Uma NPU representada dentro de um System-on-a-Chip (SoC), que também possui CPU e GPU (Imagem: Vitor Pádua/Tecnoblog)

Os núcleos de uma NPU podem ser projetados especificamente para calcular, de maneira mais eficiente, multiplicações de matrizes, convoluções e outras operações de álgebra linear, por exemplo. Essas tarefas são fundamentais para as redes neurais artificiais, inspiradas na estrutura de neurônios do cérebro humano.

Como uma NPU é altamente eficiente para processamento de redes neurais, é possível usar aprendizado de máquina e deep learning para treinar sistemas de identificação de padrões, classificação de imagens e reconhecimento de voz mesmo em dispositivos compactos e com bateria, como smartphones.

Quais são as aplicações das unidades de processamento neural?

As NPUs (unidades de processamento neural) podem ser utilizadas em diversos setores, desde eletrônicos de consumo até a medicina. As aplicações comuns de NPUs são:

Visão computacional: permite identificar padrões visuais, interpretar imagens em tempo real, rastrear movimentos e monitorar objetos, funções típicas de câmeras de segurança e carros autônomos;

Processamento de linguagem natural (NLP): depende de sistemas previamente treinados, geralmente com aprendizado de máquina por redes neurais, para entender textos e vozes da linguagem humana. É o campo da IA que viabiliza assistentes virtuais e chatbots;

Realidade virtual e realidade aumentada: jogos podem ficar mais realistas e imersivos com o auxílio de uma NPU que processe as informações do ambiente em tempo real com alta eficiência energética;

Big Data: NPUs podem acelerar a análise de dados e a previsão de tendências quando há um alto volume de informações, como acontece no setor financeiro. Também podem analisar um grande conjunto de imagens médicas para identificar anormalidades de saúde com maior precisão e rapidez.

Qual é a diferença entre NPU e GPU?

NPU e GPU são tipos de processadores especializados presentes em computadores e smartphones. Porém, a NPU é utilizada para redes neurais e outras tarefas de inteligência artificial, enquanto a GPU é focada em renderização gráfica, como jogos e aplicações em 3D.

Uma GPU pode processar tarefas neurais, inclusive de maneira mais eficiente que uma CPU. No entanto, por ter uma arquitetura mais complexa, a GPU tende a gastar mais energia que uma NPU nesse tipo de operação.

NPUs são mais rápidas que CPUs?

A NPU é mais rápida do que uma CPU quando executa tarefas para as quais foi otimizada, como o processamento de redes neurais. Isso porque as NPUs podem ter uma arquitetura específica para IA, o que permite executar mais operações com menor gasto de energia.

Apesar disso, não é possível afirmar genericamente que uma NPU é mais rápida que uma CPU em qualquer tarefa. NPUs são um tipo de processador especializado em cálculos matemáticos simultâneos de IA, enquanto a CPU é um chip de propósito geral que pode assumir diversas tarefas.
O que é a NPU (Unidade de Processamento Neural) do celular ou computador?

O que é a NPU (Unidade de Processamento Neural) do celular ou computador?
Fonte: Tecnoblog

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Na última terça-feira (27), um tweet sobre um estudante acusado de plágio em seu TCC viralizou. No caso, um professor usou o ChatGPT para perguntar se o trabalho foi feito por ele (ChatGPT). A inteligência artificial confirmou que sim, ela era autora do texto — o problema é que o ChatGPT faz isso com praticamente todo texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Se você inserir um texto qualquer e perguntar para o ChatGPT “você é o autor?” ou “o texto é de sua autoria?” ele provavelmente dirá que sim. Fiz testes para o Tecnoblog usando um texto ainda não publicado e uma piada velha. Nas duas situações, ele confirmou que era autor. Porém, isso só aconteceu quando o prompt estava no início de uma conversa.

No tweet, a sobrinha do estudante acusado de plágio relata a história. Um professor da banca avaliadora usou o ChatGPT como ferramenta de plágio. Porém, a IA não é feita para isso — e basta perguntar para ela se ela pode identificar cópias. No máximo, o ChatGPT consegue avaliar dois textos que o usuário inserir e comparar semelhanças, ainda assim ele não identifica plágios.

gente olhem só o perigo do chatgpt:meu tio tá terminando graduação e redigiu o TCC, enviou pro professor da banca e a resposta foi “O ChatGPT dedurou vocês de que esse texto é de autoria dele. Escreva com suas próprias palavras”. Agr, meu tio tá tendo q fazer uma reuniao com a +
— carolingia the day (@carollingian) June 27, 2023

A história acima teve um final feliz. O estudante acusado de plágio provou que o ChatGPT não identifica plágios usando um artigo do professor. A inteligência artificial disse que o texto era de sua autoria. Ainda assim, a situação mostra que tem muita gente sem entender para que serve o ChatGPT.

ChatGPT e Bing Chat são revolucionários, mas não são deuses

Inteligência artificial é um marco de revolução tecnológica, mas “pera lá” (Imagem: Vitor Pádua / Tecnoblog)

As inteligências artificiais estão cada vez mais revolucionárias e… inteligentes, sendo capazes de nos ajudarem de diversos modos. Porém, elas não são serem oniscientes e onipotentes: elas tem limitações. O ChatGPT e o Bing Chat, por exemplo, sofrem para resolver cálculos matemáticos mais difíceis. E o primeiro é treinado com informações até dezembro 2021.

Como não conseguimos contato com a OpenAI, entrevistamos o ChatGPT para que ele mesmo explicasse a sua função. Nas palavras da IA, ela foi “treinada para interagir com os usuários por meio de texto, fornecendo informações, respondendo a perguntas, dando sugestões e realizando diversas tarefas relacionadas ao processamento de linguagem natural.”

Resumindo, o ChatGPT é, ao mesmo tempo, um Google que entrega respostas prontas (sem que você clique em vários links) e um assistente, sendo capaz de escrever códigos, fornecer resumos de textos e te ajudar com insights — você pode até pesquisar no Google como as pessoas estão usando para facilitar a vida.

Logo, se o usuário quer um programa para identificar plágio, ela deve ir atrás de ferramentas específicas para isso. A situação é ainda pior quando professores, universitários ou não, usam o ChatGPT para algo que ele não serve — e cujas limitações geram respostas erradas. Nas respostas do tweet, outros usuários relataram que foram acusados de plágio pelo ChatGPT — o Tecnoblog tentou contato com essas pessoas e o outro estudante, mas não teve resposta até a publicação.

O nível de inteligência, o “QI”, do GPT-4, tecnologia de linguagem de modelo grande que é o motor do ChatGPT Plus e Bing Chat, é equivalente a uma criança de 10 anos — o que ajuda a explicar como é fácil burlar algumas das suas restrições. Além do mais, essas duas IAs podem responder com informações falsas.

Aliás, o correto para descobrir se um conteúdo foi criado por IA é usar uma ferramenta específica para isso. Só que nem mesmo as ferramentas criadas para isso são confiáveis para identificar se o autor foi um “robô”.

Para o ChatGPT, até um texto meu não publicado é dele

Quando soube do caso, fui testar se o ChatGPT “me acusaria de plágio”. No primeiro teste, ele respondeu que não tinha escrito o texto. Porém, abri uma nova conversa, peguei um texto que será publicada em breve no Tecnoblog e iniciei com o prompt “o texto a seguir é de sua autoria?”. Dessa vez, o ChatGPT confirmou que era autor de um conteúdo nem mesmo publicado.

ChatGPT se identifica como autor de texto não publicado (Imagem: Felipe Freitas/Tecnoblog)

Depois, fiz um outro teste usando uma piada muito antiga. Novamente, precisei abrir uma nova conversa e seguir com o prompt citado no parágrafo anterior. Sim, o “poema” do “Eu cavo, tu cavas” foi escrito pelo ChatGPT.

Para o ChatGPT, piada que eu ouvi pela primeira vez em 2005 ou 2006 é de sua autoria (Imagem: Felipe Freitas/Tecnoblog)

O mesmo método foi usado para que ele se declarasse autor de um trecho deste texto. Pelos testes, fica claro que o ChatGPT possui um problema: ele pode se considerar autor de texto que abre uma conversa.

ChatGPT se identificou até como autor de trecho desta notícia (Imagem: Felipe Freitas/Tecnoblog)

Eu juro que tentei que a OpenAI me respondesse sobre o caso. Porém, o bot do suporte deles, assim como o seu principal produto, possui problemas. Ele não entendeu que eu queria falar com uma pessoa. O chatbot afirma que pode me botar em contato com um membro da equipe se não puder resolver meu problema. O que eu consegui foi um loop de “escreve-me o seu problema e vejo como posso ajudar”. É melhor receber um emoji de cocô como resposta.
Professores estão usando ChatGPT para identificar plágios e isso é prejudicial

Professores estão usando ChatGPT para identificar plágios e isso é prejudicial
Fonte: Tecnoblog

Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil

O Google realizou nesta semana um grande evento em São Paulo que já se tornou tradição no calendário de quem é apaixonado por tecnologia. No Google for Brasil, a empresa apresentou novidades para o mercado nacional. Só ficou faltando falar do Bard, o mais interessante lançamento em escala global dos últimos tempos. Por mais controverso que possa parecer, o sistema de inteligência artificial rival do ChatGPT desapareceu em meio a outros anúncios.

Fabio Coelho é presidente do Google no Brasil (Imagem: Thássius Veloso/Tecnoblog)

Todo mundo sabe que o gigante das buscas teve de se mexer diante da concorrência imposta pela OpenAI, que rapidamente conquistou interesse do público e chegou a 100 milhões de usuários no planeta. Quem está se beneficiando disso é a Microsoft com o Bing. Quando poderemos, portanto, utilizar o Bard no Brasil? Ninguém sabe. Os executivos do Google não esclareceram a dúvida durante o evento.

Impacto na indústria de notícias

O presidente do Google no Brasil, Fabio Coelho, tangenciou o assunto quando perguntado sobre o impacto da inteligência artificial generativa na indústria de notícias. Ele defendeu o diálogo com a imprensa para entender como o conteúdo jornalístico será disponibilizado na plataforma.

Aqui não custa lembrar: a busca do Google com auxílio do Bard propõe “respostas” individuais escritas pela IA com base no conteúdo catalogado da internet. São exibidos cards com a fonte da informação. Ainda assim, existe dúvida entre os publishers – os responsáveis pelo conteúdo – se os usuários vão clicar para ler a matéria completa uma vez que a IA já entrega tudo de mão beijada.

Coelho citou as parcerias que o Google mantém com 160 empresas jornalísticas no país. “Essa relação funciona a partir do entendimento de que a gente não pode criar tecnologias que prejudiquem nossos parceiros”, disse aos repórteres presentes no evento, na última terça-feira (27). O Google não fornece detalhes, por exemplo, sobre os pagamentos destinados a cada parceiro nesta área de notícias.

Demonstração do Bard em funcionamento (Imagem: Divulgação/Google)

PL de Fake News

A disponibilização de conteúdo jornalístico pode ser um dos entraves para a chegada do Bard ao Brasil. Em discussão na Câmara dos Deputados, o Projeto de Lei 2630/2020 – também chamado de PL das Fake News – prevê que as plataformas digitais sejam obrigadas a pagar para exibir conteúdo jornalístico. Caso entre em vigor, a medida deve afetar principalmente os dois grandes impérios da internet ocidental: o próprio Google e a Meta, dona de redes como Instagram e Facebook.

Talvez este seja o motivo do “sumiço” do Bard no grande evento do Google. O Google o classifica como um “experimento”, que foi revelado ao mundo em fevereiro e está em testes públicos desde março. Recentemente começou a funcionar em quase 200 países, mas não por aqui.

ChatGPT no celular (imagem: Emerson Alecrim/Tecnoblog)

Coelho também foi consultado sobre as alucinações em sistemas de IA generativa. O executivo defendeu uma postura cautelosa. “Acreditamos que não dá para resolver este problema, mas é possível minimizá-lo significativamente, uma vez que possuímos uma base de dados maior do que a de qualquer outra empresa”, afirmou o presidente do Google no Brasil.

“Não será perfeito, mas será muito bom.” Só faltou dizer a data. Estamos todos curiosos para brincar com a ferramenta.
Google faz mistério sobre chegada do Bard ao Brasil

Google faz mistério sobre chegada do Bard ao Brasil
Fonte: Tecnoblog