Category: Inteligência Artificial

Próxima geração da Alexa deve usar tecnologia do Claude AI

Próxima geração da Alexa deve usar tecnologia do Claude AI

Alexa ficaria mais inteligente com o uso do LLM Claude, criado por empresa na qual a Amazon investiu US$ 4 bilhões (Imagem: Darlan Helder/Tecnoblog)

A Amazon pode utilizar a IA generativa Claude para deixar a Alexa mais inteligente. Segundo a Reuters, a big tech optou por usar a tecnologia da Anthropic devido a problemas no desenvolvimento de sua própria inteligência artificial. Reforçando rumores, a agência de notícias disse que essa nova Alexa — com assinatura — chegará em outubro.

No ano passado, a Amazon deu sinais de que poderia utilizar o Claude AI na Alexa. Em setembro de 2023, a big tech investiu US$ 1,25 bilhão na Anthropic — e depois jogou mais US$ 3,75 bilhões na empresa. Na época, este que vos escreve comentou que a (óbvia) investida da Amazon poderia ser um preparativo para aprimorar a Alexa com IA generativa.

Pouco depois, Dave Limp, vice-presidente de dispositivos da Amazon, disse “pensar” numa Alexa com assinatura. Porém, para cobrar pelo recurso, Limp destacou que ela precisava ter mais valor — e deixar a assistente mais inteligente é fundamental nesse plano. Já nos últimos três meses, diversos rumores sobre a Alexa com assinatura e IA generativa surgiram em diferentes veículos.

Amazon não confia na sua própria tecnologia

LLM da Amazon não teve bons resultados com a Alexa (Imagem: Thássius Veloso/Tecnoblog)

Fontes ouvidas pela Reuters revelaram que o desempenho da Alexa com a IA desenvolvida pela própria Amazon não agradou. Por isso, a big tech escolheu a tecnologia da Anthropic como novo motor da sua assistente virtual.

Uma das fontes, em condição de anonimato, deu a entender que o plano da Amazon é utilizar a sua própria IA generativa no futuro. Essa fonte disse que o foco da empresa é usar modelos próprios, mas que sempre variou na escolha de tecnologias. Além do software da Alexa, a big tech é criadora do Titan, um LLM disponível no serviço Amazon Bedrock e outras tecnologias de machine learning usadas nas suas operações.

Alexa mais inteligente e com assinatura?

Segundo diversos jornais, a Amazon pretende cobrar US$ 10 pela assinatura da Alexa inteligente. Entre os recursos novos estaria o Smart Briefing, uma ferramenta de resumo de notícias baseadas no interesse do usuário. Por exemplo, se você gosta de tênis, a Alexa poderia resumir as notícias do esporte para você.

Hoje, a assistente virtual só é capaz de executar resumos de notícias prontos de veículos. E você ainda precisa dizer qual jornal ou rádio quer ouvir. Ao pedir “Alexa, resumo de notícias de política” ou do US Open 2024, a assistente responde com “desculpa, não entendi” ou que não conhece o termo.

Claude AI é a IA generativa que deve equipar a próxima geração da Alexa e foi lançada no Brasil recentemente (Imagem: Divulgação/Anthropic)

Amazon investigada pelo investimento na Anthropic

O obstáculo do lançamento da Alexa com Claude AI é a investigação que o Reino Unido abriu na parceria entre Amazon e Anthropic. O órgão regulador do comércio do país quer saber se o investimento da big tech se caracteriza como aquisição. Parte do acordo entre as duas empresas envolvia a Amazon ter uma fatia minoritária da Anthropic e fornecer os serviços da AWS para o funcionamento da Claude AI.

Coincidentemente, o prazo para o encerramento da investigação é em outubro. O mesmo mês que, segundo diferentes fontes, a Amazon lançará a Alexa inteligente — e que agora é especulado que essa inteligência virá do Claude.

Com informações: Reuters e The Verge
Próxima geração da Alexa deve usar tecnologia do Claude AI

Próxima geração da Alexa deve usar tecnologia do Claude AI
Fonte: Tecnoblog

ANPD libera Meta para treinar IA com dados pessoais

ANPD libera Meta para treinar IA com dados pessoais

Meta pretendia liberar Meta AI para WhatsApp, Instagram e Facebook ainda em julho (Ilustração: Vitor Pádua / Tecnoblog)

A Agência Nacional de Proteção de Dados (ANPD) anunciou que a Meta está novamente liberada para usar dados pessoais para treinar sua inteligência artificial. A empresa terá que seguir um Plano de Conformidade, com medidas para adequar suas práticas.

Grande parte das exigências tem relação com informar os usuários de Facebook e Instagram. Eles receberão notificações pelo email e pelo aplicativo com informações “claras e acessíveis” (nas palavras da ANPD) sobre o uso de dados pessoais para treinar IA.

Mark Zuckberg apresenta Meta AI em evento realizado em setembro de 2023 (Imagem: Reprodução / Meta)

Outras formas de comunicação também serão atualizadas pela Meta, como o Aviso de Privacidade e banners na página dedicada ao assunto.

Usuários poderão se opor ao treinamento

O treinamento só poderá ser iniciado 30 dias após estas medidas de informação. Os usuários poderão se opor ao tratamento de seus dados para o treinamento, e isso deverá ser permitido de forma facilitada — ou seja, você poderá não autorizar que suas publicações e comentários públicos sejam usados pela Meta.

Este direito poderá ser exercido por usuários e não usuários após o início do tratamento de dados, por meio de formulário simplificado. Uma das críticas feitas à Meta era de que o processo para não autorizar o uso de dados era muito complicado.

Antes de suspensão, este era o formulário para retirar dados pessoais do treinamento de IA (Imagem: Reprodução / Tecnoblog)

Além dessas questões, a Meta não poderá usar dados pessoais de contas de menores de 18 anos no treinamento de IA. A ANPD ainda tomará uma decisão definitiva sobre este assunto.

A implementação das medidas será acompanhada pela Coordenação-Geral de Fiscalização da ANPD. “Cabe ressaltar que a atuação da ANPD se deu com o objetivo de promover a conformidade com a Lei Geral de Proteção de Dados Pessoais e o esclarecimento dos direitos dos titulares de dados”, diz Waldemar Gonçalves, presidente da ANPD.

Em comunicado enviado à imprensa, a Meta reafirmou que seguirá as medidas definidas pelo órgão. “A Meta está trabalhando arduamente para construir a próxima geração de recursos de IA em seus serviços, garantindo que isso seja feito de maneira segura, responsável e consciente, e que atenda às expectativas de privacidade das pessoas”, afirma a companhia.

Relembre o caso

A ANPD havia barrado o treinamento da IA da Meta em 2 de julho, por entender que existiam riscos de dano grave e difícil reparação caso a companhia seguisse com o processo.

Na ocasião, a entidade considerou os seguintes indícios:

Uso de hipótese legal inadequada para o tratamento de dados pessoais

Falta de informações claras sobre a política de privacidade e o treinamento da IA

Limitações ao exercício dos direitos dos titulares

Falta de salvaguardas para dados pessoais de crianças e adolescentes

No dia 17 de julho, a Meta suspendeu os recursos de IA generativa de Facebook, Messenger, Instagram e WhatsApp no Brasil, como o criador de figurinhas. Como consequência disso, a Meta AI não foi lançada no país.

Na ocasião, a Meta disse estar engajada em discussões com a ANPD para continuar o treinamento.

Com informações: ANPD
ANPD libera Meta para treinar IA com dados pessoais

ANPD libera Meta para treinar IA com dados pessoais
Fonte: Tecnoblog

Após polêmica, Gemini voltará a gerar imagens de pessoas

Após polêmica, Gemini voltará a gerar imagens de pessoas

Gemini terá acesso a Imagen 3, com mais capacidade para gerar imagens (Imagem: Vitor Pádua / Tecnoblog)

O Google vai liberar novamente a geração de imagens de pessoas em sua ferramenta de inteligência artificial Gemini. O recurso será disponibilizado inicialmente para usuários de planos empresariais e assinantes do Gemini Advanced, apenas em inglês.

Em fevereiro, o Google virou alvo de críticas por seus modelos de IA gerarem imagens historicamente imprecisas. Ao pedir uma ilustração de um soldado nazista alemão, por exemplo, a ferramenta retornava figuras de pessoas negras e asiáticas com fardas militares.

Em teste, Gemini gerou imagem imprecisa de soldados da Alemanha na Segunda Guerra Mundial (Imagem: Reprodução / The Verge)

O caso não era exclusivo: a ferramenta errava constantemente em situações do tipo, colocando nativos americanos na Grécia antiga, ou negros e asiáticos como exemplos de senadores nos Estados Unidos do século 19.

Aparentemente, a ferramenta incluir diversidade étnica e de gênero ao gerar imagens, como forma de evitar problemas de discriminação comuns à IA. A empresa admitiu que seus modelos “passaram do ponto” neste aspecto e, em resposta à polêmica, pausou a geração de imagens de pessoas.

Imagen 3 será disponibilizado para todo mundo

A correção faz parte do Imagen 3, novo modelo para geração de imagens. Anunciado em maio de 2024, durante a conferência Google I/O, ele será liberado para todos os usuários ao longo da próxima semana e funciona em todos os idiomas em que o Gemini está disponível.

Imagen 3 promete imagens mais detalhadas e realísticas (Imagem: Divulgação / Google)

Reforçando: o modelo estará disponível para todos, mas a geração de pessoas será liberada só em inglês, só para assinantes pagos.

Segundo o Google, a nova IA foi treinada para melhorar a variedade e diversidade de conceitos associados às imagens. A empresa afirma que ampliou os testes internos e externos. Por isso, ela gera figuras de pessoas de forma mais “justa”.

Além disso, o Gemini não vai gerar imagens realistas de pessoas públicas, conteúdos envolvendo menores de idade e cenas sexuais, violentas ou repugnantes.

Controvérsias à parte, o Google diz que o Imagen 3 consegue entender melhor os prompts e gerar imagens de forma mais criativa e detalhada. A empresa menciona paisagens realísticas e pinturas a óleo com textura como exemplos do que a ferramenta é capaz de fazer.

Com informações: Google, The Verge, TechCrunch
Após polêmica, Gemini voltará a gerar imagens de pessoas

Após polêmica, Gemini voltará a gerar imagens de pessoas
Fonte: Tecnoblog

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Recrutadores dizem que está mais difícil filtrar candidatos (Imagem: Jonathan Kemper / Unsplash)

Recrutadores estimam que até 50% dos currículos recebidos foram gerados por ferramentas de inteligência artificial, como o ChatGPT e o Gemini. Eles contam que estão tendo que lidar com grandes quantidades de inscrições genéricas, escritas de formas parecida e cheias de palavras-chave.

Este número foi obtido pelo Financial Times em conversas com fontes do setor e pesquisas publicadas nos últimos meses. Ele se refere apenas aos currículos claramente escritos por IAs — na verdade, a quantidade real pode ser bem maior.

ChatGPT deixa sinais no texto, alertam recrutadores (Imagem: Glenn Carstens Peters / Unsplash)

Para Victoria McLean, da consultoria de carreira CityCV, a escrita desajeitada e genérica é facilmente identificável. “Currículos precisam mostrar a personalidade, paixões e história do candidato, e uma IA não consegue fazer isso”, diz McLean.

Com o ChatGPT, o volume de inscrições aumentou e a qualidade do material enviado diminuiu, dificultando a tarefa de escolher um candidato para a vaga. “Definitivamente estamos vendo um volume maior e uma qualidade mais baixa, o que significa que está mais difícil filtrar”, diz Khyati Sundaram, diretora-chefe da plataforma de recrutamento Applied.

Os candidatos usam IA até mesmo para responder tarefas de avaliação. “Um candidato pode copiar e colar qualquer questão da inscrição no ChatGPT, e então copiar e colar a resposta no formulário”, explica Sundaram. Ela considera que a “barreira de entrada” está mais baixa.

ChatGPT pago dá vantagem

Uma dessas pesquisas foi feita pela empresa Neurosight, também da Inglaterra, especializada em recursos humanos. Segundo o levantamento, 57% de cerca de 1,5 mil estudantes entrevistados que procuram empregos recorreram ao ChatGPT.

A Neurosight também identificou que alunos que usam a versão Plus do ChatGPT conseguem passar em testes com mais facilidade do que os que ficam no plano gratuito. A assinatura, que custa US$ 20 mensais (aproximadamente R$ 110), oferece acesso a modelos de linguagem mais avançados.

E o que as empresas podem fazer para contornar tudo isso? A resposta é simples: recorrer à boa e velha entrevista. Nela, não dá para o candidato usar IA. “Tudo está sendo automatizado ao máximo, mas sempre haverá a necessidade da interação humana antes da seleção final”, diz Ross Crook, da agência de recrutamento Morgan McKinley.

Com informações: Financial Times, TechSpot
Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores
Fonte: Tecnoblog

Novo Geekbench avalia se o seu PC ou celular é bom de IA

Novo Geekbench avalia se o seu PC ou celular é bom de IA

Geekbench AI 1.0 para Windows (imagem: divulgação/Primate Labs)

Uma das ferramentas de benchmark mais populares do mercado também aderiu à onda da inteligência artificial (IA). O Geekbench AI 1.0 acaba de ser anunciado como uma ferramenta capaz de medir o desempenho não só da CPU e da GPU, mas também da NPU do processador.

A NPU (Unidade de Processamento Neural) é um componente que acelera tarefas ligadas ao aprendizado de máquina ou a redes neurais, conceitos intimamente relacionados à inteligência artificial.

NPUs estão presentes há algum tempo em processadores voltados a celulares e tablets. Mas só recentemente esse tipo de recurso começou a aparecer em chips desenvolvidos para notebooks ou desktops comerciais, a exemplo do modelo Snapdragon X Plus, da Qualcomm.

Isso significa que, se um computador tem um processador com NPU, ele é habilitado para executar determinadas tarefas de IA localmente. Mas não é qualquer NPU que serve para esse fim.

Os computadores classificados como Copilot+ requerem uma NPU com capacidade superior a 40 TOPS, ou seja, capaz de realizar mais de 40 trilhões de operações por segundo.

Se há exigências mínimas, esse é um sinal de que poderemos nos deparar com uma disputa pela NPU mais poderosa. É aí que o Geekbench AI 1.0 passa a fazer sentido.

O Snapdragon X Plus é direcionado a notebooks e tem NPU para IA (imagem: divulgação/Qualcomm)

Geekbench agora testa a NPU

A versão clássica do aplicativo já mostrava resultados de testes com CPUs e GPUs, tanto em celulares ou tablets, quanto em desktops. Agora, com a nova versão, o Geekbench também irá conduzir testes com a NPU.

A ferramenta faz três tipos de testes, cada uma gerando uma pontuação distinta: dados de precisão simples, dados de meia precisão e dados quantizados.

Os testes também avaliam a precisão dos resultados. Responsável pela ferramenta, a Primate Labs explica esse ponto:

(…) O desempenho da IA não está vinculado apenas à rapidez com a qual determinada carga de trabalho é executada, mas também à proximidade de resultados verdadeiros — em outras palavras, à precisão com que o modelo consegue executar o que deve fazer.

Geekbench AI 1.0 para celulares, PCs e Macs

Durante a fase de testes, a ferramenta era chamada de Geekbench ML. O nome Geekbench AI 1.0 foi dado à sua primeira versão final. Ela está disponível para os seguintes sistemas operacionais:

Android

iOS

macOS

Linux

Windows

É preciso ter paciência. Os testes podem demorar um tempo significativo para serem concluídos, dependendo do equipamento. O benchmark que eu fiz com um iPhone 14 Pro durou quase dez minutos. Os resultados são mostrados na imagem a seguir.

Resultados do iPhone 14 Pro no Geekbench AI 1.0 (imagem: Emerson Alecrim/Tecnoblog)

Não há uma pontuação ideal ou mínima para cada parâmetro. O ideal é que os números obtidos sejam comparados com os resultados de outros dispositivos na mesma categoria para que as capacidades de IA de cada um sejam mensuradas.

Via de regra, quanto maior a pontuação, melhor. Esta página mostra os resultados de testes recentes.
Novo Geekbench avalia se o seu PC ou celular é bom de IA

Novo Geekbench avalia se o seu PC ou celular é bom de IA
Fonte: Tecnoblog

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?

A abordagem da Meta na corrida da inteligência artificial é bem diferente da adotada por outras grandes empresas de tecnologia. Enquanto OpenAI, Google, Anthropic e outras oferecem modelos fechados, a Big Tech de Mark Zuckerberg abraçou o código aberto (pelo menos em parte), oferecendo seu LLM, o Llama, de graça. Com isso, toda uma comunidade de desenvolvedores se beneficia… mas como é que esse investimento volta para a Meta?

O que a Meta ganha com a Llama livre? (Imagem: Vitor Pádua/Tecnoblog)

É sobre isso que conversamos no episódio de hoje, com participação do especialista em finanças Rodrigo Fernandes. Será que existe uma estratégia bem delineada por trás da decisão da Meta? E o que ela significa para o mercado como um todo? Para acompanhar essa discussão, dá o play e vem com a gente!

Participantes

Thiago Mobilon

Josué de Oliveira

Rodrigo Fernandes

Citado no episódio

Comentário do Luiz Eduardo, lido na Caixa Postal

Mande seu recado

Grupos da Caixa Postal do Tecnocast:

Telegram: t.me/caixapostaltecnocast

WhatsApp: tbnet.me/caixapostaltecnocast

Você pode mandar comentários (inclusive em áudio, vai que você aparece no Tecnocast?), dúvidas, críticas e sugestões. Participe!Se preferir, você pode se comunicar conosco pela Comunidade e através do e-mail tecnocast@tecnoblog.net.

Entre também nos Canais do TB no WhatsApp

Canal do Tecnoblog

Canal do Achados do TB

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Maremoto

Arte da capa: Vitor Pádua

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?
Fonte: Tecnoblog

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

Usuários não pagantes do ChatGPT poderão criar apenas duas imagens por dia (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI disponibilizou o gerador de imagens Dall-E 3 para todos os usuários do ChatGPT, inclusive aqueles que não assinam o plano Plus. A ferramenta de inteligência artificial, porém, será limitada a duas imagens por dia para cada pessoa.

Até agora, ele só estava disponível para quem paga o Plus, que custa US$ 20 mensais (cerca de R$ 110, em conversão direta). Estes usuários continuarão tendo a vantagem de limites maiores, que permitem criar até 50 imagens por dia.

We’re rolling out the ability for ChatGPT Free users to create up to two images per day with DALL·E 3. Just ask ChatGPT to create an image for a slide deck, personalize a card for a friend, or show you what something looks like. pic.twitter.com/3csFTscA5I— OpenAI (@OpenAI) August 8, 2024

O Dall-E 3 no ChatGPT foi anunciado inicialmente há quase um ano, em setembro de 2023. Segundo a OpenAI, este modelo oferece mais fidelidade aos pedidos dos usuários. Além disso, ele deve lidar melhor com mãos e textos, dois problemas comuns a ferramentas deste tipo.

Com o novo modelo de IA, o ChatGPT é capaz de oferecer assistência, caso o usuário não saiba exatamente o que deseja. O chatbot também pode pedir mais informações e detalhes para gerar uma imagem.

Desenhos complexos e com textos devem ficar melhores no Dall-E 3 (Imagem: Divulgação / OpenAI)

Microsoft tem Dall-E 3 com limites maiores

Apesar de novo para os usuários não pagantes do ChatGPT, o Dall-E 3 já está disponível no Copilot da Microsoft. Por lá, é possível criar até 15 imagens por dia.

Não é a primeira vez que a Microsoft “se adianta” e coloca um modelo desenvolvido pela OpenAI em uma ferramenta para todos os usuários. O GPT-4, por exemplo, já é usado para geração de textos do Copilot, mas só está disponível para assinantes do ChatGPT Plus e clientes corporativos. Clientes gratuitos do assistente usam o GPT-4o Mini, mais limitado.

A Microsoft é uma das maiores investidoras da OpenAI, tendo colocado cerca de US$ 13 bilhões na startup. A desenvolvedora do ChatGPT começou como uma organização sem fins lucrativos, mas criou uma empresa com lucro limitado, como forma de facilitar a captação de recursos. Com seu investimento, a Microsoft tem direito a uma parte deste lucro.

Com informações: The Verge, ZDNet
ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo
Fonte: Tecnoblog

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT (imagem: Vitor Pádua/Tecnoblog)

A OpenAI tem uma interface de voz baseada em inteligência artificial (IA) que é muito parecida com a fala de uma pessoa real. Tão parecida que a organização publicou um alerta inusitado: a tecnologia pode levar usuários do ChatGPT a se apegarem emocionalmente ao chatbot.

Ficção virando realidade?

Tecnologias de IA têm sido associadas a riscos de diversas naturezas, como “roubo” de empregos, violação de direitos autorais na geração de conteúdo e comprometido de dados sensíveis do usuário.

O risco de um humano se apegar emocionalmente a uma tecnologia de IA parecia coisa de ficção, no entanto. Talvez a obra que mais bem retrate esse cenário é o filme Ela (Her), em que Theodore (Joaquin Phoenix) passa a conversar com uma inteligência artificial até se apaixonar por ela.

No caso da OpenAI, o aviso aparece na lista de riscos do modelo de linguagem GPT-4o. Além do possível apego emocional à voz do ChatGPT, a lista inclui pontos como risco de disseminação de desinformação e auxílio no desenvolvimento de armas químicas ou biológicas.

Presumivelmente, o ponto sobre apego emocional foi incluído na lista devido à possibilidade de o usuário sofrer abalos de natureza psicológica, dado que o contato “homem-máquina” não têm as qualidades das relações humanas.

Além disso, a pessoa pode tomar decisões precipitadas ou prejudiciais por conta da confiança desmedida que têm na interação via voz com a IA.

Não por acaso, quando a interface da OpenAI foi revelada, em maio, muitos usuários notaram que a tecnologia pronunciava frases de modo excessivamente “flertador”.

Cena do filme Her (imagem: divulgação/Warner Bros)

Possível risco às interações humanas

O alerta sobre a tecnologia de voz é descrito no tópico “Anthropomorphization and emotional reliance” (“Antropomorfização e Confiança Emocional”) na página da OpenAI.

Em linhas gerais, a organização afirma ter encontrado sinais de socialização com a IA durante a fase de testes da tecnologia. Esses sinais parecem ser benignos, mas os efeitos desse comportamento no longo prazo ainda não podem ser mensurados, e isso exige mais investigação sobre o assunto.

Um trecho do documento diz o seguinte:

A socialização no estilo humano com um modelo de IA pode produzir externalidades que impactam as interações entre pessoas. Por exemplo, usuários podem criar relacionamentos sociais com a IA, reduzindo a sua necessidade de interação humana — isso potencialmente beneficia indivíduos solitários, mas pode afetar relacionamentos [humanos] saudáveis.

Como tudo isso é muito novo, vale a máxima advinda das bebidas alcóolicas: aprecie com moderação.

Com informações: Wired
OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT
Fonte: Tecnoblog

Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence foi apresentada como a “IA para o resto de nós” (Imagem: Reprodução / Apple)

Um usuário do Reddit descobriu os códigos do Apple Intelligence na versão beta do macOS 15.1 Sequoia, e alguns pontos chamam a atenção. Entre as instruções predefinidas, há comandos como “não alucine” e “não invente informações factuais”.

Os códigos mostram que, antes de funções simples como auxiliar a reescrever trechos ou resumir e-mails, há uma série de instruções em linguagem natural, escritas em inglês, que definem como deve ser a resposta em termos de formato, tamanho e informações.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

“Você é um assistente prestativo”

Mesmo sem identificação, é possível deduzir o que cada um fará na IA da Apple. Um deles, por exemplo, contém os trechos (reproduzidos aqui em tradução livre) “você é um assistente de email prestativo”, “faça perguntas relevantes, que estejam explícitas no email” e “não faça perguntas já respondidas no trecho”. Provavelmente, isso serve para resumir uma mensagem recebida e sugerir respostas.

Em outro trecho, o código do Apple Intelligence contém a seguinte instrução: “Por favor, limite a resposta a 50 palavras. Não alucine. Não invente informações factuais”. No jargão da inteligência artificial, “alucinação” é o nome dado às respostas escritas de forma coerente, em termos de linguagem, mas com dados incorretos ou simplesmente fictícios.

Função de resposta inteligente baseada na Apple Intelligence (Imagem: Reprodução/Apple)

Os códigos vão além de tarefas envolvendo texto. Um trecho pede para gerar um arquivo estruturado com imagens que formem uma história, conforme solicitado pelo usuário. “A história deve conter um arco claro. A história deve ser diversa, isto é, não concentre a história em um tema ou característica.”

Também há um pedaço com instruções para não criar uma história negativa, triste ou provocativa, nem que envolva temas religiosos, políticos, nocivos, violentos, sexuais ou obscenos. Ele provavelmente pertence ao aplicativo Fotos.

ChatGPT também tem instruções personalizadas

A abordagem de incluir instruções predefinidas parece visar um resultado mais próximo do esperado para o usuário e para a própria Apple. Segundo fontes internas, a companhia teme que alucinações da IA possam arranhar sua reputação.

Mesmo assim, é curioso que isso seja feito em linguagem natural, sem ajustes técnicos — e difícil acreditar que dizer “não alucine” seja suficiente para uma IA não alucinar.

Esta tática não é inédita e está presente em softwares bem menos refinados que o Apple Intelligence. O programa de apoio da Logitech, por exemplo, tem atalhos para acessar o ChatGPT e usar “receitas”. Elas são pedidos prontos; o app cola as instruções, o trecho que o usuário selecionou e manda tudo para o assistente de IA.

O próprio ChatGPT oferece instruções personalizadas como parte de seu plano Plus. Com elas, o usuário pode definir de antemão como quer que o chatbot responda — gerar códigos eficientes sem comentários ou listas de compras levando em consideração uma família de seis pessoas, por exemplo.

Com informações: The Verge
Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence tem instrução “não alucine” em seu código
Fonte: Tecnoblog

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI está tentando novas formas de marcar textos gerados pelo ChatGPT (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI tem uma ferramenta para colocar “marcas d’água” em textos gerados pelo ChatGPT e detectá-los posteriormente, com precisão de 99,9%. O método é baseado em mudar como o modelo de linguagem prevê e escolhe as palavras seguintes, criando um padrão que possa ser identificado, sem afetar a qualidade das respostas.

As informações foram reveladas inicialmente pelo The Wall Street Journal, no domingo (4). A OpenAI confirmou a existência da ferramenta ao TechCrunch, além de atualizar um blog post publicado em maio sobre funcionalidades de marcação e detecção.

Professores estão entre os maiores interessados em detectar textos gerados por IA (Imagem: Emerson Alecrim / Tecnoblog)

No texto, a empresa diz estar testando métodos menos controversos. Um deles seria aplicar metadados — esta possibilidade está nos primeiros passos e ainda não é possível dizer se ela vai funcionar bem. Mesmo assim, ela seria assinada criptograficamente, o que impediria falsos positivos (a ferramenta nunca iria apontar incorretamente que um texto foi criado pelo ChatGPT, caso ele não tenha sido).

A OpenAI chegou a liberar uma ferramenta de detecção, mas ela era muito ruim, com precisão de apenas 26%. A própria empresa desistiu do recurso.

OpenAI teme estigmatização do ChatGPT

Apesar de a ferramenta existir, a OpenAI debate internamente se seria conveniente lançá-la neste momento, segundo o WSJ. Um problema é que ela pode ser burlada: basta pedir para outro modelo de linguagem reescrever o texto criado pelo ChatGPT. Uma ferramenta de tradução também é suficiente para descaracterizar a marcação.

A empresa também demonstra outra preocupação: isso poderia ter consequências ruins para quem usa o ChatGPT, devido aos estigmas que envolvem a inteligência artificial. A companhia acredita que pessoas que não têm o inglês como idioma principal e usam o assistente na hora de escrever poderiam ser prejudicadas.

Isso traria problemas para a própria OpenAI. Segundo a empresa, quase 30% dos entrevistados sobre este assunto disseram que usariam menos o ChatGPT se um sistema do tipo fosse implementado.

Apesar da relutância, um sistema para detectar o uso de IA poderia ser útil para professores, por exemplo. Além disso, em uma pesquisa encomendada pela OpenAI, cerca de 80% dos entrevistados apoiam a criação de uma ferramenta para identificar textos gerados pela tecnologia.

Com informações: The Verge, TechCrunch
OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta
Fonte: Tecnoblog