Category: Inteligência Artificial

Asus revela miniPC que traz botão Copilot no próprio gabinete

Asus revela miniPC que traz botão Copilot no próprio gabinete

NUC 14 Pro AI com botão Copilot no gabinete (imagem: divulgação/Asus)

NUC 14 Pro AI é o nome do miniPC que a Asus anunciou na esteira da IFA 2024, evento de tecnologia que acontece na Alemanha. Como o nome sugere, a novidade traz recursos de inteligência artificial (IA) e leva o conceito tão a sério que incorpora até um botão Copilot na parte frontal.

A ideia é questionável, afinal, o Copilot do Windows 11 pode ser acionado pelo próprio teclado. É de se presumir que o usuário que quiser fazer uso regular da tecnologia comprará um teclado que já tenha uma tecla dedicada, a exemplo do que já ocorre em alguns notebooks atuais.

Além disso, me pergunto se não existe o risco de o usuário confundir o botão com a tecla de liga/desliga que também foi posicionada na parte frontal do NUC 14 Pro AI.

MiniPC Asus NUC 14 Pro AI (imagem: divulgação/Asus)

Com processador Intel para notebook

O que faz o NUC 14 Pro AI realmente interessante é o seu hardware. Para começar, ele pode ser equipado com um chip da recém-anunciada linha Intel Core Ultra 200V, cujos modelos contam com NPU em capacidade entre 40 e 48 TOPS, o que os torna aptos a equipar PCs de categoria Copilot+.

Os chips Core Ultra 200V foram desenvolvidos para notebooks, mas, como vemos aqui, nada impede o seu uso em outras plataformas. Uma das vantagens de sua adoção no NUC 14 Pro AI é que, além de recursos para IA, o miniPC provavelmente será mais econômico no consumo de energia.

Por outro lado, o chip deverá vir soldado à placa-mãe do equipamento, o que dificultará ou impedirá a sua substituição.

A Asus ainda não divulgou todas as especificações do NUC 14 Pro AI, mas indicou que ele suporta memórias LPDDR5X. A memória RAM deve ter, no máximo, 32 GB de tamanho, pois essa é a capacidade suportada pelos chips Core Ultra 200V.

O material de divulgação também revela que o Asus NUC 14 Pro AI suporta SSD M.2 2280, Bluetooth 5.4 e Wi-Fi 7. O equipamento traz ainda portas USB-C com Thunderbolt 4, HDMI, Ethernet, USB 3.2 Gen 1 e USB 3.2 Gen 2. Tudo isso em um equipamento que mede 130 x 130 x 34 mm.

MiniPC Asus NUC 14 Pro AI (imagem: divulgação/Asus)

Disponibilidade e preço

Ainda não há informações sobre preços e data de lançamento, mas o Verge aponta que o miniPC deve ser lançado até o fim do ano. Uma coisa é certa: ele será mais barato que os notebooks Copilot+ que tem preço inicial na cada dos US$ 1.000 nos Estados Unidos.

Falando nisso, vale destacar que os recursos do Copilot+ serão liberados para PCs com chip Intel ou AMD compatível a partir de novembro.
Asus revela miniPC que traz botão Copilot no próprio gabinete

Asus revela miniPC que traz botão Copilot no próprio gabinete
Fonte: Tecnoblog

57% do conteúdo na web foi criado por robôs, mostra estudo

57% do conteúdo na web foi criado por robôs, mostra estudo

Pesquisa mostra que material gerado por IA vem crescendo na internet (Imagem: Vitor Pádua / Tecnoblog)

Um estudo divulgado pela AWS nesta semana indica que 57% do conteúdo textual da internet já é gerado por IAs. A pesquisa mostra que a maioria do que é publicado na rede é tradução criada com Machine Translation, inteligências artificiais focadas em traduzir textos. Contudo, isso não é só ruim para os usuários e criadores, mas também prejudica o treinamento de IAs generativas.

Como os LLMs dependem de conteúdo humano e especializado para entregar uma informação mais precisa, a replicação de textos utilizando IAs e apenas com traduções impacta no desempenho das IAs generativas.

O estudo da AWS destaca que as traduções são falhas porque vêm de textos mal escritos. Consequentemente, esse material traduzido entregará informações erradas ou de má-qualidade para os usuários. Além disso, ainda há a questão de que o LLM “reciclará” conteúdos para o seu treinamento — é IA treinando IA, quase um esquema de pirâmide.

Inteligência artificial é usada para criar textos, que depois são usados para treinar as IAs, que aí são usadas para gerar mais textos e o ciclo não para (Imagem: Vitor Pádua / Tecnoblog)

Qualidade das respostas cai a cada prompt

A pesquisa mostra que a qualidade e precisão das respostas geradas pelo LLMs cai com o tempo. Se você acha que a IA do Google sugerir passar cola na pizza é ruim, espere mais alguns anos.

Para quem usa o ChatGPT, Gemini, Copilot ou outra IA para tarefas mais simples, essa queda de qualidade pode passar despercebida. Apesar disso, no fim de 2023 e início de 2024 tivemos o caso da “preguiça” do ChatGPT. Na Comunidade do Tecnoblog, alguns leitores já reclamaram de uma certa queda de qualidade das IAs generativas.

O estudo da AWS aponta uma solução para isso: o uso de tecnologias de detecção de material gerado por Machine Translation (MT). Ao contrário dos tradutores básicos, que praticamente traduzem palavra por palavra, as MTs usam IAs para avaliar o contexto do texto.

Com informações: Windows Central
57% do conteúdo na web foi criado por robôs, mostra estudo

57% do conteúdo na web foi criado por robôs, mostra estudo
Fonte: Tecnoblog

Próxima geração da Alexa deve usar tecnologia do Claude AI

Próxima geração da Alexa deve usar tecnologia do Claude AI

Alexa ficaria mais inteligente com o uso do LLM Claude, criado por empresa na qual a Amazon investiu US$ 4 bilhões (Imagem: Darlan Helder/Tecnoblog)

A Amazon pode utilizar a IA generativa Claude para deixar a Alexa mais inteligente. Segundo a Reuters, a big tech optou por usar a tecnologia da Anthropic devido a problemas no desenvolvimento de sua própria inteligência artificial. Reforçando rumores, a agência de notícias disse que essa nova Alexa — com assinatura — chegará em outubro.

No ano passado, a Amazon deu sinais de que poderia utilizar o Claude AI na Alexa. Em setembro de 2023, a big tech investiu US$ 1,25 bilhão na Anthropic — e depois jogou mais US$ 3,75 bilhões na empresa. Na época, este que vos escreve comentou que a (óbvia) investida da Amazon poderia ser um preparativo para aprimorar a Alexa com IA generativa.

Pouco depois, Dave Limp, vice-presidente de dispositivos da Amazon, disse “pensar” numa Alexa com assinatura. Porém, para cobrar pelo recurso, Limp destacou que ela precisava ter mais valor — e deixar a assistente mais inteligente é fundamental nesse plano. Já nos últimos três meses, diversos rumores sobre a Alexa com assinatura e IA generativa surgiram em diferentes veículos.

Amazon não confia na sua própria tecnologia

LLM da Amazon não teve bons resultados com a Alexa (Imagem: Thássius Veloso/Tecnoblog)

Fontes ouvidas pela Reuters revelaram que o desempenho da Alexa com a IA desenvolvida pela própria Amazon não agradou. Por isso, a big tech escolheu a tecnologia da Anthropic como novo motor da sua assistente virtual.

Uma das fontes, em condição de anonimato, deu a entender que o plano da Amazon é utilizar a sua própria IA generativa no futuro. Essa fonte disse que o foco da empresa é usar modelos próprios, mas que sempre variou na escolha de tecnologias. Além do software da Alexa, a big tech é criadora do Titan, um LLM disponível no serviço Amazon Bedrock e outras tecnologias de machine learning usadas nas suas operações.

Alexa mais inteligente e com assinatura?

Segundo diversos jornais, a Amazon pretende cobrar US$ 10 pela assinatura da Alexa inteligente. Entre os recursos novos estaria o Smart Briefing, uma ferramenta de resumo de notícias baseadas no interesse do usuário. Por exemplo, se você gosta de tênis, a Alexa poderia resumir as notícias do esporte para você.

Hoje, a assistente virtual só é capaz de executar resumos de notícias prontos de veículos. E você ainda precisa dizer qual jornal ou rádio quer ouvir. Ao pedir “Alexa, resumo de notícias de política” ou do US Open 2024, a assistente responde com “desculpa, não entendi” ou que não conhece o termo.

Claude AI é a IA generativa que deve equipar a próxima geração da Alexa e foi lançada no Brasil recentemente (Imagem: Divulgação/Anthropic)

Amazon investigada pelo investimento na Anthropic

O obstáculo do lançamento da Alexa com Claude AI é a investigação que o Reino Unido abriu na parceria entre Amazon e Anthropic. O órgão regulador do comércio do país quer saber se o investimento da big tech se caracteriza como aquisição. Parte do acordo entre as duas empresas envolvia a Amazon ter uma fatia minoritária da Anthropic e fornecer os serviços da AWS para o funcionamento da Claude AI.

Coincidentemente, o prazo para o encerramento da investigação é em outubro. O mesmo mês que, segundo diferentes fontes, a Amazon lançará a Alexa inteligente — e que agora é especulado que essa inteligência virá do Claude.

Com informações: Reuters e The Verge
Próxima geração da Alexa deve usar tecnologia do Claude AI

Próxima geração da Alexa deve usar tecnologia do Claude AI
Fonte: Tecnoblog

ANPD libera Meta para treinar IA com dados pessoais

ANPD libera Meta para treinar IA com dados pessoais

Meta pretendia liberar Meta AI para WhatsApp, Instagram e Facebook ainda em julho (Ilustração: Vitor Pádua / Tecnoblog)

A Agência Nacional de Proteção de Dados (ANPD) anunciou que a Meta está novamente liberada para usar dados pessoais para treinar sua inteligência artificial. A empresa terá que seguir um Plano de Conformidade, com medidas para adequar suas práticas.

Grande parte das exigências tem relação com informar os usuários de Facebook e Instagram. Eles receberão notificações pelo email e pelo aplicativo com informações “claras e acessíveis” (nas palavras da ANPD) sobre o uso de dados pessoais para treinar IA.

Mark Zuckberg apresenta Meta AI em evento realizado em setembro de 2023 (Imagem: Reprodução / Meta)

Outras formas de comunicação também serão atualizadas pela Meta, como o Aviso de Privacidade e banners na página dedicada ao assunto.

Usuários poderão se opor ao treinamento

O treinamento só poderá ser iniciado 30 dias após estas medidas de informação. Os usuários poderão se opor ao tratamento de seus dados para o treinamento, e isso deverá ser permitido de forma facilitada — ou seja, você poderá não autorizar que suas publicações e comentários públicos sejam usados pela Meta.

Este direito poderá ser exercido por usuários e não usuários após o início do tratamento de dados, por meio de formulário simplificado. Uma das críticas feitas à Meta era de que o processo para não autorizar o uso de dados era muito complicado.

Antes de suspensão, este era o formulário para retirar dados pessoais do treinamento de IA (Imagem: Reprodução / Tecnoblog)

Além dessas questões, a Meta não poderá usar dados pessoais de contas de menores de 18 anos no treinamento de IA. A ANPD ainda tomará uma decisão definitiva sobre este assunto.

A implementação das medidas será acompanhada pela Coordenação-Geral de Fiscalização da ANPD. “Cabe ressaltar que a atuação da ANPD se deu com o objetivo de promover a conformidade com a Lei Geral de Proteção de Dados Pessoais e o esclarecimento dos direitos dos titulares de dados”, diz Waldemar Gonçalves, presidente da ANPD.

Em comunicado enviado à imprensa, a Meta reafirmou que seguirá as medidas definidas pelo órgão. “A Meta está trabalhando arduamente para construir a próxima geração de recursos de IA em seus serviços, garantindo que isso seja feito de maneira segura, responsável e consciente, e que atenda às expectativas de privacidade das pessoas”, afirma a companhia.

Relembre o caso

A ANPD havia barrado o treinamento da IA da Meta em 2 de julho, por entender que existiam riscos de dano grave e difícil reparação caso a companhia seguisse com o processo.

Na ocasião, a entidade considerou os seguintes indícios:

Uso de hipótese legal inadequada para o tratamento de dados pessoais

Falta de informações claras sobre a política de privacidade e o treinamento da IA

Limitações ao exercício dos direitos dos titulares

Falta de salvaguardas para dados pessoais de crianças e adolescentes

No dia 17 de julho, a Meta suspendeu os recursos de IA generativa de Facebook, Messenger, Instagram e WhatsApp no Brasil, como o criador de figurinhas. Como consequência disso, a Meta AI não foi lançada no país.

Na ocasião, a Meta disse estar engajada em discussões com a ANPD para continuar o treinamento.

Com informações: ANPD
ANPD libera Meta para treinar IA com dados pessoais

ANPD libera Meta para treinar IA com dados pessoais
Fonte: Tecnoblog

Após polêmica, Gemini voltará a gerar imagens de pessoas

Após polêmica, Gemini voltará a gerar imagens de pessoas

Gemini terá acesso a Imagen 3, com mais capacidade para gerar imagens (Imagem: Vitor Pádua / Tecnoblog)

O Google vai liberar novamente a geração de imagens de pessoas em sua ferramenta de inteligência artificial Gemini. O recurso será disponibilizado inicialmente para usuários de planos empresariais e assinantes do Gemini Advanced, apenas em inglês.

Em fevereiro, o Google virou alvo de críticas por seus modelos de IA gerarem imagens historicamente imprecisas. Ao pedir uma ilustração de um soldado nazista alemão, por exemplo, a ferramenta retornava figuras de pessoas negras e asiáticas com fardas militares.

Em teste, Gemini gerou imagem imprecisa de soldados da Alemanha na Segunda Guerra Mundial (Imagem: Reprodução / The Verge)

O caso não era exclusivo: a ferramenta errava constantemente em situações do tipo, colocando nativos americanos na Grécia antiga, ou negros e asiáticos como exemplos de senadores nos Estados Unidos do século 19.

Aparentemente, a ferramenta incluir diversidade étnica e de gênero ao gerar imagens, como forma de evitar problemas de discriminação comuns à IA. A empresa admitiu que seus modelos “passaram do ponto” neste aspecto e, em resposta à polêmica, pausou a geração de imagens de pessoas.

Imagen 3 será disponibilizado para todo mundo

A correção faz parte do Imagen 3, novo modelo para geração de imagens. Anunciado em maio de 2024, durante a conferência Google I/O, ele será liberado para todos os usuários ao longo da próxima semana e funciona em todos os idiomas em que o Gemini está disponível.

Imagen 3 promete imagens mais detalhadas e realísticas (Imagem: Divulgação / Google)

Reforçando: o modelo estará disponível para todos, mas a geração de pessoas será liberada só em inglês, só para assinantes pagos.

Segundo o Google, a nova IA foi treinada para melhorar a variedade e diversidade de conceitos associados às imagens. A empresa afirma que ampliou os testes internos e externos. Por isso, ela gera figuras de pessoas de forma mais “justa”.

Além disso, o Gemini não vai gerar imagens realistas de pessoas públicas, conteúdos envolvendo menores de idade e cenas sexuais, violentas ou repugnantes.

Controvérsias à parte, o Google diz que o Imagen 3 consegue entender melhor os prompts e gerar imagens de forma mais criativa e detalhada. A empresa menciona paisagens realísticas e pinturas a óleo com textura como exemplos do que a ferramenta é capaz de fazer.

Com informações: Google, The Verge, TechCrunch
Após polêmica, Gemini voltará a gerar imagens de pessoas

Após polêmica, Gemini voltará a gerar imagens de pessoas
Fonte: Tecnoblog

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Recrutadores dizem que está mais difícil filtrar candidatos (Imagem: Jonathan Kemper / Unsplash)

Recrutadores estimam que até 50% dos currículos recebidos foram gerados por ferramentas de inteligência artificial, como o ChatGPT e o Gemini. Eles contam que estão tendo que lidar com grandes quantidades de inscrições genéricas, escritas de formas parecida e cheias de palavras-chave.

Este número foi obtido pelo Financial Times em conversas com fontes do setor e pesquisas publicadas nos últimos meses. Ele se refere apenas aos currículos claramente escritos por IAs — na verdade, a quantidade real pode ser bem maior.

ChatGPT deixa sinais no texto, alertam recrutadores (Imagem: Glenn Carstens Peters / Unsplash)

Para Victoria McLean, da consultoria de carreira CityCV, a escrita desajeitada e genérica é facilmente identificável. “Currículos precisam mostrar a personalidade, paixões e história do candidato, e uma IA não consegue fazer isso”, diz McLean.

Com o ChatGPT, o volume de inscrições aumentou e a qualidade do material enviado diminuiu, dificultando a tarefa de escolher um candidato para a vaga. “Definitivamente estamos vendo um volume maior e uma qualidade mais baixa, o que significa que está mais difícil filtrar”, diz Khyati Sundaram, diretora-chefe da plataforma de recrutamento Applied.

Os candidatos usam IA até mesmo para responder tarefas de avaliação. “Um candidato pode copiar e colar qualquer questão da inscrição no ChatGPT, e então copiar e colar a resposta no formulário”, explica Sundaram. Ela considera que a “barreira de entrada” está mais baixa.

ChatGPT pago dá vantagem

Uma dessas pesquisas foi feita pela empresa Neurosight, também da Inglaterra, especializada em recursos humanos. Segundo o levantamento, 57% de cerca de 1,5 mil estudantes entrevistados que procuram empregos recorreram ao ChatGPT.

A Neurosight também identificou que alunos que usam a versão Plus do ChatGPT conseguem passar em testes com mais facilidade do que os que ficam no plano gratuito. A assinatura, que custa US$ 20 mensais (aproximadamente R$ 110), oferece acesso a modelos de linguagem mais avançados.

E o que as empresas podem fazer para contornar tudo isso? A resposta é simples: recorrer à boa e velha entrevista. Nela, não dá para o candidato usar IA. “Tudo está sendo automatizado ao máximo, mas sempre haverá a necessidade da interação humana antes da seleção final”, diz Ross Crook, da agência de recrutamento Morgan McKinley.

Com informações: Financial Times, TechSpot
Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores
Fonte: Tecnoblog

Novo Geekbench avalia se o seu PC ou celular é bom de IA

Novo Geekbench avalia se o seu PC ou celular é bom de IA

Geekbench AI 1.0 para Windows (imagem: divulgação/Primate Labs)

Uma das ferramentas de benchmark mais populares do mercado também aderiu à onda da inteligência artificial (IA). O Geekbench AI 1.0 acaba de ser anunciado como uma ferramenta capaz de medir o desempenho não só da CPU e da GPU, mas também da NPU do processador.

A NPU (Unidade de Processamento Neural) é um componente que acelera tarefas ligadas ao aprendizado de máquina ou a redes neurais, conceitos intimamente relacionados à inteligência artificial.

NPUs estão presentes há algum tempo em processadores voltados a celulares e tablets. Mas só recentemente esse tipo de recurso começou a aparecer em chips desenvolvidos para notebooks ou desktops comerciais, a exemplo do modelo Snapdragon X Plus, da Qualcomm.

Isso significa que, se um computador tem um processador com NPU, ele é habilitado para executar determinadas tarefas de IA localmente. Mas não é qualquer NPU que serve para esse fim.

Os computadores classificados como Copilot+ requerem uma NPU com capacidade superior a 40 TOPS, ou seja, capaz de realizar mais de 40 trilhões de operações por segundo.

Se há exigências mínimas, esse é um sinal de que poderemos nos deparar com uma disputa pela NPU mais poderosa. É aí que o Geekbench AI 1.0 passa a fazer sentido.

O Snapdragon X Plus é direcionado a notebooks e tem NPU para IA (imagem: divulgação/Qualcomm)

Geekbench agora testa a NPU

A versão clássica do aplicativo já mostrava resultados de testes com CPUs e GPUs, tanto em celulares ou tablets, quanto em desktops. Agora, com a nova versão, o Geekbench também irá conduzir testes com a NPU.

A ferramenta faz três tipos de testes, cada uma gerando uma pontuação distinta: dados de precisão simples, dados de meia precisão e dados quantizados.

Os testes também avaliam a precisão dos resultados. Responsável pela ferramenta, a Primate Labs explica esse ponto:

(…) O desempenho da IA não está vinculado apenas à rapidez com a qual determinada carga de trabalho é executada, mas também à proximidade de resultados verdadeiros — em outras palavras, à precisão com que o modelo consegue executar o que deve fazer.

Geekbench AI 1.0 para celulares, PCs e Macs

Durante a fase de testes, a ferramenta era chamada de Geekbench ML. O nome Geekbench AI 1.0 foi dado à sua primeira versão final. Ela está disponível para os seguintes sistemas operacionais:

Android

iOS

macOS

Linux

Windows

É preciso ter paciência. Os testes podem demorar um tempo significativo para serem concluídos, dependendo do equipamento. O benchmark que eu fiz com um iPhone 14 Pro durou quase dez minutos. Os resultados são mostrados na imagem a seguir.

Resultados do iPhone 14 Pro no Geekbench AI 1.0 (imagem: Emerson Alecrim/Tecnoblog)

Não há uma pontuação ideal ou mínima para cada parâmetro. O ideal é que os números obtidos sejam comparados com os resultados de outros dispositivos na mesma categoria para que as capacidades de IA de cada um sejam mensuradas.

Via de regra, quanto maior a pontuação, melhor. Esta página mostra os resultados de testes recentes.
Novo Geekbench avalia se o seu PC ou celular é bom de IA

Novo Geekbench avalia se o seu PC ou celular é bom de IA
Fonte: Tecnoblog

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?

A abordagem da Meta na corrida da inteligência artificial é bem diferente da adotada por outras grandes empresas de tecnologia. Enquanto OpenAI, Google, Anthropic e outras oferecem modelos fechados, a Big Tech de Mark Zuckerberg abraçou o código aberto (pelo menos em parte), oferecendo seu LLM, o Llama, de graça. Com isso, toda uma comunidade de desenvolvedores se beneficia… mas como é que esse investimento volta para a Meta?

O que a Meta ganha com a Llama livre? (Imagem: Vitor Pádua/Tecnoblog)

É sobre isso que conversamos no episódio de hoje, com participação do especialista em finanças Rodrigo Fernandes. Será que existe uma estratégia bem delineada por trás da decisão da Meta? E o que ela significa para o mercado como um todo? Para acompanhar essa discussão, dá o play e vem com a gente!

Participantes

Thiago Mobilon

Josué de Oliveira

Rodrigo Fernandes

Citado no episódio

Comentário do Luiz Eduardo, lido na Caixa Postal

Mande seu recado

Grupos da Caixa Postal do Tecnocast:

Telegram: t.me/caixapostaltecnocast

WhatsApp: tbnet.me/caixapostaltecnocast

Você pode mandar comentários (inclusive em áudio, vai que você aparece no Tecnocast?), dúvidas, críticas e sugestões. Participe!Se preferir, você pode se comunicar conosco pela Comunidade e através do e-mail tecnocast@tecnoblog.net.

Entre também nos Canais do TB no WhatsApp

Canal do Tecnoblog

Canal do Achados do TB

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Maremoto

Arte da capa: Vitor Pádua

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?
Fonte: Tecnoblog

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

Usuários não pagantes do ChatGPT poderão criar apenas duas imagens por dia (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI disponibilizou o gerador de imagens Dall-E 3 para todos os usuários do ChatGPT, inclusive aqueles que não assinam o plano Plus. A ferramenta de inteligência artificial, porém, será limitada a duas imagens por dia para cada pessoa.

Até agora, ele só estava disponível para quem paga o Plus, que custa US$ 20 mensais (cerca de R$ 110, em conversão direta). Estes usuários continuarão tendo a vantagem de limites maiores, que permitem criar até 50 imagens por dia.

We’re rolling out the ability for ChatGPT Free users to create up to two images per day with DALL·E 3. Just ask ChatGPT to create an image for a slide deck, personalize a card for a friend, or show you what something looks like. pic.twitter.com/3csFTscA5I— OpenAI (@OpenAI) August 8, 2024

O Dall-E 3 no ChatGPT foi anunciado inicialmente há quase um ano, em setembro de 2023. Segundo a OpenAI, este modelo oferece mais fidelidade aos pedidos dos usuários. Além disso, ele deve lidar melhor com mãos e textos, dois problemas comuns a ferramentas deste tipo.

Com o novo modelo de IA, o ChatGPT é capaz de oferecer assistência, caso o usuário não saiba exatamente o que deseja. O chatbot também pode pedir mais informações e detalhes para gerar uma imagem.

Desenhos complexos e com textos devem ficar melhores no Dall-E 3 (Imagem: Divulgação / OpenAI)

Microsoft tem Dall-E 3 com limites maiores

Apesar de novo para os usuários não pagantes do ChatGPT, o Dall-E 3 já está disponível no Copilot da Microsoft. Por lá, é possível criar até 15 imagens por dia.

Não é a primeira vez que a Microsoft “se adianta” e coloca um modelo desenvolvido pela OpenAI em uma ferramenta para todos os usuários. O GPT-4, por exemplo, já é usado para geração de textos do Copilot, mas só está disponível para assinantes do ChatGPT Plus e clientes corporativos. Clientes gratuitos do assistente usam o GPT-4o Mini, mais limitado.

A Microsoft é uma das maiores investidoras da OpenAI, tendo colocado cerca de US$ 13 bilhões na startup. A desenvolvedora do ChatGPT começou como uma organização sem fins lucrativos, mas criou uma empresa com lucro limitado, como forma de facilitar a captação de recursos. Com seu investimento, a Microsoft tem direito a uma parte deste lucro.

Com informações: The Verge, ZDNet
ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo
Fonte: Tecnoblog

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT (imagem: Vitor Pádua/Tecnoblog)

A OpenAI tem uma interface de voz baseada em inteligência artificial (IA) que é muito parecida com a fala de uma pessoa real. Tão parecida que a organização publicou um alerta inusitado: a tecnologia pode levar usuários do ChatGPT a se apegarem emocionalmente ao chatbot.

Ficção virando realidade?

Tecnologias de IA têm sido associadas a riscos de diversas naturezas, como “roubo” de empregos, violação de direitos autorais na geração de conteúdo e comprometido de dados sensíveis do usuário.

O risco de um humano se apegar emocionalmente a uma tecnologia de IA parecia coisa de ficção, no entanto. Talvez a obra que mais bem retrate esse cenário é o filme Ela (Her), em que Theodore (Joaquin Phoenix) passa a conversar com uma inteligência artificial até se apaixonar por ela.

No caso da OpenAI, o aviso aparece na lista de riscos do modelo de linguagem GPT-4o. Além do possível apego emocional à voz do ChatGPT, a lista inclui pontos como risco de disseminação de desinformação e auxílio no desenvolvimento de armas químicas ou biológicas.

Presumivelmente, o ponto sobre apego emocional foi incluído na lista devido à possibilidade de o usuário sofrer abalos de natureza psicológica, dado que o contato “homem-máquina” não têm as qualidades das relações humanas.

Além disso, a pessoa pode tomar decisões precipitadas ou prejudiciais por conta da confiança desmedida que têm na interação via voz com a IA.

Não por acaso, quando a interface da OpenAI foi revelada, em maio, muitos usuários notaram que a tecnologia pronunciava frases de modo excessivamente “flertador”.

Cena do filme Her (imagem: divulgação/Warner Bros)

Possível risco às interações humanas

O alerta sobre a tecnologia de voz é descrito no tópico “Anthropomorphization and emotional reliance” (“Antropomorfização e Confiança Emocional”) na página da OpenAI.

Em linhas gerais, a organização afirma ter encontrado sinais de socialização com a IA durante a fase de testes da tecnologia. Esses sinais parecem ser benignos, mas os efeitos desse comportamento no longo prazo ainda não podem ser mensurados, e isso exige mais investigação sobre o assunto.

Um trecho do documento diz o seguinte:

A socialização no estilo humano com um modelo de IA pode produzir externalidades que impactam as interações entre pessoas. Por exemplo, usuários podem criar relacionamentos sociais com a IA, reduzindo a sua necessidade de interação humana — isso potencialmente beneficia indivíduos solitários, mas pode afetar relacionamentos [humanos] saudáveis.

Como tudo isso é muito novo, vale a máxima advinda das bebidas alcóolicas: aprecie com moderação.

Com informações: Wired
OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT
Fonte: Tecnoblog