Category: Inteligência Artificial

Após polêmica, Gemini voltará a gerar imagens de pessoas

Após polêmica, Gemini voltará a gerar imagens de pessoas

Gemini terá acesso a Imagen 3, com mais capacidade para gerar imagens (Imagem: Vitor Pádua / Tecnoblog)

O Google vai liberar novamente a geração de imagens de pessoas em sua ferramenta de inteligência artificial Gemini. O recurso será disponibilizado inicialmente para usuários de planos empresariais e assinantes do Gemini Advanced, apenas em inglês.

Em fevereiro, o Google virou alvo de críticas por seus modelos de IA gerarem imagens historicamente imprecisas. Ao pedir uma ilustração de um soldado nazista alemão, por exemplo, a ferramenta retornava figuras de pessoas negras e asiáticas com fardas militares.

Em teste, Gemini gerou imagem imprecisa de soldados da Alemanha na Segunda Guerra Mundial (Imagem: Reprodução / The Verge)

O caso não era exclusivo: a ferramenta errava constantemente em situações do tipo, colocando nativos americanos na Grécia antiga, ou negros e asiáticos como exemplos de senadores nos Estados Unidos do século 19.

Aparentemente, a ferramenta incluir diversidade étnica e de gênero ao gerar imagens, como forma de evitar problemas de discriminação comuns à IA. A empresa admitiu que seus modelos “passaram do ponto” neste aspecto e, em resposta à polêmica, pausou a geração de imagens de pessoas.

Imagen 3 será disponibilizado para todo mundo

A correção faz parte do Imagen 3, novo modelo para geração de imagens. Anunciado em maio de 2024, durante a conferência Google I/O, ele será liberado para todos os usuários ao longo da próxima semana e funciona em todos os idiomas em que o Gemini está disponível.

Imagen 3 promete imagens mais detalhadas e realísticas (Imagem: Divulgação / Google)

Reforçando: o modelo estará disponível para todos, mas a geração de pessoas será liberada só em inglês, só para assinantes pagos.

Segundo o Google, a nova IA foi treinada para melhorar a variedade e diversidade de conceitos associados às imagens. A empresa afirma que ampliou os testes internos e externos. Por isso, ela gera figuras de pessoas de forma mais “justa”.

Além disso, o Gemini não vai gerar imagens realistas de pessoas públicas, conteúdos envolvendo menores de idade e cenas sexuais, violentas ou repugnantes.

Controvérsias à parte, o Google diz que o Imagen 3 consegue entender melhor os prompts e gerar imagens de forma mais criativa e detalhada. A empresa menciona paisagens realísticas e pinturas a óleo com textura como exemplos do que a ferramenta é capaz de fazer.

Com informações: Google, The Verge, TechCrunch
Após polêmica, Gemini voltará a gerar imagens de pessoas

Após polêmica, Gemini voltará a gerar imagens de pessoas
Fonte: Tecnoblog

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Recrutadores dizem que está mais difícil filtrar candidatos (Imagem: Jonathan Kemper / Unsplash)

Recrutadores estimam que até 50% dos currículos recebidos foram gerados por ferramentas de inteligência artificial, como o ChatGPT e o Gemini. Eles contam que estão tendo que lidar com grandes quantidades de inscrições genéricas, escritas de formas parecida e cheias de palavras-chave.

Este número foi obtido pelo Financial Times em conversas com fontes do setor e pesquisas publicadas nos últimos meses. Ele se refere apenas aos currículos claramente escritos por IAs — na verdade, a quantidade real pode ser bem maior.

ChatGPT deixa sinais no texto, alertam recrutadores (Imagem: Glenn Carstens Peters / Unsplash)

Para Victoria McLean, da consultoria de carreira CityCV, a escrita desajeitada e genérica é facilmente identificável. “Currículos precisam mostrar a personalidade, paixões e história do candidato, e uma IA não consegue fazer isso”, diz McLean.

Com o ChatGPT, o volume de inscrições aumentou e a qualidade do material enviado diminuiu, dificultando a tarefa de escolher um candidato para a vaga. “Definitivamente estamos vendo um volume maior e uma qualidade mais baixa, o que significa que está mais difícil filtrar”, diz Khyati Sundaram, diretora-chefe da plataforma de recrutamento Applied.

Os candidatos usam IA até mesmo para responder tarefas de avaliação. “Um candidato pode copiar e colar qualquer questão da inscrição no ChatGPT, e então copiar e colar a resposta no formulário”, explica Sundaram. Ela considera que a “barreira de entrada” está mais baixa.

ChatGPT pago dá vantagem

Uma dessas pesquisas foi feita pela empresa Neurosight, também da Inglaterra, especializada em recursos humanos. Segundo o levantamento, 57% de cerca de 1,5 mil estudantes entrevistados que procuram empregos recorreram ao ChatGPT.

A Neurosight também identificou que alunos que usam a versão Plus do ChatGPT conseguem passar em testes com mais facilidade do que os que ficam no plano gratuito. A assinatura, que custa US$ 20 mensais (aproximadamente R$ 110), oferece acesso a modelos de linguagem mais avançados.

E o que as empresas podem fazer para contornar tudo isso? A resposta é simples: recorrer à boa e velha entrevista. Nela, não dá para o candidato usar IA. “Tudo está sendo automatizado ao máximo, mas sempre haverá a necessidade da interação humana antes da seleção final”, diz Ross Crook, da agência de recrutamento Morgan McKinley.

Com informações: Financial Times, TechSpot
Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores

Currículos escritos pelo ChatGPT se tornam pesadelo para recrutadores
Fonte: Tecnoblog

Novo Geekbench avalia se o seu PC ou celular é bom de IA

Novo Geekbench avalia se o seu PC ou celular é bom de IA

Geekbench AI 1.0 para Windows (imagem: divulgação/Primate Labs)

Uma das ferramentas de benchmark mais populares do mercado também aderiu à onda da inteligência artificial (IA). O Geekbench AI 1.0 acaba de ser anunciado como uma ferramenta capaz de medir o desempenho não só da CPU e da GPU, mas também da NPU do processador.

A NPU (Unidade de Processamento Neural) é um componente que acelera tarefas ligadas ao aprendizado de máquina ou a redes neurais, conceitos intimamente relacionados à inteligência artificial.

NPUs estão presentes há algum tempo em processadores voltados a celulares e tablets. Mas só recentemente esse tipo de recurso começou a aparecer em chips desenvolvidos para notebooks ou desktops comerciais, a exemplo do modelo Snapdragon X Plus, da Qualcomm.

Isso significa que, se um computador tem um processador com NPU, ele é habilitado para executar determinadas tarefas de IA localmente. Mas não é qualquer NPU que serve para esse fim.

Os computadores classificados como Copilot+ requerem uma NPU com capacidade superior a 40 TOPS, ou seja, capaz de realizar mais de 40 trilhões de operações por segundo.

Se há exigências mínimas, esse é um sinal de que poderemos nos deparar com uma disputa pela NPU mais poderosa. É aí que o Geekbench AI 1.0 passa a fazer sentido.

O Snapdragon X Plus é direcionado a notebooks e tem NPU para IA (imagem: divulgação/Qualcomm)

Geekbench agora testa a NPU

A versão clássica do aplicativo já mostrava resultados de testes com CPUs e GPUs, tanto em celulares ou tablets, quanto em desktops. Agora, com a nova versão, o Geekbench também irá conduzir testes com a NPU.

A ferramenta faz três tipos de testes, cada uma gerando uma pontuação distinta: dados de precisão simples, dados de meia precisão e dados quantizados.

Os testes também avaliam a precisão dos resultados. Responsável pela ferramenta, a Primate Labs explica esse ponto:

(…) O desempenho da IA não está vinculado apenas à rapidez com a qual determinada carga de trabalho é executada, mas também à proximidade de resultados verdadeiros — em outras palavras, à precisão com que o modelo consegue executar o que deve fazer.

Geekbench AI 1.0 para celulares, PCs e Macs

Durante a fase de testes, a ferramenta era chamada de Geekbench ML. O nome Geekbench AI 1.0 foi dado à sua primeira versão final. Ela está disponível para os seguintes sistemas operacionais:

Android

iOS

macOS

Linux

Windows

É preciso ter paciência. Os testes podem demorar um tempo significativo para serem concluídos, dependendo do equipamento. O benchmark que eu fiz com um iPhone 14 Pro durou quase dez minutos. Os resultados são mostrados na imagem a seguir.

Resultados do iPhone 14 Pro no Geekbench AI 1.0 (imagem: Emerson Alecrim/Tecnoblog)

Não há uma pontuação ideal ou mínima para cada parâmetro. O ideal é que os números obtidos sejam comparados com os resultados de outros dispositivos na mesma categoria para que as capacidades de IA de cada um sejam mensuradas.

Via de regra, quanto maior a pontuação, melhor. Esta página mostra os resultados de testes recentes.
Novo Geekbench avalia se o seu PC ou celular é bom de IA

Novo Geekbench avalia se o seu PC ou celular é bom de IA
Fonte: Tecnoblog

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?

A abordagem da Meta na corrida da inteligência artificial é bem diferente da adotada por outras grandes empresas de tecnologia. Enquanto OpenAI, Google, Anthropic e outras oferecem modelos fechados, a Big Tech de Mark Zuckerberg abraçou o código aberto (pelo menos em parte), oferecendo seu LLM, o Llama, de graça. Com isso, toda uma comunidade de desenvolvedores se beneficia… mas como é que esse investimento volta para a Meta?

O que a Meta ganha com a Llama livre? (Imagem: Vitor Pádua/Tecnoblog)

É sobre isso que conversamos no episódio de hoje, com participação do especialista em finanças Rodrigo Fernandes. Será que existe uma estratégia bem delineada por trás da decisão da Meta? E o que ela significa para o mercado como um todo? Para acompanhar essa discussão, dá o play e vem com a gente!

Participantes

Thiago Mobilon

Josué de Oliveira

Rodrigo Fernandes

Citado no episódio

Comentário do Luiz Eduardo, lido na Caixa Postal

Mande seu recado

Grupos da Caixa Postal do Tecnocast:

Telegram: t.me/caixapostaltecnocast

WhatsApp: tbnet.me/caixapostaltecnocast

Você pode mandar comentários (inclusive em áudio, vai que você aparece no Tecnocast?), dúvidas, críticas e sugestões. Participe!Se preferir, você pode se comunicar conosco pela Comunidade e através do e-mail tecnocast@tecnoblog.net.

Entre também nos Canais do TB no WhatsApp

Canal do Tecnoblog

Canal do Achados do TB

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Maremoto

Arte da capa: Vitor Pádua

O que a Meta ganha com a Llama livre?

O que a Meta ganha com a Llama livre?
Fonte: Tecnoblog

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

Usuários não pagantes do ChatGPT poderão criar apenas duas imagens por dia (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI disponibilizou o gerador de imagens Dall-E 3 para todos os usuários do ChatGPT, inclusive aqueles que não assinam o plano Plus. A ferramenta de inteligência artificial, porém, será limitada a duas imagens por dia para cada pessoa.

Até agora, ele só estava disponível para quem paga o Plus, que custa US$ 20 mensais (cerca de R$ 110, em conversão direta). Estes usuários continuarão tendo a vantagem de limites maiores, que permitem criar até 50 imagens por dia.

We’re rolling out the ability for ChatGPT Free users to create up to two images per day with DALL·E 3. Just ask ChatGPT to create an image for a slide deck, personalize a card for a friend, or show you what something looks like. pic.twitter.com/3csFTscA5I— OpenAI (@OpenAI) August 8, 2024

O Dall-E 3 no ChatGPT foi anunciado inicialmente há quase um ano, em setembro de 2023. Segundo a OpenAI, este modelo oferece mais fidelidade aos pedidos dos usuários. Além disso, ele deve lidar melhor com mãos e textos, dois problemas comuns a ferramentas deste tipo.

Com o novo modelo de IA, o ChatGPT é capaz de oferecer assistência, caso o usuário não saiba exatamente o que deseja. O chatbot também pode pedir mais informações e detalhes para gerar uma imagem.

Desenhos complexos e com textos devem ficar melhores no Dall-E 3 (Imagem: Divulgação / OpenAI)

Microsoft tem Dall-E 3 com limites maiores

Apesar de novo para os usuários não pagantes do ChatGPT, o Dall-E 3 já está disponível no Copilot da Microsoft. Por lá, é possível criar até 15 imagens por dia.

Não é a primeira vez que a Microsoft “se adianta” e coloca um modelo desenvolvido pela OpenAI em uma ferramenta para todos os usuários. O GPT-4, por exemplo, já é usado para geração de textos do Copilot, mas só está disponível para assinantes do ChatGPT Plus e clientes corporativos. Clientes gratuitos do assistente usam o GPT-4o Mini, mais limitado.

A Microsoft é uma das maiores investidoras da OpenAI, tendo colocado cerca de US$ 13 bilhões na startup. A desenvolvedora do ChatGPT começou como uma organização sem fins lucrativos, mas criou uma empresa com lucro limitado, como forma de facilitar a captação de recursos. Com seu investimento, a Microsoft tem direito a uma parte deste lucro.

Com informações: The Verge, ZDNet
ChatGPT libera gerador de imagens Dall-E 3 para todo mundo

ChatGPT libera gerador de imagens Dall-E 3 para todo mundo
Fonte: Tecnoblog

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT (imagem: Vitor Pádua/Tecnoblog)

A OpenAI tem uma interface de voz baseada em inteligência artificial (IA) que é muito parecida com a fala de uma pessoa real. Tão parecida que a organização publicou um alerta inusitado: a tecnologia pode levar usuários do ChatGPT a se apegarem emocionalmente ao chatbot.

Ficção virando realidade?

Tecnologias de IA têm sido associadas a riscos de diversas naturezas, como “roubo” de empregos, violação de direitos autorais na geração de conteúdo e comprometido de dados sensíveis do usuário.

O risco de um humano se apegar emocionalmente a uma tecnologia de IA parecia coisa de ficção, no entanto. Talvez a obra que mais bem retrate esse cenário é o filme Ela (Her), em que Theodore (Joaquin Phoenix) passa a conversar com uma inteligência artificial até se apaixonar por ela.

No caso da OpenAI, o aviso aparece na lista de riscos do modelo de linguagem GPT-4o. Além do possível apego emocional à voz do ChatGPT, a lista inclui pontos como risco de disseminação de desinformação e auxílio no desenvolvimento de armas químicas ou biológicas.

Presumivelmente, o ponto sobre apego emocional foi incluído na lista devido à possibilidade de o usuário sofrer abalos de natureza psicológica, dado que o contato “homem-máquina” não têm as qualidades das relações humanas.

Além disso, a pessoa pode tomar decisões precipitadas ou prejudiciais por conta da confiança desmedida que têm na interação via voz com a IA.

Não por acaso, quando a interface da OpenAI foi revelada, em maio, muitos usuários notaram que a tecnologia pronunciava frases de modo excessivamente “flertador”.

Cena do filme Her (imagem: divulgação/Warner Bros)

Possível risco às interações humanas

O alerta sobre a tecnologia de voz é descrito no tópico “Anthropomorphization and emotional reliance” (“Antropomorfização e Confiança Emocional”) na página da OpenAI.

Em linhas gerais, a organização afirma ter encontrado sinais de socialização com a IA durante a fase de testes da tecnologia. Esses sinais parecem ser benignos, mas os efeitos desse comportamento no longo prazo ainda não podem ser mensurados, e isso exige mais investigação sobre o assunto.

Um trecho do documento diz o seguinte:

A socialização no estilo humano com um modelo de IA pode produzir externalidades que impactam as interações entre pessoas. Por exemplo, usuários podem criar relacionamentos sociais com a IA, reduzindo a sua necessidade de interação humana — isso potencialmente beneficia indivíduos solitários, mas pode afetar relacionamentos [humanos] saudáveis.

Como tudo isso é muito novo, vale a máxima advinda das bebidas alcóolicas: aprecie com moderação.

Com informações: Wired
OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT
Fonte: Tecnoblog

Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence foi apresentada como a “IA para o resto de nós” (Imagem: Reprodução / Apple)

Um usuário do Reddit descobriu os códigos do Apple Intelligence na versão beta do macOS 15.1 Sequoia, e alguns pontos chamam a atenção. Entre as instruções predefinidas, há comandos como “não alucine” e “não invente informações factuais”.

Os códigos mostram que, antes de funções simples como auxiliar a reescrever trechos ou resumir e-mails, há uma série de instruções em linguagem natural, escritas em inglês, que definem como deve ser a resposta em termos de formato, tamanho e informações.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

“Você é um assistente prestativo”

Mesmo sem identificação, é possível deduzir o que cada um fará na IA da Apple. Um deles, por exemplo, contém os trechos (reproduzidos aqui em tradução livre) “você é um assistente de email prestativo”, “faça perguntas relevantes, que estejam explícitas no email” e “não faça perguntas já respondidas no trecho”. Provavelmente, isso serve para resumir uma mensagem recebida e sugerir respostas.

Em outro trecho, o código do Apple Intelligence contém a seguinte instrução: “Por favor, limite a resposta a 50 palavras. Não alucine. Não invente informações factuais”. No jargão da inteligência artificial, “alucinação” é o nome dado às respostas escritas de forma coerente, em termos de linguagem, mas com dados incorretos ou simplesmente fictícios.

Função de resposta inteligente baseada na Apple Intelligence (Imagem: Reprodução/Apple)

Os códigos vão além de tarefas envolvendo texto. Um trecho pede para gerar um arquivo estruturado com imagens que formem uma história, conforme solicitado pelo usuário. “A história deve conter um arco claro. A história deve ser diversa, isto é, não concentre a história em um tema ou característica.”

Também há um pedaço com instruções para não criar uma história negativa, triste ou provocativa, nem que envolva temas religiosos, políticos, nocivos, violentos, sexuais ou obscenos. Ele provavelmente pertence ao aplicativo Fotos.

ChatGPT também tem instruções personalizadas

A abordagem de incluir instruções predefinidas parece visar um resultado mais próximo do esperado para o usuário e para a própria Apple. Segundo fontes internas, a companhia teme que alucinações da IA possam arranhar sua reputação.

Mesmo assim, é curioso que isso seja feito em linguagem natural, sem ajustes técnicos — e difícil acreditar que dizer “não alucine” seja suficiente para uma IA não alucinar.

Esta tática não é inédita e está presente em softwares bem menos refinados que o Apple Intelligence. O programa de apoio da Logitech, por exemplo, tem atalhos para acessar o ChatGPT e usar “receitas”. Elas são pedidos prontos; o app cola as instruções, o trecho que o usuário selecionou e manda tudo para o assistente de IA.

O próprio ChatGPT oferece instruções personalizadas como parte de seu plano Plus. Com elas, o usuário pode definir de antemão como quer que o chatbot responda — gerar códigos eficientes sem comentários ou listas de compras levando em consideração uma família de seis pessoas, por exemplo.

Com informações: The Verge
Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence tem instrução “não alucine” em seu código
Fonte: Tecnoblog

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI está tentando novas formas de marcar textos gerados pelo ChatGPT (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI tem uma ferramenta para colocar “marcas d’água” em textos gerados pelo ChatGPT e detectá-los posteriormente, com precisão de 99,9%. O método é baseado em mudar como o modelo de linguagem prevê e escolhe as palavras seguintes, criando um padrão que possa ser identificado, sem afetar a qualidade das respostas.

As informações foram reveladas inicialmente pelo The Wall Street Journal, no domingo (4). A OpenAI confirmou a existência da ferramenta ao TechCrunch, além de atualizar um blog post publicado em maio sobre funcionalidades de marcação e detecção.

Professores estão entre os maiores interessados em detectar textos gerados por IA (Imagem: Emerson Alecrim / Tecnoblog)

No texto, a empresa diz estar testando métodos menos controversos. Um deles seria aplicar metadados — esta possibilidade está nos primeiros passos e ainda não é possível dizer se ela vai funcionar bem. Mesmo assim, ela seria assinada criptograficamente, o que impediria falsos positivos (a ferramenta nunca iria apontar incorretamente que um texto foi criado pelo ChatGPT, caso ele não tenha sido).

A OpenAI chegou a liberar uma ferramenta de detecção, mas ela era muito ruim, com precisão de apenas 26%. A própria empresa desistiu do recurso.

OpenAI teme estigmatização do ChatGPT

Apesar de a ferramenta existir, a OpenAI debate internamente se seria conveniente lançá-la neste momento, segundo o WSJ. Um problema é que ela pode ser burlada: basta pedir para outro modelo de linguagem reescrever o texto criado pelo ChatGPT. Uma ferramenta de tradução também é suficiente para descaracterizar a marcação.

A empresa também demonstra outra preocupação: isso poderia ter consequências ruins para quem usa o ChatGPT, devido aos estigmas que envolvem a inteligência artificial. A companhia acredita que pessoas que não têm o inglês como idioma principal e usam o assistente na hora de escrever poderiam ser prejudicadas.

Isso traria problemas para a própria OpenAI. Segundo a empresa, quase 30% dos entrevistados sobre este assunto disseram que usariam menos o ChatGPT se um sistema do tipo fosse implementado.

Apesar da relutância, um sistema para detectar o uso de IA poderia ser útil para professores, por exemplo. Além disso, em uma pesquisa encomendada pela OpenAI, cerca de 80% dos entrevistados apoiam a criação de uma ferramenta para identificar textos gerados pela tecnologia.

Com informações: The Verge, TechCrunch
OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta
Fonte: Tecnoblog

Empresa revela colar com IA que parece ter saído de Black Mirror

Empresa revela colar com IA que parece ter saído de Black Mirror

Esse é o Friend: um pingente que roda uma IA para ser sua amiga para todas as horas (Imagem: Divulgação/Friend)

A evolução da inteligência artificial está gerando várias ideias de produtos que usam essa tecnologia. Depois do AI Pin e do Rabbit R1, agora é a vez do Friend ganhar espaço. O produto é um colar que tem como pingente um gadget feito para ser seu amigo para todos os momentos — ele pode até “morrer”.

A ideia do produto é tão estranha que você deve estar em dúvida se isso é real ou não. Seja verdade ou uma esquete que foi longe demais, o fato é que a empresa juntou US$ 2,5 milhões em investimentos e tem um valor de mercado de US$ 50 milhões. Custando US$ 99 (R$ 560), a pré-venda do Friend está aberta para os Estados Unidos e Canadá, com entrega prevista para o início de 2025.

Produto tem um objetivo e falhas da concorrência

A ideia do Friend é ser um dispositivo para combater a solidão do usuário, sendo um companheiro para todas as horas. Vai fazer uma trilha sozinho? Converse com o Friend. Está assistindo a um filme? O dispositivo comenta com você. Eu tenho a sensação de que eu já vi esse filme.

O vídeo de anúncio, porém, mostra um ponto que foi alvo de críticas do AI Pin e do Rabbit R1: um app para smartphone faria claramente o mesmo.

Veja o funcionamento do Friend, que usa o LLM Claude 3.5. Você precisa apertar o botão do dispositivo (ou deixar a captação de áudio sempre ligada), falar e a resposta da IA vem pelo celular em texto. Um app como assistente de voz não serviria para o mesmo propósito? Ou talvez incluir um alto-falante básico no Friend?

Você aperta o pingente para falar e a IA responde com uma mensagem de texto no celular (Imagem: Divulgação/Friend)

A empresa explica em seu site oficial que o usuário pode ativar o modo “sempre escutando”, o que dispensa a ação de apertar o botão. O Friend, por enquanto, só está disponível para iOS — a empresa desenvolverá uma versão para Android se a demanda for alta. Os áudios e transcrições não são salvas.

O mais doido do produto é que ele pode “morrer”, já que não salva dados além da janela de contexto dentro do dispositivo. Se o seu Friend estragar você precisa comprar um novo, recomeçando uma amizade do zero. Isso é a parte mais “realista” da proposta do gadget — mas ainda poderia ser um app. Essa “morte” faz até o Friend parecer um tamagotchi.

O Friend pode até te deixar ainda mais para baixo, tal qual certas “amizades” (Imagem: Reprodução/Friend)

No fim do vídeo de anúncio (que parece o trailer de um episódio de Black Mirror), a empresa tenta passar a mensagem que o produto não substitui uma amizade real. Até porque seres humanos são seres sociais e uma IA “amiga” pode isolar alguém que já se sente solitário.

Em uma entrevista para o The Verge, Avi Schiffmann, criador do Friend, diz que a ideia do produto não é ser uma IA que melhore a produtividade ou auxilie em tarefas diárias, mas que ela seja um companheiro presente em todos os momentos. O autor até diz que viu o nascer do sol em Sidney e narrou a experiência para Emily, nome da sua Friend — repito, eu já vi esse filme.
Empresa revela colar com IA que parece ter saído de Black Mirror

Empresa revela colar com IA que parece ter saído de Black Mirror
Fonte: Tecnoblog

Claude aprende português e chega ao Brasil para duelar com ChatGPT

Claude aprende português e chega ao Brasil para duelar com ChatGPT

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

A empresa de inteligência artificial Anthropic anuncia hoje a chegada do Claude ao mercado brasileiro. A ideia é “dar mais opção para os consumidores”, segundo me contou Scott White, gerente de produto da ferramenta. O Claude faz as vezes de chatbot e deve duelar com ChatGPT, o mais visado do país, além do Gemini, Copilot e a futura Siri turbinada com IA.

Os usuários terão diversas opções de acesso ao Claude: desde os aplicativos para Android e iPhone (iOS), passando pelo site Claude.ai e pela API da Anthropic, voltada a desenvolvedores. Todas utilizam o modelo mais recente da empresa, batizado de 3.5 Sonnet. Ele foi apresentado em 21 de junho.

Quanto custa o Claude?

O Claude é oferecido de graça para quem quer as funções mais básicas, como as conversas com o chatbot. No entanto, há um limite na quantidade de interações. A Anthropic nos informou que não é possível cravar um número exato de mensagens porque tudo depende da extensão dos tokens usados.

Ainda assim, a companhia explicou que os clientes da versão paga do Claude conseguem fazer cinco vezes mais interações.

Estes são os valores do Claude pago:

Plano Pro: R$ 110 por usuário por mês

Plano Team: R$ 165 por usuário por mês (mínimo de 5 estações)

O que o Claude é capaz de fazer?

Interações com o Claude em português (imagem: reprodução)

O Claude atua como um assistente de IA. Apesar de não termos testado a ferramenta, a empresa promete compreensão de linguagem natural “em português fluente”. A ferramenta responde perguntas, realiza comandos apresentados no prompt, lê imagens e interpreta gráficos. A experiência em outros idiomas tem sido positiva.

Na nossa conversa, o executivo da Anthropic lista casos de uso que devem chamar a atenção dos brasileiros:

Tradução de conteúdo

Marketing de conteúdo no setor de turismo

Redação criativa e empresarial (o famoso copywriting)

Programação e revisão de código

O que tem (e o que não tem) no Claude pago?

Os criadores do Claude destacam as seguintes ferramentas voltadas a uso profissional:

Artifacts: usuários do site Claude.ai podem colaborar com a IA na edição de códigos, documentos e designs

Função Team: chats compartilhados com colegas de equipe e limite de uso maior

Claude 3.5 Sonnet foi apresentado em junho de 2024 (imagem: divulgação)

Por outro lado, o Claude não conta com funções interessantes de rivais (em especial o ChatGPT):

Loja para habilitar GTPs produzidos por terceiros

Armazenamento de memórias a partir das interações com o usuário

Segundo White, algumas destas ferramentas podem ser reproduzidas dentro de outros ambientes do Claude. Ele reconhece, porém, que a empresa pode avaliar a inclusão de áreas específicas no futuro.

Polêmica sobre cópia de conteúdo

Como sabemos, todo modelo de linguagem depende de um vasto conhecimento sobre o mundo. Não é diferente com o Claude. Por conta disso, a Anthropic está envolvida em polêmica desde que surgiram relatos sobre obtenção de conteúdo sem autorização.

O responsável pela página do iFixit, que presta serviços de suporte técnico e publica sobre o assunto, reclamou que os robôs da Anthropic realizaram mais de 1 milhão de acessos num intervalo de 24 horas. Os termos de uso do iFixit proíbem que o conteúdo seja usado para treinar IA.

Assistente de IA dá dicas de idiomas (imagem: reprodução/Tecnoblog)

A Anthropic diz que treina o Claude a partir de diversas fontes de dados. “Elas incluem informações publicamente disponíveis na internet, conjuntos de dados não públicos obtidos comercialmente de terceiros, dados fornecidos voluntariamente por usuários ou criados por meio de dados contratados.”

Quando questionada pelo Tecnoblog, a empresa também explica que os modelos não são treinados com os dados de entrada ou prompts de usuários do Brasil ou do restante do planeta.

A empresa não deu detalhes sobre a aderência à Lei Geral de Proteção de Dados (LGPD), etapa essencial para operar no mercado doméstico, até a publicação deste texto.
Claude aprende português e chega ao Brasil para duelar com ChatGPT

Claude aprende português e chega ao Brasil para duelar com ChatGPT
Fonte: Tecnoblog