Category: Inteligência Artificial

IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas

Claude AI pertence à Anthropic (imagem: divulgação)

Resumo

A Anthropic ativou um recurso de encerramento automático de conversas nos modelos Claude Opus 4 e Claude 4.1.
Segundo a empresa, a medida é uma maneira de preservar o sistema de conversas perigosas.
O recurso age apenas em casos extremos, mas o usuário mantém o acesso ao histórico, pode abrir novos diálogos e criar ramificações editando mensagens anteriores. 

A Anthropic, responsável pela IA Claude, revelou que seus modelos mais avançados agora podem encerrar interações em casos classificados como extremos. A medida, segundo a empresa, não busca diretamente resguardar os usuários, mas preservar o próprio sistema diante de usos abusivos.

A companhia enfatiza que não atribui consciência ou capacidade de sofrimento ao Claude ou a outros modelos de IA. Ainda assim, adotou o que chama de estratégia preventiva, inspirada em um programa interno que investiga o conceito de “bem-estar de modelos”.

De acordo com a Anthropic, a ideia é aplicar medidas de baixo custo que reduzam riscos potenciais caso, em algum momento, o bem-estar de sistemas de IA se torne um fator relevante.

Quando o Claude pode interromper uma conversa?

A função de encerrar diálogos será usada apenas em cenários raros, envolvendo interações repetidamente prejudiciais ou abusivas com a IA. Por exemplo, solicitações que envolvem exploração de menores, pedidos de informações que poderiam viabilizar ataques violentos ou tentativas de gerar conteúdos que representem ameaças de grande escala.

Os testes realizados antes da implementação indicaram que Claude Opus 4 e Claude 4.1, versões que receberão o recurso inicialmente, já apresentavam tendência a rejeitar esses pedidos. Em alguns casos, os modelos de IA teriam exibido sinais de “desconforto” ao tentar lidar com esse tipo de demanda, o que motivou a criação da ferramenta de interrupção automática.

Vale mencionar que, segundo a Anthropic, o sistema não será aplicado em interações nas quais usuários demonstrem risco imediato de causar danos a si mesmos ou a terceiros. Nesses casos, o modelo deve continuar a responder e tentar redirecionar a conversa.

Tela inicial do Claude AI (imagem: Lupa Charleaux/Tecnoblog)

O que acontece após o encerramento da conversa?

Quando a ferramenta for acionada, o usuário não perderá acesso à conta nem ao histórico. Será possível iniciar novos diálogos normalmente e até mesmo criar ramificações a partir da conversa interrompida, editando mensagens anteriores. A Anthropic afirma que não tem o objetivo de punir, mas de estabelecer um limite claro em situações de abuso persistente.

A empresa ainda reforça que trata a novidade como um experimento em andamento e que seguirá avaliando a eficácia e os impactos do recurso. Ainda não há previsão de quando, ou se, a funcionalidade será expandida para outros modelos além do Claude Opus 4 e 4.1.

Com informações do TechCrunch e da Anthropic
IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas
Fonte: Tecnoblog

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Técnicas presentes em assistentes de IA não são raciocínio real, dizem acadêmicos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Pesquisadores mostram que modelos de linguagem falham em resolver problemas que não estavam em seu do treinamento.
IAs podem gerar raciocínios que parecem corretos, mas apresentam erros lógicos.
Técnicas atuais, como cadeia de pensamentos, têm limitações e podem levar a respostas incorretas.

Um artigo escrito por pesquisadores da Universidade do Estado do Arizona, nos Estados Unidos, sugere que a capacidade de raciocínio de modelos de linguagem em larga escala (LLMs) é apenas uma “frágil miragem”, incapaz de resolver problemas lógicos que não fizeram parte de seu treinamento.

Nos últimos anos, ChatGPT, Gemini e outros assistentes com inteligência artificial passaram a contar com capacidades de “raciocínio simulado”, criando uma “cadeia de pensamentos” para destrinchar prompts em uma sequência de passos lógicos, que são apresentados ao usuário. No entanto, este método parece ter limitações.

IA tem dificuldade para resolver problemas novos

O trabalho dos cientistas ainda não foi revisado por pares e está disponível na plataforma Arxiv. Para avaliar a capacidade de raciocínio de um LLM, os pesquisadores criaram um ambiente de treinamento de IA com transformações simples de texto, como trocar letras de palavras para cifrá-las.

Logo em seguida, o LLM teve que realizar diversas tarefas. Algumas eram muito parecidas com as vistas no treinamento, enquanto outras precisavam combinar várias transformações para formar uma operação nova.

Problemas fora da base usada no treinamento viram dor de cabeça para IA (ilustração: Vitor Pádua/Tecnoblog)

Nos resultados, os modelos começaram a falhar quando precisaram lidar com novas transformações. Por exemplo: um modelo treinado com testes de “deslocar” letras (como trocar todas as letras pela seguinte no alfabeto) não sabia realizar tarefas que envolviam embaralhar a ordem das letras na própria palavra. Além disso, se o modelo tinha sido treinado com palavras de quatro letras, ele tinha dificuldades para resolver problemas com palavras de três ou cinco letras.

A IA até tentava generalizar regras lógicas com base em padrões observados durante o treinamento e criava linhas de raciocínio corretas, mas errava as respostas. O oposto também acontecia, mas com menos frequência: em alguns casos, o modelo chegava a uma resposta certa, mas usando encadeamentos incoerentes. Por fim, quanto maior o prompt e o número de passos necessário para chegar à resposta correta, pior era o desempenho do modelo.

Uma possível solução para isso é introduzir uma pequena quantidade de dados relacionada a diferentes tipos de problemas, mas os pesquisadores consideram que essa estratégia é “insustentável e reativa”.

Para eles, a conclusão é de que a técnica de cadeia de pensamentos pode produzir resultados convincentes, mas com falhas lógicas. Isso pode levar a riscos reais, caso o usuário confie na solução apresentada sem verificar se está tudo certo.

Outros estudos dizem que IA não pensa

Não é a primeira vez que cientistas chegam a esses resultados. Como lembra o Decoder, pesquisadores ligados à Apple já publicaram um artigo que aponta que LLMs usam reconhecimento de padrões e não planejamento simbólico ou compreensão estrutural.

Outros estudos levaram a resultados parecidos: acadêmicos ligados a duas universidades chinesas descobriram que o aprendizado por reforço com recompensas verificáveis, bastante usado na IA, não ajuda os modelos a desenvolver estratégias para resolver problemas.

Já cientistas da Universidade de Nova York descobriram que modelos de raciocínio não quebravam tarefas em um número suficiente de passos.

Por outro lado, críticos dizem que essas pesquisas são muito simplistas, pois não consideram que LLMs podem gerar códigos de programação para resolver problemas, ou ainda recorrer a ferramentas externas para buscar soluções.

Com informações do Ars Technica e do Decoder
Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores
Fonte: Tecnoblog

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

Altman diz que modelo de capital fechado favorece a empresa (imagem: Vitor Pádua/Tecnoblog)

Resumo

A empresa lançou o GPT-5, com preços mais baixos via API.
Sam Altman diz que a OpenAI vai priorizar crescimento e continuar operando no prejuízo enquanto os modelos de IA evoluírem.
Mesmo sem lucro, a OpenAI atrai investimentos e é avaliada em US$ 500 bilhões.

Sam Altman, CEO da OpenAI, disse que a empresa vai priorizar o crescimento, com grandes investimentos em treinamento de inteligência artificial e capacidade de computação. Por isso, a companhia deve demorar para dar lucro.

A OpenAI apresentou nessa quinta-feira (07/08) o GPT-5, seu mais novo modelo de IA generativa. A promessa é que ele seja mais rápido e entregue respostas mais precisas, além de ter barreiras de segurança mais rígidas. Ele já está disponível no ChatGPT (gratuitamente) e no acesso via API (com preços reduzidos).

Sem acionistas, sem pressão

GPT-5 foi anunciado pela OpenAI (ilustração: Vitor Pádua/Tecnoblog)

Em entrevista ao canal americano CNBC, Altman declarou que a melhor escolha para a OpenAI, no momento, é continuar no prejuízo. “Enquanto estivermos nessa curva de crescimento, em que o modelo continua ficando cada vez melhor, acho que o melhor a se fazer é absorver as perdas por enquanto”, explicou.

A empresa fechou o ano anterior com um resultado negativo de US$ 5 bilhões, mesmo gerando receitas de US$ 3,7 bilhões. No ano atual, ela deve passar a marca de US$ 20 bilhões de receita anual recorrente, mas vai continuar perdendo dinheiro.

A OpenAI ainda conta com a vantagem de ser uma empresa de capital fechado, que não sofre pressão de acionistas para dar lucro. “É legal não estar na bolsa”, confessou Altman.

A empresa continua atraindo capital de alto risco, com investidores acostumados ao modelo de queimar dinheiro para ganhar mercado. Mesmo sem lucro, ela já está avaliada em cerca de US$ 500 bilhões, e uma nova rodada de captação de recursos deve começar em breve.

GPT-5 pode provocar queda de preços

Uma das estratégias para crescer é oferecer preços competitivos. Com o GPT-5, a OpenAI colocou isso em prática no acesso às APIs, cobrando US$ 1,25 por milhão de tokens de entrada e US$ 10 por milhão de tokens de saída (cerca de R$ 6,80 e R$ 54, respectivamente).

Isso é mais barato que o próprio GPT-4o, modelo anterior da companhia, e empata com os preços do Gemini 2.5 Pro, do Google. O Claude Opus 4.1, da Anthropic, cobra mais que isso, mas vem conquistando adeptos entre os desenvolvedores.

Essa vantagem pode levar a uma nova rodada de corte de preços entre os provedores de modelos de IA, levando a disputa para um terreno que favorece quem tiver mais dinheiro para queimar.

Com informações da CNBC
ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar
Fonte: Tecnoblog

Universal coloca aviso contra IA nos créditos dos filmes

Universal coloca aviso contra IA nos créditos dos filmes

Como Treinar o Seu Dragão conta com novo aviso (imagem: divulgação/Universal Pictures)

Resumo

Universal Pictures passou a incluir avisos legais nos créditos de seus filmes para coibir o uso não autorizado das obras em treinamentos de inteligência artificial.
A mensagem cita leis dos EUA e da União Europeia e reforça que duplicações não autorizadas podem levar a sanções civis e criminais.
A medida busca proteger os direitos autorais da empresa, diante de processos crescentes contra empresas de IA por uso indevido de conteúdo protegido.

Filmes recentemente lançados pela produtora e distribuidora Universal Pictures passaram a exibir, nos créditos, um aviso sobre uso não autorizado. O objetivo da mensagem é se proteger juridicamente contra empresas responsáveis por treinar modelos de inteligência artificial.

A advertência foi noticiada pelo Hollywood Reporter. “Este filme está protegido sob as leis dos Estados Unidos e de outros países. A autorização, a distribuição ou a exibição não autorizadas podem resultar em responsabilidade civil e processo criminal”, diz o texto (em tradução livre). Até o momento, a mensagem foi vista em Como Treinar o Seu Dragão, Jurassic World: Recomeço e Os Caras Malvados 2.

O Hollywood Reporter também nota que, em alguns países, a mensagem menciona uma lei de direitos autorais de 2019 da União Europeia, que dá aos detentores de propriedade intelectual o direito de proibir o uso do material em pesquisas científicas.

Por que a empresa colocou esse aviso?

Novo filme da franquia Jurassic World também exibe advertência nos créditos (imagem: divulgação/Universal Pictures)

Segundo uma fonte ouvida pela reportagem, o texto visa adicionar uma camada de proteção contra o uso dos filmes para mineração de dados e treinamento de IA.

Muitos detentores de direitos autorais vêm processando empresas de IA por uso não autorizado de seus materiais. A lista inclui artistas gráficos, escritores, jornais e também estúdios de cinema.

A própria Universal processou o gerador de imagens Midjourney ao notar que ele era capaz de recriar detalhadamente personagens e cenas de filmes, o que seria uma prova de que as obras foram incluídas no treinamento dos modelos.

Do ponto de vista legal, a nova situação traz uma pergunta: a doutrina do fair use (”uso justo”, em tradução livre), que dá permissão para usar materiais protegidos por copyright em algumas circunstâncias (como uso educacional), também se aplica ao treinamento por IA?

Como o aviso pode proteger a Universal?

Enquanto a questão não tem resposta, as mensagens da Universal tentam outro caminho para defender a propriedade intelectual da empresa: enfatizar que a duplicação não está autorizada.

Como explica o Hollywood Reporter, o treinamento de IA, muitas vezes, envolve cópias de materiais para abastecer os sistemas. Caso isso se confirme, as companhias responsáveis podem ter que pagar até US$ 150 mil (cerca de R$ 813 mil) por infração.

Com informações do Hollywood Reporter
Universal coloca aviso contra IA nos créditos dos filmes

Universal coloca aviso contra IA nos créditos dos filmes
Fonte: Tecnoblog

Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5

Apple Intelligence no iPhone (imagem: João Vitor Nunes/Tecnoblog)

Resumo

Apple confirmou a integração do GPT-5 nos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26, com lançamento global previsto para setembro de 2025.
A Siri deverá ter respostas mais consistentes e usuários poderão criar textos ou imagens com o ChatGPT de modo mais preciso.
GPT-5 é mais rápido, gera menos alucinações e inclui quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini.

A OpenAI anunciou o conjunto de modelos de linguagem GPT-5 para potencializar o ChatGPT, mas não exclusivamente. A novidade também será integrada a outros serviços. É o caso da Apple Intelligence, que ganhará suporte ao GPT-5 no iPhone, iPad e Mac.

A Apple confirmou a chegada do GPT-5 à Apple Intelligence ao 9to5Mac. E não vai demorar muito. Basta levarmos em conta que as versões finais dos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26 são esperadas para o próximo mês, em escala global. São justamente essas versões que contarão com a novidade.

Digamos que essa é uma evolução natural. Enquanto o iOS 18, o iPadOS 18 e o macOS Sequoia 15 (as versões atuais) contam a Apple Intelligence baseada no GPT-4o, as novas versões desses sistemas trarão o conjunto de modelos de IA mais recente.

Na prática, a integração da Apple Intelligence com o GPT-5 significa que a Siri poderá obter respostas mais consistentes por meio do ChatGPT quando não puder trazer o resultado por conta própria, por exemplo.

O usuário também poderá acionar o ChatGPT quando quiser criar textos ou imagens a partir de prompts (instruções digitadas) ou até mesmo como ferramenta de inteligência visual: neste modo, a IA pode ser usada para dar informações a respeito de itens capturados pela câmera do iPhone.

Isso se o usuário concordar em ativar o ChatGPT na Apple Intelligence, é claro. Para quem o fizer, a Apple manterá os mecanismos de privacidade que permitem, por exemplo, ocultar endereços IP ou impedir que dados sensíveis sejam coletados pela OpenAI.

O que o GPT-5 traz de novo?

O GPT-5 é mais rápido na execução de tarefas de IA, de acordo com Sam Altman, CEO da OpenAI. Outro avanço importante está na capacidade do GPT-5 de produzir menos alucinações, isto é, de gerar respostas que não fazem sentido ou não condizem com aquilo que o usuário solicitou.

A novidade é composta por quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini. No ChatGPT, o modelo mais apropriado para cada tarefa será escolhido automaticamente, dispensando o usuário de ter que fazer essa seleção por conta própria.
Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5
Fonte: Tecnoblog

Wikipédia muda política sobre artigos gerados por IA

Wikipédia muda política sobre artigos gerados por IA

Editores da Wikipédia reprovarão textos feitos por IA (imagem: Kristina Alexanderson/Flickr)

Resumo

A Wikipédia adotou a “exclusão rápida” para remover artigos de baixa qualidade gerados por IA sem revisão humana.
Textos com frases genéricas, erros factuais ou citações falsas serão excluídos.
A medida integra um esforço mais amplo contra conteúdos sintéticos em plataformas online.

A comunidade de editores da Wikipédia aprovou uma nova política de “exclusão rápida” para artigos de baixa qualidade gerados por inteligência artificial, o chamado “lixo de IA” (AI Slop). A regra permite que administradores apaguem conteúdos claramente criados por chatbots sem revisão humana.

Essa decisão segue o esforço de outras plataformas online para conter a proliferação de textos gerados por IA. Segundo os editores, esse tipo de conteúdo representa uma “ameaça existencial” à enciclopédia online.

Exclusão rápida de IA

Tradicionalmente, a exclusão de artigos na Wikipédia exige um processo longo de discussão entre editores até que se chegue a um consenso.

A exclusão rápida, no entanto, já permite que administradores apaguem conteúdos sem deliberação quando se trata de vandalismo, spam ou textos sem sentido. Agora, artigos de baixa qualidade gerados por IA passam a integrar essa categoria também.

Na discussão, editores relataram o aumento de textos gerados por IA. O revisor Sophisticatedevening, por exemplo, exibiu um caso em que os autores sequer removeram markdowns e links automáticos deixados pelo ChatGPT.

Página da Wikipédia com texto gerado por IA (imagem: Felipe Faustino/Tecnoblog)

Quais os critérios?

Para que um artigo gerado por IA seja elegível para a exclusão rápida, ele precisa atender a alguns critérios, como:

Conter frases típicas de um chatbot, como “Aqui está o seu artigo da Wikipédia sobre…”, “Como um modelo de linguagem…” ou “Até a minha última atualização de treinamento…”. Segundo os editores, são sinais de que o usuário sequer leu o que copiou e colou.

Apresentar citações falsas ou absurdas, seja por listarem livros e estudos que não existem ou por incluir links para conteúdos sem qualquer relação com o tema. Por exemplo, segundo a nova política, um artigo sobre uma espécie de besouro sendo citado em um artigo de ciência da computação.

Frases típicas de chatbots já são motivo de boicote. No fim de junho, por exemplo, o estúdio por trás do jogo The Alters foi flagrado usando IA após jogadores identificarem trechos com linguagem típica de prompts nos textos dentro do game.

Problema em toda a internet

A decisão da Wikipédia parte de um movimento mais amplo para conter a distribuição de conteúdo sintético na internet. Em julho, tanto o Facebook quanto o YouTube apertaram o cerco contra conteúdo inautêntico gerado por IA, implementando regras mais rígidas para combater a desinformação e o spam.

Ainda assim, os editores da Wikipédia reconhecem que a nova política é um “curativo” para um problema muito maior, focando apenas nos casos mais óbvios e grosseiros. A comunidade, no entanto, enxerga que “conteúdo de LLM não revisado não é compatível com o espírito da Wikipédia”.

A nova regra não proíbe o uso de IA como uma ferramenta de auxílio para os editores, mas deixa claro que a responsabilidade final pela veracidade e qualidade do conteúdo continua, como sempre, nas mãos dos humanos.

Com informações de 404 Media
Wikipédia muda política sobre artigos gerados por IA

Wikipédia muda política sobre artigos gerados por IA
Fonte: Tecnoblog

Google volta a liberar IA premium de graça para estudantes

Google volta a liberar IA premium de graça para estudantes

Gemini tem recursos para geração de imagens e vídeo (imagem: divulgação)

O Google retomou sua campanha para dar 12 meses gratuitos do plano AI Pro a estudantes. O pacote inclui ferramentas avançadas do Gemini e 2 TB de armazenamento para Drive, Gmail e Fotos. A oferta vai até o dia 6 de outubro de 2025 e pode ser resgatada no site da empresa.

Quem tem direito à oferta?

De acordo com o Google, é necessário ter pelo menos 18 anos e ser estudante. A comprovação da matrícula é feita pela plataforma SheerID. Além disso, é preciso ter uma conta pessoal do Google e cadastrar uma forma de pagamento válida.

Como resgatar os 12 meses grátis?

Segundo a empresa, é necessário seguir estes passos:

Entre na página do Google One voltada a estudantes, clique em “Aproveitar a oferta” e, na página seguinte, em “Verificar requisitos”.

Comprove sua matrícula na plataforma SheerID.

Adicione uma forma de pagamento válida, caso não tenha, e conclua o cadastro no período de testes.

O que vem no pacote Google AI Pro?

Sundar Pichai, CEO do Google, apresenta novos recursos de IA durante a abertura do evento I/O 2025 (imagem: reprodução)

O plano Google AI Pro conta com ferramentas mais avançadas no Gemini e recursos de outros serviços da companhia, como:

Gemini 2.5 Pro.

Veo 3 para gerar vídeos de até oito segundos.

Deep Research para pesquisas aprofundadas.

Limites maiores de uso do NotebookLM.

2 TB de armazenamento na nuvem, que pode ser usado no Drive, no Fotos e no Gmail.

Oferta anterior foi suspensa após fraudes

O Google ofereceu 15 meses grátis do AI Pro a estudantes em maio de 2025. No entanto, usuários arrumaram um jeito de burlar a verificação de matrícula, já que o Google exigia apenas um e-mail válido com domínio .edu.

Agora, a empresa contará com a plataforma SheerID para comprovar o direito ao benefício. Ela também é usada por empresas como Spotify, Adobe e Duolingo, entre muitas outras, segundo seu site.
Google volta a liberar IA premium de graça para estudantes

Google volta a liberar IA premium de graça para estudantes
Fonte: Tecnoblog

NotebookLM: IA do Google para estudos é liberada para menores de 18 anos

NotebookLM: IA do Google para estudos é liberada para menores de 18 anos

Google NotebookLM é liberado para menores de 18 anos (imagem: reprodução/Google)

Resumo

O Google liberou o NotebookLM para menores de 18 anos, ajustando políticas de conteúdo para evitar respostas inadequadas.

O NotebookLM está disponível para todas as idades no Google Workspace for Education e para maiores de 13 anos em contas convencionais.

O NotebookLM organiza e resume informações, podendo gerar resumos em áudio e vídeo (este último apenas em inglês).

Das várias ferramentas de IA que surgiram nos últimos meses, o Google NotebookLM é uma das mais interessantes. Ela é capaz de resumir e organizar conteúdos, o que a torna ideal para estudos. Mas havia uma restrição: o NotebookLM não era apropriado para menores de 18 anos. Isso acaba de mudar.

Na primeira olhada, não faz sentido que uma ferramenta de auxílio aos estudos seja restringida com relação ao público mais jovem. Mas havia uma justificativa para essa limitação: o NotebookLM é baseado em um sistema de inteligência artificial generativa que, em tese, poderia gerar respostas inadequadas para menores de 18 anos.

Para remover essa restrição, o Google implementou um conjunto mais rígido de políticas de conteúdo, de modo a diminuir o risco de o NotebookLM oferecer respostas inapropriadas ao público jovem.

A companhia ressalta ainda que as interações dos usuários, bem como os arquivos ou links enviados ao NotebookLM, não são revisados por humanos ou usados para treinar modelos de inteligência artificial, o que favorece o aspecto da privacidade.

Por conta disso, o NotebookLM passa a estar disponível como um serviço principal para usuários de todas as idades dentro do Google Workspace for Education.

Para usuários comuns, que acessam o NotebookLM usando uma conta convencional no Google, o serviço está liberado para maiores de 13 anos ou, nos países com leis específicas sobre isso, que tenham a idade mínima local.

Como o Google NotebookLM pode ajudar nos estudos?

O NotebookLM é uma ferramenta lançada pelo Google em 2023 que usa inteligência artificial generativa para ajudar o usuário a organizar, resumir e acessar informações, funcionando como uma espécie de caderno de anotações inteligente.

Além de trabalhar diretamente com textos, o NotebookLM pode gerar resumos em formato de áudio, uma abordagem que remete a podcasts, como mostra o vídeo a seguir.

Recentemente, o Google NotebookLM foi aprimorado para facilitar o compartilhamento de notas, o que torna a ferramenta particularmente útil para quem estuda ou realiza trabalhos profissionais em grupo.

Outro recurso recente é a capacidade do NotebookLM de gerar resumos em vídeo. Mas, no momento, essa função está disponível somente para usuários do serviço no idioma inglês.
NotebookLM: IA do Google para estudos é liberada para menores de 18 anos

NotebookLM: IA do Google para estudos é liberada para menores de 18 anos
Fonte: Tecnoblog

Superinteligência

Superinteligência

Mark Zuckerberg está apostando bilhões num novo grande objetivo: a Superinteligência Pessoal. Para isso, o CEO da Meta contratou alguns dos maiores talentos de IA do mercado, “roubando” diversas figuras-chave de empresas rivais. No entanto, a visão de futuro trazida por Zuckerberg ainda parece em tanto vaga, apesar de tantos investimentos.

Superinteligência (imagem: Vitor Pádua / Tecnoblog)

No episódio de hoje, discutimos esse futuro que a Meta tem em mente. O que seria a Superinteligência vislumbrada pela empresa? E de que maneira ela chegará nas mãos das pessoas, tornando-se a Superinteligência Pessoal? Dá o play e vem com a gente entender essa história (ou, quem sabe, fica mais confuso).

Participantes

Thiago Mobilon

Thássius Veloso

Josué de Oliveira

Emerson Alecrim

Citado no episódio

Carta original de Mark Zuckerberg: “Personal Superintelligence“. Tradução para o português: “Superinteligência pessoal para todos”.

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Maremoto

Arte da capa: Vitor Pádua

Assine o Tecnocast

YouTube

Apple Podcasts

Spotify

Pocket Casts

Android (outros apps)

Feed RSS

Buzzsprout

Superinteligência

Superinteligência
Fonte: Tecnoblog

Google faz chacota da Apple em novo comercial do Pixel 10

Google faz chacota da Apple em novo comercial do Pixel 10

Google faz menção ao Apple Intelligence em teaser do Pixel 10 (ilustração: Tecnoblog)

Resumo

Google lançou um comercial que satiriza a Apple pela demora em atualizar a Siri com IA, promovendo o Pixel 10 como uma alternativa.
Craig Federighi, da Apple, afirmou que desafios técnicos na criação de uma nova arquitetura para a Siri atrasaram as melhorias anunciadas.
O Pixel 10 tem lançamento previsto para 20 de agosto, mas o Google não tem tradição de vender o celular no Brasil.

O Google lançou nessa segunda-feira (04/08) uma nova campanha publicitária para promover o seu próximo smartphone, o Pixel 10. A ação mira diretamente uma das grandes promessas não cumpridas pela Apple: a aguardada atualização da assistente de voz Siri com recursos avançados de inteligência artificial.

No vídeo de 30 segundos, publicado no YouTube e no X/Twitter, o Google sugere que os consumidores não precisam esperar por recursos que seus aparelhos já oferecem.

Demora na chegada da Siri com IA

A campanha do Google é uma clara alusão ao atraso da Apple em trazer os recursos do Apple Intelligence à Siri — promessa feita desde o lançamento do iPhone 16, há quase um ano. O vídeo também funciona como um teaser para o evento de lançamento do novo Pixel, marcado para 20 de agosto.

Usuários da Apple esperavam uma Siri mais robusta e personalizada, mas o fato é que a revolução na assistente virtual ainda não chegou. Como destaca o 9to5Mac, a empresa de Cupertino chegou a adiar as melhorias e até remover um comercial que promovia as futuras capacidades da assistente.

Segundo Mark Gurman, da Bloomberg, uma reunião interna recente revelou que o vice-presidente sênior de engenharia de software da empresa, Craig Federighi, atribuiu os atrasos na Siri com IA a dificuldades técnicas na criação de uma arquitetura híbrida, que combinaria processamento local e na nuvem.

A Apple estaria, agora, trabalhando em uma nova versão da assistente com uma arquitetura completamente renovada. “Isso nos colocou em posição de entregar uma atualização muito maior do que imaginávamos”, teria dito Federighi. Ele acrescentou que “não há projeto que as pessoas estejam levando mais a sério”.

Em junho, o mesmo executivo disse publicamente que a entrega da atualização da Siri “levaria mais tempo” do que o imaginado.

Google Pixel não é vendido oficialmente no Brasil

Pixel 10 será lançado em 20 de agosto (imagem: divulgação/Google)

Apesar da repercussão da campanha do Google, vale ressaltar que, historicamente, a empresa não tem tradição de lançar e comercializar a linha Pixel no Brasil.

A big tech tem investido pesado em inteligência artificial e integrado esses recursos à sua linha de smartphones. Funções como o Circle to Search (Circular para Pesquisar), a tradução em tempo real e as ferramentas de edição de fotos com IA, como o Magic Eraser (Borracha Mágica), são diferenciais que a empresa busca destacar para atrair consumidores.

O lançamento do Pixel 10, marcado para 20 de agosto, é aguardado com expectativa, não somente pelos novos recursos de hardware, mas principalmente pelas novas funcionalidades de software e IA que devem chegar. Vazamentos já deram algumas pistas sobre o design e as especificações do aparelho, mas os principais trunfos devem ficar para o evento oficial do Google.

Com informações da Bloomberg, 9to5Mac e The Verge
Google faz chacota da Apple em novo comercial do Pixel 10

Google faz chacota da Apple em novo comercial do Pixel 10
Fonte: Tecnoblog