Category: Inteligência Artificial

Google vai usar energia de reator nuclear em data centers

Google vai usar energia de reator nuclear em data centers

Google terá créditos de energia limpa nos EUA (ilustração: Vitor Pádua/Tecnoblog)

O Google anunciou um acordo para receber energia de um reator nuclear de nova geração que será construído em Oak Ridge, Tennessee (EUA). A iniciativa é fruto de uma parceria com a Tennessee Valley Authority (TVA), empresa pública responsável pelo fornecimento de eletricidade na região.

A expectativa é que, a partir de 2030, a usina desenvolvida pela Kairos Power abasteça data centers da companhia no Tennessee e no Alabama. Esse é o primeiro contrato firmado por uma concessionária de energia dos Estados Unidos para aquisição de eletricidade proveniente de uma tecnologia nuclear avançada.

Por que esse projeto é diferente?

Grande parte da matriz nuclear norte-americana é formada por usinas construídas há décadas, que enfrentam dificuldades para competir com fontes mais baratas, como gás natural e energias renováveis. O projeto da Kairos Power, chamado Hermes 2, adota um modelo de pequeno reator modular com capacidade de 50 MW, baseado no uso de sal fluoreto fundido como refrigerante em vez da água.

Essa tecnologia permite operar em baixa pressão, reduzindo a necessidade de estruturas de contenção de grande porte e, consequentemente, os custos de construção. Caso seja bem-sucedida, pode abrir caminho para uma nova fase da energia nuclear no país, que busca diversificar sua matriz e suprir a alta demanda elétrica impulsionada pela digitalização e pela IA.

Oak Ridge, local escolhido para a instalação, tem importância histórica no setor: foi sede do Projeto Manhattan, responsável pelo desenvolvimento das primeiras armas atômicas. Hoje, a cidade se tornou um polo de pesquisa e inovação em energia nuclear, concentrando investimentos em soluções consideradas mais seguras e sustentáveis.

Como vai funcionar a parceria?

Parceria é estratégica para garantir energia limpa à infraestrutura digital do Google (imagem: reprodução/Google)

A meta anunciada é chegar a 500 MW de capacidade nuclear instalada até 2035, suficiente para atender aproximadamente 350 mil residências. Esse volume representaria uma fração da atual capacidade nuclear dos Estados Unidos, que em 2024 contava com 94 reatores em operação e cerca de 97 GW totais — responsáveis por quase 20% da eletricidade do país.

Além de receber a energia gerada, o Google terá direito aos certificados de atributos ambientais, que funcionam como créditos de energia limpa. Esse mecanismo permite que empresas compensem seu consumo em redes que ainda contam com fontes fósseis, ao mesmo tempo em que geram receita adicional para projetos livres de carbono.

Amanda Peterson Corio, diretora de energia do Google, afirmou que a cooperação com a TVA e a Kairos Power é estratégica para garantir energia firme e limpa à infraestrutura digital da companhia. Já o secretário de Energia dos EUA, Chris Wright, destacou que o avanço de reatores nucleares de quarta geração será essencial para manter a liderança do país em inteligência artificial e no setor energético.

No momento, não há usinas nucleares avançadas disponíveis comercialmente nos Estados Unidos. Por isso, o projeto Hermes 2 é visto como um teste para avaliar a viabilidade dessa tecnologia em larga escala.

Com informações da Reuters e do The Verge
Google vai usar energia de reator nuclear em data centers

Google vai usar energia de reator nuclear em data centers
Fonte: Tecnoblog

Meta pode reduzir seu setor de IA após reorganização, diz jornal

Meta pode reduzir seu setor de IA após reorganização, diz jornal

Mark Zuckerberg é fundador e CEO da Meta (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta estuda reduzir equipes de IA e adotar modelos de terceiros, incluindo opções de código aberto ou licenciados.
Reorganização cria o Meta Superintelligence Labs com quatro grupos voltados a pesquisa, produtos e infraestrutura.
Empresa já realizou quatro reestruturações em seis meses e adquiriu a Scale AI por US$ 14,3 bilhões

A Meta está reorganizando sua divisão de inteligência artificial, que passará a contar com quatro grupos diferentes para pesquisa, superinteligência, produtos e infraestrutura. A companhia também considera reduzir o tamanho das equipes e usar modelos de outras empresas em suas plataformas.

As informações sobre a possível redução foram obtidas pelo jornal The New York Times junto a duas pessoas que estão a par da situação. Mesmo assim, as discussões sobre saídas continuam “fluidas” e nenhuma decisão foi tomada, disseram as fontes.

Caso opte pela redução do pessoal, a empresa de Mark Zuckerberg poderia eliminar cargos ou transferir empregados para outros setores. Alguns executivos também podem deixar a empresa. A divisão de IA cresceu de modo acelerado nos últimos anos, chegando a milhares de pessoas, afirmam as fontes do NYT.

A Meta também estaria considerando usar modelos de IA de terceiros em seus produtos. As opções incluem desenvolver novos modelos usando projetos de código aberto como base ou licenciar modelos fechados de outras companhias.

Como vai ficar a divisão de IA da Meta?

Meta AI usa o Llama e está disponível nos serviços da empresa (ilustração: Vitor Pádua/Tecnoblog)

De acordo com memorandos vistos pela Bloomberg, a divisão de IA da Meta será chamada Meta Superintelligence Labs (MSL) e contará com quatro grupos:

TBD Labs, responsável por continuar o desenvolvimento dos modelos Llama.

FAIR (ou Fundamental AI Research), que já existe há mais de uma década e se concentra em projetos de longo prazo.

Pesquisa Aplicada e Produtos, focado em usar os modelos e as pesquisas e colocá-los em produtos voltados a consumidores.

MSL Infra, responsável pela infraestrutura necessária para o treinamento da IA.

Segundo a Bloomberg, a reorganização visa um melhor aproveitamento dos funcionários recentemente contratados. É a quarta reestruturação nos últimos seis meses.

A Meta trouxe grandes talentos do setor de IA, com pagamentos na casa das centenas de milhões de dólares. Uma dessas aquisições foi a startup Scale AI, por US$ 14,3 bilhões. Alexandr Wang, co-fundador e CEO da empresa, foi nomeado chefe de IA da Meta e ficará à frente do TBD Labs.

Com informações da Bloomberg e do New York Times
Meta pode reduzir seu setor de IA após reorganização, diz jornal

Meta pode reduzir seu setor de IA após reorganização, diz jornal
Fonte: Tecnoblog

IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas

Claude AI pertence à Anthropic (imagem: divulgação)

Resumo

A Anthropic ativou um recurso de encerramento automático de conversas nos modelos Claude Opus 4 e Claude 4.1.
Segundo a empresa, a medida é uma maneira de preservar o sistema de conversas perigosas.
O recurso age apenas em casos extremos, mas o usuário mantém o acesso ao histórico, pode abrir novos diálogos e criar ramificações editando mensagens anteriores. 

A Anthropic, responsável pela IA Claude, revelou que seus modelos mais avançados agora podem encerrar interações em casos classificados como extremos. A medida, segundo a empresa, não busca diretamente resguardar os usuários, mas preservar o próprio sistema diante de usos abusivos.

A companhia enfatiza que não atribui consciência ou capacidade de sofrimento ao Claude ou a outros modelos de IA. Ainda assim, adotou o que chama de estratégia preventiva, inspirada em um programa interno que investiga o conceito de “bem-estar de modelos”.

De acordo com a Anthropic, a ideia é aplicar medidas de baixo custo que reduzam riscos potenciais caso, em algum momento, o bem-estar de sistemas de IA se torne um fator relevante.

Quando o Claude pode interromper uma conversa?

A função de encerrar diálogos será usada apenas em cenários raros, envolvendo interações repetidamente prejudiciais ou abusivas com a IA. Por exemplo, solicitações que envolvem exploração de menores, pedidos de informações que poderiam viabilizar ataques violentos ou tentativas de gerar conteúdos que representem ameaças de grande escala.

Os testes realizados antes da implementação indicaram que Claude Opus 4 e Claude 4.1, versões que receberão o recurso inicialmente, já apresentavam tendência a rejeitar esses pedidos. Em alguns casos, os modelos de IA teriam exibido sinais de “desconforto” ao tentar lidar com esse tipo de demanda, o que motivou a criação da ferramenta de interrupção automática.

Vale mencionar que, segundo a Anthropic, o sistema não será aplicado em interações nas quais usuários demonstrem risco imediato de causar danos a si mesmos ou a terceiros. Nesses casos, o modelo deve continuar a responder e tentar redirecionar a conversa.

Tela inicial do Claude AI (imagem: Lupa Charleaux/Tecnoblog)

O que acontece após o encerramento da conversa?

Quando a ferramenta for acionada, o usuário não perderá acesso à conta nem ao histórico. Será possível iniciar novos diálogos normalmente e até mesmo criar ramificações a partir da conversa interrompida, editando mensagens anteriores. A Anthropic afirma que não tem o objetivo de punir, mas de estabelecer um limite claro em situações de abuso persistente.

A empresa ainda reforça que trata a novidade como um experimento em andamento e que seguirá avaliando a eficácia e os impactos do recurso. Ainda não há previsão de quando, ou se, a funcionalidade será expandida para outros modelos além do Claude Opus 4 e 4.1.

Com informações do TechCrunch e da Anthropic
IA da Anthropic poderá encerrar conversas abusivas

IA da Anthropic poderá encerrar conversas abusivas
Fonte: Tecnoblog

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Técnicas presentes em assistentes de IA não são raciocínio real, dizem acadêmicos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Pesquisadores mostram que modelos de linguagem falham em resolver problemas que não estavam em seu do treinamento.
IAs podem gerar raciocínios que parecem corretos, mas apresentam erros lógicos.
Técnicas atuais, como cadeia de pensamentos, têm limitações e podem levar a respostas incorretas.

Um artigo escrito por pesquisadores da Universidade do Estado do Arizona, nos Estados Unidos, sugere que a capacidade de raciocínio de modelos de linguagem em larga escala (LLMs) é apenas uma “frágil miragem”, incapaz de resolver problemas lógicos que não fizeram parte de seu treinamento.

Nos últimos anos, ChatGPT, Gemini e outros assistentes com inteligência artificial passaram a contar com capacidades de “raciocínio simulado”, criando uma “cadeia de pensamentos” para destrinchar prompts em uma sequência de passos lógicos, que são apresentados ao usuário. No entanto, este método parece ter limitações.

IA tem dificuldade para resolver problemas novos

O trabalho dos cientistas ainda não foi revisado por pares e está disponível na plataforma Arxiv. Para avaliar a capacidade de raciocínio de um LLM, os pesquisadores criaram um ambiente de treinamento de IA com transformações simples de texto, como trocar letras de palavras para cifrá-las.

Logo em seguida, o LLM teve que realizar diversas tarefas. Algumas eram muito parecidas com as vistas no treinamento, enquanto outras precisavam combinar várias transformações para formar uma operação nova.

Problemas fora da base usada no treinamento viram dor de cabeça para IA (ilustração: Vitor Pádua/Tecnoblog)

Nos resultados, os modelos começaram a falhar quando precisaram lidar com novas transformações. Por exemplo: um modelo treinado com testes de “deslocar” letras (como trocar todas as letras pela seguinte no alfabeto) não sabia realizar tarefas que envolviam embaralhar a ordem das letras na própria palavra. Além disso, se o modelo tinha sido treinado com palavras de quatro letras, ele tinha dificuldades para resolver problemas com palavras de três ou cinco letras.

A IA até tentava generalizar regras lógicas com base em padrões observados durante o treinamento e criava linhas de raciocínio corretas, mas errava as respostas. O oposto também acontecia, mas com menos frequência: em alguns casos, o modelo chegava a uma resposta certa, mas usando encadeamentos incoerentes. Por fim, quanto maior o prompt e o número de passos necessário para chegar à resposta correta, pior era o desempenho do modelo.

Uma possível solução para isso é introduzir uma pequena quantidade de dados relacionada a diferentes tipos de problemas, mas os pesquisadores consideram que essa estratégia é “insustentável e reativa”.

Para eles, a conclusão é de que a técnica de cadeia de pensamentos pode produzir resultados convincentes, mas com falhas lógicas. Isso pode levar a riscos reais, caso o usuário confie na solução apresentada sem verificar se está tudo certo.

Outros estudos dizem que IA não pensa

Não é a primeira vez que cientistas chegam a esses resultados. Como lembra o Decoder, pesquisadores ligados à Apple já publicaram um artigo que aponta que LLMs usam reconhecimento de padrões e não planejamento simbólico ou compreensão estrutural.

Outros estudos levaram a resultados parecidos: acadêmicos ligados a duas universidades chinesas descobriram que o aprendizado por reforço com recompensas verificáveis, bastante usado na IA, não ajuda os modelos a desenvolver estratégias para resolver problemas.

Já cientistas da Universidade de Nova York descobriram que modelos de raciocínio não quebravam tarefas em um número suficiente de passos.

Por outro lado, críticos dizem que essas pesquisas são muito simplistas, pois não consideram que LLMs podem gerar códigos de programação para resolver problemas, ou ainda recorrer a ferramentas externas para buscar soluções.

Com informações do Ars Technica e do Decoder
Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores

Capacidade de raciocínio da IA é “miragem”, dizem pesquisadores
Fonte: Tecnoblog

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

Altman diz que modelo de capital fechado favorece a empresa (imagem: Vitor Pádua/Tecnoblog)

Resumo

A empresa lançou o GPT-5, com preços mais baixos via API.
Sam Altman diz que a OpenAI vai priorizar crescimento e continuar operando no prejuízo enquanto os modelos de IA evoluírem.
Mesmo sem lucro, a OpenAI atrai investimentos e é avaliada em US$ 500 bilhões.

Sam Altman, CEO da OpenAI, disse que a empresa vai priorizar o crescimento, com grandes investimentos em treinamento de inteligência artificial e capacidade de computação. Por isso, a companhia deve demorar para dar lucro.

A OpenAI apresentou nessa quinta-feira (07/08) o GPT-5, seu mais novo modelo de IA generativa. A promessa é que ele seja mais rápido e entregue respostas mais precisas, além de ter barreiras de segurança mais rígidas. Ele já está disponível no ChatGPT (gratuitamente) e no acesso via API (com preços reduzidos).

Sem acionistas, sem pressão

GPT-5 foi anunciado pela OpenAI (ilustração: Vitor Pádua/Tecnoblog)

Em entrevista ao canal americano CNBC, Altman declarou que a melhor escolha para a OpenAI, no momento, é continuar no prejuízo. “Enquanto estivermos nessa curva de crescimento, em que o modelo continua ficando cada vez melhor, acho que o melhor a se fazer é absorver as perdas por enquanto”, explicou.

A empresa fechou o ano anterior com um resultado negativo de US$ 5 bilhões, mesmo gerando receitas de US$ 3,7 bilhões. No ano atual, ela deve passar a marca de US$ 20 bilhões de receita anual recorrente, mas vai continuar perdendo dinheiro.

A OpenAI ainda conta com a vantagem de ser uma empresa de capital fechado, que não sofre pressão de acionistas para dar lucro. “É legal não estar na bolsa”, confessou Altman.

A empresa continua atraindo capital de alto risco, com investidores acostumados ao modelo de queimar dinheiro para ganhar mercado. Mesmo sem lucro, ela já está avaliada em cerca de US$ 500 bilhões, e uma nova rodada de captação de recursos deve começar em breve.

GPT-5 pode provocar queda de preços

Uma das estratégias para crescer é oferecer preços competitivos. Com o GPT-5, a OpenAI colocou isso em prática no acesso às APIs, cobrando US$ 1,25 por milhão de tokens de entrada e US$ 10 por milhão de tokens de saída (cerca de R$ 6,80 e R$ 54, respectivamente).

Isso é mais barato que o próprio GPT-4o, modelo anterior da companhia, e empata com os preços do Gemini 2.5 Pro, do Google. O Claude Opus 4.1, da Anthropic, cobra mais que isso, mas vem conquistando adeptos entre os desenvolvedores.

Essa vantagem pode levar a uma nova rodada de corte de preços entre os provedores de modelos de IA, levando a disputa para um terreno que favorece quem tiver mais dinheiro para queimar.

Com informações da CNBC
ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar

ChatGPT: Sam Altman prioriza crescimento e diz que lucro pode demorar
Fonte: Tecnoblog

Universal coloca aviso contra IA nos créditos dos filmes

Universal coloca aviso contra IA nos créditos dos filmes

Como Treinar o Seu Dragão conta com novo aviso (imagem: divulgação/Universal Pictures)

Resumo

Universal Pictures passou a incluir avisos legais nos créditos de seus filmes para coibir o uso não autorizado das obras em treinamentos de inteligência artificial.
A mensagem cita leis dos EUA e da União Europeia e reforça que duplicações não autorizadas podem levar a sanções civis e criminais.
A medida busca proteger os direitos autorais da empresa, diante de processos crescentes contra empresas de IA por uso indevido de conteúdo protegido.

Filmes recentemente lançados pela produtora e distribuidora Universal Pictures passaram a exibir, nos créditos, um aviso sobre uso não autorizado. O objetivo da mensagem é se proteger juridicamente contra empresas responsáveis por treinar modelos de inteligência artificial.

A advertência foi noticiada pelo Hollywood Reporter. “Este filme está protegido sob as leis dos Estados Unidos e de outros países. A autorização, a distribuição ou a exibição não autorizadas podem resultar em responsabilidade civil e processo criminal”, diz o texto (em tradução livre). Até o momento, a mensagem foi vista em Como Treinar o Seu Dragão, Jurassic World: Recomeço e Os Caras Malvados 2.

O Hollywood Reporter também nota que, em alguns países, a mensagem menciona uma lei de direitos autorais de 2019 da União Europeia, que dá aos detentores de propriedade intelectual o direito de proibir o uso do material em pesquisas científicas.

Por que a empresa colocou esse aviso?

Novo filme da franquia Jurassic World também exibe advertência nos créditos (imagem: divulgação/Universal Pictures)

Segundo uma fonte ouvida pela reportagem, o texto visa adicionar uma camada de proteção contra o uso dos filmes para mineração de dados e treinamento de IA.

Muitos detentores de direitos autorais vêm processando empresas de IA por uso não autorizado de seus materiais. A lista inclui artistas gráficos, escritores, jornais e também estúdios de cinema.

A própria Universal processou o gerador de imagens Midjourney ao notar que ele era capaz de recriar detalhadamente personagens e cenas de filmes, o que seria uma prova de que as obras foram incluídas no treinamento dos modelos.

Do ponto de vista legal, a nova situação traz uma pergunta: a doutrina do fair use (”uso justo”, em tradução livre), que dá permissão para usar materiais protegidos por copyright em algumas circunstâncias (como uso educacional), também se aplica ao treinamento por IA?

Como o aviso pode proteger a Universal?

Enquanto a questão não tem resposta, as mensagens da Universal tentam outro caminho para defender a propriedade intelectual da empresa: enfatizar que a duplicação não está autorizada.

Como explica o Hollywood Reporter, o treinamento de IA, muitas vezes, envolve cópias de materiais para abastecer os sistemas. Caso isso se confirme, as companhias responsáveis podem ter que pagar até US$ 150 mil (cerca de R$ 813 mil) por infração.

Com informações do Hollywood Reporter
Universal coloca aviso contra IA nos créditos dos filmes

Universal coloca aviso contra IA nos créditos dos filmes
Fonte: Tecnoblog

Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5

Apple Intelligence no iPhone (imagem: João Vitor Nunes/Tecnoblog)

Resumo

Apple confirmou a integração do GPT-5 nos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26, com lançamento global previsto para setembro de 2025.
A Siri deverá ter respostas mais consistentes e usuários poderão criar textos ou imagens com o ChatGPT de modo mais preciso.
GPT-5 é mais rápido, gera menos alucinações e inclui quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini.

A OpenAI anunciou o conjunto de modelos de linguagem GPT-5 para potencializar o ChatGPT, mas não exclusivamente. A novidade também será integrada a outros serviços. É o caso da Apple Intelligence, que ganhará suporte ao GPT-5 no iPhone, iPad e Mac.

A Apple confirmou a chegada do GPT-5 à Apple Intelligence ao 9to5Mac. E não vai demorar muito. Basta levarmos em conta que as versões finais dos sistemas iOS 26, iPadOS 26 e macOS Tahoe 26 são esperadas para o próximo mês, em escala global. São justamente essas versões que contarão com a novidade.

Digamos que essa é uma evolução natural. Enquanto o iOS 18, o iPadOS 18 e o macOS Sequoia 15 (as versões atuais) contam a Apple Intelligence baseada no GPT-4o, as novas versões desses sistemas trarão o conjunto de modelos de IA mais recente.

Na prática, a integração da Apple Intelligence com o GPT-5 significa que a Siri poderá obter respostas mais consistentes por meio do ChatGPT quando não puder trazer o resultado por conta própria, por exemplo.

O usuário também poderá acionar o ChatGPT quando quiser criar textos ou imagens a partir de prompts (instruções digitadas) ou até mesmo como ferramenta de inteligência visual: neste modo, a IA pode ser usada para dar informações a respeito de itens capturados pela câmera do iPhone.

Isso se o usuário concordar em ativar o ChatGPT na Apple Intelligence, é claro. Para quem o fizer, a Apple manterá os mecanismos de privacidade que permitem, por exemplo, ocultar endereços IP ou impedir que dados sensíveis sejam coletados pela OpenAI.

O que o GPT-5 traz de novo?

O GPT-5 é mais rápido na execução de tarefas de IA, de acordo com Sam Altman, CEO da OpenAI. Outro avanço importante está na capacidade do GPT-5 de produzir menos alucinações, isto é, de gerar respostas que não fazem sentido ou não condizem com aquilo que o usuário solicitou.

A novidade é composta por quatro modelos: GPT-5, GPT-5-chat, GPT-5-nano e GPT-5-mini. No ChatGPT, o modelo mais apropriado para cada tarefa será escolhido automaticamente, dispensando o usuário de ter que fazer essa seleção por conta própria.
Apple confirma integração do iPhone com o novo GPT-5

Apple confirma integração do iPhone com o novo GPT-5
Fonte: Tecnoblog

Wikipédia muda política sobre artigos gerados por IA

Wikipédia muda política sobre artigos gerados por IA

Editores da Wikipédia reprovarão textos feitos por IA (imagem: Kristina Alexanderson/Flickr)

Resumo

A Wikipédia adotou a “exclusão rápida” para remover artigos de baixa qualidade gerados por IA sem revisão humana.
Textos com frases genéricas, erros factuais ou citações falsas serão excluídos.
A medida integra um esforço mais amplo contra conteúdos sintéticos em plataformas online.

A comunidade de editores da Wikipédia aprovou uma nova política de “exclusão rápida” para artigos de baixa qualidade gerados por inteligência artificial, o chamado “lixo de IA” (AI Slop). A regra permite que administradores apaguem conteúdos claramente criados por chatbots sem revisão humana.

Essa decisão segue o esforço de outras plataformas online para conter a proliferação de textos gerados por IA. Segundo os editores, esse tipo de conteúdo representa uma “ameaça existencial” à enciclopédia online.

Exclusão rápida de IA

Tradicionalmente, a exclusão de artigos na Wikipédia exige um processo longo de discussão entre editores até que se chegue a um consenso.

A exclusão rápida, no entanto, já permite que administradores apaguem conteúdos sem deliberação quando se trata de vandalismo, spam ou textos sem sentido. Agora, artigos de baixa qualidade gerados por IA passam a integrar essa categoria também.

Na discussão, editores relataram o aumento de textos gerados por IA. O revisor Sophisticatedevening, por exemplo, exibiu um caso em que os autores sequer removeram markdowns e links automáticos deixados pelo ChatGPT.

Página da Wikipédia com texto gerado por IA (imagem: Felipe Faustino/Tecnoblog)

Quais os critérios?

Para que um artigo gerado por IA seja elegível para a exclusão rápida, ele precisa atender a alguns critérios, como:

Conter frases típicas de um chatbot, como “Aqui está o seu artigo da Wikipédia sobre…”, “Como um modelo de linguagem…” ou “Até a minha última atualização de treinamento…”. Segundo os editores, são sinais de que o usuário sequer leu o que copiou e colou.

Apresentar citações falsas ou absurdas, seja por listarem livros e estudos que não existem ou por incluir links para conteúdos sem qualquer relação com o tema. Por exemplo, segundo a nova política, um artigo sobre uma espécie de besouro sendo citado em um artigo de ciência da computação.

Frases típicas de chatbots já são motivo de boicote. No fim de junho, por exemplo, o estúdio por trás do jogo The Alters foi flagrado usando IA após jogadores identificarem trechos com linguagem típica de prompts nos textos dentro do game.

Problema em toda a internet

A decisão da Wikipédia parte de um movimento mais amplo para conter a distribuição de conteúdo sintético na internet. Em julho, tanto o Facebook quanto o YouTube apertaram o cerco contra conteúdo inautêntico gerado por IA, implementando regras mais rígidas para combater a desinformação e o spam.

Ainda assim, os editores da Wikipédia reconhecem que a nova política é um “curativo” para um problema muito maior, focando apenas nos casos mais óbvios e grosseiros. A comunidade, no entanto, enxerga que “conteúdo de LLM não revisado não é compatível com o espírito da Wikipédia”.

A nova regra não proíbe o uso de IA como uma ferramenta de auxílio para os editores, mas deixa claro que a responsabilidade final pela veracidade e qualidade do conteúdo continua, como sempre, nas mãos dos humanos.

Com informações de 404 Media
Wikipédia muda política sobre artigos gerados por IA

Wikipédia muda política sobre artigos gerados por IA
Fonte: Tecnoblog

Google volta a liberar IA premium de graça para estudantes

Google volta a liberar IA premium de graça para estudantes

Gemini tem recursos para geração de imagens e vídeo (imagem: divulgação)

O Google retomou sua campanha para dar 12 meses gratuitos do plano AI Pro a estudantes. O pacote inclui ferramentas avançadas do Gemini e 2 TB de armazenamento para Drive, Gmail e Fotos. A oferta vai até o dia 6 de outubro de 2025 e pode ser resgatada no site da empresa.

Quem tem direito à oferta?

De acordo com o Google, é necessário ter pelo menos 18 anos e ser estudante. A comprovação da matrícula é feita pela plataforma SheerID. Além disso, é preciso ter uma conta pessoal do Google e cadastrar uma forma de pagamento válida.

Como resgatar os 12 meses grátis?

Segundo a empresa, é necessário seguir estes passos:

Entre na página do Google One voltada a estudantes, clique em “Aproveitar a oferta” e, na página seguinte, em “Verificar requisitos”.

Comprove sua matrícula na plataforma SheerID.

Adicione uma forma de pagamento válida, caso não tenha, e conclua o cadastro no período de testes.

O que vem no pacote Google AI Pro?

Sundar Pichai, CEO do Google, apresenta novos recursos de IA durante a abertura do evento I/O 2025 (imagem: reprodução)

O plano Google AI Pro conta com ferramentas mais avançadas no Gemini e recursos de outros serviços da companhia, como:

Gemini 2.5 Pro.

Veo 3 para gerar vídeos de até oito segundos.

Deep Research para pesquisas aprofundadas.

Limites maiores de uso do NotebookLM.

2 TB de armazenamento na nuvem, que pode ser usado no Drive, no Fotos e no Gmail.

Oferta anterior foi suspensa após fraudes

O Google ofereceu 15 meses grátis do AI Pro a estudantes em maio de 2025. No entanto, usuários arrumaram um jeito de burlar a verificação de matrícula, já que o Google exigia apenas um e-mail válido com domínio .edu.

Agora, a empresa contará com a plataforma SheerID para comprovar o direito ao benefício. Ela também é usada por empresas como Spotify, Adobe e Duolingo, entre muitas outras, segundo seu site.
Google volta a liberar IA premium de graça para estudantes

Google volta a liberar IA premium de graça para estudantes
Fonte: Tecnoblog

NotebookLM: IA do Google para estudos é liberada para menores de 18 anos

NotebookLM: IA do Google para estudos é liberada para menores de 18 anos

Google NotebookLM é liberado para menores de 18 anos (imagem: reprodução/Google)

Resumo

O Google liberou o NotebookLM para menores de 18 anos, ajustando políticas de conteúdo para evitar respostas inadequadas.

O NotebookLM está disponível para todas as idades no Google Workspace for Education e para maiores de 13 anos em contas convencionais.

O NotebookLM organiza e resume informações, podendo gerar resumos em áudio e vídeo (este último apenas em inglês).

Das várias ferramentas de IA que surgiram nos últimos meses, o Google NotebookLM é uma das mais interessantes. Ela é capaz de resumir e organizar conteúdos, o que a torna ideal para estudos. Mas havia uma restrição: o NotebookLM não era apropriado para menores de 18 anos. Isso acaba de mudar.

Na primeira olhada, não faz sentido que uma ferramenta de auxílio aos estudos seja restringida com relação ao público mais jovem. Mas havia uma justificativa para essa limitação: o NotebookLM é baseado em um sistema de inteligência artificial generativa que, em tese, poderia gerar respostas inadequadas para menores de 18 anos.

Para remover essa restrição, o Google implementou um conjunto mais rígido de políticas de conteúdo, de modo a diminuir o risco de o NotebookLM oferecer respostas inapropriadas ao público jovem.

A companhia ressalta ainda que as interações dos usuários, bem como os arquivos ou links enviados ao NotebookLM, não são revisados por humanos ou usados para treinar modelos de inteligência artificial, o que favorece o aspecto da privacidade.

Por conta disso, o NotebookLM passa a estar disponível como um serviço principal para usuários de todas as idades dentro do Google Workspace for Education.

Para usuários comuns, que acessam o NotebookLM usando uma conta convencional no Google, o serviço está liberado para maiores de 13 anos ou, nos países com leis específicas sobre isso, que tenham a idade mínima local.

Como o Google NotebookLM pode ajudar nos estudos?

O NotebookLM é uma ferramenta lançada pelo Google em 2023 que usa inteligência artificial generativa para ajudar o usuário a organizar, resumir e acessar informações, funcionando como uma espécie de caderno de anotações inteligente.

Além de trabalhar diretamente com textos, o NotebookLM pode gerar resumos em formato de áudio, uma abordagem que remete a podcasts, como mostra o vídeo a seguir.

Recentemente, o Google NotebookLM foi aprimorado para facilitar o compartilhamento de notas, o que torna a ferramenta particularmente útil para quem estuda ou realiza trabalhos profissionais em grupo.

Outro recurso recente é a capacidade do NotebookLM de gerar resumos em vídeo. Mas, no momento, essa função está disponível somente para usuários do serviço no idioma inglês.
NotebookLM: IA do Google para estudos é liberada para menores de 18 anos

NotebookLM: IA do Google para estudos é liberada para menores de 18 anos
Fonte: Tecnoblog