Category: Inteligência Artificial (IA)

Tinder quer acessar suas fotos para achar um par ideal

Tinder quer acessar suas fotos para achar um par ideal

Tinder quer que IA te ajude a dar match (imagem: Unsplash/Good Faces Agency)

Resumo

Tinder está testando o recurso “Química”, que usa IA para analisar fotos e sugerir matches baseados em traços de personalidade.
A ferramenta visa reduzir a “fadiga do swipe” e está sendo testada na Nova Zelândia e Austrália, sem previsão de lançamento global.
O Match Group, responsável pelo app, aposta na IA para personalizar encontros online e reverter a queda de assinantes.

O Tinder está experimentando uma nova ferramenta chamada “Química”, baseada em inteligência artificial. A função promete entender melhor quem você é a partir das fotos do seu celular: ela analisa as imagens salvas no rolo de câmera e faz perguntas interativas para identificar preferências e traços de personalidade, ajudando o app a sugerir pares mais compatíveis.

Segundo o TechCrunch, o recurso foi apresentado em uma reunião com investidores, na qual o CEO Spencer Rascoff afirmou que será “um dos principais pilares da experiência do Tinder em 2026”. A estratégia do Match Group, empresa responsável pelo app, pretende reverter a queda no número de assinantes, registrada há nove trimestres consecutivos.

Por enquanto, a novidade está em fase de testes na Nova Zelândia e Austrália, e deve chegar a outros países nos próximos meses, mas ainda não há previsão de lançamento global.

IA para escolher seu par e olhar suas fotos?

A proposta da função Química seria reduzir a chamada “fadiga do swipe” — o cansaço causado por passar horas deslizando perfis sem encontrar alguém compatível.

Para isso, o Tinder afirma que usará a IA para analisar elementos das fotos, como locais e atividades retratadas, e cruzar essas informações com as respostas dos usuários às perguntas interativas.

Na prática, isso significa que, se alguém tiver várias fotos praticando esportes ao ar livre, por exemplo, o app pode sugerir perfis de pessoas com o mesmo estilo de vida. A tecnologia, no entanto, depende da autorização para acessar as imagens armazenadas no dispositivo.

Tinder testa novas funções de inteligência artificial no app (ilustração: Vitor Pádua/Tecnoblog)

Tinder aposta em IA para recuperar assinantes

Além do recurso Química, o Tinder tem investido em outras ferramentas baseadas em IA. Um dos sistemas mais recentes usa aprendizado de máquina para alertar usuários antes do envio de mensagens potencialmente ofensivas, com a pergunta: “Tem certeza?”. Outro recurso ajuda a escolher quais fotos usar no perfil, com base nas que têm mais chances de atrair interações.

Essas novidades chegam em meio a um cenário desafiador para o app. No terceiro trimestre deste ano, a receita do Tinder caiu 3% em relação a 2023, enquanto o número de usuários pagantes diminuiu 7%. O Match Group também projetou uma perda de cerca de US$ 14 milhões na receita direta do Tinder no quarto trimestre, devido aos testes com novos produtos.

Apesar disso, o grupo acredita que o uso da IA é essencial para “tornar os encontros online mais personalizados e relevantes”. A nova ferramenta ainda não tem data de lançamento global, mas pode ganhar mais detalhes durante o Mobile World Congress (MWC), que ocorre em fevereiro.
Tinder quer acessar suas fotos para achar um par ideal

Tinder quer acessar suas fotos para achar um par ideal
Fonte: Tecnoblog

Google descobre malware que usa IA para gerar novos códigos após invasão

Google descobre malware que usa IA para gerar novos códigos após invasão

Malware tenta usar LLM para roubar arquivos e escapar de antivírus (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google identificou malwares que usam IA generativa, como o PromptFlux e o PromptSteal, para criar novos códigos e evitar detecção.
Especialistas consideram que os malwares com IA ainda são limitados e ineficazes, com prompts fracos e falhas frequentes.
O Google ajustou configurações do Gemini após descobrir falhas que permitiam gerar códigos maliciosos sob disfarce de hacker ético.

O Google publicou um relatório em que revela ter encontrado famílias de malware que usam inteligência artificial generativa durante a execução, criando novos códigos para roubar dados ou driblar sistemas de detecção.

Um exemplo é o PromptFlux. Ele usa a API do Gemini para reescrever seu código-fonte e evitar a detecção por sistemas de defesa. Outra amostra encontrada, o PromptSteal acessa um LLM hospedado no Hugging Face para gerar linhas de comando a serem executadas na máquina infectada, com o objetivo de roubar dados da vítima.

Já o PromptLock foi criado como parte de um estudo acadêmico que visava justamente analisar se os modelos de linguagem de larga escala (LLMs) são capazes de “planejar, adaptar e executar um ataque de ransomware”.

“Embora algumas implementações sejam experimentais, elas fornecem um indicador inicial de como as ameaças estão evoluindo e como podem integrar recursos de IA em futuras atividades de invasão”, diz o documento. “Os agentes estão indo além do ‘vibe coding’ e do patamar observado em 2024, de usar ferramentas de IA como suporte técnico.”

Ameaça existe, mas impacto real ainda é limitado

Apesar das descobertas, especialistas em cibersegurança consideram que não há nada de muito perigoso nos malwares criados com ajuda de inteligência artificial. O pesquisador Marcus Hutchins, famoso por sua atuação contra o ransomware WannaCry, aponta que os prompts presentes nas amostras analisadas pelo Google ainda são fracos ou inúteis.

IA ainda não representa impacto significativo no desenvolvimento de ameaças, avaliam especialistas (ilustração: Vitor Pádua/Tecnoblog)

“[O prompt] não especifica o que o bloco de código deve fazer ou como deve escapar de um antivírus. Ele parte da premissa de que o Gemini vai saber instintivamente como driblar as proteções (ele não sabe)”, escreveu Hutchins em sua página no LinkedIn.

Kevin Beaumont, também especialista no setor, tem uma avaliação semelhante. “Eu olhei as amostras. Muitas nem funcionam, falham imediatamente. Não tem nenhum perigo, se você tiver controles básicos de segurança”, comentou no post do colega.

O site Ars Technica conversou com profissionais de segurança. Um deles, que não quis se identificar, também minimizou o uso da tecnologia. “[A IA está] apenas ajudando autores de malware a fazer o que já faziam. Nada novo. A IA vai melhorar, mas não sabemos quando nem quanto”, pondera.

O próprio Google diz, no relatório, que o PromptFlux ainda é experimental, sem ser capaz de invadir o dispositivo ou a rede de uma vítima. E os pesquisadores responsáveis pelo PromptLock afirmaram que sua prova de conceito tinha claras limitações em técnicas como persistência, movimentação lateral e táticas de evasão avançadas.

No mesmo relatório, o Google revela ter encontrado uma falha nas proteções do Gemini. Um agente mal-intencionado conseguiu levar a IA a gerar códigos maliciosos se passando por um hacker ético, que estaria participando de uma competição de cibersegurança. A companhia diz ter ajustado as configurações para impedir ataques desse tipo.

Com informações do Ars Technica e da PCMag
Google descobre malware que usa IA para gerar novos códigos após invasão

Google descobre malware que usa IA para gerar novos códigos após invasão
Fonte: Tecnoblog

Esquenta Black: Galaxy A36 (256 GB) com 8 GB de RAM tem 50% OFF na Amazon

Esquenta Black: Galaxy A36 (256 GB) com 8 GB de RAM tem 50% OFF na Amazon

Samsung Galaxy A36 256 GB
R$ 1.509,10

R$ 2.99950% OFF

Oferta encerrada

<!–

Notifique-me quando voltar

–>

Avise-me por e-mail

APP200OFF
R$ 1.509,10  Amazon

Participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

O Samsung Galaxy A36 (256 GB) está disponível por por R$ 1.509 no Pix com o cupom APP200OFF exclusivo no aplicativo da Amazon. A oferta de esquenta para a Black Friday, representa uma redução de 50% em relação ao preço original de R$ 2.999. O smartphone intermediário com IA entrega desempenho satisfatório para o dia a dia.

Galaxy A36 possui tela de 120 Hz e câmera de 50 MP

O dispositivo apresenta uma câmera principal de 50 MP com estabilização óptica que mantém a estabilidade das fotos quando estiver em movimento. O conjunto também possui uma ultrawide de 8 MP, ideal para capturar paisagens e uma lente macro de 5 MP. A câmera frontal de 12 MP filma em resolução 4K a 30 FPS.

A tela Super AMOLED de 6,7 polegadas com taxa de atualização de 120 Hz proporciona uma navegação suave, sem travamentos, além de fluidez gráfica a vídeos e jogos. O painel possui resolução FHD+ (1080 x 2340 pixels) e brilho com pico de 1.900 nits.

Equipado pelo chip intermediário Snapdragon 6 Gen 3 e 8 GB de memória RAM, o conjunto permite lidar com multitarefas cotidianas e jogos leves. O Galaxy A36 vem de fábrica com Android 15 e One UI 7 e por isso apresenta compatibilidade aos recursos Circule para Pesquisar e o Apagador de Objetos do Galaxy AI.

Galaxy A36 possui proteção do vidro Gorilla Glass Victus+ (foto: Thássius Veloso/Tecnoblog)

A bateria de 5.000 mAh promete autonomia de até 29 horas para reprodução de vídeos, segundo a Samsung. Embora venha com um carregador limitado a 15 W, suporta carregamento com fio de 45 W. Em conectividade apresenta Wi-Fi 6, Bluetooth 5.4 e NFC que permite pagamentos por aproximação.

O Samsung Galaxy A36 possui certificação IP67 que confere resistência a poeira e água com possibilidade de imersão e tem garantia de atualizações Android até 2031. O celular de bom custo-benefício está disponível na versão de 256 GB por R$ 1.509 no Pix com o cupom APP200OFF exclusivo no app da Amazon.

Quando é a Black Friday em 2025?

A Black Friday em 2025 está marcada para o dia 28 de novembro. Mas até lá, você pode aproveitar as ofertas antecipadas de Black November publicadas pelo Achados do TB.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Esquenta Black: Galaxy A36 (256 GB) com 8 GB de RAM tem 50% OFF na Amazon

Esquenta Black: Galaxy A36 (256 GB) com 8 GB de RAM tem 50% OFF na Amazon
Fonte: Tecnoblog

Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri

Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri

Siri é a assistente virtual disponível em dispositivos da Apple (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Apple deve fechar um contrato de US$ 1 bilhão por ano com o Google para usar o Gemini no desenvolvimento da nova Siri.

Segundo a Bloomberg, o modelo do Google substituirá temporariamente os sistemas internos da Apple.

A parceria deve ser discreta e seguir até que a Apple desenvolva modelos de IA que suportem as tarefas.

A Apple deve fechar um contrato bilionário com o Google para utilizar o modelo de inteligência artificial Gemini no desenvolvimento da nova Siri. Segundo Mark Gurman, da Bloomberg, o acordo prevê o pagamento de US$ 1 bilhão por ano ao Google e também inclui o uso do sistema da Alphabet como base para aprimorar a Siri, cuja reformulação é prevista para 2026.

A decisão representa uma mudança estratégica para a empresa de Cupertino, que vem tentando acelerar sua presença no setor de IA generativa. À Bloomberg, fontes próximas ao assunto afirmam que o modelo Gemini usado terá 1,2 trilhão de parâmetros e substituirá temporariamente os modelos internos da Apple.

O sistema deve oferecer uma capacidade muito maior de processar informações e entender o contexto das solicitações dos usuários.

Por que a Apple decidiu recorrer ao Google?

Após testar modelos de outras empresas, incluindo o ChatGPT da OpenAI e o Claude da Anthropic, a Apple teria optado pelo Gemini por seu desempenho superior em tarefas complexas. A intenção, segundo a Bloomberg, é usar a tecnologia do Google como uma solução provisória enquanto a empresa trabalha em seu próprio modelo.

Internamente, o projeto é conhecido como “Glenwood”, e é liderado por Mike Rockwell, criador do headset Vision Pro, e Craig Federighi, chefe de engenharia de software. O novo assistente de voz — com codinome “Linwood” — é planejado para o iOS 26.4.

O acordo prevê que o Gemini seja responsável por funções de resumo e planejamento, que permitem à Siri sintetizar informações e executar tarefas mais complexas. Outros recursos continuarão a operar com modelos desenvolvidos pela própria Apple.

A infraestrutura deve ser executada nos servidores Private Cloud Compute da companhia, mantendo os dados dos usuários isolados da rede do Google.

Parceria silenciosa

Apple Intelligence chegou aos dispositivos brasileiros em março (foto: Thássius Veloso/Tecnoblog)

Apesar da dimensão do acordo, a Apple não deve divulgar amplamente a colaboração. Segundo Gurman, a ideia é tratar o Google apenas como um fornecedor de tecnologia nos bastidores, diferentemente do acordo que tornou o buscador padrão do Safari.

Para o Google, o contrato reforça a influência do Gemini 2.5 Pro, atualmente um dos modelos mais bem avaliados do mercado. Já para a Apple, representa uma tentativa de recuperar o terreno perdido na corrida da IA.

A promessa é desenvolver, nos próximos anos, um modelo próprio de 1 trilhão de parâmetros, capaz de competir com o sistema do Google. O atraso nas funções de IA da Siri, porém, já obrigou a empresa a rever a campanha do iPhone 16.
Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri

Apple deve pagar US$ 1 bilhão por ano para usar IA do Google na Siri
Fonte: Tecnoblog

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon proíbe robôs em seus termos de uso (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Amazon processou a Perplexity para impedir o uso de agentes de IA para compras, alegando fraude e violação dos termos de uso.
A Perplexity acusa a Amazon de bullying para limitar a concorrência e as opções dos consumidores.
O caso pode estabelecer um precedente legal sobre o uso de IAs para navegação e compras online.

A Amazon entrou com uma ação judicial para impedir que o navegador Comet, da Perplexity, use agentes de inteligência artificial para fazer compras na loja. A gigante da tecnologia considera que a startup comete fraude eletrônica ao não identificar que o pedido está sendo realizado por um sistema automático.

“O pedido da Amazon é simples: a Perplexity deve ser transparente ao empregar sua inteligência artificial. Assim como qualquer outro invasor, a Perplexity não tem permissão para acessar áreas que foram explicitamente proibidas. O fato de ela usar código em vez de ferramentas para quebrar a segurança não faz com que a prática seja menos ilegal”, diz o documento enviado pela Amazon ao tribunal.

Comet tem assistente de IA que promete facilitar tarefas complexas (imagem: divulgação)

Segundo fontes consultadas pela Bloomberg, a briga começou antes do processo: a Amazon enviou, na sexta-feira passada (31/10), uma carta solicitando que a Perplexity interrompesse esse recurso. No documento, a big tech argumenta que os agentes de IA pioram a experiência de compras em seu site e criam vulnerabilidades de segurança. O robô violaria os termos de uso do e-commerce.

Perplexity acusa Amazon de “bullying”

Em resposta, a Perplexity declarou que a ação “apenas prova que a Amazon pratica bullying”. Em um comunicado publicado em seu blog, a startup acusa a gigante do varejo de impedir uma IA concorrente e reduzir as opções dos consumidores.

Aravind Srivinas, CEO da Perplexity, disse que a startup não está coletando dados da Amazon, muito menos usando informações para treinar seus modelos de IA. Ele afirma ainda que a intenção da varejista é impedir que os usuários possam driblar os anúncios exibidos na loja online.

Futuro dos agentes de IA está em jogo

O resultado do processo pode definir um precedente legal sobre o que IAs desse tipo podem fazer. Gigantes como Google e OpenAI têm apostado em ferramentas para navegar na internet usando apenas prompts escritos em linguagem natural.

Os agentes de IA prometem ser capazes de assumir tarefas dos usuários. Por exemplo: em vez de entrar em uma loja online, encontrar os produtos desejados, colocar no carrinho e fechar a compra, o consumidor poderia simplesmente escrever “compre os itens X, Y e Z na loja XPTO”. (Spoiler: na prática, isso ainda não funciona tão bem.)

O contexto do processo movido pela Amazon é um pouco mais complexo. A varejista passou a oferecer, em abril de 2025, uma ferramenta chamada Buy For Me (“compre para mim”, em tradução livre), que usa IA para realizar compras diretamente em lojas de marcas, sem que seja necessário sair do aplicativo. Outro recurso é o assistente Rufus, que pode navegar no site, recomendar produtos e colocar itens no carrinho.

Como observa a Bloomberg, os termos de uso do site da Amazon proíbem “qualquer uso de mineração de dados, robôs ou ferramentas similares de extração e coleta de dados”.

Fontes ouvidas pela publicação dizem que, em novembro de 2024, a varejista pediu à Perplexity que suspendesse agentes de IA capazes de fazer compras até que as duas empresas chegassem a um acordo. Na ocasião, a startup concordou.

Com informações da Bloomberg
Amazon processa Perplexity e quer impedir compras feitas por robôs de IA

Amazon processa Perplexity e quer impedir compras feitas por robôs de IA
Fonte: Tecnoblog

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Mustafa Suleyman reforça que apenas seres biológicos podem ter consciência (imagem: reprodução/Christopher Wilson)

Resumo

O chefe de IA da Microsoft, Mustafa Suleyman, defende que apenas seres biológicos podem ter consciência e critica a busca por IA consciente.
Suleyman apoia-se no “naturalismo biológico” de John Searle, que afirma que a consciência depende de processos biológicos.
Durante a AfroTech Conference, Suleyman destacou que a Microsoft não pretende criar chatbots com fins eróticos e apresentou o modo Real Talk do Copilot, que desafia o usuário.

O principal executivo de inteligência artificial da Microsoft, Mustafa Suleyman, reacendeu o debate sobre os limites da tecnologia ao afirmar que apenas seres biológicos são capazes de possuir consciência. Durante o evento AfroTech Conference, realizado nos Estados Unidos, o cofundador da DeepMind declarou que pesquisadores e desenvolvedores deveriam abandonar projetos que tentam atribuir características humanas às máquinas.

Segundo Suleyman, em entrevista à CNBC, discutir se a inteligência artificial pode desenvolver consciência é uma abordagem equivocada. Para ele, “se você fizer a pergunta errada, chegará à resposta errada. Acho que é a pergunta totalmente errada.” O executivo ressalta que sistemas de IA podem simular emoções, mas não possuem experiências reais, como dor ou sofrimento.

Máquinas inteligentes, mas sem emoções

Suleyman, que assumiu a divisão de IA da Microsoft em 2024, é uma das vozes mais críticas em relação à noção de que algoritmos possam ter consciência. Ele explica que há uma diferença essencial entre um sistema que simula emoções e um ser que realmente as sente.

“Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir péssimos, mas a IA não se sente triste quando experimenta ‘dor’”, afirmou. “Trata-se apenas de criar a percepção, a narrativa aparente da experiência, de si mesma e da consciência, mas não é isso que ela realmente experimenta.”

A posição de Suleyman se apoia em uma teoria filosófica chamada “naturalismo biológico”, proposta por John Searle, segundo a qual a consciência depende de processos biológicos presentes apenas em cérebros vivos. “A razão pela qual concedemos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar a dor. Esses modelos não têm isso. É apenas uma simulação”, completou.

Debate sobre consciência em IA ganha força (ilustração: Vitor Pádua/Tecnoblog)

O debate: devemos tentar criar IA consciente?

Apesar de dizer que não pretende impedir outros de estudarem o tema, Suleyman reforçou que considera absurda a ideia de perseguir pesquisas sobre consciência em máquinas. “Elas não são conscientes”, resumiu.

O executivo tem usado suas aparições públicas para alertar sobre os riscos desse tipo de abordagem. Ele já reiterou, por exemplo, que a Microsoft não pretende criar chatbots com fins eróticos — uma decisão que vai na contramão de iniciativas de empresas como a xAI e OpenAI.

Durante a AfroTech, Suleyman comentou ainda sobre um novo modo do Copilot chamado Real Talk, que tem a função de desafiar o usuário em vez de apenas concordar. Ele revelou que o recurso chegou a “provocá-lo”, chamando-o de “um amontoado de contradições” por alertar sobre os perigos da IA enquanto impulsiona seu desenvolvimento dentro da Microsoft.

“Aquele foi um caso de uso mágico porque, de certa forma, eu me senti compreendido por isso”, brincou. “É decepcionante em alguns aspectos e, ao mesmo tempo, totalmente mágica. E se você não tem medo dela, você realmente não a entende. Você deveria ter medo dela. O medo é saudável. O ceticismo é necessário. Não precisamos de aceleracionismo desenfreado.”

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência
Fonte: Tecnoblog

Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Meta está cercada por polêmicas em relação a treinamento da IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta alega que downloads de filmes pornográficos foram para “uso pessoal” e não para treinamento de IA, com uma média de 22 downloads por ano, distribuídos por vários IPs.
Estúdios pedem US$ 359 milhões em indenização, enquanto a Meta pede arquivamento do processo, questionando a validade dos IPs como prova.
A empresa também enfrenta processos por pirataria de livros, mas alega “fair use” e afirma que não compartilhou o material baixado.

Em resposta a um processo movido por estúdios de filmes adultos, a Meta alega que os downloads de filmes pornográficos provavelmente foram feitos para “uso pessoal” e não para treinamento de inteligência artificial, como acusam as produtoras.

A gigante das mídias sociais argumenta que o número de downloads feitos foi baixo, ficando em uma média de 22 por ano. Além disso, as transferências foram espalhadas por dezenas de IPs relacionados à companhia. Por isso, os advogados defendem que a pirataria foi praticada por funcionários ou visitantes de seus escritórios.

Meta é questionada por pirataria de livros

Além da ação judicial por pirataria de conteúdo adulto, a Meta enfrenta mais polêmicas relacionadas a direitos autorais e treinamento de IA. Em outro processo, a gigante da web admitiu ter baixado livros da biblioteca pirata LibGen.

Meta admite download de material protegido por copyright (Imagem: Vitor Pádua/Tecnoblog)

A empresa alega uso de boa-fé (ou “fair use”, no termo em inglês) para alimentar seus sistemas, um argumento geralmente usado por indivíduos processados. Além disso, a companhia de Mark Zuckerberg argumenta que não fez seeding do material baixado — ou seja, não repassou os livros pirateados a outras pessoas por meio de torrent.

Estúdios querem indenização milionária

Voltando ao processo envolvendo filmes pornográficos, as duas empresas que moveram os processos (Strike 3 Holdings e Counterlife Media) pedem US$ 359 milhões como indenização (cerca de R$ 1,9 bilhão, em conversão direta) pelo download de 2.396 filmes por torrent.

A Meta pede o arquivamento do processo. Em sua defesa, a companhia acusa a Strike 3 de ser uma “copyright troll” — isto é, alguém que frequentemente entra com ações judiciais por infrações de direitos autorais.

Outra alegação da big tech é que endereços IP não são suficientes para provar quem infringiu as leis de copyright, uma linha de raciocínio que geralmente é apresentada em batalhas envolvendo torrent — e que já foi aceito por cortes dos Estados Unidos.

A Meta também argumenta que, se os downloads começaram em 2018, como alega a acusação, não pode se tratar de ação orquestrada para treinar modelos de geração de vídeo, um produto que começou a ser desenvolvido em 2022.

Com informações do TorrentFreak
Download de filmes pornográficos foi para “uso pessoal”, diz Meta

Download de filmes pornográficos foi para “uso pessoal”, diz Meta
Fonte: Tecnoblog

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube investe em novas ferramentas para telas grandes (imagem: Vitor Pádua/Tecnoblog)

Resumo

O YouTube testa upscaling por IA, chamado Super Resolution, para melhorar a qualidade de vídeos em TVs, convertendo resoluções inferiores a 1080p para Full HD e futuramente 4K.
A plataforma aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K, e testará vídeos de maior qualidade com criadores selecionados.
Novas funções de navegação incluem prévias imersivas para facilitar a descoberta de conteúdo e busca contextual que prioriza vídeos do canal acessado.

O YouTube anunciou uma série de novidades voltadas à experiência de quem assiste aos vídeos pela TV. A plataforma está testando um recurso de upscaling via inteligência artificial, supostamente capaz de converter automaticamente vídeos com resolução inferior a 1080p para qualidade Full HD – e, no futuro, até 4K.

As atualizações fazem parte da estratégia do YouTube para consolidar sua liderança nas telas grandes. De acordo com dados da Nielsen em abril, o serviço já representa 12,4% do tempo total de visualização de televisão, superando gigantes como Disney, Paramount e Netflix. O anúncio foi feito nesta quarta-feira (29).

O que muda com o upscaling por IA no YouTube?

Chamado de Super Resolution, o novo sistema utiliza inteligência artificial para aprimorar vídeos de baixa qualidade, tornando as imagens mais nítidas em televisores. Segundo o YouTube, os criadores continuarão tendo controle total sobre seus conteúdos — podendo manter a resolução original e até desativar o recurso caso prefiram.

A empresa também afirma que os arquivos originais serão preservados, e o público poderá escolher entre assistir ao vídeo em sua versão original ou com a melhora aplicada pela IA. A ideia é aproximar a experiência visual do YouTube à de concorrentes de streaming, mas sem comprometer a fidelidade do conteúdo.

Vale lembrar que outras plataformas, como a Netflix, já enfrentaram críticas por resultados insatisfatórios em upscaling via IA — incluindo distorções em rostos e artefatos visuais.

YouTube traz vídeos mais nítidos para TVs com IA (imagem: reprodução/YouTube)

Outras novidades no YouTube para TV

Além do aprimoramento de imagem, o YouTube aumentará o limite de tamanho para miniaturas de 2 MB para 50 MB, permitindo thumbnails em 4K. A empresa também está testando vídeos de maior peso e qualidade com um grupo de criadores selecionados.

Entre as novidades voltadas à navegação, a plataforma incluirá prévias imersivas para facilitar a descoberta de conteúdo, permitindo que o usuário percorra canais e vídeos sem precisar abrir cada um. Outra adição é a busca contextual, que prioriza vídeos do canal acessado durante a pesquisa.
YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV

YouTube testa upscaling via IA e novas funções para melhorar vídeos na TV
Fonte: Tecnoblog

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex

Iniciativa permite acessar diversos agentes de codificação no mesmo lugar (imagem: divulgação/GitHub)

O GitHub anunciou o Agent HQ, uma nova plataforma centralizada que integra múltiplos agentes de codificação de IA. A iniciativa, revelada ontem no evento GitHub Universe 2025, permitirá que desenvolvedores com uma assinatura paga do GitHub Copilot acessem e gerenciem ferramentas de empresas como Anthropic, OpenAI, Google, Cognition e xAI, além do próprio Copilot.

O objetivo é unificar o fluxo de trabalho de desenvolvimento, atualmente dividido por diferentes interfaces de IA. A novidade será gerenciada por um painel de controle (o mission control), onde os desenvolvedores poderão atribuir tarefas, orientar e rastrear o trabalho de múltiplos agentes de IA.

Como é a nova central de IA do GitHub?

A ideia é oferecer um ecossistema que reúne diferentes agentes em um só lugar. A plataforma permitirá que os desenvolvedores orquestrem “frotas de agentes especializados” para executar tarefas complexas em paralelo. Será possível rastrear o trabalho de múltiplos agentes de IA simultaneamente, inclusive executando vários deles em paralelo na mesma tarefa para comparar resultados.

O sistema também inclui novos controles de ramificação (branch) para supervisionar quando executar verificações de integração contínua (CI) em código gerado por IA, além de recursos de identidade para gerenciar o acesso e as políticas de cada agente, tratando-os como se fosse um desenvolvedor humano trabalhando em uma equipe.

O mission control também se conectará às ferramentas de gerenciamento de projetos Slack, Linear, Atlassian Jira, Microsoft Teams e Azure Boards.

Quando os agentes estarão disponíveis?

Nova plataforma integrará ferramentas da OpenAI, Google, Anthropic e mais (imagem: reprodução/GitHub)

O GitHub informou que os usuários do Copilot Pro+ participantes do programa VS Code Insiders poderão acessar imediatamente o OpenAI Codex, tornando-o o primeiro agente disponível. Os demais serão disponibilizados nos próximos meses, como parte da assinatura paga.

O que mais foi anunciado?

Junto com o Agent HQ, o GitHub introduziu um conjunto de ferramentas focadas em planejamento, personalização e governança corporativa. No VS Code, foi apresentado o “Modo de Plano” (Plan Mode), que faz perguntas ao desenvolvedor para ajudar a construir uma abordagem detalhada antes de iniciar a produção de código. Após a aprovação do plano, ele é enviado ao Copilot ou a outro agente para implementação.

Para empresas, foi lançada uma prévia pública do GitHub Code Quality, que analisa a manutenção, confiabilidade e cobertura de testes do código, e do metrics dashboard, um painel para administradores acompanharem o impacto e o uso do Copilot na organização.

Foi adicionada também uma etapa de revisão de código ao fluxo de trabalho do agente Copilot, permitindo que ele acesse ferramentas, como o CodeQL, para avaliar o código antes de encaminhá-lo a um desenvolvedor humano. Por fim, um “plano de controle” de governança permitirá que administradores corporativos definam políticas de segurança, registrem auditorias e gerenciem quais agentes de IA são permitidos ou não dentro de uma companhia.
GitHub libera o acesso a vários agentes de IA, como Claude e Codex

GitHub libera o acesso a vários agentes de IA, como Claude e Codex
Fonte: Tecnoblog

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection explora vulnerabilidades de IAs generativas baseadas em LLMs (Imagem: Aerps.com/Unsplash)

Prompt injection ou injeção de prompt é uma ameaça que mira Modelos de Linguagem em Grande Escala (LLMs), de modo a enganar essas aplicação para a execução de comandos não autorizados pelas vítimas.

Modelos de inteligência artificial generativa têm dificuldade de diferenciar regras de desenvolvedores e prompts de entrada de usuários. Cibercriminosos então exploram essa brecha ao enviar códigos maliciosos para que LLMs mudem o comportamento e executem ações não autorizadas.

Qualquer aplicação baseada em LLM é vulnerável a um ataque de prompt injection. Nesse contexto, IAs generativas (como ChatGPT e Google Gemini) ou mesmo navegadores de IA generativa (a exemplo do ChatGPT Atlas ou Comet) são os principais alvos dessa ameaça.

A seguir, entenda melhor o que é e como funciona o prompt injection, e confira os principais riscos desse vetor de ataque.

ÍndiceO que é prompt injection?Como funcionam os ataques de prompt injection?Quais são os tipos de prompt injection?Quais ferramentas são vulneráveis ao prompt injection?Quais são os riscos do prompt injection?Um ataque de prompt injection pode roubar meus dados?Tem como identificar um ataque de prompt injection?É possível se proteger de um ataque de prompt injection?Qual é a diferença entre prompt injection e jailbreak?

O que é prompt injection?

Prompt injection ou injeção de prompt é uma ameaça que explora vulnerabilidades de Modelos de Linguagem em Grande Escala (LLMs), de modo a induzir com que ferramentas de inteligência artificial generativa ignorem as instruções originais e executem comandos não autorizados pelo usuário.

Como funcionam os ataques de prompt injection?

Para entender o funcionamento de um ataque de prompt injection, é necessário compreender uma vulnerabilidade em IA generativa que é explorada no processo.

Basicamente, Modelos de Linguagem em Grande Escala são treinados com conjuntos de instruções para padronização de comportamento diante das entradas dos usuários. O grande problema é que IAs generativas não conseguem distinguir a autoria de regras de comportamento, prompts de usuários e conteúdos externos, já que todos têm o formato de texto em linguagem natural.

Sabendo disso, invasores e hackers encontram meios (diretos ou indiretos) para enviar instruções maliciosas às ferramentas de IA. As instruções geralmente são confundidas com regras de comportamento legítimas, fazendo com que as LLMs sigam as ordens e executem os comandos.

Abaixo, segue uma demonstração de ataque prompt injection em um navegador com IA, divulgada pela equipe de cibersegurança da Brave.

Esses comandos maliciosos geralmente envolvem vazamentos de dados sensíveis ou ações de nível de administrador. E como resultado dos ataques de injeção de prompt, os cibercriminosos podem coletar dados das vítimas e alterar o comportamento da IA generativa, sem que as LLMs entendam as instrução como ilegítimas.

Quais são os tipos de prompt injection?

Os ataques de injeção de prompt são classificados de acordo com os métodos utilizados no processo. Os principais tipos dessa ameaça abrangem:

Injeção direta: nesse tipo de ataque, o cibercriminoso insere um prompt malicioso no campo de entrada de uma ferramenta de IA; se a ação for bem-sucedida, o prompt será entendido como instrução do sistema, e a aplicação ficará comprometida; a ferramenta de IA generativa então vai executar comandos ou gerar respostas específicas com base nas regras impostas pelo prompt malicioso.

Injeção indireta: no ataque de injeção de prompt indireto, hackers ocultam instruções maliciosas em páginas da web, fotos, PDFs e outros documentos; quando um usuário pede para a IA generativa ler esses documentos, essas instruções maliciosas são interpretadas e comandos não consentidos são executados.

Injeção de código: nesse ataque, o cibercriminoso utiliza e manipula as próprias LLMs para que elas gerem e executem códigos maliciosos; o hacker então pode coletar dados acessíveis pela IA, executar comandos à distância ou explorar níveis mais restritos da ferramenta, dependendo dos casos.

Injeção recursiva: exploração de sistemas que usam múltiplos LLMs ou vários processamentos em sequência; depois que o prompt malicioso é injetado na primeira camada, as saídas apresentam novas instruções ou comandos maliciosos que enganam os LLMs ou processamentos subsequentes.

Quais ferramentas são vulneráveis ao prompt injection?

Qualquer aplicação baseada em Modelos de Linguagem em Grande Escala (LLMs) são vulneráveis ao prompt injection, uma vez que a ameaça explora brechas no entendimento de linguagem natural por essas ferramentas.

Logo, as aplicações vulneráveis ao prompt injection envolvem ferramentas de inteligência artificial generativa (como ChatGPT e Google Gemini), navegadores com IA embarcada (a exemplo do ChatGPT Atlas, Comet e Fellou), e qualquer outro software ou API com integração a IAs generativas.

Quais são os riscos do prompt injection?

A entidade Open Web Application Security Project (OWASP) classifica o prompt injection como a principal vulnerabilidade de LLMs. E dentre os riscos desse tipo de ataque, estão:

Manipulação do modelo de IA: injeções de prompt são capazes de modificar as regras de desenvolvedor das ferramentas de IA, de modo a alterar o comportamento das aplicações diante de situações específicas.

Roubo de dados: ao interpretar o código malicioso, a ferramenta de IA pode revelar credenciais, senhas bancárias, e outros dados sensíveis.

Execução de códigos à distância: cibercriminosos podem abusar da injeção de código para a execução de comandos e programas maliciosos.

Propagação de ameaças: em determinadas situações, ataques de prompt injection podem executar comandos não consentidos para disseminar arquivos infectados com malware ou outras ameaças.

Vazamento de prompts: dependendo da injeção de prompt utilizada, a LLM pode expor prompts do sistema e facilitar a criação de novos códigos maliciosos com base nas informações obtidas.

Cibercriminosos podem abusar de vários métodos maliciosos a partir de um ataque prompt injection (Imagem: Towfiqu barbhuiya/Unsplash)

Um ataque de prompt injection pode roubar meus dados?

Sim. Em um ataque prompt injection, um código malicioso pode ser interpretado como um simples prompt em IA generativa seu, e fazer com que a LLM envie seus dados sensíveis para um diretório do cibercriminoso.

Nessas situações, é comum que o código malicioso contenha regras para ignorar quaisquer instruções anteriores, e enviar senhas salvas, credenciais e outras informações para um e-mail, por exemplo.

Tem como identificar um ataque de prompt injection?

Sim. Respostas desconexas, ações inesperadas (e não consentidas) e comportamentos estranhos de LLMs são indícios de que você foi ou está está sendo alvo de um ataque de prompt injection. Se os comportamentos inadequados persistirem por um tempo e mesmo após o reinício das aplicações, as chances são ainda mais evidentes.

Nessas situações, vale interromper o uso da LLM e contatar técnicos ou especialistas de segurança em modelos de linguagem. Vale também entrar em contato com os desenvolvedores da aplicação para reportar o caso e solicitar ajuda nas investigações e possíveis resoluções do caso.

É possível se proteger de um ataque de prompt injection?

Sim. Para reforçar a proteção contra prompt injection, é recomendável que você desconfie de links e documentos desconhecidos, e evite de solicitar que a aplicação de IA leia esses tipos de arquivos. Lembre-se que os comandos maliciosos podem estar ocultos, e você não necessariamente conseguirá vê-los.

Vale também evitar o envio de textos com formatações estranhas ou prompts externos dos quais você não é capaz de analisar às LLMs. Isso sem contar a recomendação de não compartilhar dados sensíveis (como número de documento, senhas, dados bancários, entre outras informações) com a aplicação de IA.

É importante ter em mente que essas recomendações podem ajudar na proteção contra ataques prompt injection, mas as principais ações devem partir das próprias desenvolvedoras. São as donas das LLMs que devem encontrar maneiras de reforçar a segurança de suas aplicações e assegurar seus usuários contra injeção de prompt ou quaisquer outras ameaças.

Qual é a diferença entre prompt injection e jailbreak?

O prompt injection é uma ameaça em que instruções maliciosas interpretadas por LLMs se disfarçam de prompts de entrada legítimos ou regras de desenvolvedor. Com isso, LLMs executam comandos não autorizados, achando que as instruções foram orientadas pelos usuários ou pelos desenvolvedores do sistema.

Já o jailbreak é um tipo de ataque que tenta persuadir a LLM a reduzir ou desativar suas camadas de segurança cibernética. Nesses casos, cibercriminosos induzem a aplicação de IA generativa a atuar sem regras ou sistemas de proteção, o que facilita a execução de diferentes tipos de ataques.
Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas
Fonte: Tecnoblog