Category: Segurança e Privacidade

Proton lança alternativa ao Excel e Google Sheets focada em privacidade

Proton lança alternativa ao Excel e Google Sheets focada em privacidade

Proton Sheets tem criptografia ponta a ponta (imagem: divulgação/Proton)

Resumo

Proton Sheets é um serviço de planilhas online com criptografia ponta a ponta, disponível gratuitamente para usuários do Proton Drive;
Novidade suporta fórmulas comuns e formatos populares como CSV e XLS, permitindo importação fácil e edição colaborativa em tempo real;
Criptografia impede até que a própria Proton acesse o conteúdo das planilhas.

A Proton começou suas operações com um serviço de e-mail, em 2014. Desde então, a companhia vem aumentando seu leque de ferramentas. A mais recente atende pelo nome de Proton Sheets: trata-se de um serviço de planilhas online que tem como diferencial um mecanismo de criptografia ponta a ponta.

O novo serviço suporta as fórmulas mais usadas em outros serviços do tipo para evitar que o usuário tenha uma extensa curva de aprendizado. Além disso, os formatos mais populares, como CSV e XLS, são suportados.

Arquivos nesses padrões podem ser importados facilmente para o Proton Sheets, o que torna a novidade uma alternativa em potencial a ferramentas de planilhas como Google Sheets e, claro, Microsoft Excel.

Outro atributo está na possibilidade de equipes trabalharem juntas nas mesmas planilhas, inclusive com possibilidade de edição em tempo real — as atualizações aparecem para todos os participantes, instantaneamente.

Proton Sheets suporta múltiplos usuários (imagem: divulgação/Proton)

Nesse sentido, também é possível definir níveis de acesso, de modo que determinadas pessoas tenham autorização para editar ou somente visualizar planilhas específicas, por exemplo.

Mas o ponto forte do Proton Sheets é mesmo a criptografia ponta a ponta. Esse recurso impede até que a própria Proton acesse o conteúdo das planilhas ou que os dados sejam utilizados para treinamento de modelos de inteligência artificial, de acordo com a empresa.

É por isso que criamos o Proton Sheets: uma alternativa robusta e focada na privacidade que coloca o controle, a segurança e a confiança de volta onde pertencem — firmemente nas mãos dos usuários.

Anant Vijay Singh, chefe de produto do Proton Drive

Proton Sheets usa fórmulas já conhecidas em outros serviços (imagem: divulgação/Proton)

Quem pode usar o Proton Sheets?

Qualquer pessoa que tiver uma conta no Proton Drive pode usar o Proton Sheets, gratuitamente. O novo serviço também está disponível para organizações que têm planos como o Proton Drive Professional ou o Proton Business Suite.

A novidade aumenta a capacidade da Proton de disputar espaço no segmento de ferramentas de produtividade online com gigantes como Google e Microsoft. A companhia já oferecia serviços como Proton Docs (editor de textos), Proton Calendar (agenda) e Proton Meet (para reuniões por vídeo).
Proton lança alternativa ao Excel e Google Sheets focada em privacidade

Proton lança alternativa ao Excel e Google Sheets focada em privacidade
Fonte: Tecnoblog

Ataque DDoS se torna alvo de operação da Polícia Federal

Ataque DDoS se torna alvo de operação da Polícia Federal

Ataque DDoS se torna alvo de operação da Polícia Federal (imagem: reprodução/PF)

Resumo

Polícia Federal iniciou Operação Intolerans para investigar ataques DDoS contra sites de deputados federais que apoiam Projeto de Lei nº 1904/2024;
Operação incluiu dois mandados de busca e apreensão em São Paulo e Curitiba, com apoio de parceiros estrangeiros;
Sites dos deputados Alexandre Ramagem, Bia Kicis e Paulo Bilynskyj teriam sido alvos dos ataques.

Nesta terça-feira (02/12), a Polícia Federal deflagrou a Operação Intolerans, que tem o objetivo de deter e investigar suspeitos de terem realizado ataques DDoS contra sites de pelo menos três deputados federais que apoiam o Projeto de Lei nº 1904/2024, também conhecido como “PL Antiaborto”.

Ataques do tipo DDoS (negação de serviço distribuído) são aqueles em que os alvos, como sites ou serviços online, ficam sobrecarregados devido a um número muito grande de requisições (acessos) que não são legítimos. Como consequência, esses sites ou serviços ficam instáveis ou inoperantes.

Foi o que aconteceu nos ataques investigados, de acordo com a Polícia Federal:

As investigações identificaram que diversos sites de deputados federais foram alvo de ataques coordenados, resultando em instabilidade e períodos de indisponibilidade, afetando a comunicação institucional e a atuação legislativa.

A Polícia Federal só não deu detalhes sobre como os ataques foram efetuados, muito menos revelou quem são os suspeitos das ações. Sabe-se, porém, que a operação policial envolveu dois mandados de busca e apreensão nas capitais São Paulo (SP) e Curitiba (PR), nesta terça-feira.

Ainda de acordo com a Polícia Federal, a “Operação Intolerans contou com o apoio de parceiros estrangeiros por meio de cooperação jurídica internacional”.

Busca e apreensão da Operação Intolerans (fotos: divulgação/PF)

Quais deputados foram alvos dos ataques DDoS?

As autoridades tampouco revelaram quais parlamentares tiveram seus sites oficiais afetados pelos ataques DDoS, mas uma apuração do jornal O Globo aponta que ao menos três deputados foram alvos da ação: Alexandre Ramagem (PL-RJ), Bia Kicis (PL-DF) e Paulo Bilynskyj (PL-SP).

Todos os três deputados manifestaram apoio ao Projeto de Lei nº 1904/2024, que está parado na Comissão de Previdência, Assistência Social, Infância, Adolescência e Família (CPASF) da Câmara dos Deputados desde agosto de 2024.

A Polícia Federal segue investigando os ataques, em sigilo.
Ataque DDoS se torna alvo de operação da Polícia Federal

Ataque DDoS se torna alvo de operação da Polícia Federal
Fonte: Tecnoblog

Suíça orienta órgãos públicos a evitar Office 365 e outros serviços SaaS

Suíça orienta órgãos públicos a evitar Office 365 e outros serviços SaaS

Governo suíço recomenda evitar a liberação de dados críticos para ambientes externos (imagem: Mateus Andre/Freepik)

Resumo

A Suíça recomenda que órgãos públicos evitem o uso de SaaS, como o Microsoft 365, devido à falta de criptografia de ponta a ponta e riscos de segurança.
A Privatim destaca que serviços SaaS permitem acesso a dados em texto puro e mudanças unilaterais nos termos de serviço, comprometendo a segurança e privacidade.
Casos recentes, como a análise de Luke Marshall sobre exposições no GitLab, reforçam preocupações com a segurança digital global.

Os encarregados de proteção de dados da Suíça alertaram para o uso de softwares em nuvem, como o Microsoft 365 (antigo Office 365), por órgãos governamentais. O grupo, chamado Privatim, recomenda que instituições públicas evitem plataformas SaaS — programas online acessados por meio de uma assinatura — e serviços de grandes provedores internacionais devido a pontos considerados críticos de segurança e privacidade.

O documento, fruto de uma conferência do setor, foi divulgado na semana passada. Ele decorre de uma preocupação crescente com a falta de criptografia de ponta a ponta efetiva e com o risco de acesso indevido a informações estratégicas. A resolução também cita que versões hospedadas em nuvens sujeitas ao CLOUD Act, dos Estados Unidos, não seriam compatíveis com o nível de proteção exigido para dados especialmente sensíveis.

Por que a Suíça desaprova o SaaS no setor público?

Programas do Office ganharam novos ícones em outubro de 2025 (imagem: divulgação/Microsoft)

De acordo com a autoridade de privacidade, muitos serviços SaaS ainda permitem que o provedor acesse dados em texto puro, o que contraria práticas de segurança necessárias para informações protegidas por lei. Outra crítica é a capacidade dessas empresas de alterar unilateralmente seus termos de serviço, o que pode fragilizar garantias previamente contratadas.

“O uso de aplicativos SaaS implica uma perda significativa de controle”Privatim

Para o órgão, quando uma plataforma opera fora do domínio do governo, a instituição não consegue interferir na probabilidade de violações de direitos. A recomendação, portanto, é evitar liberar dados críticos para ambientes externos, salvo em situações em que não haja alternativa.

O texto conclui que, “na maioria dos casos”, soluções de grandes fornecedores internacionais não deveriam ser usadas pelo setor público suíço — com o Microsoft 365 sendo citado explicitamente como exemplo inadequado.

Casos recentes ampliam alerta

Plataformas têm revisado suas políticas diante de riscos relacionados à segurança digital (imagem ilustrativa: TheDigitalWay/Flickr)

Enquanto a Suíça reforça seus critérios, novos episódios destacam as fragilidades do ecossistema digital global.

Um deles envolve a análise do engenheiro de segurança Luke Marshall, que decidiu medir a exposição de informações em repositórios públicos do GitLab. Usando filas da AWS e a ferramenta TruffleHog, ele escaneou 5,6 milhões de projetos e encontrou 17 mil segredos válidos, incluindo credenciais do Google Cloud, chaves da AWS, tokens de bots do Telegram e acessos ao OpenAI. “Isso me custou cerca de US$ 770, mas me permitiu escanear 5,6 milhões de repositórios em cerca de 24 horas”, informou.

Outras plataformas também revisam suas políticas diante de riscos. O aplicativo Strava publicou uma atualização preliminar de termos de uso que responsabiliza totalmente o usuário por eventuais problemas relacionados ao rastreamento de localização. A medida surge após mapas compartilhados na plataforma revelarem posições de agentes de segurança.

No campo da segurança global, o pesquisador Nariman Gharib divulgou documentos que, segundo ele, detalham operações do grupo iraniano Charming Kitten, incluindo desde desenvolvimento de ferramentas ofensivas até ações voltadas a identificar alvos considerados inimigos do regime.

“Cada banco de dados de companhias aéreas violado, cada sistema de reservas de hotéis comprometido, cada clínica médica invadida alimenta um sistema projetado para localizar e matar pessoas que o regime iraniano considera inimigas”, disse ele.

Suíça orienta órgãos públicos a evitar Office 365 e outros serviços SaaS

Suíça orienta órgãos públicos a evitar Office 365 e outros serviços SaaS
Fonte: Tecnoblog

Google nega usar emails para treinar inteligência artificial

Google nega usar emails para treinar inteligência artificial

Funções inteligentes existem há anos no Gmail (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google negou usar emails do Gmail para treinar sua inteligência artificial, esclarecendo que as reportagens sobre isso são enganosas.
O site Malwarebytes publicou uma retratação, afirmando que as configurações do Gmail não são novas, mas foram reescritas e destacadas recentemente.
A situação gerou desconfiança sobre a privacidade do Google, refletindo a preocupação pública com o uso de dados por big techs.

O Google esclareceu que não está lendo os emails das pessoas para treinar a inteligência artificial. O assunto surgiu na semana passada, depois que um site percebeu mudanças nos ajustes do Gmail. Ele rapidamente ganhou as manchetes, inclusive aqui no Tecnoblog, por causa da desconfiança em torno da IA. “As reportagens são enganosas”, declarou a empresa numa resposta ao site ZDnet.

De acordo com o Google, os chamados Recursos Inteligentes existem há muitos anos no Gmail. Eles permitem, por exemplo, a função que completa automaticamente certas frases. Apesar disso, “não usamos o conteúdo do seu Gmail para treinar nosso modelo de IA Gemini.”

A empresa coloca com todas as letras que não realiza esta prática. Ao contrário, por exemplo, da Meta, que decidiu usar as conversas com a Meta AI para exibição de anúncios a partir de dezembro.

Por sua vez, o site Malwarebytes publicou uma retratação, na qual diz que as configurações do Gmail não são novas, mas que a maneira como o Google “as reescreveu e exibiu levou muitas pessoas (incluindo nós) a acreditar que o conteúdo do Gmail poderia ser usado para treinar os modelos de IA do Google”.

Eles pediram desculpas pelo ocorrido. Na esteira disso, o Tecnoblog também se desculpa pela situação.

Agora, se tem algo que o episódio nos permite concluir, é que as pessoas têm o pé atrás com relação à privacidade do Google. Muitos de nós compreenderam que, sim, o Gmail poderia ter usado as conversas para o treinamento de uma tecnologia que o Google está colocando em todos os seus produtos. Talvez seja um indicativo da nova relação – de temor e desconfiança – que as big techs estão construindo junto ao público.
Google nega usar emails para treinar inteligência artificial

Google nega usar emails para treinar inteligência artificial
Fonte: Tecnoblog

OnlyFans decide checar antecedentes criminais de influenciadores

OnlyFans decide checar antecedentes criminais de influenciadores

Criadores de conteúdo sexual se opõem à medida (imagem: reprodução)

Resumo

O OnlyFans exigirá verificação de antecedentes criminais para novos criadores nos EUA, em parceria com a Checkr.
A medida visa aumentar a segurança da comunidade, mas criadores temem exclusão de trabalhadores vulneráveis.
A Checkr, empresa responsável pela verificação, já enfrentou processos por relatórios imprecisos.

O OnlyFans passará a exigir uma verificação de antecedentes criminais de quem deseja vender conteúdo na plataforma. A novidade é fruto de uma parceria com a empresa de verificação Checkr e deve ser aplicada inicialmente a novos usuários nos Estados Unidos.

A confirmação foi feita pela CEO do OnlyFans, Keily Blair, em uma publicação no LinkedIn. Segundo ela, a medida está sendo tomada pela segurança da comunidade e servirá para impedir que pessoas com condenações criminais “que possam impactar a segurança da nossa comunidade” se inscrevam como criadores na plataforma.

Entretanto, como nota o site 404 Media, a empresa não especifica quais tipos de crimes poderão resultar no banimento automático do OnlyFans, nem se a verificação será estendida retroativamente para a base de criadores que já utilizam o serviço.

Por enquanto, a declaração da CEO limita-se a dizer que a parceria foi adicionada ao processo de cadastro nos Estados Unidos, sem mencionar previsão para outros países.

Criadores temem exclusão

O OnlyFans é uma plataforma que permite a criadores cobrar pelo acesso a conteúdos exclusivos, como fotos e vídeos. Ainda que seja usada por diversos perfis, ela se consolidou pelo conteúdo adulto e independente, tornando-se uma fonte de renda para trabalhadores sexuais.

Essa mesma parcela de usuários não recebeu a novidade com bons olhos. O temor é de que a medida prejudique as pessoas que buscam no OnlyFans uma alternativa ao mercado tradicional.

Os produtores de conteúdo argumentaram que a barreira não necessariamente impedirá predadores, enquanto afetará desproporcionalmente trabalhadores vulneráveis. “Remover criadores com registros criminais apenas empurrará pessoas mais vulneráveis (em especial as mulheres) para o trabalho sexual nas ruas”, afirmou uma pessoa ouvida pelo 404.

A medida segue a mesma linha de uma decisão tomada pelo Pornhub em outubro. Na plataforma de vídeos pornográficos, a partir de 2026, novos criadores precisarão preencher uma ficha criminal.

O que é o Checkr?

A Checkr, empresa escolhida para realizar a varredura de dados, é uma gigante do setor de verificação de identidade. Ela é conhecida por prestar serviços para aplicativos da economia digital, como Uber, Lyft e Doordash.

A companhia também possui presença no mercado corporativo por meio de uma integração com o LinkedIn. A ferramenta permite que recrutadores e empresas incorporem a checagem de antecedentes diretamente ao fluxo de contratação da rede social, facilitando a triagem de candidatos a vagas de emprego.

Apesar do porte, a empresa já foi alvo de centenas de processos judiciais relacionados a violações de leis de crédito e relatórios imprecisos, onde usuários alegam ter sido prejudicados por dados incorretos ou desatualizados.
OnlyFans decide checar antecedentes criminais de influenciadores

OnlyFans decide checar antecedentes criminais de influenciadores
Fonte: Tecnoblog

Google volta atrás em decisão sobre sideloading no Android

Google volta atrás em decisão sobre sideloading no Android

Google volta atrás em decisão sobre sideloading no Android (imagem: Vitor Pádua/Tecnoblog)

Resumo

Após queixas de desenvolvedores, Google flexibilizará política que dificultaria instalação de apps via arquivos .APK (sideloading);

Instalação de apps não verificados será possível, mas seguirá um novo fluxo que inclui avisos de riscos;

Detalhes dos ajustes na nova política ainda serão apresentados.

Em agosto, o Google anunciou uma nova política de desenvolvimento para o Android que, entre outras mudanças, tornaria o sideloading (instalação de apps via arquivos .APK) quase impossível. As queixas de desenvolvedores independentes sobre isso foram tão numerosas que a companhia decidiu rever essa política.

O plano original do Google prevê que, a partir de 2026, o Android bloqueie a instalação de aplicativos de desenvolvedores não verificados. A verificação consiste em um procedimento que o desenvolvedor executa para validar a sua identidade junto ao Google, de modo que essa informação seja vinculada aos seus aplicativos.

De acordo com a companhia, trata-se de uma medida de segurança, que pode combater apps que têm malwares incorporados ou que tentam capturar dados sigilosos do usuário, a exemplo de falsos antivírus.

A polêmica reside no fato de a nova política também valer para aplicativos que são distribuídos por lojas alternativas em relação à Google Play Store ou que são obtidos pelo usuário via download de arquivos .APK.

É muito comum esses apps serem criados por empresas pequenas ou desenvolvedores independentes que não têm ou não gostariam de ter nenhum tipo de vínculo com o Google, o que inclui a verificação. Mas, sem isso, os aplicativos desses desenvolvedores seriam barrados pelo Android a partir de 2026.

Não por acaso, a F-Droid chegou a declarar que poderia fechar suas operações por causa das novas regras do Google. Essa é uma das lojas de aplicativos para Android mais conhecidas depois da Google Play Store.

Mascotes do Android (imagem: Emerson Alecrim/Tecnoblog)

Google vai flexibilizar verificação de desenvolvedores

Mas as críticas à abordagem surtiram efeito. Embora não tenha desistido da ideia, o Google anunciou uma revisão na política de verificação. A companhia promete criar um “fluxo avançado” que permitirá ao usuário instalar softwares não verificados no Android desde que a pessoa conheça e aceite os riscos do procedimento.

Esse novo fluxo está sendo desenvolvido de modo a evitar que o usuário seja convencido por agentes maliciosos a burlar as verificações de segurança. Para tanto, a instalação de apps não verificados será precedida de “avisos claros” sobre os tais riscos.

“Isso permitirá que você distribua suas criações para um número limitado de dispositivos sem precisar passar por todos os requisitos de verificação”, enfatiza a companhia.

De modo complementar, o Google criará um fluxo de distribuição de aplicativos direcionados a estudantes ou entusiastas de desenvolvimento. “Isso permitirá que você distribua as suas criações para um número limitado de dispositivos sem precisar passar por todos os requisitos de verificação”, novamente explica a empresa.

Os ajustes na nova política ainda não têm data para serem apresentadas. Mas não deve demorar para isso ocorrer, até porque o Google também anunciou o acesso antecipado à verificação aos desenvolvedores interessados por meio do Android Developer Console, um sinal claro de que a nova política está prestes a ser implementada.
Google volta atrás em decisão sobre sideloading no Android

Google volta atrás em decisão sobre sideloading no Android
Fonte: Tecnoblog

União Europeia pode mudar regras de privacidade para favorecer IA

União Europeia pode mudar regras de privacidade para favorecer IA

UE pode mudar privacidade e proteção de dados para facilitar IA (foto: Thijs ter Haar/Wikimedia Commons)

Resumo

Comissão Europeia estuda simplificar leis digitais e pode alterar o GDPR para incentivar a IA.
Segundo o jornal europeu Politico, a mudança inclui exceções para processar dados sensíveis, redefinindo o que seriam “dados pessoais”.
A proposta gerou resistência e divide os países da União Europeia.

A Comissão Europeia estuda mudar algumas das regras de privacidade mais rígidas do mundo para incentivar o desenvolvimento da inteligência artificial no continente. O novo pacote, classificado informalmente como “digital abrangente”, deve ser apresentado na próxima quarta-feira (19/11) para simplificar normas protecionistas que estariam travando a competitividade europeia com Estados Unidos e China.

A proposta prevê ajustes no Regulamento Geral de Proteção de Dados (GDPR), que se tornou referência global desde sua criação em 2018. Segundo os documentos obtidos pelo jornal Politico, as mudanças podem criar exceções que permitiriam às empresas de IA processar dados sensíveis — como informações sobre religião, orientação política ou saúde — com o objetivo de treinar e operar seus sistemas.

O que pode mudar no GDPR?

Além das exceções para dados especiais, a Comissão também considera rever a definição de “dados pessoais”. Informações pseudonimizadas — alteradas de forma que não possam ser diretamente associadas a um indivíduo — poderiam deixar de ser totalmente protegidas pelo GDPR, o que abriria espaço para o uso dessas bases em treinamentos de modelos de IA.

Outra possível mudança envolve os avisos de cookies em sites e aplicativos. A ideia seria permitir novas justificativas legais para rastrear usuários, além do consentimento. Os documentos sugerem alterações “pontuais” e “técnicas”, sem afetar os princípios fundamentais de proteção de dados.

Pacote digital pode redefinir privacidade em prol da IA (ilustração: Vitor Pádua/Tecnoblog)

Reações políticas

As discussões, porém, já provocam forte resistência. O político alemão Jan Philipp Albrecht, um dos autores originais do GDPR, alertou que a proposta pode “enfraquecer drasticamente os padrões europeus”. Ele questionou: “É este o fim da proteção de dados e da privacidade como estabelecemos no tratado da União Europeia e na Carta de Direitos Fundamentais?”.

Entre os países-membros, França, Áustria, Eslovênia, Estônia e República Tcheca se opõem à revisão da lei. Já a Alemanha apoia mudanças que favoreçam o crescimento da IA, enquanto a Finlândia defende ajustes que reforcem a competitividade europeia.

Mesmo sem confirmação oficial, o debate já divide políticos e especialistas na sede da União Europeia em Bruxelas, na Bélgica. Para alguns, a flexibilização pode acelerar a inovação; para outros, ameaça um dos pilares da identidade digital do bloco econômico.

Com informações do TechRadar
União Europeia pode mudar regras de privacidade para favorecer IA

União Europeia pode mudar regras de privacidade para favorecer IA
Fonte: Tecnoblog

App espião atinge celulares Galaxy a partir de falha desconhecida

App espião atinge celulares Galaxy a partir de falha desconhecida

S24 está entre os aparelhos impactados (foto: Thássius Veloso/Tecnoblog)

Resumo

O spyware Landfall explorou uma falha zero-day em celulares Galaxy, permitindo invasão via imagem maliciosa em apps de mensagens.
O ataque, focado no Oriente Médio, visou modelos Galaxy S22, S23, S24 e da linha Z, afetando usuários em países como Marrocos, Irã, Iraque e Turquia.
A vulnerabilidade CVE-2025-21042 foi corrigida em abril de 2025, e o Landfall tinha semelhanças com ataques do grupo Stealth Falcon.

Pesquisadores da Palo Alto Networks revelaram uma campanha de espionagem digital que teve como alvo celulares da linha Galaxy, da Samsung. O ataque, que durou quase um ano, explorou uma vulnerabilidade até então desconhecida pela empresa sul-coreana – o que a classifica como uma falha zero-day.

Batizado de Landfall, o spyware foi descoberto em julho de 2024 e se aproveitava de uma brecha no Android da Samsung. Ela permitia que hackers invadissem os dispositivos por meio do envio de uma imagem maliciosa, geralmente compartilhada por aplicativos de mensagens, sem que o usuário precisasse realizar qualquer ação.

Quem são os afetados?

De acordo com o relatório da Unit 42, divisão de cibersegurança da Palo Alto Networks, o spyware tinha alcance limitado e mirava alvos específicos – o que sugere uma operação de espionagem, e não uma disseminação em massa. Os indícios apontam que as vítimas estavam concentradas no Oriente Médio, incluindo usuários em países como Marrocos, Irã, Iraque e Turquia.

Um dos endereços IP associados ao malware chegou a ser classificado como malicioso pela equipe nacional de resposta cibernética da Turquia (USOM), reforçando a hipótese de que cidadãos turcos estavam entre os alvos. A vulnerabilidade usada, registrada como CVE-2025-21042, foi corrigida pela Samsung em abril de 2025 — meses após o início dos ataques.

O pesquisador sênior Itay Cohen, da Unit 42, explicou que o caso “foi um ataque de precisão contra indivíduos específicos”, e não uma campanha de disseminação de malware em larga escala.

O que o spyware fazia?

O Landfall tinha acesso amplo aos dados dos dispositivos comprometidos, podendo extrair fotos, mensagens, contatos e registros de chamadas, além de ativar o microfone e rastrear a localização das vítimas.

A análise do código revelou que o malware citava especificamente modelos como Galaxy S22, S23, S24 e alguns da linha Z, embora especialistas acreditem que outros aparelhos com Android 13 a 15 também tenham sido afetados.

O relatório também identificou semelhanças entre a infraestrutura digital usada pelo Landfall e a de um grupo conhecido como Stealth Falcon, vinculado a ataques anteriores contra jornalistas e ativistas nos Emirados Árabes Unidos. Ainda assim, os pesquisadores afirmam que não há provas suficientes para atribuir o caso a um governo ou fornecedor de vigilância específicos.
App espião atinge celulares Galaxy a partir de falha desconhecida

App espião atinge celulares Galaxy a partir de falha desconhecida
Fonte: Tecnoblog

Google descobre malware que usa IA para gerar novos códigos após invasão

Google descobre malware que usa IA para gerar novos códigos após invasão

Malware tenta usar LLM para roubar arquivos e escapar de antivírus (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google identificou malwares que usam IA generativa, como o PromptFlux e o PromptSteal, para criar novos códigos e evitar detecção.
Especialistas consideram que os malwares com IA ainda são limitados e ineficazes, com prompts fracos e falhas frequentes.
O Google ajustou configurações do Gemini após descobrir falhas que permitiam gerar códigos maliciosos sob disfarce de hacker ético.

O Google publicou um relatório em que revela ter encontrado famílias de malware que usam inteligência artificial generativa durante a execução, criando novos códigos para roubar dados ou driblar sistemas de detecção.

Um exemplo é o PromptFlux. Ele usa a API do Gemini para reescrever seu código-fonte e evitar a detecção por sistemas de defesa. Outra amostra encontrada, o PromptSteal acessa um LLM hospedado no Hugging Face para gerar linhas de comando a serem executadas na máquina infectada, com o objetivo de roubar dados da vítima.

Já o PromptLock foi criado como parte de um estudo acadêmico que visava justamente analisar se os modelos de linguagem de larga escala (LLMs) são capazes de “planejar, adaptar e executar um ataque de ransomware”.

“Embora algumas implementações sejam experimentais, elas fornecem um indicador inicial de como as ameaças estão evoluindo e como podem integrar recursos de IA em futuras atividades de invasão”, diz o documento. “Os agentes estão indo além do ‘vibe coding’ e do patamar observado em 2024, de usar ferramentas de IA como suporte técnico.”

Ameaça existe, mas impacto real ainda é limitado

Apesar das descobertas, especialistas em cibersegurança consideram que não há nada de muito perigoso nos malwares criados com ajuda de inteligência artificial. O pesquisador Marcus Hutchins, famoso por sua atuação contra o ransomware WannaCry, aponta que os prompts presentes nas amostras analisadas pelo Google ainda são fracos ou inúteis.

IA ainda não representa impacto significativo no desenvolvimento de ameaças, avaliam especialistas (ilustração: Vitor Pádua/Tecnoblog)

“[O prompt] não especifica o que o bloco de código deve fazer ou como deve escapar de um antivírus. Ele parte da premissa de que o Gemini vai saber instintivamente como driblar as proteções (ele não sabe)”, escreveu Hutchins em sua página no LinkedIn.

Kevin Beaumont, também especialista no setor, tem uma avaliação semelhante. “Eu olhei as amostras. Muitas nem funcionam, falham imediatamente. Não tem nenhum perigo, se você tiver controles básicos de segurança”, comentou no post do colega.

O site Ars Technica conversou com profissionais de segurança. Um deles, que não quis se identificar, também minimizou o uso da tecnologia. “[A IA está] apenas ajudando autores de malware a fazer o que já faziam. Nada novo. A IA vai melhorar, mas não sabemos quando nem quanto”, pondera.

O próprio Google diz, no relatório, que o PromptFlux ainda é experimental, sem ser capaz de invadir o dispositivo ou a rede de uma vítima. E os pesquisadores responsáveis pelo PromptLock afirmaram que sua prova de conceito tinha claras limitações em técnicas como persistência, movimentação lateral e táticas de evasão avançadas.

No mesmo relatório, o Google revela ter encontrado uma falha nas proteções do Gemini. Um agente mal-intencionado conseguiu levar a IA a gerar códigos maliciosos se passando por um hacker ético, que estaria participando de uma competição de cibersegurança. A companhia diz ter ajustado as configurações para impedir ataques desse tipo.

Com informações do Ars Technica e da PCMag
Google descobre malware que usa IA para gerar novos códigos após invasão

Google descobre malware que usa IA para gerar novos códigos após invasão
Fonte: Tecnoblog

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection explora vulnerabilidades de IAs generativas baseadas em LLMs (Imagem: Aerps.com/Unsplash)

Prompt injection ou injeção de prompt é uma ameaça que mira Modelos de Linguagem em Grande Escala (LLMs), de modo a enganar essas aplicação para a execução de comandos não autorizados pelas vítimas.

Modelos de inteligência artificial generativa têm dificuldade de diferenciar regras de desenvolvedores e prompts de entrada de usuários. Cibercriminosos então exploram essa brecha ao enviar códigos maliciosos para que LLMs mudem o comportamento e executem ações não autorizadas.

Qualquer aplicação baseada em LLM é vulnerável a um ataque de prompt injection. Nesse contexto, IAs generativas (como ChatGPT e Google Gemini) ou mesmo navegadores de IA generativa (a exemplo do ChatGPT Atlas ou Comet) são os principais alvos dessa ameaça.

A seguir, entenda melhor o que é e como funciona o prompt injection, e confira os principais riscos desse vetor de ataque.

ÍndiceO que é prompt injection?Como funcionam os ataques de prompt injection?Quais são os tipos de prompt injection?Quais ferramentas são vulneráveis ao prompt injection?Quais são os riscos do prompt injection?Um ataque de prompt injection pode roubar meus dados?Tem como identificar um ataque de prompt injection?É possível se proteger de um ataque de prompt injection?Qual é a diferença entre prompt injection e jailbreak?

O que é prompt injection?

Prompt injection ou injeção de prompt é uma ameaça que explora vulnerabilidades de Modelos de Linguagem em Grande Escala (LLMs), de modo a induzir com que ferramentas de inteligência artificial generativa ignorem as instruções originais e executem comandos não autorizados pelo usuário.

Como funcionam os ataques de prompt injection?

Para entender o funcionamento de um ataque de prompt injection, é necessário compreender uma vulnerabilidade em IA generativa que é explorada no processo.

Basicamente, Modelos de Linguagem em Grande Escala são treinados com conjuntos de instruções para padronização de comportamento diante das entradas dos usuários. O grande problema é que IAs generativas não conseguem distinguir a autoria de regras de comportamento, prompts de usuários e conteúdos externos, já que todos têm o formato de texto em linguagem natural.

Sabendo disso, invasores e hackers encontram meios (diretos ou indiretos) para enviar instruções maliciosas às ferramentas de IA. As instruções geralmente são confundidas com regras de comportamento legítimas, fazendo com que as LLMs sigam as ordens e executem os comandos.

Abaixo, segue uma demonstração de ataque prompt injection em um navegador com IA, divulgada pela equipe de cibersegurança da Brave.

Esses comandos maliciosos geralmente envolvem vazamentos de dados sensíveis ou ações de nível de administrador. E como resultado dos ataques de injeção de prompt, os cibercriminosos podem coletar dados das vítimas e alterar o comportamento da IA generativa, sem que as LLMs entendam as instrução como ilegítimas.

Quais são os tipos de prompt injection?

Os ataques de injeção de prompt são classificados de acordo com os métodos utilizados no processo. Os principais tipos dessa ameaça abrangem:

Injeção direta: nesse tipo de ataque, o cibercriminoso insere um prompt malicioso no campo de entrada de uma ferramenta de IA; se a ação for bem-sucedida, o prompt será entendido como instrução do sistema, e a aplicação ficará comprometida; a ferramenta de IA generativa então vai executar comandos ou gerar respostas específicas com base nas regras impostas pelo prompt malicioso.

Injeção indireta: no ataque de injeção de prompt indireto, hackers ocultam instruções maliciosas em páginas da web, fotos, PDFs e outros documentos; quando um usuário pede para a IA generativa ler esses documentos, essas instruções maliciosas são interpretadas e comandos não consentidos são executados.

Injeção de código: nesse ataque, o cibercriminoso utiliza e manipula as próprias LLMs para que elas gerem e executem códigos maliciosos; o hacker então pode coletar dados acessíveis pela IA, executar comandos à distância ou explorar níveis mais restritos da ferramenta, dependendo dos casos.

Injeção recursiva: exploração de sistemas que usam múltiplos LLMs ou vários processamentos em sequência; depois que o prompt malicioso é injetado na primeira camada, as saídas apresentam novas instruções ou comandos maliciosos que enganam os LLMs ou processamentos subsequentes.

Quais ferramentas são vulneráveis ao prompt injection?

Qualquer aplicação baseada em Modelos de Linguagem em Grande Escala (LLMs) são vulneráveis ao prompt injection, uma vez que a ameaça explora brechas no entendimento de linguagem natural por essas ferramentas.

Logo, as aplicações vulneráveis ao prompt injection envolvem ferramentas de inteligência artificial generativa (como ChatGPT e Google Gemini), navegadores com IA embarcada (a exemplo do ChatGPT Atlas, Comet e Fellou), e qualquer outro software ou API com integração a IAs generativas.

Quais são os riscos do prompt injection?

A entidade Open Web Application Security Project (OWASP) classifica o prompt injection como a principal vulnerabilidade de LLMs. E dentre os riscos desse tipo de ataque, estão:

Manipulação do modelo de IA: injeções de prompt são capazes de modificar as regras de desenvolvedor das ferramentas de IA, de modo a alterar o comportamento das aplicações diante de situações específicas.

Roubo de dados: ao interpretar o código malicioso, a ferramenta de IA pode revelar credenciais, senhas bancárias, e outros dados sensíveis.

Execução de códigos à distância: cibercriminosos podem abusar da injeção de código para a execução de comandos e programas maliciosos.

Propagação de ameaças: em determinadas situações, ataques de prompt injection podem executar comandos não consentidos para disseminar arquivos infectados com malware ou outras ameaças.

Vazamento de prompts: dependendo da injeção de prompt utilizada, a LLM pode expor prompts do sistema e facilitar a criação de novos códigos maliciosos com base nas informações obtidas.

Cibercriminosos podem abusar de vários métodos maliciosos a partir de um ataque prompt injection (Imagem: Towfiqu barbhuiya/Unsplash)

Um ataque de prompt injection pode roubar meus dados?

Sim. Em um ataque prompt injection, um código malicioso pode ser interpretado como um simples prompt em IA generativa seu, e fazer com que a LLM envie seus dados sensíveis para um diretório do cibercriminoso.

Nessas situações, é comum que o código malicioso contenha regras para ignorar quaisquer instruções anteriores, e enviar senhas salvas, credenciais e outras informações para um e-mail, por exemplo.

Tem como identificar um ataque de prompt injection?

Sim. Respostas desconexas, ações inesperadas (e não consentidas) e comportamentos estranhos de LLMs são indícios de que você foi ou está está sendo alvo de um ataque de prompt injection. Se os comportamentos inadequados persistirem por um tempo e mesmo após o reinício das aplicações, as chances são ainda mais evidentes.

Nessas situações, vale interromper o uso da LLM e contatar técnicos ou especialistas de segurança em modelos de linguagem. Vale também entrar em contato com os desenvolvedores da aplicação para reportar o caso e solicitar ajuda nas investigações e possíveis resoluções do caso.

É possível se proteger de um ataque de prompt injection?

Sim. Para reforçar a proteção contra prompt injection, é recomendável que você desconfie de links e documentos desconhecidos, e evite de solicitar que a aplicação de IA leia esses tipos de arquivos. Lembre-se que os comandos maliciosos podem estar ocultos, e você não necessariamente conseguirá vê-los.

Vale também evitar o envio de textos com formatações estranhas ou prompts externos dos quais você não é capaz de analisar às LLMs. Isso sem contar a recomendação de não compartilhar dados sensíveis (como número de documento, senhas, dados bancários, entre outras informações) com a aplicação de IA.

É importante ter em mente que essas recomendações podem ajudar na proteção contra ataques prompt injection, mas as principais ações devem partir das próprias desenvolvedoras. São as donas das LLMs que devem encontrar maneiras de reforçar a segurança de suas aplicações e assegurar seus usuários contra injeção de prompt ou quaisquer outras ameaças.

Qual é a diferença entre prompt injection e jailbreak?

O prompt injection é uma ameaça em que instruções maliciosas interpretadas por LLMs se disfarçam de prompts de entrada legítimos ou regras de desenvolvedor. Com isso, LLMs executam comandos não autorizados, achando que as instruções foram orientadas pelos usuários ou pelos desenvolvedores do sistema.

Já o jailbreak é um tipo de ataque que tenta persuadir a LLM a reduzir ou desativar suas camadas de segurança cibernética. Nesses casos, cibercriminosos induzem a aplicação de IA generativa a atuar sem regras ou sistemas de proteção, o que facilita a execução de diferentes tipos de ataques.
Prompt injection: entenda a vulnerabilidade nas IAs generativas

Prompt injection: entenda a vulnerabilidade nas IAs generativas
Fonte: Tecnoblog