.

Matéria Patrocinada Inteligência artificial: salvadora para defensores cibernéticos ou brinquedo novo e brilhante para ladrões online? Como a maioria das coisas em tecnologia, a resposta é um pouco dos dois.

A IA é o exemplo mais recente e poderoso de um tropo tecnológico comum: a ferramenta de uso duplo. Por décadas, ferramentas de crackers de senhas a Metasploit tiveram um lado claro e um lado escuro. Testadores de penetração as usaram para o bem, destacando buracos em sistemas que os administradores podem então corrigir. Mas criminosos cibernéticos – de script kiddies a intrusos de estados-nação – também usam as mesmas ferramentas para seus próprios fins nefastos.

Da mesma forma, a IA oferece aos defensores cibernéticos a chance de automatizar ainda mais a detecção de ameaças, acelerar a resposta a incidentes e, em geral, dificultar a vida dos invasores. Mas esses mesmos black hats estão muito felizes em aumentar os ataques de várias maneiras com a ajuda da IA.

O aumento dos ataques cibernéticos aprimorados por IA

A IA é um canivete suíço para o criminoso cibernético moderno, especialmente com a chegada da IA ​​generativa (GenAI) alimentada por tecnologias como modelos de linguagem grande (LLMs) e redes adversárias generativas. Os CISOs estão legitimamente preocupados com essa tecnologia relativamente nova. O relatório Voice of the CISO de 2024 da Proofpoint descobriu que 54% dos CISOs globalmente estão preocupados com os riscos de segurança representados pelos LLMs, e com razão. A GenAI abre muitas novas possibilidades para os criminosos cibernéticos criarem conteúdo malicioso mais preciso e direcionado.

Estão surgindo novas ferramentas que podem criar e-mails fraudulentos indistinguíveis dos legítimos. Essas ferramentas, como o WormGPT, não seguem nenhuma das diretrizes éticas codificadas em LLMs fundamentais como o ChatGPT e o Claude. Em vez disso, elas produzem e-mails convincentes que podem ser a base para um ataque de comprometimento de e-mail comercial (BEC).

“No final das contas, essas ferramentas estão permitindo que os invasores criem e-mails de phishing melhores e mais convincentes, traduzindo-os para cada vez mais idiomas e visando mais vítimas em potencial no mundo todo”, alerta Adenike Cosgrove, vice-presidente de estratégia de segurança cibernética da fornecedora de segurança cibernética Proofpoint.

Esses e-mails de phishing automatizados estão ficando cada vez melhores (se você for um criminoso cibernético) ou piores (se você for um defensor encarregado de identificá-los e bloqueá-los). Textos maliciosos produzidos usando LLMs são tão eficazes que, em um teste da Agência de Tecnologia do Governo de Cingapura, mais usuários clicaram em links em e-mails de phishing gerados por IA do que em links em e-mails escritos manualmente. E isso foi em 2021.

Embora os criminosos não estejam migrando totalmente para a IA para suas campanhas online maliciosas, a tecnologia está ajudando a refinar suas campanhas de phishing, permitindo que eles se concentrem na qualidade e na quantidade ao mesmo tempo. O relatório State of the Phish de 2024 da Proofpoint descobriu que 71% das organizações experimentaram pelo menos um ataque de phishing bem-sucedido em 2023.

Esse número caiu de 84% em 2022, mas as consequências negativas associadas a esses ataques aumentaram, resultando em: um aumento de 144% nos relatos de penalidades financeiras, como multas regulatórias, e um aumento de 50% nos relatos de danos à reputação.

O GenAI tira o trabalho de escrever mensagens hiperpersonalizadas que parecem vir do seu chefe. Isso é especialmente útil para golpistas de BEC que desviam grandes quantias de dinheiro de vítimas institucionais se passando por clientes ou executivos seniores. Isso promete agravar um problema já crescente; em 2023, a Proofpoint detectou e bloqueou uma média de 66 milhões de ataques de BEC por mês.

Isso vai além da simples criação de texto para elaborar e-mails de phishing ultraconvincentes. O GenAI também é a base para os tipos de áudio e vídeo deepfake que já estão alimentando BECs de próximo nível. Cinco anos atrás, golpistas usaram a tecnologia deepfake de áudio para se passar por um executivo sênior de uma empresa de energia do Reino Unido, resultando no roubo de € 220.000. Houve muitos outros ataques desse tipo desde então, com perdas financeiras ainda maiores.

Criminosos também usaram IA para criar imitações de vídeo, permitindo que eles enganassem alvos em videochamadas. No início de 2024, duas empresas do Reino Unido foram enganadas em HK$ 4,2 milhões no total depois que golpistas usaram deepfakes de vídeo para se passarem por seus diretores financeiros durante chamadas do Zoom, por exemplo. Esses ataques são tão potencialmente prejudiciais que a NSA, o FBI e o CISA do Departamento de Segurança Interna alertaram conjuntamente sobre eles no ano passado.

Combater o fogo com fogo (artificial)

Nem tudo é desgraça e tristeza. Como uma tecnologia de uso duplo, a IA pode ser usada para o bem, capacitando os defensores com capacidades avançadas de detecção e resposta a ameaças. A tecnologia se destaca em fazer o que apenas humanos podiam fazer antes, mas em escala. Como a IA permite que os cibercriminosos lancem ataques em maior volume, as soluções de segurança com tecnologia de IA integrada se tornarão um meio crítico de defesa para equipes de segurança que não conseguirão aumentar o número de funcionários o suficiente para surfar nessa maré digital.

“Para equipes menores que estão defendendo grandes organizações globais, humanos sozinhos não podem mais escalar para proteger suficientemente essas superfícies de ataque de nível empresarial que estão sempre se expandindo”, diz Cosgrove. “É aqui que a IA e o aprendizado de máquina começam a entrar, alavancando esses novos controles que complementam estratégias robustas de segurança cibernética.”

Fornecedores como a Proofpoint estão fazendo exatamente isso. Ela está integrando IA em suas soluções de segurança centradas no ser humano para impedir que informações inapropriadas saiam das redes de seus clientes. O Adaptive Email DLP usa IA para detectar e bloquear e-mails mal direcionados e exfiltração de dados confidenciais em tempo real. É como ter um estagiário muito rápido com atenção aos detalhes verificando cada e-mail antes de ele ser enviado.

A empresa também usa IA para impedir que toxinas digitais cheguem aos seus clientes por e-mail. Algoritmos de IA em seu serviço Proofpoint Targeted Attack Protection (TAP) detectam e analisam ameaças antes que elas cheguem às caixas de entrada dos usuários. Isso funciona com o Proofpoint Threat Response Auto-Pull (TRAP), outro serviço que usa IA para analisar e-mails ap&oac

4 views Jun 24, 2025