A Ascensão da IA no Cibercrime - Como a Inteligência Artificial Está Transformando Ataques e Defesa na Segurança Digital

Em 2024, observou-se um aumento significativo nos ataques de phishing e malware, com os cibercriminosos empregando técnicas cada vez mais sofisticadas, muitas vezes impulsionadas por Inteligência Artificial (IA).

A Kaspersky em 2024 detectou uma média de 467 mil arquivos maliciosos por dia em 2024, representando um aumento de 14% em relação ao ano anterior. E no segundo semestre de 2024, os ataques de phishing aumentaram 202%, com os usuários recebendo pelo menos uma mensagem avançada de phishing.

A aplicação de IA permitiu que os cibercriminosos aprimorassem suas técnicas de ataque de várias maneiras. Utilizando modelos de linguagem avançados, como o ChatGPT, os atacantes conseguem gerar e-mails de phishing altamente personalizados e convincentes, eliminando erros gramaticais e ortográficos que antes serviam como indicadores de fraude. A IA é empregada para clonar vozes de indivíduos específicos, permitindo que os atacantes realizem golpes por telefone (vishing) onde a vítima acredita estar conversando com um conhecido ou ente querido. A criação de vídeos e imagens falsificadas, mas altamente realistas, através de IA, facilita a disseminação de desinformação e fraudes, tornando mais difícil para as vítimas distinguirem entre conteúdo legítimo e manipulado.

Em uma descoberta inédita, a Kaspersky identificou aplicativos na App Store que continham malware capaz de ler capturas de tela. Esse malware utilizava tecnologia de OCR para extrair texto de fotos, visando especialmente senhas de carteiras de 
criptomoedas e frases de recuperação.

Pig Butchering esses tipos de golpes evoluíram com o uso de IA generativa e deepfakes, permitindo que os golpistas criem comunicações mais convincentes e identidades falsas para enganar as vítimas.

Esses exemplos ilustram como a integração da IA nas estratégias dos cibercriminosos tem aumentado a eficácia e a dificuldade de detecção dos ataques, ressaltando a necessidade de medidas de segurança mais robustas e conscientização contínua dos usuários.

Por tanto diante da crescente sofisticação dos ataques cibernéticos impulsionados por IA, tanto organizações quanto indivíduos devem adotar uma abordagem mais robusta para proteger seus dados e sistemas. 

Adotar uma abordagem de confiança zero, onde nenhum usuário ou dispositivo é confiável por padrão. Utilizar mecanismos de autenticação multifator (MFA) em todos os acessos sensíveis e segmentar redes e aplicar privilégios mínimos aos usuários, como a implementação de sistemas de detecção e resposta a ameaças baseados em IA (como XDR e SOAR) para identificar ataques avançados e utilizar ferramentas de análise de comportamento de usuários (UEBA) para detectar atividades suspeitas.

Treinar adotando ciclo de PDCA os funcionários para reconhecer phishing sofisticado e deepfakes, adoção de filtros de e-mail avançados para bloquear mensagens maliciosas e executar exercícios de testes regularmente a equipe com simulações de ataques.

A centralização de logs e eventos em um SIEM para facilitar a detecção de padrões suspeitos auxiliam bastante assim como a implementação de planos plano de resposta a incidentes e testar cenários de ataque regularmente.

Dispositivos móveis e IoT aplicar criptografia forte e gerenciar acessos em dispositivos móveis, segmentar redes para evitar que ataques em IoT comprometam sistemas críticos e um processo de atualização de firmwares e softwares regularmente para mitigar vulnerabilidades conhecidas.

Quando nos referimos a ransomware e malware avançado a prática dos processos de backups frequentes e offline para garantir a recuperação dos dados, assim como utilizar soluções EDR (Endpoint Detection & Response) para bloquear ameaças antes da execução. A implementação de listas de bloqueio para impedir downloads de arquivos maliciosos.

É a LGPD? - Os ataques de phishing e malware impulsionados por IA impactam diretamente a LGPD, pois resultam no vazamento, acesso indevido e uso não autorizado de dados pessoais e sensíveis. Isso pode gerar incidentes de segurança que obrigam as empresas a notificarem a ANPD e os titulares afetados. A LGPD exige que as organizações adotem medidas de segurança robustas para proteger dados contra acessos não autorizados. O uso de IA para deepfakes, vishing e extração de dados via malware pode violar princípios como segurança, transparência e finalidade, levando a sanções que incluem multas de até R$ 50 milhões e bloqueio do uso dos dados.

Com a ascensão da IA no cibercrime, empresas e indivíduos precisam aumentar seus níveis de proteção. A segurança cibernética deve ser proativa e contínua, combinando tecnologia, processos e conscientização para reduzir os riscos de ataques avançados.

Referencias: minutodaseguranca.blog.br, hackernoon.com, keepersecurity.com, theverge.com