Relatório da Microsoft revela novas táticas criminosas
O departamento de inteligência de ameaças da Microsoft emitiu um alerta crítico sobre a crescente utilização de ferramentas de inteligência artificial (IA) por cibercriminosos para acelerar e ampliar o alcance de seus ataques digitais. O relatório destaca que os grupos maliciosos estão adotando recursos generativos para criar e-mails de phishing mais convincentes, desenvolver malwares mais sofisticados e automatizar a configuração de infraestruturas de ataque.
Segundo os especialistas, a IA está eliminando barreiras técnicas que antes dificultavam a ação dos criminosos. A tecnologia é utilizada para traduzir conteúdos, resumir dados roubados e até mesmo criar identidades e currículos mais realistas para facilitar a obtenção de empregos na área de TI, um vetor de ataque conhecido como "whaling" corporativo.
Campanhas específicas e grupos identificados
A Microsoft identificou uma campanha específica movida por um grupo hacker norte-coreano chamado Coral Sleet. Este grupo utiliza a IA generativa para gerar sites clonados de empresas de maneira ágil, abastecer a infraestrutura de ataque e solucionar possíveis problemas de implementação sem intervenção humana direta.
Para conseguir tais feitos, os golpistas apostam no jailbreaking, processo de exploração de vulnerabilidades para remover limitações do sistema visado e, dessa forma, enganar os grandes modelos de linguagem (LLM) para que eles gerem códigos maliciosos. Essa técnica permite que criminosos com pouca expertise técnica executem operações complexas.
Implicações para o mercado brasileiro
Com recursos de inteligência artificial em mãos, diversos grupos criminosos conseguem promover ataques remotamente. No contexto brasileiro, empresas que dependem de processos de contratação digital ou que possuem sistemas de atendimento automatizados podem ser alvos preferenciais. A rapidez na cadeia de ataque, desde o reconhecimento de vítimas até as atividades maliciosas após o comprometimento de sistemas, exige uma atualização imediata das defesas corporativas.
As ferramentas generativas ainda eliminam barreiras técnicas que poderiam dificultar a ação dos criminosos na hora da concretização dos ataques. A Microsoft recomenda que as organizações monitorem o uso de IA em seus ambientes e implementem controles de segurança que identifiquem comportamentos anômalos gerados por esses modelos.
Recomendações de segurança
Os especialistas sugerem que as empresas revisem suas políticas de segurança para incluir a verificação de conteúdo gerado por IA. Além disso, é crucial manter os sistemas de detecção de intrusão atualizados para identificar padrões de ataque que utilizam essas novas tecnologias. A conscientização dos colaboradores sobre os riscos de interagir com conteúdo gerado por IA também é fundamental para mitigar esses riscos.