사이버 범죄자들이 인공지능(AI) 기술을 활용한 악성 도구를 급격히 확산시키고 있다는 보고서가 나왔다. 보안 위협 분석 업체 KELA 리서치 & 전략(KELA Research and Strategy)에 따르면, 2024년 다크웹과 사이버 범죄 포럼에서 ‘악성 AI 도구’가 언급된 횟수가 전년 대비 200% 증가한 것으로 나타났다.
KELA의 ‘2025 AI 위협 보고서’에 따르면, AI 기반 보안 우회 기술인 'AI 탈옥(jailbreaking)' 논의도 52% 늘어난 것으로 확인됐다. 해커들은 AI의 보안 제한을 우회하기 위한 방법을 지속적으로 개선하고 있으며, 이 같은 기술을 활용한 공격이 점점 정교해지고 있다.
특히, 다크웹에서는 'WormGPT'와 'FraudGPT' 같은 맞춤형 악성 AI 도구가 확산되고 있다. 이들 도구는 피싱, 악성 코드 제작, 금융 사기 등을 자동화해 공격자들이 최소한의 노력으로 대규모 공격을 감행할 수 있도록 돕는다. 보안 기능이 제거된 AI 시스템을 이용하면 기술적 전문성이 부족한 범죄자조차 정교한 해킹을 시도할 수 있는 환경이 조성된다.
AI 기술을 악용한 피싱 공격도 더욱 정교해지는 추세다. 생성형 AI를 활용해 설득력 높은 사회공학적 피싱 이메일이 제작되고 있으며, 딥페이크 음성 및 영상 기술까지 결합해 기업 임원으로 가장하는 사례도 늘고 있다. 이에 따라, 직원들이 속아 자금을 이체하거나 민감한 정보를 제공하는 피해가 발생할 가능성이 높아졌다.
랜섬웨어와 정보 탈취 악성코드도 AI를 활용해 빠르게 개발되고 있다. 이에 따라 전통적인 보안 탐지 및 대응 시스템이 이를 충분히 막아내기 어려운 상황에 직면했다. KELA의 AI 제품 및 연구 책임자인 야엘 키숀(Yael Kishon)은 “사이버 범죄 생태계에서 AI의 역할이 급격히 확대되고 있다”며 “조직들은 AI 기반 보안 솔루션을 적극 도입해 이에 대응해야 한다”고 강조했다.
KELA는 이러한 위협에 맞서기 위해 ▲임직원 보안 교육 ▲AI 위협의 지속적인 모니터링 ▲자동화된 AI 기반 보안 시스템 도입을 권고했다. 특히, AI 모델을 대상으로 한 모의 해킹(red teaming)과 적대적 시뮬레이션(adversary emulation) 기법을 활용해 보안 취약점을 사전에 점검하는 것이 중요하다고 밝혔다.