생성형 AI 기술이 발전하면서, 보안 위협 역시 동반 상승하고 있다. AI를 활용한 새로운 형태의 사이버 공격은 기업과 공공기관에 심각한 위협이 되고 있다.
23일 한국경제에 따르면, 과기정통부와 KISA가 발표한 보고서는 AI를 활용한 사기 및 악성코드 제작 사례가 내년부터 급증할 것으로 예측했다. 다크웹에서는 Fraud GPT와 같은 악성 AI 도구가 이미 거래되고 있는 것으로 확인됐다.
보고서는 AI를 이용한 허위정보 생성이 사회적 갈등과 혼란을 가중시킬 것이라고 경고했다. 정교하게 조작된 정보는 SNS와 유튜브 등을 통해 대중에게 확산되며, 정치적 목적으로 여론을 조작하는 사례가 늘어날 것으로 보이고 있다.
AI 기술이 보안에 미치는 부정적인 영향도 강조됐다. 보고서는 API 키 탈취, 취약한 플러그인 및 확장 프로그램 등이 주요 위협 요소로 작용할 것이라고 밝혔다. 특히, 기업 내부 시스템과 연동된 AI는 민감한 데이터를 유출할 가능성이 크게 나타났다.
전문가들은 AI 기술의 도입 단계에서부터 보안을 체계적으로 구축해야 한다고 강조했다. "AI는 혁신의 도구이자 동시에 양날의 검"이라며, 효율성을 높이는 동시에 보안을 강화할 수 있는 균형 있는 접근이 필요하다는 경고를 내놓았다.
정부는 AI 기반 사이버 위협에 효과적으로 대응하기 위해 위협 탐지 기술 개발과 관련 정책 강화를 추진할 계획이다. 기업 또한 AI 도입 전에 보안 리스크를 면밀히 검토하고, 이에 대한 대비책을 마련해야 할 필요성이 강조되고 있다.
뉴스 속보를 실시간으로...토큰포스트 텔레그램 가기