사이버 보안 업계가 AI 기술의 발전과 함께 새로운 도전에 직면하고 있다. 자동화 도입이 가속화되는 가운데, 인간의 역할을 어디까지 유지해야 하는가에 대한 논의가 활발해지고 있다.
미국 라스베이거스에서 열린 ‘HumanX’ 컨퍼런스에는 3,000명 이상의 참석자가 모여 AI와 보안의 균형에 대해 논의했다. 실리콘앵글 미디어(SiliconANGLE Media) 공동 창립자인 존 퓨리어는 패널 토론에서 “AI는 점점 더 정교해지고 있으나, 기업이 단 한 번의 실수를 저지르면 돌이킬 수 없는 보안 문제가 발생할 수 있다”고 강조했다.
이번 토론에는 해커원(HackerOne)의 CEO 카라 스프래그, 악소니우스(Axonius)의 공동 창립자 겸 CEO 딘 시스만, 구글의 AI 기반 법률 컴플라이언스 플랫폼 ‘체크스(Checks)’의 공동 창립자 니아 카스텔리가 참석했다. 패널들은 AI 기술이 보안 분석가들의 업무 부담을 줄이는 기회가 될 수 있다고 평가했다. 스프래그는 “보안 운영 센터(SOC)의 분석가들이 현실적으로 처리해야 할 위협이 너무 많다”며 “AI가 단순 반복적인 업무를 대신하면서 분석가들이 보다 핵심적인 보안 문제에 집중할 수 있을 것”이라고 말했다.
그러나 AI가 보안 문제를 해결할 수 있는 도구로 완전히 자리 잡기 위해서는 여전히 신뢰와 거버넌스 체계가 중요하다는 의견도 나왔다. 체크스의 카스텔리는 “신뢰가 형성된 곳에 자원이 집중될 것”이라며 “기업들은 AI 인프라 구축 초기부터 명확한 내부 거버넌스 체계를 마련해야 한다”고 강조했다.
딘 시스만은 AI 모델이 보급됨에 따라 ‘섀도 AI(Shadow AI)’가 확산될 가능성을 지적했다. 그는 “조직 내부에서 통제되지 않은 AI 도구가 사용될 경우 새로운 보안 취약점이 생길 수 있다”며, “보안팀이 모든 직원들에게 AI 보안 교육을 실시하고 책임의식을 부여해야 한다”고 말했다.
이번 패널 토론은 사이버 보안 분야에서 AI 기술이 가져올 기회와 위험 요소를 조명했다. 기업들이 AI를 도입하면서도 인간의 개입을 유지해야 하는 이유는 안전성 강화와 직결되며, 이는 향후 보안 업계가 지속적으로 고민해야 할 문제로 남을 전망이다.