기업들이 무단 AI 활용 문제로 골머리를 앓고 있다.
대기업에서 데이터 분석 및 재무 업무를 담당했던 케이티 스미스는 이전 회사가 생성형 AI 웹사이트 접근을 차단하고 유튜브까지 제한하자 개인 계정을 활용해 ChatGPT를 사용했다. 그녀는 이메일 작성 보조, 문장 교정, 프레젠테이션 제작 등을 위해 AI 기반 도구를 적극 활용했다. 스미스는 "리테일 업계는 기술 혁신에 보수적인 편"이라고 말했다.
최근 스미스는 AI 전략을 담당하는 컨설팅 회사로 이직했으며, 새로운 환경은 완전히 달랐다. 직원들에게 다양한 AI 도구와 협업 도구 사용이 허용되었기 때문이다. 이는 '섀도 AI' 현상의 단면을 보여준다. 섀도 AI란 기업의 IT 부서가 승인하지 않은 상태에서 직원들이 몰래 AI 도구를 활용하는 것을 의미한다.
기업들이 섀도 AI 사용을 통제하기 어려운 이유는 AI 채택 속도가 기존 IT 정책 수립 속도를 넘어섰기 때문이다. 보안 솔루션 업체 프롬프트 시큐리티에 따르면, 기업마다 평균 67개의 AI 도구를 활용하고 있으며, 이 중 90%는 IT 부서의 승인을 받지 않았다. IT 조직이 이를 억제하려 했지만, 과거 '섀도 IT'와 마찬가지로 현실적으로 통제하기 어려운 것이 현실이다.
AI는 기존 소프트웨어와 달리 사용자 입력 데이터를 학습 모델에 포함할 위험이 있다. 삼성전자는 2023년 직원들이 기밀 코드를 ChatGPT에 입력했다가 데이터 유출 우려를 불러일으킨 사례를 경험했다. 또한 AI는 같은 입력에도 매번 다른 결과를 내놓으며, 때로는 조작된 정보를 사실처럼 제공하기도 한다.
이에 따라 AI 사용 가이드라인을 개발하려는 움직임이 활발하다. 국제 개인정보보호협회(IAPP)는 AI 거버넌스 교육 프로그램을 운영 중이며, 현재까지 1만 2,000명 이상이 교육을 받았다. 하지만 여전히 많은 기업이 명확한 정책을 수립하지 못하고 있다. 조사에 따르면, 직원 중 14%만이 회사의 AI 정책이 ‘매우 명확하다’고 답했으며, 39%는 승인되지 않은 도구를 쉽게 사용할 수 있다고 밝혔다.
기업들은 AI 규제 강도를 놓고 고민하고 있다. 일부 기업은 ChatGPT 사용을 전면 금지하지만, 지나친 제한이 직원 불만과 생산성 저하로 이어질 수 있다. 조사에 따르면, 54%의 엔터프라이즈 직원이 필수 소프트웨어 도구를 금지한다면 이직을 고려할 것이라고 답했다.
이에 따라 기업들은 AI 통제보다는 '허용 가능한 활용 방식'을 정해 관리하는 방향으로 이동하고 있다. SAS 인스티튜트는 승인된 AI 도구 목록을 유지하고 직원들이 새로운 도구 사용을 요청할 경우 빠르게 검토하는 방식을 채택했다. 또한, 마이크로소프트의 Copilot을 도입할 때 300명의 테스트 그룹을 구성해 활용도를 분석한 후, 점진적으로 확산하는 전략을 적용했다.
이와 관련해 보안 기업 업계 관계자는 "AI 사용을 관리하려면 정책뿐만 아니라 모니터링 기술 도입이 필요하다"고 강조했다. WitnessAI 같은 기업은 직원들이 사용 중인 AI 애플리케이션을 추적해 조직 내 활동을 카탈로그화하는 서비스를 제공하며, 신뢰할 수 있는 AI 사용 환경 구축을 지원하고 있다.
전문가들은 섀도 AI가 단기적인 위험을 초래할 가능성이 있지만, 결국은 기업들이 이를 수용하고 정식으로 도입하는 방향으로 나아갈 것이라고 보고 있다. 가트너는 2026년까지 80% 이상의 소프트웨어 업체가 자체 솔루션에 AI를 포함할 것으로 전망했다.
스미스는 "기술을 이해하는 사람이라면 AI를 활용할 것"이라며 "이들이 더 높은 생산성을 원하기 때문"이라고 말했다.