인공 지능(AI) 기술의 안전을 보장하기 위한 중요한 단계로, 최근 18개 국가로 구성된 그룹이 모여 AI 모델을 보안 위반으로부터 보호하기 위한 지침을 수립했다 . 미국, 영국, 호주, 캐나다, 프랑스, 독일 등 국가가 주도한 이러한 움직임은 AI 개발 여정에서 중요한 순간을 의미한다.
20페이지에 달하는 이 지침은 11월 26일에 발표되었다. 이 지침은 AI 모델의 수명주기 전반에 걸쳐 사이버 보안의 중요성에 대해 AI 기업에 조언하는 데 중점을 두고 있다. 이 이니셔티브는 흔히 간과되는 측면인 현재 상태와 달리 보안이 AI 개발의 주요 고려 사항이 되어야 함을 강조한다.
AI 보안을 위한 필수 전략
이 문서는 AI 회사가 AI 모델의 보안을 강화하기 위한 중요한 전략을 제시한다. 주요 권장 사항에는 AI 모델의 인프라를 면밀히 모니터링하고, 모델 출시 전후에 변조 징후가 있는지 주의 깊게 감시하고, 잠재적인 사이버 보안 위험에 대해 직원 교육의 중요성을 강조하는 것이 포함된다.
그러나 지침은 AI의 일부 논란이 되는 영역을 다루지 않는다. 여기에는 이미지 생성 모델 및 딥페이크 규제에 대한 논쟁과 모델 훈련에 사용되는 데이터 수집 관행이 포함되며, 이는 여러 AI 회사를 대상으로 저작권 침해 소송을 제기한 주제이다.
글로벌 및 업계 참여
이 이니셔티브는 AI 안전 및 규제에 관한 광범위한 대화의 일부이다. 이는 이달 초 런던에서 개최된 AI 안전 서밋과 같이 정부와 AI 기업이 AI 개발에 대한 합의를 논의한 것과 같은 다른 중요한 행사에 이어진 것이다.
더욱이 유럽연합은 이 부문을 규제하기 위해 AI법을 제정하고 있다. 조 바이든 미국 대통령은 최근 AI 안전 및 보안 표준을 제정하라는 행정명령을 내렸다. 이러한 두 가지 노력 모두 엄격한 규제가 혁신을 저해할 수 있다는 두려움을 갖고 있는 AI 업계의 저항에 직면해 있다.
이러한 세계적인 노력은 현대 생활의 다양한 측면에서 AI의 영향력이 커지고 있음을 인정하면서 AI 기술의 보안과 윤리적 발전을 우선시하려는 공동의 시도를 나타낸다.
해당 기사는 이코노타임즈에 게재되어 있으며, 번역 퍼블리싱 허가를 받았습니다.