AI 에이전트의 윤리·책임 잡는다…카네기멜런대, 'LOKA'로 차세대 표준 도전

| 김민준 기자

AI 에이전트의 상호운용성을 둘러싼 논의가 점차 활기를 띠고 있는 가운데, 카네기멜런대학교 연구진이 차세대 표준으로 제안한 ‘LOKA’ 프로토콜이 주목을 받고 있다. LOKA(Layered Orchestration for Knowledgeful Agents)는 AI 에이전트의 정체성, 책임, 윤리를 관리할 수 있도록 고안된 오픈소스 상호운용 프레임워크로, 구글의 Agent2Agent(A2A)나 앤트로픽의 MCP(Model Context Protocol)와 경쟁 구도에 들어설 가능성이 제기된다.

연구진은 “AI 에이전트가 점차 보편화됨에 따라, 이들이 상호작용하는 방식에 대한 표준화가 시급하다”고 강조했다. 현재 대부분의 에이전트가 독립적인 폐쇄형 시스템에서 운영되기 때문에, 공통 프로토콜 없이 상호 소통이나 제어, 윤리적 판단 기준 없이 운용된다는 점은 심각한 리스크로 작용한다. 이를 해결하기 위한 대안으로 제시된 것이 바로 LOKA다.

LOKA는 독립적이고 검증 가능한 정체성을 부여하는 ‘범용 에이전트 신원 계층(Universal Agent Identity Layer)’을 핵심 구조로 채택하고 있다. 여기에 윤리적 주석이 달린 메시지 교환, 책임 추적, 의사결정 전반에 걸친 윤리적 거버넌스를 추가해 에이전트의 행동을 투명하게 관리할 수 있는 기반을 마련한다.

이 프레임워크는 총 4개 계층으로 구성된다. 첫 번째는 분산형 식별자를 기반으로 한 신원 계층이다. 사용자가 해당 에이전트의 존재와 진위를 암호학적으로 검증할 수 있으며, 이는 향후 상호 신뢰 형성의 핵심 요소로 작용한다. 두 번째는 통신 계층으로, 에이전트 간 과업과 의도를 명확히 전달하는 역할을 한다. 그 다음은 윤리 계층인데, 이 부분에서는 상황에 맞춰 유연하게 적용 가능한 윤리적 의사결정 모델이 도입된다. 마지막으로 보안 계층에서는 양자 내성 암호화(Quantum-resilient cryptography)를 적용해 외부 침해로부터 시스템을 보호한다.

카네기멜런대학교 소속 연구자 라제시 란잔(Rajesh Ranjan)은 “우리는 에이전트 간 상호작용의 핵심 요소인 정체성, 신뢰, 의도, 윤리적 합의에 대한 재정의가 시급하다고 판단했다”며 “LOKA는 이러한 기준을 체계화하고 투명하게 만드는 데 기여할 것”이라고 밝혔다.

무엇보다 LOKA의 차별점은 에이전트가 다른 시스템 상에서 자율적으로 작동하더라도, 그 의사결정 과정과 행동에 대한 책임을 명확히 추적할 수 있다는 점이다. 이는 기업 입장에서 보안성과 투명성을 동시에 확보할 수 있는 해답으로 작용할 수 있다. 란잔은 “현재 기업들이 가장 우려하는 부분은 AI 에이전트가 무단으로 시스템에 접근하거나 개인정보를 잘못 처리하는 경우”라며 “LOKA는 모든 행동의 근거를 확인할 수 있는 방식으로 설계됐다”고 설명했다.

다만, LOKA가 기존 프로토콜을 대체하거나 주류로 성장하기 위해서는 극복해야 할 과제도 있다. A2A는 구글, MCP는 앤트로픽이라는 확고한 기술 기반 기업의 지원을 등에 업고 빠르게 확산되고 있다. 이들 프로젝트는 기술적 완성도는 물론, 산업계의 신뢰와 협업 파트너를 바탕으로 매력적인 표준으로 부상 중이다.

란잔은 “LOKA는 독립적으로 출발했지만, 학계와 산업계에서 매우 긍정적인 피드백을 받고 있다”고 강조하며, 향후 연구 범위를 확대하고 관련 기관과의 협력도 추진할 계획임을 밝혔다. AI 산업이 ‘에이전트 중심’으로 재편되는 과정 속에서 정체성과 윤리라는 문제를 정면 돌파하려는 시도가 LOKA를 중심으로 가속화될지 주목된다.