OpenAI의 수석연구원인 일리야 서츠케버는 최근 와이어드와의 단독 인터뷰에서 초지능 AI 모델의 안전과 제어를 보장하는 시급한 문제를 자세히 조명했다. 인류에게 이로운 AI를 개발하겠다는 신념으로 설립된 OpenAI는 인공지능의 급속한 발전에 따른 과제를 해결하기 위해 적극적으로 노력하고 있다.
인공지능 안전의 중요성 증대
서츠케버는 인공지능이 계속 진화함에 따라 AI 안전의 중요성이 커지고 있다고 강조했다. 그는 안전 문제를 해결하기 위한 OpenAI의 적극적인 접근 방식을 강조하면서 윤리적 고려 사항을 우선시하는 AI 기술 개발에 대한 OpenAI의 목표를 강조했다.
와이어드와의 인터뷰에서 서츠케버는 AI 개발 프로세스의 핵심에 안전 프로토콜을 통합하기 위한 OpenAI의 획기적인 계획에 대해 논의했다.
그는 윤리적 지침을 독립적으로 이해하고 준수할 수 있는 AI 시스템을 만드는 것을 목표로 하는 현재 진행 중인 연구 개발 노력에 대한 방향성을 공유했다.
OpenAI의 선구안
OpenAI의 연구진은 AI 시스템이 강력해지면서 인간의 피드백이 부족해질 수 있기 때문에 AI 모델을 훈련하는 과정을 자동화하는 방법을 모색해왔다.
연구팀은 OpenAI사의 GPT-2 텍스트 생성기를 이용해 성능을 유지하면서도 보다 최신의 첨단 시스템인 GPT-4를 학습시키는 실험을 진행했다. 그들은 더 강한 모델이 성능을 손상시키지 않으면서 더 약한 모델의 지침을 따르도록 알고리즘 수정을 도입했다.
테크크러쉬에 따르면, OpenAI의 내부 초정렬(Superalignment) 팀에 의해 수행된 연구는 초인간 인공지능을 통제하기 위한 중요한 단계를 나타낸다. 그것은 과거 인공지능 모델들이 더 발전된 인공지능을 훈련할 수 있게 하며, 초정렬의 더 넓은 도전을 다루기 위한 기초를 확립한다.
이러한 방법들이 한계가 없는 것은 아니지만, 추가적인 연구 개발을 위한 출발점을 제공한다.
OpenAI는 지속적인 연구와 협업, 보조금 지원을 통해 AI 시스템이 인간의 가치와 관심사에 부합하는 미래를 위한 길을 열어주기 위해 노력하고 있다.
[해당 기사는 이코노타임즈에 게재되어 있으며, 번역 퍼블리싱 허가를 받았습니다.]