전 오픈AI 최고과학자였던 일리야 서츠케버가 AI 안전성 연구에 중점을 둔 SSI(Safe Superintelligence, Inc.)를 설립했다.
19일(현지시간) 코인텔레그램에 따르면 오픈AI의 공동 창립자이자 전 최고과학자인 일리야 서츠케버와 전 오픈AI 엔지니어 다니엘 레비는 스타트업 엑셀러레이터 Y 콤비네이터의 전 파트너이자 투자자인 다니엘 그로스와 함께 SSI를 설립했다고 6월 19일 온라인 발표에서 밝혔다. SSI는 미국에 본사를 두고 팔로알토와 텔아비브에 사무실을 운영하며, AI의 안전성과 능력을 동시에 개발할 계획이라고 밝혔다. 그들은 "우리의 단일 목표는 관리 감독이나 제품 사이클의 방해 없이, 안전, 보안, 진보를 단기 상업적 압력으로부터 보호하는 비즈니스 모델을 가진다"고 강조했다.
서츠케버와 그로스는 이미 AI 안전성에 대해 우려하고 있었다. 서츠케버는 5월 14일 오픈AI를 떠났다. 그는 CEO 샘 올트먼의 해고에 관여했으며, 올트먼이 복귀한 후 이사회에서 물러난 후 애매한 역할을 했다. 다니엘 레비는 서츠케버가 떠난 며칠 후 오픈AI를 떠난 연구진 중 한 명이다.
서츠케버와 얀 라이케는 2023년 7월에 생성된 오픈AI의 수퍼얼라인먼트 팀의 리더였으며, "우리보다 훨씬 더 똑똑한 AI 시스템을 어떻게 조종하고 통제할 것인가"를 고민했다. 이러한 시스템을 인공지능 일반지능(AGI)이라고 한다. 오픈AI는 팀 생성 당시 수퍼얼라인먼트 팀에 컴퓨팅 파워의 20%를 할당했다. 라이케도 5월에 오픈AI를 떠나 지금은 아마존이 지원하는 AI 스타트업 앤트로픽의 팀을 이끌고 있다. 오픈AI는 회사 사장 그레그 브록만의 긴 X 포스트에서 안전 관련 예방 조치를 옹호했지만, 5월에 연구진이 떠난 후 수퍼얼라인먼트 팀을 해체했다.
다른 주요 기술 인사들도 AI의 미래 방향에 대해 우려하고 있다. 이더리움(Ethereum) 공동 창립자 비탈릭 부테린은 AGI를 "위험"하다고 표현하면서도 "이러한 모델은 기업의 독점주의와 군대보다 파멸 위험이 훨씬 낮다"고 언급했다. 테슬라 CEO 엘론 머스크와 애플 공동 창립자 스티브 워즈니악은 AI 시스템 훈련을 6개월간 중단할 것을 촉구한 2,600명이 넘는 기술 리더 및 연구원들 중 한 명이었다.
SSI의 발표에서는 회사가 엔지니어와 연구원을 채용 중이라고 밝혔다.
뉴스 속보를 실시간으로...토큰포스트 텔레그램 가기