챗GPT의 인기가 이어지며 인공지능(AI)가 초래할 위험성에 대한 우려의 목소리도 높아지고 있다.
미국 샌프란시스코에 위치한 비영리단체인 인공지능 안전센터(CAIS)는 지난 5월 30일 "AI 발전으로 인한 인류 멸종 위험을 줄이는 것은 팬데믹이나 핵전쟁에 대비하는 것만큼 우선적인 안건"이라는 성명을 발표했다.
해당 성명은 전세계적으로 저명한 AI 기술 연구가나 기업 간부 등 350명이 서명한 것으로 알려져 주목 받았다. 서명자에는 AI 개발 선도주자로 알려진 상위 4개사가 모두 들어갔다. 오픈AI, 구글 딥마인드, 마이크로소프트, 엔트로픽 임원들, 'AI 대부'로 불리는 제프리 힌튼 연구가도 이름을 올렸다. 힌튼은 구글에서 근무했으나, 자신이 개발직에 종사하며 보고 느낀 위험성에 대해 자유롭게 발언하겠다며 사임해 화제가 됐던 인물이다.
댄 헨드릭스 CAIS 소장은 "AI 연구자들이 이 성명에 서명한 것은 마치 원자력 과학자들이 스스로 개발한 기술에 경고를 한 것과 마찬가지"라며 논의의 장이 좀 더 넓어져야 한다고 주장했다.
반면 이런 움직임에 대해 '과하다'는 비판도 나오고 있다.
미국 메타사의 얀 루칸 AI 과학자는 "초인적 AI는 아직 존재하지 않기 때문에 멸정 위헙 목록 상위권에 들지 않는다"고 선을 그었다. 크리티컬 인사이트 위기 관리 기업의 마이클 해밀튼 공동설립자는 AI에 대해 "지극히 고도의 프로그래밍된 플랫폼"이라며 "인간이 허용하는 범위 안에서만 성장해갈 수 있을 것"이라고 AI의 성장 가능성을 한정했다. 그는 AI에 대해 "영화 터미네이터에 나왔던 것처럼 자의식을 가진 전지전능한 기술이 되지는 못할 것"이라고 내다봤다.