오픈AI(OpenAI)는 자사의 최신 인공지능 모델 GPT-4o가 정치적 설득에 '중간 위험'을 지니고 있다고 발표했다. 그러나 자율적으로 업데이트하거나 인류에게 해를 끼칠 가능성은 낮다고 평가했다.
9일(현지시간) 코인텔레그래프에 따르면, 오픈AI는 GPT-4o 인공지능 모델이 정치적 의견 형성에 중간 수준의 설득 위험을 가지고 있다고 밝혔다. 오픈AI는 '시스템 카드'라는 문서를 통해 GPT-4o의 안전성 테스트 결과를 공개했으며, 이 모델이 사이버 보안, 생물학적 위협, 모델 자율성 측면에서 '낮은 위험'을 나타냈다고 평가했다. 이는 이 AI가 자율적으로 행동해 인류에게 직접적인 해를 끼칠 가능성이 거의 없음을 의미한다.
GPT-4o는 정치적 주제에 대해 텍스트를 생성할 때 설득력이 중간 수준에 도달했다고 오픈AI는 평가했다. 오픈AI는 12개의 정치적 주제에서 GPT-4o의 설득력을 전문 작가의 글과 비교했으며, 그 중 세 가지 주제에서는 AI가 인간보다 더 설득력 있는 결과를 내놓았다고 밝혔다.
GPT-4o는 자율적으로 행동하거나 스스로 코드를 업데이트하는 능력에서 낮은 점수를 받았다. 오픈AI는 이 모델이 자율적으로 행동할 수 없음을 확인했다.
뉴스 속보를 실시간으로...토큰포스트 텔레그램 가기