맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

오픈AI, 고급 음성 모드 알파 버전 출시

작성자 이미지
김민준 기자

2024.08.01 (목) 18:10

대화 이미지 0
하트 이미지 3

오픈AI는 여러 차례의 지연 끝에 많은 기대를 모았던 챗GPT의 '고급 음성 모드(Advanced Voice Mode, AVM)'를 선택된 사용자에게 알파 버전으로 출시했다.

31일(현지시간) 코인텔레그래프에 따르면, 오픈AI는 AVM 기능을 처음 발표하고 시연한 것은 지난 5월이었다. 이 기능은 사용자가 텍스트-음성 합성 모듈을 통해 챗GPT 인공지능 모델과 실시간으로 대화할 수 있게 해준다.

2018년 구글(Google)의 '듀플렉스(Duplex)' AI 서비스 발표를 기억하는 사람들도 있을 것이다. 구글은 개발자 행사에서 AI 시스템이 사용자 대신 실시간으로 상점에 전화를 걸어 약속을 잡을 수 있는 기능을 선보였다. 구글에 따르면 AI는 일상적인 대화를 처리하고 정확한 정보를 확인할 수 있을 정도로 견고해야 했다. 듀플렉스 프로젝트는 결국 중단되었지만, 그 유산은 오픈AI의 챗GPT에 이어지고 있는 것으로 보인다.

AVM 기능은 인간 간의 대화를 모방하려는 실시간 커뮤니케이션을 특징으로 한다. 챗GPT는 자연스러운 억양을 가진 인간 같은 목소리로 사용자 질문에 응답한다. 사용자는 챗봇의 문장을 중간에 끊을 수 있으며, 시연에 따르면 챗GPT는 이전에 언급된 내용을 기억할 수 있다. 오픈AI는 기능의 성능과 안전성을 평가하기 위해 제한된 알파 버전으로 기능을 출시한다고 밝혔다. 5월의 시연은 인상적이었지만, 몇몇 버그가 있었고 기술이 악용될 수 있는 시나리오도 상상하기 어렵지 않다.

오픈AI는 안전성을 최우선 과제로 삼았다고 밝혔다. 기능 출시를 발표한 X 포스트에서 오픈AI는 "GPT-4의 음성 기능을 45개 언어로 100명 이상의 외부 레드팀원들과 테스트했다. 사람들의 사생활을 보호하기 위해 모델을 네 가지 사전 설정된 목소리로만 말하도록 훈련시켰고, 그 목소리와 다른 출력을 차단하는 시스템을 구축했다. 또한 폭력적이거나 저작권이 있는 콘텐츠에 대한 요청을 차단하는 안전 장치를 구현했다."고 전했다.

오픈AI에 따르면 AVM의 단계적 출시가 이미 시작되었으며, 더 많은 사용자가 순차적으로 추가될 예정이다. 이 기능은 가을까지 모든 플러스 구독자에게 제공될 것으로 예상된다.

뉴스 속보를 실시간으로...토큰포스트 텔레그램 가기

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

많이 본 기사

관련된 다른 기사

댓글

0

추천

3

스크랩

스크랩

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 0

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요
1