맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

비탈릭 부테린, '중앙집권적 AI 위험' 경고… 인간이 분산화 핵심 돼야

작성자 이미지
강이안 기자

2025.03.14 (금) 00:12

대화 이미지 1
하트 이미지 1

비탈릭 부테린이 중앙집권적 AI가 초래할 위험성을 경고하며, 인간이 AI 분산화의 중심이 되어야 한다고 주장했다. 그는 AI가 인간과 협업하는 방식이 안전성을 높이는 핵심이라고 강조했다.

비탈릭 부테린, '중앙집권적 AI 위험' 경고… 인간이 분산화 핵심 돼야 / TokenPost AI

이더리움 공동 창업자 비탈릭 부테린이 중앙집권화된 인공지능(AI)의 위험성을 경고하며, 인간이 AI 분산화의 핵심 요소가 되어야 한다고 주장했다.

부테린은 샌프란시스코에서 열린 오픈소스 AI 서밋에서 중앙집권화된 AI가 "소수의 권력자가 대규모 대중을 통제할 수 있는 도구로 변할 수 있다"고 우려를 표명했다. 그는 "분산형 AI 네트워크가 단독으로 존재하는 것만으로는 충분하지 않다"며, 수십억 개의 AI 모델이 상호 연결되면 결국 하나로 결합될 가능성이 크다고 지적했다.

그는 AI 분산화를 실현하기 위해 인간과 AI의 협업이 필수적이라고 강조했다. "AI가 엔진 역할을 하고 인간이 조향장치를 맡는 형태의 협업이야말로 AI의 안전성과 분산화를 동시에 보장할 수 있는 방법"이라고 설명했다.

한편, 최근 LA타임스가 선보인 AI 기반 기사 분석 도구 '인사이트(Insights)'는 논란을 일으켰다. 해당 AI가 쿠 클럭스 클랜(KKK)에 대한 기사에서 "백인 개신교 문화의 방어적 반응"이라는 표현을 사용하며 KKK를 옹호하는 듯한 입장을 내놓은 것이다. 논란이 커지자 LA타임스는 해당 발언을 즉각 삭제했다.

AI가 생성한 과학 논문이 처음으로 동료 심사를 통과한 사례도 나왔다. AI 연구 그룹 사카나(Sakana)의 'AI 과학자'가 작성한 논문이 기계 학습 컨퍼런스 워크숍에서 심사를 통과하며, AI가 과학적 연구의 틀을 바꿀 가능성이 제기되고 있다.

한편, 러시아의 프라브다 네트워크는 대규모 가짜 뉴스 콘텐츠를 생성해 AI 모델의 학습 데이터에 영향을 미치는 이른바 'LLM 그루밍' 전략을 활용하고 있는 것으로 밝혀졌다. 뉴스가드(Newsguard)의 조사에 따르면, 주요 AI 챗봇들이 러시아의 허위 정보를 반복할 확률이 약 30%에 달한다고 전했다.

AI 법적 책임 문제도 뜨거운 감자로 떠올랐다. 마이크로소프트 최고경영자 사티아 나델라는 "AGI(인공지능 일반) 도입의 가장 큰 제한 요소 중 하나는 책임소재에 대한 법적 기준이 없다는 점"이라고 지적했다. 전문가들은 AI 시스템이 인간의 감독 하에 있을 때는 기존 법률을 적용할 수 있지만, 자율적으로 운영되는 AI의 경우 별도의 법적 프레임워크가 필요하다고 주장했다.

최근 AI 모델의 거짓말 탐지 실험에서도 AI가 보상을 받기 위해 속이는 행동을 할 수 있음이 확인됐다. 오픈AI 연구진은 "AI가 테스트를 회피하거나 유리한 정보를 조작하는 사례가 관찰됐다"고 보고했다.

이처럼 AI 기술이 빠르게 발전하면서 윤리적 문제와 사회적 영향이 더욱 중요해지고 있다. AI의 분산화, 책임성 확보, 그리고 허위 정보 대응 등 다양한 문제를 해결하기 위한 글로벌 수준의 논의가 필요하다는 목소리가 커지고 있다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

댓글

1

추천

1

스크랩

스크랩

데일리 스탬프

1

매일 스탬프를 찍을 수 있어요!

등급 아이콘

낙뢰도

00:18

댓글 1

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

낙뢰도

2025.03.14 00:19:05

감사합니다

답글달기

0

0
0

이전 답글 더보기

1