맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

스탠퍼드 보고서: AI, 성능·투자·도입 속도 '역대급'… 인간 수준 추론엔 여전히 한계

작성자 이미지
김민준 기자

2025.04.07 (월) 19:57

0
0

스탠퍼드 HAI는 AI의 성능 향상, 투자 급증, 글로벌 확산이 전례 없이 빠르다고 평가했다. 그러나 인간 수준의 추론엔 여전히 한계가 존재하며 각국은 규제 마련에 속도를 내고 있다고 전했다.

스탠퍼드 보고서: AI, 성능·투자·도입 속도 '역대급'… 인간 수준 추론엔 여전히 한계 / TokenPost Ai

스탠퍼드대학교의 인간중심 인공지능연구소(Stanford HAI)가 2025년 AI 인덱스 연례 보고서를 발표하며 인공지능(AI)의 확산 속도가 전례 없이 빨라지고 있다는 분석을 내놓았다. 올해 보고서는 430쪽 분량으로, 공개된 역대 보고서 중 가장 포괄적인 형태다. 연구진은 “급격히 진화하는 AI 기술이 사회 전반에 광범위하게 영향을 미치고 있다”며 이번 보고서 발간이 중대한 시점에 이뤄졌음을 강조했다.

보고서에 따르면, 최근 1년간 AI의 성능은 MMLU, GPQA, SWE-bench 등 주요 벤치마크에서 기록적인 수준으로 향상됐다. AI가 생성하는 영상 콘텐츠나 자율작동형 AI 에이전트 또한 눈에 띄게 발전하고 있으며, 미국은 여전히 최고의 AI 모델 개발 국가로 평가받고 있지만, 중국의 추격도 만만치 않다. 2024년 미국에서 배출된 주요 AI 모델이 40개였던 반면, 중국은 15개를 출시하며 간극을 빠르게 좁히고 있다. 특히 MMLU와 HumanEval 기준으로는 양국 모델 간 성능 격차가 거의 사라진 수준이라는 분석도 나왔다.

그 배경으로는 AI 추론 비용과 인프라 구축 비용의 급락이 있었다. 보고서에 따르면 GPT-3.5 수준의 성능을 내는 모델의 추론 비용은 지난 2년간 280분의 1 수준으로 떨어졌고, 하드웨어 가격도 최근 1년 새 30% 낮아졌다. AI 시스템의 에너지 효율 또한 크게 개선돼, 올해 모델의 에너지 소비량은 전년 대비 40% 줄었다. 이로 인해 중동·동남아·중남미 등 비전통적인 AI 기술 도입 지역에서도 대형 언어모델(LLM)을 처음으로 선보일 수 있었다.

그러나 기술 발전에도 불구하고 AI는 여전히 인간 수준의 추론 능력에서는 제한을 보이고 있다. 복잡한 논리를 요구하는 산술 문제나 계획 수립 영역에서는 성능이 떨어지고, 이는 실사용에서의 제한 요소로 작용하고 있다.

한편 AI 관련 투자와 기업 도입 속도는 가파르게 증가 중이다. 2024년 한 해 동안 미국 내 AI 스타트업에는 1,090억 달러(약 157조 원)에 달하는 민간 자금이 유입됐다. 중국의 93억 달러(약 13조 4,000억 원)나 영국의 45억 달러(약 6조 5,000억 원)와 비교했을 때 규모 차이는 뚜렷하다. 특히 생성형 AI 분야에 대한 투자가 전 세계적으로 339억 달러(약 48조 8,000억 원)로 전년 대비 18% 증가하며 투자 트렌드를 주도하고 있다.

이처럼 AI에 대한 투자 증가와 함께 도입도 본격화되고 있다. 2024년 기준으로 전 세계 기업의 78%가 AI 시스템을 실제 업무에 활용 중이며, 이는 지난해 55%에서 큰 폭으로 증가한 수치다. 보고서는 AI가 업무 생산성을 높이고 단기적으로는 기술격차 문제도 일부 해소할 수 있다는 근거가 늘어나고 있다고 지적했다.

과학 분야에서의 AI 영향력도 뚜렷했다. 이번 노벨 물리학상과 생화학상은 각각 딥러닝 기반 예측 모델과 단백질 접힘 구조 예측에 AI를 활용한 연구자들에게 돌아갔다. 의료 분야에서는 미국 식품의약국(FDA)이 AI 기반 의료기기를 950여 개 품목 승인했는데, 이는 2015년에 6개에 불과했던 것에 비해 비약적인 증대다.

다만, AI에 대한 시민사회의 수용도는 국가마다 큰 차이를 보였다. 보고서에 따르면 미국 시민 중 AI를 유익하다고 평가한 비율은 39%에 불과했으며, 중국·태국·인도네시아 등에서는 75% 이상이 AI를 긍정적으로 평가했다. 교육 격차도 이어지고 있다. 세계 국가 중 3분의 2가 컴퓨터 과학 기반 교육을 도입했거나 도입할 예정이지만, 아프리카 등의 일부 지역에서는 전력 기반 인프라 부족으로 인해 접근성이 크게 떨어진다.

특히 AI 윤리와 안전에 대한 대응에서는 민간과 정부 간 온도차가 드러났다. 지난해 사이버 침투·결과 왜곡 등 AI 관련 보안 사고가 급증했지만, 주요 기술 기업들 중 여전히 안전성 평가 체계를 정립한 곳은 드물었다. 오히려 각국 정부가 책임 있는 AI 구현을 위한 규율에 적극 나서고 있다. 2024년 한 해 동안 미국 연방기관이 발의한 AI 규제안만 59건에 달해 전년 대비 두 배 이상 증가했으며, 유럽연합(EU), 아프리카연합(AU), 유엔(UN) 등의 국제기구는 책임성과 투명성, 신뢰 원칙을 담은 AI 프레임워크를 발표했다.

스탠퍼드 HAI 보고서는 AI의 영향력이 산업 경계를 넘어 문화와 교육, 제도와 의식에까지 깊숙이 스며들고 있음을 보여준다. 기술적 진보와 함께 사회적·제도적 대응이 조화를 이뤄야 할 시점이라는 지적이 이어지는 가운데, AI 기술이 향후 어떤 방향으로 나아갈지에 대한 논의는 더욱 긴박해질 것으로 보인다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

댓글

0

추천

0

스크랩

Scrap

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 0

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요
1