기술 기업들이 AI 개발을 ‘오픈’이라고 선언하며 투명성을 강조하고 있지만, 실제로는 부분적인 개방만 이루어지고 있다는 지적이 나오고 있다. AI 기술이 급속도로 발전하면서 개방성과 투명성은 그 어느 때보다 중요한 가치로 자리 잡았지만, 실질적인 의미의 ‘오픈소스’ AI는 거의 존재하지 않는다는 비판이 제기된다.
특히, 일부 기업들은 AI 모델의 핵심 요소를 비공개로 유지하면서도 ‘오픈소스 AI’를 마케팅 도구로 활용하고 있다. 예를 들어, 메타는 'Llama 3.1 405B' 모델을 공개하며 ‘오픈소스 AI’로 내세웠지만, 실제로는 훈련 데이터와 소스 코드를 전면 공개하지 않았다. 이러한 방식은 AI의 발전을 위한 개방적 협업을 저해할 뿐 아니라, 기술 신뢰성에도 부정적 영향을 끼칠 수 있다.
AI 시스템의 안전성과 윤리성을 검토하기 위해서는 단순히 모델의 가중치를 공유하는 수준을 넘어, 데이터셋, 알고리즘, 하이퍼파라미터 등을 전반적으로 투명하게 공개해야 한다는 것이 전문가들의 의견이다. 실제로, 오픈소스 AI의 힘은 다수의 연구자와 개발자들이 공동으로 검증하고 발전시킬 수 있다는 점에서 나온다.
이와 관련해 스탠포드 대학의 최근 연구에서는 AI 모델의 성능 평가 기준이 불완전하다는 점이 지적되었다. 데이터셋이 지속적으로 변화하는 환경에서 기존 벤치마크 방식만으로는 AI의 신뢰성을 충분히 담보할 수 없다는 것이다. 따라서 AI 시스템의 전반적인 구조와 학습 과정이 보다 개방적으로 운영될 필요가 있다는 목소리가 높아지고 있다.
기존의 ‘부분적 개방’ 방식에서 벗어나 AI의 진정한 개방성과 투명성을 확보하기 위해서는 기술 기업들이 보다 적극적으로 협업하고, 오픈소스 생태계를 강화해야 한다. AI의 미래가 특정 기업의 이익만을 위한 것이 아니라, 보다 광범위한 사회적 이익을 창출할 수 있도록 하기 위한 노력이 필요한 시점이다.