메타플랫폼스(Meta)가 차세대 대형 언어모델(LLM)인 ‘라마4(Llama 4)’ 시리즈를 전격 공개하며 오픈소스 인공지능(AI) 시장의 중심에 다시 한번 섰다. 이번에 발표된 모델들에는 고성능 멀티모달 처리 능력과 효율적인 연산 구조를 겸비한 것이 특징이며, 메타는 이를 “가장 앞선 AI 모델”로 자평하고 있다.
라마4 시리즈는 스카우트(Scout), 매버릭(Maverick), 베히모스(Behemoth)라는 세 가지 하위 모델로 구성됐다. 이 가운데 스카우트는 단일 엔비디아(Nvidia) H100 GPU에서도 작동 가능하도록 최적화된 경량 모델로, 성능과 효율성 면에서 구글(GOOG)의 제마(Gemma)3 및 제미니(Gemini) 2.0, 미스트랄의 3.1 모델을 능가하는 성능을 입증했다고 메타는 설명했다.
매버릭은 그보다 대형 모델로, 코드 작성, 창의적 글쓰기, 수학 문제 해결, 이미지 및 영상 인식 등 복합 태스크 처리에서 GPT-4o 및 제미니 2.0과 견줄 수 있는 수준이다. 특히 딥씨크(DeepSeek)의 V3 모델과 비교해 절반 수준의 파라미터만으로도 유사한 추론 성능을 보이며 비용 효율성에서도 우위를 점했다.
가장 큰 관심은 아직 출시 전 단계에 있는 라마4 베히모스에 쏠리고 있다. 2,880억 개의 활성 파라미터와 총 2조 개에 달하는 파라미터로 구성될 이 모델은 현재 훈련 과정을 진행 중이며, 메타는 이를 세계 최고 수준의 베이스 모델로 정의하고 있다. 메타는 이 베히모스를 활용해 지식 압축 방식의 ‘디스틸레이션(distillation)’을 통해 작은 모델들에 학습 내용을 전수하고 있으며, 초기 테스트 결과 GPT-4.5와 클로드 소넷3.7을 STEM(과학, 기술, 공학, 수학) 분야에서 압도했다고 밝혔다.
메타는 또한 모달리티(다중 데이터 형식 처리)에서의 기술 혁신도 강조했다. 텍스트, 이미지, 음성, 영상 등 다양한 입력을 동시에 이해하고 처리할 수 있게 설계됐으며, 이를 토대로 보다 현실적인 응답과 복잡한 태스크 수행이 가능해졌다. 이는 고차원 추론을 기반으로 한 차세대 ‘AI 에이전트’ 구현을 위한 핵심 기반 기술로 평가된다.
클라우드나 특수 하드웨어 환경 없이도 고성능 모델이 작동할 수 있도록 메타는 'Mixture-of-Experts'라는 구조를 채택했다. 이는 모델 전체를 동원하는 대신 작업에 필요한 일부 전문가 모듈만 활성화함으로써 속도와 전력 효율을 끌어올리는 방식이다.
성능에 더해 메타는 모델의 균형성과 안전성 확보에도 집중했다. 정치적 편향이나 유해 발언에 대한 대응 알고리즘을 강화했으며, 논란의 여지가 있는 질문에 대해 중립적이고 일관된 반응을 유도하도록 설계했다. 사용자의 신뢰를 확보하면서도 AI가 회피하지 않고 핵심을 짚을 수 있도록 조율한 것이다.
마크 저커버그(Mark Zuckerberg) 메타 CEO는 "우리가 추구하는 목표는 전 세계 모든 사람들이 혜택을 받을 수 있도록 세계 최고 수준의 AI를 오픈소스로 개방하는 것"이라며, “라마4는 그 가능성을 실현하는 이정표가 될 것”이라고 밝혔다.
신모델 공개와 함께 메타는 오는 4월 29일 첫 라마콘(LlamaCon)을 개최하고, 이 자리에서 라마4 베히모스를 공개할 가능성도 시사했다. 아울러 독립형 메타 AI 애플리케이션도 공식 발표될 것으로 전망된다. AI 생태계의 무게 중심이 클로즈드에서 오픈소스로 이동하는 시점에서, 메타의 이번 행보는 단순한 모델 출시에 그치지 않고 AI 산업 전체의 판도를 바꿀 신호탄이 될 수 있다.