맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

프랑스 AI 스타트업, 다국어 RAG 특화 초경량 모델 2종 공개

작성자 이미지
김민준 기자
0
0

프랑스 AI 스타트업 플레이어스가 다국어 지원 및 인용 기능을 갖춘 RAG 최적화 LLM 두 종을 오픈소스로 공개했다. 해당 모델은 Llama 3.1-8B 등 대형 오픈모델보다 높은 추론 성능을 보였다고 전했다.

프랑스 AI 스타트업, 다국어 RAG 특화 초경량 모델 2종 공개 / TokenPost Ai

프랑스 AI 스타트업 플레이어스(Pleias)가 RAG(검색 기반 생성) 및 다국어 구조화 출력에 최적화된 새로운 스몰 스케일 모델 두 종을 공개하며 주목받고 있다. 이들 신모델은 오픈 소스 형태로 제공되며, 삽입 인용 기능을 기본 탑재해 사실 기반 응답의 정확성과 검증 가능성을 한층 끌어올렸다.

이번에 출시된 모델은 Pleias-RAG-350M과 Pleias-RAG-1B로, 각각 CPU에 최적화된 GGUF 형식도 함께 제공된다. 이로써 총 4가지 변형 모델이 공개되며, 모두 아파치 2.0 라이선스로 사용이 가능하다. 즉, 기업들은 해당 모델을 상업적 목적으로 자유롭게 수정·배포할 수 있다.

플레이어스는 지난해 말, 공공 데이터 및 저작권이 없는 정보를 기반으로 학습한 ‘Pleias 1.0’ LLM 시리즈로 기술 업계의 관심을 끌었다. 이번에 공개된 RAG 전용 모델들은 그 연장선에서 개발된 제품으로, 기업과 연구자들에게 비용 효율적인 대안을 제시하는 데 목적이 있다.

RAG 모델은 GPT-4o, 제미니 2.5, 클로드, 커맨드-A 같은 대형 LLM에 외부 문서를 연결해 AI 응답을 보완하는 데 사용되는 기술이다. 특히 사내 정책이나 제품 목록 같은 내부 문서를 정확히 참조해야 하는 챗봇 및 AI 시스템 구축에 적합하다. Pleias-RAG 시리즈는 이러한 요구에 특화되어, 내장된 위키피디아 스타일 인용 구문을 통해 응답 내에서 직접 출처를 표시하는 방식으로 설계됐다.

각 모델은 입력 언어 감지, 질의 분석, 소스 평가, 구조화된 응답을 포함하는 ‘준에이전트형(proto-agentic)’ 구조를 갖추고 있다. 작은 크기임에도 자율 판단 기능을 일부 제공하며, 특히 Pleias-RAG-350M은 모바일 수준의 CPU 환경에서도 약 20초 내에 완성된 논리 응답을 생성할 수 있다고 전해진다.

내부 벤치마크에 따르면, 이들 두 모델은 문서 간 추론을 요하는 HotPotQA, 2WikiMultiHopQA, MuSiQue 등의 대표적인 RAG 평가에서 Llama 3.1-8B, Qwen 2.5-7B 같은 대형 오픈 모델들을 능가했다. 또한 프랑스어, 독일어, 스페인어, 이탈리아어 등 유럽 언어 기반 테스트에서도 성능 저하가 거의 없었다. 플레이어스의 알렉산더 도리아 공동 창업자는 “비영어권에서 성능이 대폭 하락하는 기존 SLM의 한계를 극복하고자 했다”며 “다국어 지원을 위해 언어 전환 시나리오를 포함한 적대적 학습 방식을 도입했다”고 설명했다.

도리아는 이번 모델들이 다른 대형 LLM과 결합해 사용하는 ‘오케스트레이션’ 구조에도 적합하다고 덧붙였다. 실제 내부 테스트에서는 350M 모델이 Llama나 Qwen 같은 경쟁 모델과 명확히 다른 결과를 도출하며 상호 보완 가능성을 입증했다고 밝혔다.

학습 자료는 ‘Common Corpus’를 기반으로 생성한 300만 개의 RAG 학습 예제를 활용했으며, 추론 데이터를 생성하기 위해 구글의 제마(Gemma)도 함께 사용되었다. 이 역시 라이선스 상 재사용이 가능했기 때문에 가능한 접근이었다.

플레이어스는 이 모델들을 검색 기반 비서, 교육 도구, 고객 지원 시스템 같은 영역에 적극 활용할 수 있도록 API 및 알기 쉬운 입출력 포맷도 함께 제공하고 있다. 단순 대화형 봇 대신 구조화된 추론 기능을 원하는 기업에게 최적화된 접근이라는 설명이다.

향후 계획으로는 더 긴 문맥 처리, 검색 통합 강화, 일관된 정체성을 위한 인격화 튜닝 등이 포함됐다. 특히 인용 정확도 향상이라는 정량적 지표를 활용한 강화학습도 검토 중이다.

끝으로 도리아는 장기적으로 현재의 RAG 파이프라인 자체가 AI의 자가 워크플로우 조정 능력으로 대체될 것이라고 전망했다. 그는 “우리는 기존 RAG 애플리케이션 외부에 있던 기능들—예컨대 질의 재구성, 재랭킹 등을—이미 모델 내에 통합했다”며 “향후에는 검색 에이전트를 중심으로 구조가 재편될 것이며, RAG는 점차 AI 자신에 의해 내재화되어 사라질 것”이라고 밝혔다.

플레이어스는 이번 신제품을 통해 소규모 LLM이 적절한 추론 구조와 검증 가능한 결과물을 갖출 경우, 언어 및 인프라 제약이 있는 환경에서도 대형 모델과 경쟁할 수 있다는 점을 재확인시키고 있다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

주요 기사

[자정 뉴스브리핑] 컴벌랜드, 코인베이스에 $2.1억 BTC 입금 外

댓글

0

추천

0

스크랩

Scrap

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 0

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요
1