맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

도커, '로컬 AI 러너' 전격 도입…개발자 친화적 AI 환경 선보인다

작성자 이미지
김민준 기자
0
1

도커가 로컬 AI 모델 실행 서비스 '도커 모델 러너'를 출시하며 생성형 AI 시장에 본격 진출했다. 로컬 GPU 가속과 통합 배포 기능으로 개발자의 생산성을 높이는 것이 핵심이다.

도커, '로컬 AI 러너' 전격 도입…개발자 친화적 AI 환경 선보인다 / TokenPost Ai

도커(Docker)가 생성형 인공지능(AI) 도입을 본격화하며 개발자 중심의 로컬 AI 모델 실행 서비스인 ‘도커 모델 러너(Model Runner)’를 공개했다. 이번 조치는 컨테이너 기술로 유명한 도커가 AI 개발 환경까지 영역을 확장하려는 전략의 일환으로, 로컬 환경에서 직접 모델을 실행하고 배포하고자 하는 개발자들의 수요에 주목해 마련됐다.

도커는 이번 신제품 출시를 통해 AI 모델의 구축, 실험, 배포 과정을 개발자가 자신의 장비에서 손쉽게 통합 운영할 수 있도록 지원한다. 특히 혼란스럽게 분산된 기존 AI 개발 도구와 복잡한 인프라 설정 과정을 대체하며, *간소화*된 워크플로우를 제공하는 데 초점을 맞췄다. 도커 모델 러너는 도커 데스크톱 4.40 버전에 포함돼 있으며, 오픈AI API와 호환되는 추론 엔진을 통해 복잡한 설정 없이 모델 개발 및 테스트를 수행할 수 있다.

로컬 GPU 가속도 주요 강점 중 하나다. 애플(Mac) 노트북 사용자들은 기기 내장 GPU를 활용해 컨테이너나 가상머신 대비 더 빠른 AI 추론 경험을 누릴 수 있다. 이러한 ‘호스트 기반 실행(host-based execution)’ 방식은 테스트 효율을 높여 개발자가 신속하게 피드백을 받을 수 있도록 돕는다.

또한 도커는 AI 모델 배포 단계도 눈여겨봤다. 모델 러너는 각 AI 모델을 OCI 아티팩트(컨테이너 오브젝트 형식)로 포장해 도커 허브나 사내 레지스트리를 통해 버전 관리할 수 있도록 지원한다. 이는 기존 CI/CD(지속적 통합/지속적 배포) 파이프라인과 자연스럽게 연동돼 자동화와 접근 제어가 용이해진다는 장점이 있다.

이러한 기능 외에도 도커는 구글(GOOGL), 퀄컴(QCOM), 허깅페이스(HuggingFace), 스프링 AI, VM웨어(VMW) 등과 전략적 제휴를 통해 모델 러너 내에서 통합 도구와 프레임워크 제공을 계획하고 있다. 개발자들은 자신이 선호하는 언어 모델과 AI 프레임워크를 동일 플랫폼 내에서 바로 활용할 수 있다는 점에서 생산성이 크게 향상될 전망이다.

도커는 이미 2023년 ‘젠AI 스택(GenAI Stack)’을 통해 AI 코드 개발 플랫폼을 선보인 바 있으며, 이번 모델 러너는 당시 프레임워크를 기반으로 더욱 향상된 확장성을 지향한다. 도커 측은 앞으로 윈도우 기반 GPU 가속 기능을 추가하고, 모델 맞춤화 기능 및 배포 옵션도 강화할 계획이라고 밝혔다.

도커는 그간 현대 애플리케이션 개발 환경에서는 없어서는 안 될 도구로 자리매김해왔으며, 이번 로컬 AI 서비스 출시는 클라우드가 아닌 로컬 컴퓨팅 환경에서 AI 개발이 필요한 수요 증가에 정확히 부합하는 대응으로 평가받고 있다. AI 모델 운영을 더 빠르고 신뢰성 있게 수행할 수 있는 기반을 마련했다는 점에서, 도커 생태계 내에서 새로운 혁신이 본격히 시작됐다고 할 수 있다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

댓글

0

추천

1

스크랩

Scrap

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 0

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요
1