아리스타 네트웍스, AI 가속 위한 네트워크 최적화 기술 공개

| 정민석 기자

아리스타 네트웍스(Arista Networks)가 인공지능(AI) 성능 향상을 위한 새로운 네트워크 기능을 발표했다. 이번에 공개된 기능은 AI 워크로드의 성능 최적화를 목표로 설계됐으며, 기업용 AI 클러스터의 운영 효율성을 크게 높일 것으로 기대된다.

아리스타는 자사 운영체제 EOS(Ethernet Operating System)의 ‘스마트 AI 스위트(Smart AI Suite)’에 새로운 ‘클러스터 부하 분산(Cluster Load Balancing, CLB)’ 기능을 추가했다. 이 기능은 RDMA(원격 직접 메모리 접근) 큐 페어를 기반으로 AI 클러스터 내 네트워크 트래픽을 균형 있게 분배함으로써 지연시간을 최소화하고, AI 워크로드의 일관성 유지에 기여한다. 특히 AI 클러스터에서 대역폭을 효과적으로 활용할 수 있도록 최적화해 기존 IT 네트워크의 한계를 극복할 것으로 기대된다.

새롭게 추가된 ‘클라우드비전 유니버설 네트워크 옵저버빌리티(CloudVision Universal Network Observability, CV UNO)’ 기능도 주목할 만하다. 이 기능은 네트워크와 시스템 데이터를 통합 분석해 AI 모델 학습 작업의 가시성을 높인다. 이를 통해 기업 고객들은 AI 워크로드 실행 중 발생할 수 있는 네트워크 문제를 사전에 진단하고 해결할 수 있도록 지원받게 된다.

아리스타의 AI 및 네트워크 인프라 담당 부사장 브렌던 깁스(Brendan Gibbs)는 “AI 워크로드의 약 30%가 네트워킹에 의해 결정된다”며 “기존 네트워크에서 90% 정도의 효율성이 기대되는 반면, 아리스타의 CLB 기술을 적용하면 98.3% 수준의 최적 성능을 제공할 수 있다”고 강조했다. 이는 AI 클러스터 활용도를 극대화함으로써 기업들이 더 적은 GPU 비용으로도 동일한 연산 효율을 달성할 수 있도록 돕는다는 의미다.

특히 오라클(Oracle)이 아리스타의 네트워크 솔루션을 도입해 AI 인프라를 확장하고 있다는 점도 이번 발표의 중요한 포인트다. 오라클 클라우드 인프라 부문 부사장 재그 브라(Jag Brar)는 “아리스타의 CLB 기술이 머신러닝(ML) 네트워크 내 흐름 경합을 줄이고, 전반적인 처리량을 증가시키는 데 기여할 것”이라고 평가했다.

아리스타는 CLB 기능을 현재 7260X3, 7280R3, 7500R3 및 7800R3 모델에서 즉시 이용할 수 있도록 지원하며, 7060X6 및 7060X5 모델은 올해 2분기부터, 7800R4 모델은 연말까지 지원할 계획이다. CV UNO의 AI 관찰 기능은 현재 특정 고객을 대상으로 시험 운영 중이며, 2025년 하반기 정식 공개될 예정이다.