맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

아리스타 네트웍스, AI 가속 위한 네트워크 최적화 기술 공개

작성자 이미지
정민석 기자
1
1

아리스타 네트웍스가 AI 워크로드 최적화를 목표로 한 새로운 네트워크 기능을 발표했다. 이번 기술은 기업의 AI 클러스터 운영 효율을 극대화하는 데 초점을 맞췄다.

아리스타 네트웍스, AI 가속 위한 네트워크 최적화 기술 공개 / Tokenpost

아리스타 네트웍스(Arista Networks)가 인공지능(AI) 성능 향상을 위한 새로운 네트워크 기능을 발표했다. 이번에 공개된 기능은 AI 워크로드의 성능 최적화를 목표로 설계됐으며, 기업용 AI 클러스터의 운영 효율성을 크게 높일 것으로 기대된다.

아리스타는 자사 운영체제 EOS(Ethernet Operating System)의 ‘스마트 AI 스위트(Smart AI Suite)’에 새로운 ‘클러스터 부하 분산(Cluster Load Balancing, CLB)’ 기능을 추가했다. 이 기능은 RDMA(원격 직접 메모리 접근) 큐 페어를 기반으로 AI 클러스터 내 네트워크 트래픽을 균형 있게 분배함으로써 지연시간을 최소화하고, AI 워크로드의 일관성 유지에 기여한다. 특히 AI 클러스터에서 대역폭을 효과적으로 활용할 수 있도록 최적화해 기존 IT 네트워크의 한계를 극복할 것으로 기대된다.

새롭게 추가된 ‘클라우드비전 유니버설 네트워크 옵저버빌리티(CloudVision Universal Network Observability, CV UNO)’ 기능도 주목할 만하다. 이 기능은 네트워크와 시스템 데이터를 통합 분석해 AI 모델 학습 작업의 가시성을 높인다. 이를 통해 기업 고객들은 AI 워크로드 실행 중 발생할 수 있는 네트워크 문제를 사전에 진단하고 해결할 수 있도록 지원받게 된다.

아리스타의 AI 및 네트워크 인프라 담당 부사장 브렌던 깁스(Brendan Gibbs)는 “AI 워크로드의 약 30%가 네트워킹에 의해 결정된다”며 “기존 네트워크에서 90% 정도의 효율성이 기대되는 반면, 아리스타의 CLB 기술을 적용하면 98.3% 수준의 최적 성능을 제공할 수 있다”고 강조했다. 이는 AI 클러스터 활용도를 극대화함으로써 기업들이 더 적은 GPU 비용으로도 동일한 연산 효율을 달성할 수 있도록 돕는다는 의미다.

특히 오라클(Oracle)이 아리스타의 네트워크 솔루션을 도입해 AI 인프라를 확장하고 있다는 점도 이번 발표의 중요한 포인트다. 오라클 클라우드 인프라 부문 부사장 재그 브라(Jag Brar)는 “아리스타의 CLB 기술이 머신러닝(ML) 네트워크 내 흐름 경합을 줄이고, 전반적인 처리량을 증가시키는 데 기여할 것”이라고 평가했다.

아리스타는 CLB 기능을 현재 7260X3, 7280R3, 7500R3 및 7800R3 모델에서 즉시 이용할 수 있도록 지원하며, 7060X6 및 7060X5 모델은 올해 2분기부터, 7800R4 모델은 연말까지 지원할 계획이다. CV UNO의 AI 관찰 기능은 현재 특정 고객을 대상으로 시험 운영 중이며, 2025년 하반기 정식 공개될 예정이다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

댓글

1

추천

1

스크랩

Scrap

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 1

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

SSdc

2025.03.14 12:22:02

좋은기사 감사해요

답글달기

0

0
0

이전 답글 더보기

1