새로운 AI 모델인 Groq은 빠른 응답 속도와 GPU를 대체할 수 있는 혁신적인 기술로 인기를 얻고 있다. Groq Inc에서 개발한 이 모델은 언어 처리 장치(LPU)로 알려진 맞춤형 ASIC 칩을 사용하여 ChatGPT와 같은 기존 GPU 기반 모델을 훨씬 능가하는 속도를 달성한다. 주요 AI 개발자들이 엔비디아 칩의 대안을 찾고 있는 가운데, Groq의 LPU는 짧은 지연 시간과 고성능을 요구하는 애플리케이션에 적합한 솔루션을 제시힌다.
20일(현지시간) 코인텔레그래프에 따르면 Groq은 초고속 응답 속도와 혁신적인 기술로 소셜 미디어에서 화제를 불러일으키고 있는 새로운 AI 모델로, GPU가 필요 없을지도 모른다. X에서 성능 테스트가 널리 퍼지면서 인기 있는 AI 챗봇인 ChatGPT보다 훨씬 빠른 것으로 나타나면서 하룻밤 사이에 유명세를 얻었다. 이러한 속도는 Groq의 팀이 대규모 언어 모델(LLM)을 처리하기 위해 ASIC이라는 특수 칩을 개발하여 초당 약 500개의 토큰을 처리할 수 있는 반면 ChatGPT-3.5는 초당 약 40개의 토큰만 관리할 수 있기 때문이다.
이 모델을 개발한 Groq Inc는 일반적으로 AI 모델에 사용되는 비싸고 구하기 어려운 GPU 대신에 최초의 언어 처리 장치(LPU)를 만들었다고 주장한다. 흥미롭게도 Groq Inc는 2016년에 설립되어 Groq이라는 상표를 등록한 신생 기업이 아니다.
지난 11월, 같은 이름이지만 철자가 'k'로 시작하는 엘론 머스크의 자체 AI 모델이 주목을 받기 시작하자, 원래 Groq 개발자들은 유사성과 제품의 속도를 이유로 머스크에게 다른 이름을 선택해 달라고 요청하는 블로그 게시물을 작성했다.
Groq의 소셜 미디어에서의 유명세에도 불구하고, 머스크나 X의 Grok 페이지에서는 이름 유사성에 대해 언급하지 않았다. 그러나 플랫폼 사용자들은 Groq의 LPU 모델을 다른 GPU 기반 모델과 비교하기 시작했다.
한 AI 개발자는 빠른 응답이 필요한 애플리케이션을 위한 "게임 체인저"라고 Groq을 불렀고, 다른 개발자는 GPU보다 성능이 뛰어나고 현재 수요가 많은 Nvidia의 고성능 A100 및 H100 칩과도 경쟁할 수 있는 잠재력을 언급하기도 했다. 이러한 추세는 주요 AI 개발자들이 엔비디아 모델에 대한 의존도를 줄이기 위해 자체 칩을 개발하는 등 업계의 광범위한 움직임을 반영한다.
예를 들어, OpenAI는 자체 칩을 개발하고 제품의 확장 문제를 해결하기 위해 상당한 자금을 찾고 있는 것으로 알려졌다.