젠슨 황 "그록3 LPU, 루빈에 통합...삼성 파운드리에서 제조"(종합)
2026.03.17 08:00
올해 3분기에 양산, 차세대 파인만 소개
"내년까지 AI 칩 매출 최소 1500조원 달성"
젠슨 황 엔비디아 설립자 겸 CEO는 그록(Groq)3 언어처리장치(LPU)를 차세대 AI 플랫폼 ‘베라 루빈’에 통합한다고 밝혔다. 그록3 LPU는 삼성전자 파운드리에서 제조하며 올해 3분기 양산한다고 강조하며 삼성전자에 특별히 감사하다고 말했다.
그록 3는 일론 머스크가 설립한 AI 스타트업 xAI에서 개발한 최신 대규모 언어 모델(LLM)이다. 수학, 코딩, 과학적 추론 분야에서 특히 강점을 보인다.
황 CEO는 16일(현지시간) 미국 캘리포니아주 산호세 소재 SAP센터에서 개최한 진행한 엔비디아의 연례 개발자 회의이자 세계 최대 AI 인프라 이벤트인 ‘GTC 2026’ 기조연설에서 ‘그록3 LPU’를 베라 루빈에 통합한다고 밝혔다.
이를 통해 ‘루빈’ 그래픽처리장치(GPU)와 LPU의 역할을 나눠 방대한 데이터를 다루는 대규모 연산은 GPU가 맡고, 속도가 매우 빠른 LPU는 AI의 답변을 처리하도록 효율을 높인다는 구상이다.
황 CEO는 이와 같은 역할 분담을 통해 파라미터(매개변수)가 조 단위인 최고급 AI 모델의 추론 처리량을 35배 향상하고 저지연(low latency) 추론 능력을 높일 수 있다고 설명했다. 엔비디아는 LPU 256개를 하나로 구성한 LPX 랙을 베라 루빈에 통합했다. 이에 따라 베라 루빈 슈퍼컴퓨터의 부품은 지난 1월 CES에서 발표했을 당시의 6종에서 LPU를 포함한 7종으로 늘었다.
황 CEO는 또 기존 x86 방식의 CPU 대비 성능을 1.5배로 끌어올리고, 에너지 효율이 2배인 새 CPU ‘베라’와, 이를 256개 탑재한 CPU 랙을 선보였다. 베라 CPU에는 엔비디아가 AI 실행을 위해 직접 설계한 ‘올림퍼스’(Olympus) 코어가 장착돼 x86 CPU 대비 3배의 메모리 대역폭을 제공한다.
황 CEO는 이어 ‘루빈’의 다음 세대 GPU인 ‘파인만’도 소개했다. 파인만은 ‘로자’라는 새 CPU와 함께 구동되며 LP40 LPU를 탑재할 예정이다. 황 CEO는 “내년까지 엔비디아의 AI 칩 매출 기회가 최소 1조 달러(약 1500조 원)에 달할 것”이라고 내다봤다. 황 CEO는 추론 전용 칩을 소개하면서 “삼성이 우리를 위해 ‘그록(Groq)3’ 언어처리장치(LPU) 칩을 제조하고 있다”며 “지금 최대한 빠르게 생산을 늘리고 있다. 삼성에게 정말 감사드린다”고 말했다.
황 CEO는 해당 칩이 엔비디아의 차세대 AI 칩 ‘베라 루빈’ 시스템에 탑재된다고 설명하면서 “올해 하반기, 아마 3분기께 출하가 시작될 것”이라고 말했다. 이에 따라 삼성전자는 엔비디아의 GPU에 탑재되는 고대역폭메모리(HBM) 외에 파운드리 부문에서도 엔비디아와의 협력을 대내외에 과시할 수 있게 됐다.
한편 송용호 삼성전자 AI센터장은 오는 17일 GTC 엔비디아 특별 초청 발표에 나서 엔비디아의 AI 인프라 혁신을 뒷받침하는 삼성전자 메모리의 ‘토털 설루션’ 비전을 발표할 예정이다.
저작권 보호를 위해 본문의 일부만 표시됩니다.
원문 보기 →댓글 (0)
첫 번째 댓글을 작성해보세요!
엔비디아의 다른 소식
모든 소식을 불러왔습니다
