딥시크, 최신 모델 V4 발표...“효율성, 세계 최고”
2026.04.25 07:00
추론 능력, 정상급 모델과 비견
중국産 칩과의 협업 강조
딥시크는 24일(현지 시간) 소셜미디어를 통해 “완전히 새로운 시리즈의 모델 ‘딥시크-V4’ 프리뷰 버전을 정식 발표한다”면서 V4 플래시와 V4 프로 시리즈를 공개했다. V4 프로는 1.6조 개 파라미터를 갖춘 회사 최대 규모 모델이며, V4 플래시는 2840억 개 파라미터를 가진 경량 모델이다. 일반적으로 파라미터 수가 많을수록 성능이 향상되지만 연산 비용도 증가한다.
V4 모델은 100만 토큰 길이의 긴 문맥을 기억할 뿐만 아니라 에이전트 능력과 전반적 지식, 추론 능력 등에서 중국 국내 및 오픈소스 영역의 선두에 있다고 딥시크는 설명했다. 또한 전반적 지식 측면에서는 최고의 폐쇄형 소스 모델인 ‘제미나이 프로 3.1’에만 약간 못 미치고, 추론 능력도 세계 정상급 폐쇄형 소스 모델과 비견할 만하다며 에이전트 능력이 오픈소스 모델 중 최고 수준이라고 밝혔다. V4 플래시에 대해서는 “더 민첩하고 효율이 높은 경제적 선택”이라면서 V4 프로와 비교해 전반적 지식은 부족하지만 추론 능력은 근접했다고 설명했다. 딥시크는 이번 모델이 텍스트 전용이며 영상·이미지를 처리하는 멀티모달 기능은 아직 포함되지 않았다고 밝혔다. 다만 향후 개발 중이라고 설명했다.
전문가들은 딥시크가 V4에 도입한 100만 토큰 규모의 ‘문맥 창(컨텍스트 윈도우)’에 주목하고 있다. 컨텍스트 윈도우란 AI가 한 번의 대화나 입력에서 참고하고 기억할 수 있는 텍스트 범위를 말한다. 딥시크는 이를 “세계 최고 수준의 비용 효율성으로 구현했다”고 밝혔다. 딥시크의 이전 플래그십 모델의 문맥 창은 12만 8000토큰이었다. 기술분야 리서치업체 아이미디어(iiMedia) 창업자 장이는 AFP통신 인터뷰에서 “문맥이 길어지면 성능이 느려지고 비용이 더 드는 오래된 문제에 대처한 것”이라면서 “업계에 진정한 변곡점”이라고 분석했다.
로이터통신은 딥시크 측이 훈련에 사용한 칩을 공개하지 않았다면서도, 딥시크의 기존 모델이 엔비디아 칩에 의존했던 것과 달리 이번에는 중국 업체인 화웨이와 긴밀하게 협력했으며 이는 중국의 산업 역량을 보여준다고 평가했다. 다만 블룸버그통신은 딥시크가 오픈AI·앤스로픽 등 다른 AI 모델의 답변을 데이터로 활용해 새 모델을 훈련하는 ‘증류’를 했을 가능성이 있고, 대중국 수출이 금지된 엔비디아 첨단 칩을 썼다는 추정도 나오고 있다고 전했다.
딥시크는 현재 컴퓨팅 자원 부족으로 인해 V4-프로 처리 속도가 제한돼 있지만 화웨이의 최첨단 칩인 어센드 950PR 슈퍼노드가 본격 양산되는 올해 하반기에는 가격이 크게 하락할 것이라고 밝혔다. 화웨이도 딥시크의 발표 직후 자사 어센드 칩과 슈퍼노드 시스템을 통해 V4 모델 추론을 전면 지원하겠다고 발표했다. AI 반도체 기업 캠브리콘테크놀로지 역시 V4 모델과의 호환성을 발표했다.
딥시크의 이번 발표는 미국이 중국의 AI 기술 탈취 문제를 공개적으로 제기한 데 이어 이뤄졌으며, 딥시크가 미중 AI 갈등의 한가운데에 있다는 관측도 나온다. 딥시크는 지난해 1월 ‘가성비’ 오픈소스 AI 모델 R1을 출시, 한때 자본력을 앞세운 미국 빅테크의 독무대가 될 것으로 여겨졌던 AI 산업의 판도를 바꾼 업체다. 딥시크의 흥행 이후 한때 AI 거품이 꺼질 수 있다는 우려와 함께 미국 기술주 주가가 큰 폭으로 떨어졌고, ‘딥시크 모멘트’라는 말이 등장하기도 했다.
저작권 보호를 위해 본문의 일부만 표시됩니다.
원문 보기 →댓글 (0)
첫 번째 댓글을 작성해보세요!
반도체의 다른 소식
모든 소식을 불러왔습니다
