‘터보퀀트’ 참여한 한인수 KAIST 교수 “현재 AI 모델에 즉시 적용 가능” [팩플]
2026.03.30 17:57
구글의 ‘터보퀀트’(TurboQuant) 기술 개발에 참여한 한인수(34) 한국과학기술원(KAIST) 전기및전자공학부 교수는 30일 온라인 기자간담회에서 기술 상용화 가능성에 대해 이같이 설명했다.
터보퀀트는 구글 리서치가 지난 24일(현지시간) “AI 모델 구동에 필요한 메모리 사용량을 기존 대비 최대 6분의 1 수준으로 줄일 수 있다”며 공식 블로그에 공개한 기술이다. 공개 직후, 이 기술이 상용화될 경우 메모리 반도체 수요가 급감할 수 있다는 우려가 확산하며 전 세계 주요 반도체 기업의 주가가 일제히 급락했다. 반도체 업계 안팎에선 터보퀀트의 실제 상용화 가능성을 두고 갑론을박이 이어진 가운데, 연구에 참여한 한 교수가 견해를 밝힌 것이다. 그는 "터보퀀트는 별도 추가 학습이나 미세조정(튜닝) 없이, 이미 학습된 거대언어모델(LLM)에 곧바로 적용할 수 있다"며 "실제 AI 모델에 탑재되면 그 성능이 명확히 검증될 것"이라고 설명했다.
옷 압축팩처럼 데이터 압축했다 원상복구
한 교수는 터보퀀트에 대해 “AI 모델의 고질적 한계로 꼽혀온 메모리 병목 현상을 획기적으로 해결한 데이터 압축 기술”이라고 설명했다. AI 모델은 맥락에 맞는 답변을 하기 위해선 앞서 이용자와 나눈 대화 내용을 기억해야 하는데, 대화가 길어질 수록 메모리 부담이 커진다. 터보퀀트는 마치 옷의 부피를 줄이기 위해 쓰는 ‘압축팩’처럼 이 데이터를 압축했다가 필요할 때 원상복구시켜 메모리 부담을 줄이는 기술이다. 한 교수는 “소수점으로 길게 늘어진 데이터를 반올림해 근사치인 정수로 만들면 핵심 정보는 유지하면서 저장 용량과 연산 부담을 줄일 수 있다”고 설명했다. 가령 한 학생의 시험 점수가 ‘92.4571점’이라면 터보퀀트는 이를 ‘9점(10점 만점)’으로 표현한다. 숫자가 단순해져도 성적의 내용은 전달되지만, 기록에 필요한 칸(메모리)은 줄어드는 식이다.
업계 “맞춤형 하드웨어 개발 필요도”
다만 AI 반도체 업계에선 터보퀀트의 성능이 제대로 발휘되기 위해서는 해당 소프트웨어를 지원하는 맞춤형 하드웨어의 개발도 필요하다는 의견도 나온다. 한 업계 관계자는 “기존 그래픽처리장치(GPU)가 덧셈·곱셈 등 단순 연산에 특화된 일반 계산기라면, 터보퀀트는 로그와 삼각함수 같은 복잡한 연산을 할 수 있는 공학용 계산기의 스펙을 가진 AI 반도체가 필요하다”며 “즉각적인 상용화 가능성은 더 따져봐야 한다”고 말했다. 한 교수도 “하드웨어와 소프트웨어가 함께 최적화돼야 AI 효율을 더 높일 수 있다”고 설명했다.
한 교수 “메모리 영향 생각 못 해”
저작권 보호를 위해 본문의 일부만 표시됩니다.
원문 보기 →댓글 (0)
첫 번째 댓글을 작성해보세요!
샌디스크 주가의 다른 소식
모든 소식을 불러왔습니다
