성공적인 AI, 데이터에 달렸다…"가상화 기반 게이트키퍼 전략 필요"
2026.05.14 14:41
[디지털데일리 김보민기자] "기업이 성공적으로 인공지능(AI)을 도입할 방법은 간단합니다. 좋은 모델, 인력, 그래픽처리장치(GPU), 클라우드도 중요하겠지만 결국 데이터가 얼마나 AI와 잘 소통할 수 있는지가 더 중요합니다. 과거 로마가 길을 잘 만들어 제패했던 것처럼, 모든 데이터도 AI로 잘 가야 할 때입니다."
14일 소공동 롯데호텔서울에서 <디지털데일리> 주최로 열린 'AI WAVE 2026' 행사에서 김태홍 디노도코리아 지사장은 이같이 밝혔다. 기업들이 각 조직에 맞는 AI 모델을 고민하고 있는 가운데, 그 해답을 데이터에서 찾아야 한다는 취지였다.
김 지사장은 기업이 활용할 수 있는 AI 모델이 늘어날수록 이 같은 고민이 깊어질 것으로 전망했다. 김 지사장은 "허깅페이스에 등록된 AI 모델 수가 282만8727개(3주 전 기준)라고 한다"며 "그럼에도 어떤 모델이 현재 업무와 개발에 최선인지 알기가 쉽지 않다"고 말했다. 이어 "실제 개념검증(PoC)이나 프로젝트를 수행해 보면 적게는 3개, 많게는 6개 정도를 평가할 수 있는 정도"라며 "수많은 오픈소스 기반 AI 모델이 출시돼 있고 그 수는 더욱 늘어날 것"이라고 내다봤다.
그간 기업들은 AI와 데이터 간 소통을 고도화하기 위해 '데이터 중앙집중화(Centralization)'을 시도해왔다. 이는 성능이 좋은 환경에 데이터를 모아서 AI에게 제공하는 방식이다. 이 같은 방식은 단일 환경에서 연산 속도를 고도화할 수 있지만, 구축 시간과 운영 비용이 높다는 단점이 있다. 완전한 마이그레이션도 구현하기가 어렵다는 특징이 있다.
그 대안으로 업무별로 적합한 AI를 선정한 뒤, 필요한 데이터를 분산해 통합하는 방식도 거론됐다. 그러나 이 또한 물리적으로 필요한 데이터만 고르는 데 시간이 소요되거나, 반복적으로 데이터를 가공하거나 클라우드 사용량이 증가하는 비용적 단점이 있다. 관리 채널이 기하급수적으로 늘어 보안 취약점이 확대되거나 운영 난도가 상승되는 역효과도 낳을 수 있다.
디노도는 데이터 가상화를 '게이트키퍼'로 둔다면 어려움을 해결할 수 있을 것이라고 소개했다. 데이터 가상화를 통해 단일 논리적인 공간에서 모든 데이터를 관리한다면 AI에게 이를 제공하고 소통하는 방식이 원활해질 수 있기 때문이다.
이러한 접근 방식은 데이터를 물리적으로 이동해 모으지 않고 논리적으로 연결하는 것이 핵심이다. 김 지사장은 "레이크하우스와 모든 데이터는 애플리케이션 및 AI와 직접 소통하는 것이 아닌 디노도를 통해 소통을 할 수 있다"며 "SAP 애플리케이션 데이터·오라클DBMS만 바라볼 필요 없이 불필요한 데이터를 개발계로 옮길 시간이 단축되는 것"이라고 설명했다.
디노도는 데이터 통합, 에이전틱 AI, 데이터 제품 생애주기를 비롯해 레이크하우스 가속 및 최적화에 특화된 기업이다. 특히 현 레이크하우스 한계에 직면한 기업들의 애로사항을 보완하는 데 주력 중이다. 주요 애로사항으로는 분산된 데이터 환경, 파편화된 접근 및 시맨틱스·보안, 데이터 탐색 및 분석 복잡성, 데이터 최신성 제한 등이 꼽힌다.
디노도는 이를 보완할 '디노도 액셀러레이터'를 지원하고 있다. 디노도 액셀러레이터는 오픈소스 실행 엔진을 내장해 빠른 쿼리 성능과 중앙처리장치(CPU) 및 메모리 효율을 제공한다. 이를 통해 고급 분석과 AI 워크로드 확장성을 지원한다.
이같이 디노도 서비스형데이터를 구현한 대표적인 고객으로는 인텔이 있다. 김 지사장은 "인텔은 현재 약 4000개 이상 데이터 모델을 디노도에서 운영 관리하고 있다"며 "2014년부터 단 한차례의 다운타임 없이 현재까지도 서비스를 운영 중에 있다"고 강조했다.
저작권 보호를 위해 본문의 일부만 표시됩니다.
원문 보기 →댓글 (0)
첫 번째 댓글을 작성해보세요!
