스노우플레이크, 엔비디아와 협력해 ML 워크플로우 GPU 가속화…생성형 AI 역량 강화

양사 협력으로 스노우플레이크 AI 데이터 클라우드에서 엔비디아 쿠다-X 라이브러리 활용 가능 전체 ML 모델 개발 라이프사이클 효율화...코드 수정 없이도 AI 모델 개발 속도 크게 향상

2025-11-19     최영호 기자

글로벌 AI 데이터 클라우드 기업 스노우플레이크(Snowflake)가 엔비디아(NVIDIA)와의 전략적 협업을 통해 머신러닝(ML) 워크플로우의 GPU 가속화를 본격화한다. 이번 협업으로 스노우플레이크 고객들은 플랫폼 내에서 엔비디아의 ‘쿠다-X(CUDA-X)’ 라이브러리를 활용해 복잡한 ML 연산 작업을 보다 빠르고 효율적으로 수행할 수 있게 됐다.

스노우플레이크 ML에는 엔비디아의 오픈소스 GPU 가속 라이브러리인 쿠다-X가 사전 탑재된다. 이를 통해 고객들은 별도의 코드 수정 없이 기존 파이썬 라이브러리 기반의 ML 모델 개발을 즉시 가속화할 수 있으며, 전체 모델 개발 라이프사이클이 단순화되고 생산성이 향상된다.

특히, 엔비디아 벤치마크에 따르면 A10 GPU는 랜덤 포레스트 알고리즘에서 약 5배, HDBSCAN 알고리즘에서는 최대 200배까지 CPU 대비 속도 향상을 기록했다. 이번 통합으로 스노우플레이크 ML 내에서는 엔비디아의 cuML, cuDF와 같은 쿠다-X 데이터 사이언스 라이브러리를 사용할 수 있어, pandas, scikit-learn, UMAP 등과의 호환성을 유지하며 워크플로우 전반의 성능을 높일 수 있다.

아울러 엔비디아 사용자 역시 쿠다-X 생태계 내에서 스노우플레이크의 ‘컨테이너 런타임(Container Runtime)’ 환경을 활용할 수 있다. 이는 대규모 ML 개발을 위한 GPU 기반 사전 구축 환경으로, 고난도 연산 작업을 수 분 내 처리할 수 있도록 지원한다. 예를 들어, 수백만 건의 제품 리뷰 데이터를 클러스터링하거나, 컴퓨터 유전체학 분야에서 고차원 시퀀스를 분석하는 데 소요되는 시간이 크게 단축된다.

크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 “스노우플레이크는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 하며, 엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정”이라며 “쿠다-X 라이브러리의 통합은 데이터 사이언티스트가 인프라 관리 대신 핵심 비즈니스 인사이트에 집중할 수 있게 한다”고 강조했다.

엔비디아 팻 리 부사장도 “인텔리전스를 실현하는 원시 데이터를 인사이트로 전환하는 과정이 생성형 AI와 에이전트 AI의 핵심”이라며 “cuML과 cuDF를 스노우플레이크에 통합함으로써 고객이 기존 파이썬 워크플로우 그대로 가속 컴퓨팅을 활용할 수 있게 됐다”고 밝혔다.

이번 통합을 통해 양사는 생성형 AI 시대에 필요한 고성능, 고속 워크플로우 환경을 제공하며, 전통적인 ML 개발부터 LLM(초거대 언어모델) 배포까지 아우르는 엔터프라이즈 AI 활용을 본격적으로 확장해 나갈 계획이다.