스노우플레이크, 엔비디아와 협력해 ML 워크플로우 GPU 가속화…생성형 AI 역량 강화
양사 협력으로 스노우플레이크 AI 데이터 클라우드에서 엔비디아 쿠다-X 라이브러리 활용 가능 전체 ML 모델 개발 라이프사이클 효율화...코드 수정 없이도 AI 모델 개발 속도 크게 향상
글로벌 AI 데이터 클라우드 기업 스노우플레이크(Snowflake)가 엔비디아(NVIDIA)와의 전략적 협업을 통해 머신러닝(ML) 워크플로우의 GPU 가속화를 본격화한다. 이번 협업으로 스노우플레이크 고객들은 플랫폼 내에서 엔비디아의 ‘쿠다-X(CUDA-X)’ 라이브러리를 활용해 복잡한 ML 연산 작업을 보다 빠르고 효율적으로 수행할 수 있게 됐다.
스노우플레이크 ML에는 엔비디아의 오픈소스 GPU 가속 라이브러리인 쿠다-X가 사전 탑재된다. 이를 통해 고객들은 별도의 코드 수정 없이 기존 파이썬 라이브러리 기반의 ML 모델 개발을 즉시 가속화할 수 있으며, 전체 모델 개발 라이프사이클이 단순화되고 생산성이 향상된다.
특히, 엔비디아 벤치마크에 따르면 A10 GPU는 랜덤 포레스트 알고리즘에서 약 5배, HDBSCAN 알고리즘에서는 최대 200배까지 CPU 대비 속도 향상을 기록했다. 이번 통합으로 스노우플레이크 ML 내에서는 엔비디아의 cuML, cuDF와 같은 쿠다-X 데이터 사이언스 라이브러리를 사용할 수 있어, pandas, scikit-learn, UMAP 등과의 호환성을 유지하며 워크플로우 전반의 성능을 높일 수 있다.
아울러 엔비디아 사용자 역시 쿠다-X 생태계 내에서 스노우플레이크의 ‘컨테이너 런타임(Container Runtime)’ 환경을 활용할 수 있다. 이는 대규모 ML 개발을 위한 GPU 기반 사전 구축 환경으로, 고난도 연산 작업을 수 분 내 처리할 수 있도록 지원한다. 예를 들어, 수백만 건의 제품 리뷰 데이터를 클러스터링하거나, 컴퓨터 유전체학 분야에서 고차원 시퀀스를 분석하는 데 소요되는 시간이 크게 단축된다.
크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 “스노우플레이크는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 하며, 엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정”이라며 “쿠다-X 라이브러리의 통합은 데이터 사이언티스트가 인프라 관리 대신 핵심 비즈니스 인사이트에 집중할 수 있게 한다”고 강조했다.
엔비디아 팻 리 부사장도 “인텔리전스를 실현하는 원시 데이터를 인사이트로 전환하는 과정이 생성형 AI와 에이전트 AI의 핵심”이라며 “cuML과 cuDF를 스노우플레이크에 통합함으로써 고객이 기존 파이썬 워크플로우 그대로 가속 컴퓨팅을 활용할 수 있게 됐다”고 밝혔다.
이번 통합을 통해 양사는 생성형 AI 시대에 필요한 고성능, 고속 워크플로우 환경을 제공하며, 전통적인 ML 개발부터 LLM(초거대 언어모델) 배포까지 아우르는 엔터프라이즈 AI 활용을 본격적으로 확장해 나갈 계획이다.