e비즈*솔루션

스노우플레이크, 코텍스AI에 라마3.1 더했다…韓 제조·금융사 공략 강화

권하영 기자
최기영 스노우플레이크코리아 지사장이 9일 서울 강남구 파크 하얏트 서울에서 열린 기자간담회에서 발표를 진행하고 있다. [Ⓒ 디지털데일리]
최기영 스노우플레이크코리아 지사장이 9일 서울 강남구 파크 하얏트 서울에서 열린 기자간담회에서 발표를 진행하고 있다. [Ⓒ 디지털데일리]

[디지털데일리 권하영기자] 글로벌 인공지능(AI) 데이터 클라우드 기업 스노우플레이크가 생성형AI 기반 애플리케이션 생성 도구인 ‘스노우플레이크 코텍스 AI(Snowflake Cortex AI)’를 앞세워 한국 시장 공략을 가속화한다.

스노우플레이크는 9일 서울 강남구 파크 하얏트 서울에서 기자간담회를 열고 이같이 밝혔다. 오는 10일 서울 코엑스에서 ‘스노우플레이크 월드투어 서울’ 행사를 앞두고 진행된 이번 간담회에선 지난 2021년 한국 시장에 진출한 스노우플레이크의 그간 비즈니스 성과와 향후 AI 워크로드 로드맵이 발표됐다.

최기영 스노우플레이크코리아 지사장은 “한국에 진출한 지 약 3년 가까이 되면서 고객사를 세자릿수로 확보했고, 특히 스타트업은 물론 삼성·SK·LG·현대차 등 10대 대기업 그룹의 80%가량을 고객으로 두고 있다”며 “쉽고 빠르게 비즈니스에 적용하면서도 데이터 거버넌스와 보안을 보장하는 아키텍처로서 신뢰를 얻고 있다”고 강조했다.

최 지사장은 “최근 클라우드 채택과 데이터 활용 영역이 많은 분야를 중심으로 시장이 빠르게 커지고 있으며, 대표적으로 유통·소비재 쪽에서 프로젝트가 많이 나오고 있어 계속 성장할 것으로 기대하고 있다”며 “그 다음 중장기적으로는 클라우드 전환이 상대적으로 늦긴 하지만 굉장히 많은 데이터를 가진 제조업과 통신업, 나아가 금융업도 굉장히 큰 시장이 될 것으로 예상한다”고 언급했다.

그러면서 “최근 보수적이라 생각됐던 철강분야 제조회사에서 MLOps(머신러닝운영)를 도입했고, 금융 시장도 금융감독원에서 제재들을 풀어주는 기조에 맞춰 전담 인력을 두고 전문 파트너사들과 PoC(개념검증)를 진행 중”이라고 말했다.

스노우플레이크는 크게 ▲데이터 ▲컴퓨트 ▲보안 및 거버넌스 등 세가지를 통합하는 것을 근간으로 ▲파이프라인 ▲애널리틱스 ▲머신러닝(ML) ▲생성형AI ▲데이터 프로덕트 등 다섯가지의 기능(Capability)을 제공한다. 데이터 파이프라인 구축 외에도 SQL 생산성을 높여주는 ‘스노우플레이크 코파일럿’, 데이터 탐색 및 머신러닝 개발을 돕는 ‘스노우플레이크 노트북’, 생성형AI 서비스 ‘코텍스 AI’ 등이 소개됐다.

그 중 스노우플레이크는 ‘코텍스 AI’에서 라마3.1에 대한 호스팅을 시작한다고 이날 발표했다. 코텍스 AI는 코드 없이 자연어 프롬프트(명령어)와 마우스 클릭 몇 번으로 애플리케이션을 개발할 수 있는 플랫폼으로, 지난 6월 미국 샌프란시스코에서 열린 ‘스노우플레이크 서밋 2024’에서 공개된 바 있다.

크리스티안 클레이너만 스노우플레이크 제품담당 수석부사장은 “코텍스 AI는 스노우플레이크 자체 모델 외에도 메타, AI21랩스, 구글, 미스트랄AI, 레카 등이 제공하는 거대언어모델(LLM)을 사용할 수 있으며, 자연어로 정형 데이터에 대해 질의하고 답변을 받는 ‘코텍스 애널리스트(Analyst)’와 문서 검색 기반 채팅을 하는 ‘코텍스 서치(Serch)’ 기능을 지원한다”고 설명했다.

제프 홀란 스노우플레이크 앱·개발자플랫폼 부문장은 이날 코텍스 AI를 직접 시연하며 “코텍스 서치는 질문을 했을 때 AI가 데이터를 찾아와 답변해주는 방식이고, 코텍스 애널리스트는 (데이터 탐색 이상으로) 쿼리(Query)를 제공하는 게 차이점”이라며 “무엇보다 데이터가 플랫폼 외부로 벗어나지 않고 스노우플레이크 안에서만 사용되며, 코딩 작업을 몰라도 자연어로 질문하면 된다는 점”을 강점으로 꼽았다.

크리스티안 클레이너만 스노우플레이크 제품담당 수석부사장이 9일 서울 강남구 파크 하얏트 서울에서 열린 기자간담회에서 발표를 진행하고 있다. [Ⓒ 디지털데일리]
크리스티안 클레이너만 스노우플레이크 제품담당 수석부사장이 9일 서울 강남구 파크 하얏트 서울에서 열린 기자간담회에서 발표를 진행하고 있다. [Ⓒ 디지털데일리]

스노우플레이크는 이러한 코텍스 AI의 추론 및 파인튜닝(미세조정)에 대해 라마 3.1 405B를 최적화함으로써, 서비스 시작 첫날부터 거대한 128K 컨텍스트 윈도우를 지원한다고 밝혔다. 라마 3.1 405B 모델은 다중언어 오픈소스 LLM으로, 메타에서 가장 큰 규모이자 한국어가 가능한 오픈소스 LLM 중 가장 큰 모델이기도 하다.

이로써 기존 오픈소스 솔루션에 비해 엔드투엔드 지연시간은 최대 3분의1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현한다. 또한, 코텍스 AI에서 하나의 그래픽처리장치(GPU) 노드만을 사용해 거대 모델을 파인튜닝할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 줄여준다는 설명이다.

데이터 과학자들은 전보다 적은 개수의 GPU상에서 복합 정밀 기술을 사용해 라마 3.1 405B를 파인튜닝할 수 있으므로, 대규모 GPU 클러스터에 대한 필요성이 사라진다. 이에 따라 기업들은 강력한 엔터프라이즈급 생성형 AI 애플리케이션을 보다 편리하고 효율적이며 안전하게 채택하고 배포할 수 있다.

아울러 스노우플레이크는 기업들이 이러한 유스케이스를 코텍스 AI에서 쉽게 적용할 수 있도록 모델 증류, 안전 가드레일, 검색증강생성(RAG), 합성 데이터 생성 등 파인튜닝에 최적화된 인프라도 개발했다.

한편, 스노우플레이크는 10일 코엑스 컨벤션센터에서 ‘스노우플레이크 월드 투어 서울’을 개최한다. 이번 행사에서는 완전 관리형 스노우플레이크 코텍스와 오픈소스로 공개한 ‘폴라리스 카탈로그’, ‘스노우플레이크 코파일럿’, 기업용 LLM 등 업그레이드된 AI 기술 내용을 보다 자세히 공개할 예정이다.

권하영 기자
kwonhy@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널