[디지털데일리 백지영기자] 인공지능(AI)을 비즈니스에 적용하기 위해서 개별적인 시스템이 아닌 통합 플랫폼 구축이 필요하며, 이를 위해선 데이터와 AI모델, 연산자원 성능 간 유기적인 연계가 필수라는 의견이 제시됐다.
8일 김형섭 효성인포메이션시스템 컨설턴트는 <디지털데일리>가 주최한 ‘2023년 전망, 금융IT 이노베이션’ 컨퍼런스에서 ‘AI시대, 23년 금융 플랫폼 혁신 방향’를 주제로 발표하며 이같이 말했다.
그는 기업의 AI 운영전략과 미래비전을 발표하며 테슬라의 사례를 들었다. 현재 가장 많은 전기자동차를 판매 중인 테슬라는 주행거리 배터리 경쟁이 아닌 자율주행에, 메카닉 기술이 아닌 휴머노이드를 통한 자율주행서비스에 초점을 맞췄다.
이를 위해 테슬라는 1대당 67.8페타플롭스 성능을 내는 7대의 슈퍼컴퓨터를 갖추며 세계 2위 규모의 시스템을 운영 중이다. 김 컨설턴트는 “테슬라는 자동차나 로봇이 아닌 통합 플랫폼을 구축하며 AI 플랫폼 기업으로의 미래 비전을 제시하고 있다”고 말했다.
현재 비즈니스에 AI 적용하기 위해선 흩어져 있는 데이터 정리와 정제부터 업무에 적합한 AI 알고리즘(모델) 개발, 학습과 평가, 활용에 이르는 4단계로 이어진다. 이러한 과정을 수행하려면 데이터와 AI모델, 연산자원이 필수 요소다.
이를 위해 효성인포메이션은 데이터 운영을 위한 초고성능 스토리지와 래블업의 백엔드.AI와 같은 모델 개발 환경, 엔비디아 DGX 및 HGX 등 연산자원 성능을 제공하고 있다.
김 컨설턴트는 “먼저 데이터 운영의 경우, 보통 네트워크 스토리지(NAS)를 많이 쓰지만 데이터의 개수와 용량이 늘어나면서 성능 저하 고민이 있다”며 “이를 해결하는 방안으로 초고성능 병렬 파일시스템이 대두되고 있다”고 말했다.
이에 효성인포메이션은 초고성능 병렬파일시스템(HCSF)와 대용량 오브젝트 스토리지를 결합해 제공하고 있다. 고성능과 경제적인 데이터 저장, 두 마리 토끼를 잡으며 대용량 AI 데이터 저장 이슈를 해결하고 있다는 설명이다.
그는 “이는 올(All) 플래시 NAS 대비 4배 이상의 성능을 내고 있으며, 고객사인 전기자동차업체 T사의 경우, 기존에 80시간 걸리던 작업시간이 4시간으로 단축된 사례가 있다”며 “국내에선 다수의 고객사가 BMT 성능 검증을 완료했다”고 강조했다.
특히 경쟁사 대비 절반의 서버 자원에도 불구하고 고성능 파일 스토리지 성능은 2배, 데이터베이스(DB) 조회 성능은 4~5배 높게 나타났다고 전했다.
AI모델 서비스를 위해선 국내 AI스타트업인 래블업과 협력 중이다. 래블업의 백엔드.AI는 컨테이너 환경에서 데이터 과학자가 쉽게 AI모델을 개발할 수 있는 서비스다.
ERP나 DB, 웹/WAS와 같은 인프라에서 개발되던 전통적인 애플리케이션과 달리 AI로 대표되는 최근의 디지털 앱은 디지털과학자가 빠른 변경, 반복주기로 개발하는 유동적이고 변경이 많은 시스템이다. 즉, AI플랫폼은 컨테이너 운영 환경이 필수라는 설명이다.
백엔드.AI는 추가 솔루션 설치 없이 컨테이너 레벨에서 GPU 분할 혹은 통합해 운영이 가능하고, GUI 기반 직관적인 컨테이너 운영관리가 가능한 것이 특징이다. 또, 텐서플로우나 파이토치 등 사전정의 AI 개발환경 제공과 AI 및 HPC 성능 최적화도 가능하다.
마지막으로 연산자원 성능을 위해선 엔비디아 AI00 기반의 DGX와 슈퍼마이크로 기반의 HGX를 제공하고 있다. 특히 GPU-GPU, CPU-GPU 간 전송기술인 NV링크 4.0은 기존 PCIe 4.0 방식에 비해 14배 높은 성능을 낸다.
김 컨설턴트는 “대형 GPU 팜을 구축하려는 대형고객부터 특정 AI 솔루션이 필요한 고객까지 효율적 데이터 운영을 위해 고성능 병렬파일 스토리지부터 AI/ML 모델 개발·운영 효율화, GPU 연산자원의 성능을 최적화해주는 효성 통합 AI 솔루션을 제공하고 있다”며 “AI 시작과 끝을 효성이 함께 하겠다”고 강조했다.
한편 효성인포메이션은 본사에 이를 직접 경험할 수 있는 ‘DX센터’을 운영 중이다. 그는 “DX센터에서 AI 업무 프로세스 체험부터 초고성능 스토리지 기술. GPU 서버 성능 등 전체 방향성을 체험할 수 있다”고 말했다.