반도체

[딜라이트닷넷]⑩HPC 향한 빅테크 분투…서버 시장이 들썩인다

김문기 기자

[IT전문 미디어 블로그=딜라이트닷넷]

인텔 오로라 슈퍼 컴퓨터 [사진=인텔]
인텔 오로라 슈퍼 컴퓨터 [사진=인텔]

슈퍼컴퓨터(HPC)를 위한 차세대 프로세서 개발에 거대 공룡기업들이 너나 할 것 없이 뛰어 들었다. 생성형 인공지능(AI)이 각광받으면서 그에 따른 하드웨어 제반 마련에 공을 들이는 모습이다.

그 중에서도 인텔은 HPC 및 AI 커뮤니티에 다양한 제품과 서비스를 망라하고 있다. 인텔 제온 CPU 맥스 스리즈와 인텔 데이터센터 GPU 맥스 시리즈, 4세대 인텔 제온 스케일러블 프로세서 및 하바나 가우디2를 아우르는 다양한 포트폴리오를 구축해놓고 있다.

지난 5월 22일 국제 슈퍼컴퓨팅 컨퍼런스(ISC)에서 제프 맥베이 인텔 슈퍼컴퓨팅 그룹 총괄 부사장은 “인텔의 제품 포트폴리오는 다양한 워크로드에서 경쟁사 제품 대비 뛰어난 성능을 발휘한다”라며, “에너지 및 총소유비용(TCO) 이점을 제공하고, 모든 사람들이 AI를 사용할 수 있도록 지원하며, 더 넓은 선택지와 개방성, 유연성을 제공한다”고 강조했다.

인텔은 전체적인 하드웨어 및 소프트웨어 포트폴리오를 선보이기 위해 인텔 데이터센터 오퍼링에 대해 소개하기도 했다. 코드명 그래나이트 래피즈를 위한 신규 유형 DIMM인 멀티플렉서 결합 랭크(MCR) 개발을 위한 생태계를 주도했다. MCR은 DDR5 기준 초당 8800메가전송 속도와 2소켓 시스템에서 초당 1.5테라바이트 이상의 메모리 대역폭 용량을 기록하기도 했다.

인텔의 차세대 맥스 시리즈 GPU인 코드명 ‘팔콘 쇼어’는 미래 워크로드를 위해 시스템 수준의 CPU와 외장 GPU를 유연하게 조합할 수 있도록 지원할 예정이다. 팔콘 쇼어는 모듈식 타일기반 아키텍처를 기반으로 인텔의 파운드리 경쟁력을 보여줄 수 있을 것으로 기대된다.

또한 인텔은 아르곤 국립연구소, HPE와 협력해 과학 연구 공동체를 위한 일련의 생성형 AI 모델 제작 계획을 공개했다. 오로라 슈퍼컴퓨터의 잠재력을 최대한 활용해 미국 에너지부 연구소와 기타 연구소와 협력해 다운스트림 과학에서 사용할 수 있는 리소스를 생산하는 것이 목표다. 오로라 슈퍼컴퓨터는 2엑사플롭스 이상의 최대 배정밀도 컴퓨팅 성능을 제공할 예정이다.

‘AMD 인스팅트 플랫폼’
‘AMD 인스팅트 플랫폼’

AMD도 급속도로 증가하는 AI 애플리케이션 수요에 맞춰 최적의 하드웨어 및 소프트웨어 포트폴리오를 제공하고 있다. 프론티어 및 루미(LUMI) 슈퍼컴퓨터에 탑재된 AMD 인스팅트 MI250X 및 에픽 프로세서는 HPC 및 AI 워크로드 처리 기능을 측정하는 HPL-MxP 혼합 정밀도 벤치마크에서 상위 1, 2위를 차지했다. 프론티어는 9.95 엑사플롭스의 혼합 정밀도 컴퓨팅 성능을 달성했으며 지난 기록 대비 2 엑사플롭스 향상된 성능을 보였다.

AMD는 하드웨어뿐만 아니라 오픈 소프트웨어 분야에서도 새로운 솔루션을 제공하고 혁신을 만들어 나가기 위해 HPC 및 AI 커뮤니티와 협력하고 있다. AMD ROCm 오픈 소프트웨어 플랫폼은 여러 대규모 HPC 시스템에서 활용되고 있으며 안정적이고 견고한 성능을 입증하고 있다. 텐서플로우 및 파이토치 프레임워크에서 대규모 AI 모델에 대한 ROCm 플랫폼이 확산됨에 따라 사용자들은 AMD 인스팅트 가속기에서 AI 워크로드를 보다 빠르게 실행할 수 있다.

핀란드 CSC의 루미 슈퍼컴퓨터는 핀란드어로 구성된 130억 개의 파라미터를 가진 GPT-3 대형 언어 모델(LLM)의 훈련 및 구동을 지원한다. 루미는 앨런 인공지능 연구소에서 과학 연구용 언어 모델 OLMo(Open Language Model) 훈련에도 사용된다. OLMo는 연구 커뮤니티에 도움이 되도록 고안된 개방형 언어 모델로 신규 모델 생성 관련 액세스 및 교육 기회를 제공한다.

또한 MS와의 협력도 보다 강화하고 있다. 최근 2세대 3D V-캐시 기반 4세대 에픽 프로세서인 ‘제노아-X’까지 이어지게 됐다. AMD 3D V-캐시 기술 기반 신규 에픽 프로세서가 탑재된 애저 HBv4 및 HX 인스턴스를 출시한다.

엔비디아, 가속 컴퓨팅과 생성형 AI 위한 차세대 ‘GH200 그레이스 호퍼 슈퍼칩’ [ⓒ 엔비디아]
엔비디아, 가속 컴퓨팅과 생성형 AI 위한 차세대 ‘GH200 그레이스 호퍼 슈퍼칩’ [ⓒ 엔비디아]

엔비디아도 다가오는 AI 시대를 대비한 가속화 솔루션을 대거 공개했다. 우선적으로 대용량 메모리 AI 슈퍼컴퓨터 DGX GH200을 발표했다. 엔비디아 DGX 슈퍼 컴퓨터는 엔비디아 GH200 그레이스 호퍼 슈퍼칩과 엔비디아 NVLink 스위치 시스템을 탑재하고, 생성형 AI 언어 애플리케이션과 추천 시스템, 데이터 애널리틱스 워크로드에 사용될 차세대 거대 모델들의 개발을 지원한다.

DGX GH200은 그레이스 호퍼 슈퍼칩과 엔비디아 NVLink 스위치 시스템을 페어링하는 최초의 슈퍼컴퓨터다. 이를 바탕으로 DGX GH200 시스템 내 모든 GPU가 하나로 작동한다. 이전 세대 시스템에서는 NVLink를 사용해 성능의 저하 없이 결합 가능한 GPU의 개수가 8개에 불과했다.

구글 클라우드와 메타, 마이크로소프트는 DGX GH200을 도입해 생성형 AI 워크로드 역량을 탐구한다. 엔비디아는 또한 클라우드 서비스 제공업체와 기타 하이퍼스케일러가 DGX GH200 설계를 청사진으로 삼아 자체 인프라로 커스터마이징 할 수 있도록 지원할 방침이다.

엔비디아 GH200 그레이스 호퍼 슈퍼칩은 양산에 돌입해 오는 하반기부터 출시된다. GH200 기반 시스템은 엔비디아 그레이스(Grace), 엔비디아 호퍼(Hopper), 엔비디아 에이다 러브레이스(Ada Lovelace), 엔비디아 블루필드(BlueField)를 포함한 엔비디아의 최신 CPU 및 GPU 아키텍처를 기반으로 하는 400개 이상의 시스템 구성에 추가되어, 급증하는 생성형 AI에 대한 수요를 충족하도록 지원한다.

엔비디아는 생성형 AI와 5G/6G 애플리케이션을 위한 선구적인 플랫폼에 대한 소프트뱅크와의 협력을 발표했다. 소프트뱅크는 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 기반으로 하는 해당 플랫폼을 일본 전 지역의 새로운 분산 AI 데이터센터에 배포할 계획이다.

소프트뱅크는 생성형 AI 애플리케이션과 서비스를 전세계에 신속하게 배포할 수 있는 기반을 구축한다. 엔비디아와의 협력을 통해 다중 테넌트 공통 서버 플랫폼에서 생성형 AI와 무선 애플리케이션을 호스트할 수 있는 데이터센터를 구축하여 비용을 줄이고 에너지 효율성을 높일 계획이다.

이 플랫폼은 ARM 네오버스(Neoverse) 기반 GH200 슈퍼칩과 함께 새로운 엔비디아 MGX 참조 아키텍처를 사용하며, 애플리케이션 워크로드의 성능, 확장성, 리소스 활용도를 개선할 것으로 기대된다.

김문기 기자
moon@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널