AMD, 내년 ‘MI350’ HBM3E 탑재…2026년 '차세대 CDNA 아키텍처' 도입
[디지털데일리 김문기 기자] 리사 수 AMD CEO는 3일(현지시간) 대만 타이베이 난강전람회 2관에서 개최된 컴퓨텍스 2024 기조연설의 첫 연설자로 나서 AMD 인스팅트(AMD Instinct) 가속기 제품군의 향후 성장 방향에 대해 공개했다.
AMD는 모든 세대에서 매년 선도적인 AI 성능 및 메모리 용량을 제공하는 다년간의 확장된 AMD 인스팅트 가속기 로드맵을 공개했다. 올해 4분기에 출시될 새로운 AMD 인스팅트 MI325X 가속기부터 시작된다.
288GB의 HBM3E 메모리와 초당 6테라바이트의 메모리 대역폭을 제공하는 새로운 AMD 인스팅트 MI325X 가속기는 기존 AMD 인스팅트 MI300 시리즈와 동일한 업계 표준 유니버설 베이스보드 서버 설계를 기반으로 하며, 오는 4분기에 출시된다. 이 제품은 경쟁사보다 각각 2배, 1.3배 더 많은 업계 최대의 메모리 용량과 대역폭, 경쟁사보다 1.3배 더 높은 컴퓨팅 성능을 제공한다는게 AMD의 설명이다.
이후 2025년 출시되는 새로운 AMD CDNA 4 아키텍처 기반의 AMD 인스팅트 MI350 시리즈로 이어진다. 이 제품은 AMD CDNA 3 아키텍처 기반의 AMD 인스팅트 MI300 시리즈에 대비 35배 향상된 AI 추론 성능을 제공할 전망이다.
AMD 인스팅트 MI350 시리즈의 첫 번째 제품인 AMD 인스팅트 MI350X 가속기는 AMD CDNA 4 아키텍처를 기반으로 하며 내년 출시될 예정이다. 이 제품은 다른 MI300 시리즈 가속기와 동일한 업계 표준 유니버설 베이스보드 서버 설계를 기반으로 한다. 고급 3나노미터(nm) 공정 기술을 바탕으로 FP4 및 FP6 AI 데이터 유형을 지원하며 최대 288GB의 HBM3E 메모리 탑재한다.
2026년 출시 예정인 AMD 인스팅트 MI400 시리즈는 AMD 차세대 CDNA 아키텍처를 기반한다. 추론 및 대규모 AI 훈련을 위한 추가적인 성능 및 효율성을 구현을 지원하는 최신 기능을 제공한다는 설명이다.
AMD는 AMD 인스팅트 MI300X 가속기에 대한 수요가 다음을 포함한 까다로운 AI 워크로드를 지원하고자 가속기를 활용하는 수많은 파트너 및 고객과 함께 지속 성장하고 있음을 강조했다.
애저 오픈AI 서비스용 가속기와 새로운 애저 ND MI300X V5 가상 머신을 사용하는 마이크로소프트 애저와 델 테크놀로지스는 엔터프라이즈 AI 워크로드를 위해 파워엣지 XE9680에서 MI300X 가속기를 활용한다. 슈퍼마이크로는 AMD 인스팅트 가속기 기반의 다양한 솔루션을 제공한다. 레노버는 씽크시스템(ThinkSystem) SR685a V3으로 하이브리드 AI 혁신을 주도한다. HPE는 AMD 인스팅트 MI300X 가속기를 활용하여 HPE 크레이(Cray) XD675에서 AI 워크로드를 가속화하고 있다.
브래드 맥크레디(Brad McCredie) AMD 데이터 센터 가속 컴퓨트 부문 부사장은 "AMD 인스팅트 MI300X 가속기는 마이크로소프트 애저(Microsoft Azure), 메타(Meta), 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo) 등 수많은 파트너 및 고객의 선택을 받고 있다. 이는 AMD 인스팅트 MI300X 가속기가 제공하는 뛰어난 성능과 제품 가치로 인한 직접적인 결과이다"라고 설명했다.
이어, "업데이트된 제품 개발 계획에 따라, 우리는 AI 업계와 고객이 데이터 센터 AI 훈련 및 추론 분야의 발전을 위해 필요로 하는 선도적인 성능과 기능 제공하고자 지속 혁신해 나갈 예정이다"라고 밝혔다.
'락큼 6.1'…AMD AI 소프트웨어 생태계 발전
AMD ROCm 6 개방형 소프트웨어 스택은 지속적인 발전을 통해 AMD 인스팅트 MI300X 가속기가 가장 널리 사용되는 대규모 언어 모델(LLM)에서 탁월한 성능을 제공할 수 있도록 지원한다.
8개의 AMD 인스팅트 MI300X 가속기와 메타 라마-3(Meta Llama-3) 70B를 구동하는 ROCm 6을 사용하는 서버에서 AMD의 고객은 경쟁사에 대비 1.3배 더 나은 추론 성능 및 토큰 생성 능력을 확보할 수 있다. 또한, ROCm 6이 탑재된 단일 AMD 인스팅트 MI300X 가속기는 미스트랄-7B(Mistral-7B)의 경쟁 제품 대비 1.2배 더 높은 추론 성능과 토큰 생성 처리량을 확보할 수 있다.
AMD는 현재 AI 모델 관련해 가장 크고 폭넓게 사용되는 저장소인 허깅 페이스가 현재 AMD 인스팅트 MI300X 가속기에서 신속하게 작동하는지 확인하고자 매일 밤 가장 많이 활용되는 모델 70만개에 대한 테스트를 실시하고 있다.
또한 AMD는 파이토치(PyTorch), 텐서플로우(TensorFlow) 및 JAX와 같은 인기 AI 프레임워크에 대한 업스트림 작업도 지속하고 있다.
삼성전자 노사, 임협 5.1% 인상·패밀리넷 200만 포인트 합의
2024-11-14 19:53:31SK C&C, 3분기 매출 5835억원…전년비 12.1%↑
2024-11-14 18:06:27LG CNS, 3분기 영업익 60%↑…올해 누적매출 4조원 육박
2024-11-14 17:47:45"파라미터 크기만 보던 AI 시대 저문다…양보다 질로 승부"
2024-11-14 17:46:15