IBM, AI 속도 5배 높이는 광학기술 개발...“LLM 학습 3개월→3주로 단축”
[디지털데일리 이안나기자] 생성형 AI 학습·활용에 데이터센터 전력과 비용이 큰 문제가 되고 있다. IBM은 미래 AI 워크로드를 에너지 효율적으로 처리할 수 있도록 공동 패키지형 광학(CPO) 기술을 제시했다. 이를 통해 대규모언어모델(LLM) 학습속도를 최대 5배까지 높일 수 있다는 설명이다.
IBM은 데이터센터에서 생성형 AI 모델 학습 및 실행 방식을 획기적으로 개선할 수 있는 차세대 광학 기술을 10일 발표했다.
이는 기존 전선 기반 단거리 통신을 보완하는 새로운 공동 패키지형 광학(co-packaged optics, 이하 CPO) 기술로, 데이터센터 내부 연결 속도를 빛의 속도로 대폭 향상시킬 수 있는 새로운 공정이다.
특히 IBM은 이 기술을 구동할 수 있는 폴리머 광학 도파관(PWG)을 성공적으로 설계·조립해 공개했다. IBM 연구진은 CPO기술이 칩, 회로 기판, 서버 간 고대역폭 데이터를 전송하는 컴퓨팅 방식에 가져올 변화를 시연했다.
광섬유 기술은 전기 대신 빛으로 장거리 데이터 전송을 빠르게 처리하기 때문에, 현재 전 세계 상업 및 통신 트래픽 대부분에 사용되고 있다.
그러나 데이터센터 경우 외부 통신 네트워크엔 광섬유를 사용하지만, 내부 통신 네트워크 대부분에는 여전히 구리선을 사용하고 있다. 이 전선은 대규모 분산 학습 과정에서 다른 장치 데이터를 기다리느라 절반 이상 시간을 유휴 상태로 보내는 그래픽처리장치(GPU) 가속기들을 연결하고 있는데 이로 인해 상당한 비용과 에너지가 소모된다.
IBM 연구진은 광학 속도와 처리 능력을 데이터센터 내부로 도입할 방법을 제시했다. IBM은 새롭게 발표된 논문을 통해 고속 광학 연결을 가능하게 하는 새로운 CPO 모듈 시제품을 소개했다. 이 기술은 데이터센터 통신 대역폭을 크게 확장하고, GPU 유휴 시간을 줄이며 AI 처리 속도를 향상시킬 수 있다.
이번 연구 혁신을 통해 중급 전기 배선 대비 전력 소비를 5배 이상 줄임으로써 생성형AI 확장 비용을 낮추고, 데이터센터 간 케이블 연결 길이를 기존 1미터에서 수백 미터로 확장할 수 있다. CPO 기술을 통해 기존 전기 배선을 사용할 때보다 거대 언어 모델(LLM) 학습 속도를 최대 5배까지 높일 수 있다.
이를 통해 일반적인 LLM 학습 시간이 3개월에서 3주로 단축될 수 있으며, 더 큰 모델과 더 많은 GPU를 활용할 경우 성능 향상 폭이 더욱 커진다.
다리오 길(Dario Gil) IBM 리서치 연구 개발 총책임자는 “이 획기적인 기술로 미래의 칩은 광섬유 케이블이 데이터센터 안팎으로 데이터를 전달하는 방식으로 통신하게 될 것이며, 미래 AI 워크로드를 처리할 수 있는 더 빠르고 지속 가능한 새로운 통신 시대를 열 것”이라고 말했다.
"신입 직원도 능숙하게 고객응대"… 신한카드, 생성형AI 기반 상담지원시스템 본격 가동
2025-01-23 10:20:22코스콤, 스노우플레이크 손잡고 금융권 생성형AI 활성화 박차
2025-01-23 10:12:18BNK부산은행-케이뱅크, '공동 대출상품' 출시한다… "디지털제휴도 강화"
2025-01-23 09:51:04비글루, 자체 제작 오리지널 시리즈 첫 선…숏폼 경쟁 불 붙는다
2025-01-23 09:48:36