엔비디아, 메타 라마 3.1 기반 AI 파운드리 확산
[디지털데일리 김문기 기자] 엔비디아(CEO 젠슨 황)는 메타(Meta) 오픈소스 AI 모델 컬렉션인 라마 3.1(Llama 3.1)을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리(NVIDIA AI Foundry) 서비스와 엔비디아 NIM 추론 마이크로서비스를 25일 발표했다.
엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다는 설명이다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다.
엔비디아 AI 파운드리는 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드 AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐만 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 거대 언어 모델(large language model, LLM) 구축을 지원한다.
젠슨 황 엔비디아 창립자 겸 CEO는 “메타의 오픈소스 모델인 라마 3.1은 전 세계 기업에서 생성형 AI 채택하는 데 있어 중요한 순간이다. 라마 3.1은 모든 기업과 업계가 최첨단 생성형 AI 애플리케이션을 구축할 수 있는 문을 열었다. 엔비디아 AI 파운드리는 라마 3.1을 전체적으로 통합했으며, 기업이 맞춤형 라마 슈퍼모델을 구축하고 배포할 수 있도록 지원할 준비가 돼있다”고 말했다.
마크 저커버그 메타 창립자 겸 CEO는 “새로운 라마 3.1 모델은 오픈 소스 AI에 있어 매우 중요한 단계이다. 기업들은 엔비디아 AI 파운드리를 통해 사람들이 원하는 최첨단 AI 서비스를 쉽게 만들고 맞춤화하며, 엔비디아 NIM을 통해 배포할 수 있다. 이러한 서비스를 사람들에게 제공할 수 있게 돼 기쁘다”고 말했다.
현재 프로덕션 AI용 라마 3.1 모델의 엔터프라이즈 배포를 강화하기 위해 라마 3.1 모델용 엔비디아 NIM 추론 마이크로서비스를 다운로드할 수 있다. NIM 마이크로서비스는 프로덕션 환경에서 라마 3.1 모델을 배포할 수 있으며, NIM 없이 추론을 실행하는 것보다 최대 2.5배 더 높은 처리량을 제공한다.
기업은 라마 3.1 NIM 마이크로서비스를 새로운 엔비디아 네모 리트리버(NeMo Retriever) NIM 마이크로서비스와 결합해 AI 코파일럿, 어시스턴트, 디지털 휴먼 아바타를 위한 최첨단 검색 파이프라인을 구축할 수 있다.
글로벌 전문 서비스 기업인 액센츄어(Accenture)는 자체 사용은 물론, 문화, 언어, 산업을 반영하는 생성형 AI 애플리케이션을 배포하고자 하는 고객을 위해 엔비디아 AI 파운드리를 최초로 채택했다. 또한, 액센츄어 AI 리파이너리(Refinery) 프레임워크를 사용해 맞춤형 라마 3.1 모델을 구축했다.
줄리 스위트 액센츄어 회장 겸 CEO는 “세계 유수의 기업들은 생성형 AI가 각 산업을 어떻게 변화시키고 있는지를 확인하고 있으며, 맞춤형 모델 기반의 애플리케이션을 배포하고자 한다. 액센츄어는 내부 AI 애플리케이션을 위해 엔비디아 NIM 추론 마이크로서비스와 협력해 왔다. 그리고 이제 엔비디아 AI 파운드리를 통해 고객이 맞춤형 라마 3.1 모델을 신속하게 생성, 배포해 각자의 비즈니스 우선순위에 맞는 혁신적인 AI 애플리케이션을 구동하도록 지원할 수 있게 됐다"고 말했다.
엔비디아 AI 파운드리는 맞춤형 슈퍼모델을 빠르게 구축할 수 있는 엔드투엔드 서비스를 제공한다. 이는 엔비디아 소프트웨어, 인프라, 전문성 등을 개방형 커뮤니티 모델, 기술, 엔비디아 AI 에코시스템의 지원에 결합한다.
기업들은 엔비디아 AI 파운드리를 통해 라마 3.1 모델과 엔비디아 네모(NeMo) 플랫폼을 사용해 맞춤형 모델을 만들 수 있다. 여기에는 허깅 페이스 리워드 벤치(Hugging Face RewardBench)에서 1위를 차지한 엔비디아 네모트론-4 340B 리워드 모델이 포함된다.
맞춤형 모델이 생성되면, 기업은 선호하는 클라우드 플랫폼과 글로벌 서버 제조업체의 엔비디아 인증 시스템(Certified Systems)에서 원하는 MLOps와 AIOps 플랫폼을 사용할 수 있다. 이를 통해 프로덕션 환경에서 실행할 수 있는 엔비디아 NIM 추론 마이크로서비스를 생성한다.
엔비디아 AI 엔터프라이즈(AI Enterprise) 전문가와 글로벌 시스템 통합 파트너는 AI 파운드리 고객과 협력해 개발부터 배포에 이르는 전체 프로세스를 가속화한다.
도메인별 모델을 만들기 위해 추가 훈련 데이터가 필요한 기업은 맞춤형 라마 슈퍼모델을 만들 때 라마 3.1 405B와 네모트론-4 340B를 함께 사용해 합성 데이터를 생성하면 모델 정확도를 높일 수 있다는 설명이다.
아울러 엔비디아와 메타는 개발자가 생성형 AI 애플리케이션을 위한 소규모 맞춤형 라마 3.1 모델을 구축하는 데 사용할 수 있는 라마 3.1의 증류 레시피를 제공하기 위해 협력하고 있다. 이를 통해 기업은 AI 워크스테이션과 노트북 같은 광범위한 가속 인프라에서 라마 기반 AI 애플리케이션을 실행할 수 있다.
의료, 에너지, 금융 서비스, 소매, 운송, 통신 분야의 기업들은 이미 라마를 위한 엔비디아 NIM 마이크로서비스를 사용하고 있다. 새로운 라마 3.1용 NIM 마이크로서비스를 가장 먼저 도입한 기업 중에는 아람코(Aramco), AT&T, 우버(Uber)가 있다.
라마 3.1 다국어 LLM 컬렉션은 8B, 70B, 405B 파라미터 크기의 생성 AI 모델 모음이다. 이는 1만6000개 이상의 엔비디아 H100 텐서 코어 GPU(H100 Tensor Core GPU)에서 훈련되고, 데이터센터, 클라우드, GPU가 탑재된 워크스테이션이나 지포스 RTX GPU가 탑재된 PC에서 엔비디아 가속 컴퓨팅과 소프트웨어에 최적화됐다.
기업은 검색 증강 생성(retrieval-augmented generation, RAG)을 위한 새로운 엔비디아 네모 리트리버 NIM 추론 마이크로서비스를 사용한다. 이를 통해 맞춤형 라마 슈퍼모델과 라마 NIM 마이크로서비스를 프로덕션에 배포할 때 응답 정확도를 향상시킬 수 있다.
라마 3.1 405B용 엔비디아 NIM 추론 마이크로서비스와 결합된 네모 리트리버 NIM 마이크로서비스는 RAG 파이프라인을 위한 최고의 오픈, 상용 텍스트 Q&A 검색 정확도를 제공한다.
기업, 데이터, 인프라 플랫폼을 제공하는 수백 개의 엔비디아 NIM 파트너는 이제 자사의 AI 솔루션에 새로운 마이크로서비스를 통합한다. 이로써 5백만 명 이상의 개발자와 19,000개 이상의 스타트업으로 구성된 엔비디아 커뮤니티를 위해 생성형 AI를 강화할 수 있다.
라마 3.1 NIM과 네모 리트리버 NIM 마이크로서비스에 대한 프로덕션 지원은 엔비디아 AI 엔터프라이즈를 통해 제공된다. 엔비디아 개발자 프로그램(Developer Program) 회원은 자신이 선호하는 인프라에서 연구, 개발, 테스트를 위해 NIM 마이크로서비스에 무료로 액세스할 수 있다.
비트코인이 불지른 가상화폐 ‘불장’… 금융당국, '이상거래' 모니터링 강화
2024-11-15 16:20:20[KB금융 '양종희 號' 1년 -上] 실적 무난했지만 내부통제 문제 심각… 빛바랜 성적표
2024-11-15 15:55:09한싹, 올해 3분기 12억원대 손실…AI 투자·인콤 인수 영향
2024-11-15 15:44:00“금융권 책무구조도, 내부통제 위반 제재수단으로 인식 안돼”
2024-11-15 15:19:31