솔루션

“자체 개발 만이 답은 아니다”… 韓 기업들, LLM ‘잘 쓰는 법’에 방점

이종현 기자
[Ⓒ 픽사베이]
[Ⓒ 픽사베이]

[디지털데일리 이종현기자] 생성형 인공지능(AI)에 대한 관심이 커지면서 그 기반이 되는 대규모언어모델(LLM)의 필요성도 커지고 있다. 국내에서는 LLM을 ‘초거대 AI’로 지칭하며 정부 차원에서 산업 육성을 독려하는 중이다.

하지만 최근 분위기가 바뀌는 양상이다. AI 학습을 위해 많은 컴퓨팅 파워가 필요한 가운데 대규모 자본을 앞세운 해외 기업들을 국내 기업들이 당해내기 어렵다는 인식이 퍼지고 있다. 한 AI 업계 관계자는 25일 <디지털데일리>에게 “수천억, 수조원을 투자하는 글로벌 기업과 어떻게 경쟁하나. LLM은 한국이 잘할 수 있는 분야가 아니다”라고 말했다.

일부의 목소리는 아니다. LLM을 개발 중인 주요 기업들도 같은 맥락의 발언을 한 바 있다. 지난 3월 카카오 정신아 대표(당시 내정자)는 정부 주최의 AI 혁신 생태계 조성 간담회에서 “AI는 케펙스(CAPEX, 이윤 창출을 위해 지출하는 비용)가 너무 크다. 카카오도 허덕거리는 중”이라고 말한 것이 예다.

실제 카카오는 작년 10월 이후 자체 LLM인 ‘코GPT 2.0’를 출시하겠다고 발표했다. 하지만 현재까지 코GPT 2.0은 공개되지 않은 상태다. 업계 관계자는 “개발은 완료했지만 성능이 발목을 잡았다고 들었다”고 전했다. 해외 기업의 LLM과 비교했을 때 성능상 우위를 보이지 못했기 때문에 출시를 망설이고 있다는 설명이다.

카카오는 2023년 기준 국내 재계서열 15위 기업이다. 자산총액은 34조원에 달한다. 이와 같은 카카오마저도 자본 경쟁에서 밀린다고 말하는 상황이다.

이에 국내 AI 기업들은 사업의 방향타를 자체개발 LLM에서 LLM을 잘 이용하는 방법으로 조정 중이다. 주로 영어로 된 데이터를 학습한 LLM에 한국어 데이터를 학습시켜 국내 환경에 맞게 최적화하는 등의 방식이다. 기업들이 많이 이용 중인 LLM은 메타의 ‘라마(Llama)’와 앤스로픽의 ‘클로드(Claude)’, 미스트랄AI의 ‘미스트랄’ 등이다.

최근 스타트업을 비롯해 국내 중소 AI 기업들이 집중하는 것은 검색증강생성(RAG)이다. 생성형 AI가 잘못된 답을 하는 환각(Hallucination) 현상을 줄이는 기술로 주목받고 있다.

결과적으로 AI가 더 정확한 답을 할 수 있도록 한다는 점에서 미세조정(파인튜닝)과 유사하다. 다만 파인튜닝의 경우 기존 LLM을 기반한 정교한 작업이 요구되는 만큼 시간과 비용이 많이 든다. 반면 RAG의 경우 LLM의 외부에서 추가 데이터를 제공해서 질문과 관련도가 높은 답변을 하도록 한다. 흔히들 ‘오픈북 시험’에 비유하는데, 데이터의 최신화가 용이한 데다 구축 비용도 적은 편이다.

많은 AI 스타트업들은 RAG를 핵심 경쟁력으로 내세우고 있다. 모든 질문에 척척 답을 내놓는 범용적인 AI는 아닐지라도, 특정 용도에 부합하는 AI를 제공하는 데는 이와 같은 방식이 더 효율적이라는 주장이다.

LLM을 이용한 서비스를 개발 중인 국내 기업 관계자는 “지금처럼 기술이 빠르게 발전하는 상황에서 자체 개발만 고집하는 것은 어리석은 일”이라며 “리눅스라는 좋은 운영체제(OS)가 있는데 구태여 완전히 새로운 OS를 만들 필요는 없다. 이용할 것은 이용하고, 더 잘 할 수 있는 것에 집중하는 것이 생산적일 것”이라고 말했다.

이종현 기자
bell@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널