e비즈*솔루션

정보통신기술 정책기관이 관측한 AI 산업…2025년, K-AI가 직면한 과제는?

오병훈 기자
[ⓒ챗GPT-4o가 생성한 이미지]
[ⓒ챗GPT-4o가 생성한 이미지]

[디지털데일리 오병훈기자] 지난 2022년 시작된 인공지능(AI) 열풍은 2년 간 국내 산업 분야에 크게 두 가지 과제를 던졌다. 하나는 글로벌 AI 산업 지형 내 한국 산업만의 생존법을 찾아야 한다는 것, 다른 하나는 안전하고 지속가능한 AI를 위한 AI 통제 합의점을 도출해야 한다는 것이다.

최근 한국지능정보사회진흥원(NIA)와 소프트웨어정책연구소(SPRi)는 AI와 관련된 보고서를 출시하며 향후 산업 동향·대응책에 관한 다양한 전망 및 분석을 내놨다.

먼저 NIA는 ‘글로벌 AI 가치 사슬 분석을 통한 AI 경쟁력 강화 제언’ 보고서를 통해 글로벌 AI 산업 내 한국 경쟁력 및 지정학적 상황에 대해 해석했다. 보고서는 글로벌 AI 산업에서 한국이 자본 한계 등으로 인해 선두 기업들과 격차가 크다고 분석했다. 한국은 AI 파운데이션 모델, AI 컴퓨팅 인프라와 같은 일부 영역에서 글로벌 선두 기업들과의 차이가 존재한다는 설명이다.

다만, 여전히 한국은 정보기술(IT) 강국으로서 세계적 위상을 가지고 있으며, AI 분야에서도 글로벌 경쟁력을 강화할 잠재력을 보유하고 있다고 부연했다. 과거 스마트폰 시대가 열릴 당시 한국은 운영체제(OS)와 애플리케이션 프로세서(AP) 시장을 주도하지 않고도 글로벌 시장에서 성공을 거둘 수 있었던 사례를 근거로 삼았다.

이어 AI 생태계 내 가치사슬 속 틈바구니를 파고들어야 한다고 분석했다. 한국의 강점을 살릴 수 있는 특정 영역에 집중하는 전략이 필요하다는 설명이다. 그 첫번째 예로 ‘데이터 수집 및 처리’ 분야를 들었다. 다른 두 기업이 같은 파운데이션 AI 모델을 활용한다고 가정했을 때, 성능을 좌우하는 핵심 요소는 단연 학습데이터들일 것이다. 각 산업 분야에 걸맞는 데이터를 얼마나 많이, 잘 정제해서 사용하느냐에 따라 큰 효율 차이를 보일 수 있다.

보고서에서는 “AI 기술을 선도하는 글로벌 빅테크 기업들은 자사 서비스를 통해 수집한 데이터를 기반으로 AI 모델을 고도화하는 데 주력하고 있다”며 “AI 개발에 필요한 대규모 데이터를 확보하기 위해서는 체계적인 수집 체계와 가공 역량이 중요하다”고 설명하고 있다.

이어 “좋은 알고리즘보다 더 중요한 것은 데이터 품질이 될 수 있다. 데이터 라벨링(Labeling), 클렌징(Cleansing) 같은 전처리 작업이 필요하며, 이는 마치 재료의 껍질을 벗기고 불순물을 제거하는 과정과 같다”며 “이러한 과정을 통해 고품질 학습 데이터가 확보될 수 있으며, 이 데이터가 곧 AI 성능을 좌우한다”고 덧붙였다.

AI모델 개발 측면에 있어서는 오픈소스를 활용 전략 중요성도 강조했다. AI모델 개발 방법은 크게 세 가지로 분류된다. 구체적으로 ▲직접 개발하는 경우 ▲공개된 사전학습 모델을 활용하는 경우 ▲클라우드 응용프로그램 인터페이스(API)를 통해 필요한 모델을 호출해 사용하는 경우다. 직접 개발의 경우, 오픈AI 등 글로벌 선두 기업에서도 조 단위 투자금을 들여 경쟁을 벌이고 있다. 자본이 한정된 한국 시장에서는 직접 개발보다는 공개된 사전학습 모델을 활용하거나, 기존에 개발된 모델을 개조해 각 산업별 도메인 특화 서비스를 도입하는 움직임이 활발해지고 있다는 설명이다.

보고서에서는 “최근 클라우드 기반으로 사전 학습된 고성능 AI 모델이 API 형태로 제공되면서, AI 서비스를 손쉽게 개발하고 배포할 수 있는 환경이 조성돼 AI 서비스 대중화가 이뤄지고 있다”며 “기업들은 별도 AI 모델 개발 없이도 자사 비즈니스에 AI 기술을 손쉽게 접목할 수 있게 됐으며, 금융, 의료, 제조 등 다양한 산업 분야에서 AI 도입이 빠르게 확산되고 있다”고 설명했다.

실제로 다수 기업은 구글 젬마(Gemma), 메타 라마(Llama) 등 오픈소스 모델을 기반으로 파인튜닝(미세조정)이나 검색증강생성(RAG), 프롬프팅 엔지니어링 작업을 거쳐 각 서비스에 적용시키는데 집중하고 있다. 파인튜닝은 AI 모델 내부에 직접적으로 특화 데이터를 주입해 추가 조정하는 것이고, RAG는 외부 데이터를 가져올 수 있도록 조치하는 것이다. 프롬프팅 엔지니어링은 AI와 대화창(프롬프트)을 통해 AI를 조정하는 방법을 말한다.

AI 산업 내 생존법만큼 주목받고 있는 것은 AI 부작용 우려를 해소할 수 있는 방안을 마련하는 것이다. 성장과 발전에만 매몰된 산업은 자칫 사회적 부작용 및 피해 등을 초래해 혼란을 야기하는 결과를 낳을 수 있다는 우려에 따른 것이다.

SPRi는 ‘AI안전의 개념과 범위’ 보고서를 통해 AI 산업 성장과 함께 AI 기능적 한계, 잠재적 위험에 대한 우려가 고조되고 있다고 강조했다. AI산업 성장에 맞춰 안전한 AI를 연구하기 위해서는 ‘안전’에 대한 정확한 정의와 범위가 확정돼야 하나, 비슷한 개념으로 ▲AI 신뢰성 ▲AI 윤리 ▲AI 견고성 ▲책임 있는 AI 등이 혼용되고 있다는 설명이다.

먼저, 보고서는 AI안전 정의와 범위에 따라 정책적으로 집중할 영역이 달라질 수 있다고 분석했다. 안전과 관련된 정의는 크게 ‘좁은 의미 안전’과 ‘넓은 의미 안전’, 두가지로 갈린다. 좁은 의미 AI 안전은 AI 시스템 자체 오류와 잠재적 위험 요소를 제거 또는 최소화 시키고, 시스템의 설명가능성, 투명성을 높이는 기술 개발에 초점을 두고 있다. 이에 따라 AI 오작동, 사이버공격으로부터 데이터 및 AI 모델 보호, AI 모델의 설명가능성 확보 등 견고한 작동 방식을 보장하는 원천 기술 개발에 대한 지속적 투자 필요성을 강조한다.

반면, 넓은 의미 AI 안전 개념에서는 다양한 AI 위험 요인에 대비하고, 사고의 예방과 사후 조치 관련 개발자 및 서비스 제공자 책무성을 포함시키는 정책 방안을 고려한다. AI에서 파생되는 각종 사회적 부작용(딥페이크, 허위정보 유포, 저작권 침해 등)을 최소화하기 위한 규제 검토 및 비기술적 대응책이 병행돼야 한다는 설명이다.

결과적으로 단순히 시스템만으로는 AI 안전을 보장할 수 없으며, 제도 및 정책을 통한 AI 안전을 확보하는 것이 중요하다고 봤다. AI 산업 이해관계자들의 사회적 책무성을 바탕으로 한 AI안전 생태계 조성 추진 필요하다는 의견이다. 개발자, 사용자, 시민단체, 규제 기관, 정부 등이 ‘허용할 수 있는 위험’ 수준 논의와 사고시 책임 소재를 명확화 하려는 노력이 필요하다는 것이다. 그 구체적인 방법으로는 공공과 산업 전반 안전한 AI 전환(AX)을 위해 체계적 계획 수립과 지원 방안 마련을 제시했다.

이어 AI 안전연구소 역할도 강조했다. AI안전연구소는 지난 11월 과기정통부에서 설립한 연구기관으로, 세계 주요국에 위치한 AI안전연구소와 공조를 통한 안전 연구 수행에 집중할 계획이다.

보고서는 “국제 협력 추진을 위한 AI안전 관련 국제 협의체, 국제표준활동에 참여함으로써 국제 AI 안전 기준 개념을 올바르게 이해하고 국제협력, 국내 제도 마련, 정책 방안을 구체화해야 한다”며 “글로벌 AI 안전연구소를 중심으로 AI안전 관련 정보 공유, 인력 교류, 인프라 공유, 및 표준화 논의 추진해야 한다”고 설명했다.

오병훈 기자
digimon@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널