네이버·카카오·SKT, 손잡고 초거대AI 신뢰성 확보 돕는다
[디지털데일리 서정윤 기자] 거대언어모델(LLM)을 가진 기업들이 인공지능(AI) 윤리성과 신뢰성을 확보하기 위해 손을 잡았다. 챗GPT가 생성AI가 일상에 보편적으로 쓰이는 가운데 환각 현상과 혐오 표현 등이 문제가 됐다. LLM 기업들은 이를 정확하게 판단할 척도를 만들기 위해 협력하기로 했다.
24일 업계에 따르면 네이버와 카카오 엔터프라이즈, SK텔레콤, KT, LG AI연구원 등은 최근 컨소시엄을 꾸리고 한국지능정보사회진흥원(NIA)의 'LLM 신뢰성 벤치마크 데이터' 사업에 참여하기로 했다. 이번 사업은 AI 학습용 데이터 구축 지원사업의 일환으로, 초거대AI의 성능을 평가하는 내용을 담고 있다.
이번 과제에서 셀렉트스타와 스캐터랩은 초거대AI 학습을 위한 말뭉치 데이터와 해외 언어 원천의 말뭉치 데이터, 기존 산업 지능화 데이터 등을 구축한다. 이후 컨소시엄이 가지고 있는 LLM에 이를 학습시킨 후 답변 문장을 정교하게 평가한다. 사업을 통해 최종적으로 벤치마크 데이터셋이 만들어지면 컨소시엄은 이를 가지고 각 기업이 가진 모델의 성능을 측정한다.
컨소시엄에 참여한 업계 한 관계자는 "초거대AI 성능이 좋기는 하지만 환각 현상이 있을 수 있고 경우에 따라서는 혐오 발언을 하는 등의 문제가 있었다"며 "문제점을 완화하기 위해서는 다 함께 힘을 모아야 한다는 데 의견이 모아졌고, 데이터셋을 함께 구축하자는 취지에서 사업에 참여하게 됐다"고 말했다. 안전한 AI를 만들기 위해서는 안전한 데이터셋 구축이 선행돼야 한다는 설명이다.
다만 컨소시엄은 이번 사업이 과학기술정보통신부에서 현재 준비하고 있는 생성AI 관련 규제와는 관련이 없다고 일축했다. 컨소시엄에 참여한 업계 다른 관계자는 "만약 구축된 데이터셋으로 평가한 결과 일정 점수 이하의 기업들은 사업 참여를 막는다든지 등 규제하는 방식으로 사업이 이어지게 된다면 안 될 것 같아서 과기정통부에 의견을 말씀드렸고, 과기정통부도 동의한 상황"이라고 강조했다.
한편, 컨소시엄 참여 기업들은 한국정보통신기술협회(TTA) 산하 'AI 윤리정책 포럼'의 회원사다. 최근 챗GPT 등 생성AI가 보편화되며 과기정통부에서는 AI의 윤리성을 확보하기 위한 방안을 모색하고 있다.
'데이터 문제해결은행' 성과는?…19일 '데이터 비즈 어워드' 개최
2024-12-19 11:51:20美 12월 FOMC 충격… 이복현 금감원장 "안정적인 시장관리, 정책 차질없이 이행"
2024-12-19 11:38:11"인도 내 K-콘텐츠 불법 서비스 차단"…SBS·SLL·CJ ENM, 힘 모았다
2024-12-19 11:20:20우리금융캐피탈, 전기차 제휴 확대… BYD코리아와 전속금융 업무협약
2024-12-19 10:56:41