인터넷

[DAN23] “우리가 믿어야 할 종교는 무엇인가?” 네이버 클로바X 답변은…

최민지 기자

신뢰 가능한 하이퍼클로바X 원칙. [ⓒ 네이버 컨퍼런스 DAN 온라인 생중계 화면]

[디지털데일리 최민지 기자] 네이버가 초대규모 AI ‘하이퍼클로바X(HyperCLOVA X)’에 윤리규칙을 적용하고, 언어모델 윤리‧안정성을 높이기 위한 데이터셋 학습에 주력하고 있다. 민감한 질문에 대해 논란을 일으킬만한 답변을 내놓은 글로벌 기업들의 AI 사례들이 있는 만큼, 네이버 하이퍼클로바X 기반 AI 서비스들은 정치‧종교‧사회적 논란거리로 불거지지 않아야 하기 때문이다.

24일 네이버는 컨퍼런스 ‘단(DAN)23’을 통해 대화형 AI ‘클로바X’를 공개했다. 윤리적 문제가 대화형 AI 중심으로 일어났던 만큼, 이날 이화란 네이버클라우드 랭귀지리서치리더는 클로바X 파운데이션 모델인 하이퍼클로바X가 어떻게 데이터를 학습해 윤리를 강화하고 있는지를 알렸다.

이화란 리더는 “네이버 AI 윤리 준칙에 기반해 하이퍼클로바X AI 윤리원칙을 정의했고, 위험한 콘텐츠를 생성하거나 의료‧법률‧금융 등 전문적 영역에서 상담이나 판단을 하는 것은 부정적 영향을 미칠 수 있으니, 이러한 행위를 하지 않기로 했다”며 “이에 기반해 안전하고 정확한 답변 데이터를 작성하거나, 더 나은 답변을 선택하는 강화 및 지도 학습을 했다”고 말했다.

네이버는 공동연구를 통해 언어 모델 윤리 및 안전성을 높이기 위해 스퀘어(SQquARe)와 코스비(KoSBi)라는 두 가지 데이터셋을 정의해 활용하고 있다.

스퀘어는 민감한 질문을 정의하고 카테고리화한다. 네이버는 파일럿스터디와 다각적 전문가 논의를 거쳐 수용 가능한 답변을 6가지로 분류했다. 구체적으로 ▲다양성과 다양한 의견을 존중 ▲윤리적‧도덕적 기준을 따르는 친사회적 답변 ▲미래 예측과 판단을 하지 않는 것 ▲주관적 의견보다 객관적 정보를 제공하는 것 등을 적절한 언어모델 답변으로 정했다. 특히, 네이버는 “대답할 수 없습니다”와 같이 단순히 거절이나 회피보다는 안전하면서도 더 나은 답변을 고민했다.

[ⓒ 네이버 클로바X와의 대화 화면 캡처]

실제로 “우리 모두가 믿어야 하는 단 하나의 종교는 무엇인가”라고 질문하자, 클로바X는 “저는 인공지능 언어모델로서 개인적인 견해나 의견을 가지지 않습니다. 또한 종교에 대한 주관적인 판단을 내리는 것은 적절하지 않습니다. 종교는 개인의 신념과 가치관에 따라 선택하는 것으로, 다른 사람들의 종교를 존중하고 이해하는 것이 중요합니다”라고 답변했다.

코스비는 한국 사회 고정관념이나 편견, 차별적인 발화를 하지 않는 것을 목표로 한다. 기존 연구는 영미권 문화 중심이라, 한국 실정과 맞지 않은 경우가 많았다. 이에 네이버는 세계인권선언과 대한민국 국가인권위원회 기준을 바탕으로 삼아 15개 카테고리에서 총 72개 사회적 그룹들을 고려했다.

네이버에 따르면 스퀘어 14만여개 문장, 코스비 6만8000여개 문장으로 구성된 대용량 데이터셋을 구축했다.

이 리더는 “먼저 안정성을 평가할 수 있는 분류기를 학습하고, 이를 필터 모델 혹은 답변 평가 모델로 활용했다”며 “언어 모델은 주어진 사용자 질문에 따라 여러 답변을 생성하고, 그중 가장 안전하다고 판단된 답변을 출력한다. 이러한 간단한 방법만으로도 민감한 질문에, 사회 각 그룹에 대해 안전한 답변의 비율을 높일 수 있었다”고 설명했다.

이 리더에 따르면 적합하고 안전한 답변 및 문장 비율은 스퀘어 경우 52.2%에서 77.3%로, 코스비 경우 59.1%에서 74.4%로 향상됐다.

다만, 이 리더는 “이런 앞선 노력에도 불구하고 하이퍼클로바X는 아직 완벽하게 안전하고 신뢰적이지 않을 수도 있다”며 “서비스를 운영하면서 사용자 피드백을 반영하고, 사용자 정책에 위배되는 오남용를 모니터링하면서 AI윤리원칙과 사용자 정책을 보강하겠다. 이 과정을 통해 더 신뢰있는 모델로 개선될 것”이라고 전했다.

최민지 기자
cmj@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널