솔루션

[초거대AI③] 초거대 AI에 윤리는 어떻게 가르칠 것인가?

박세아

알파고로 촉발된 AI기술이 이제 초거대AI로 발전하고 있다. 알파고가 특정 분야에서의 인간을 뛰어넘는 성과를 보였다면 초거대 AI는 인간과 비슷한 사고와 추론까지 가능하게 하는 연구다. 이미 글로벌 기업은 물론 국내 기업들까지 뛰어들고 있는 초거대AI가 불러올 파장과 효과, 그리고 유의점에 대해 3회에 걸쳐 진단해본다<편집자>

픽사베이
픽사베이

[디지털데일리 박세아 기자] 초거대 인공지능(이하 AI) 시장을 두고 국내외 내로라 하는 대기업들 공세가 본격화되고 있지만 기술 중심의 시장 견인은 장기적으로 AI에 대한 사회적 저항감을 키울 것이란 우려도 나온다.

때문에 AI 업계에서는 대기업에서 초거대AI기술을 위해 지속해서 노력하고 있다는 점은 기술발전 측면에서 맞는 방향이지만, 산업에의 적용뿐만 아니라 기술 발전과 함께 항상 문제가 되고 있는 AI 투명성, 윤리적 이슈들도 고려해야 한다는 의견이 대두되고 있다.

인식과 학습을 거쳐 추상화 그리고 추론단계까지 발전 과정을 거치는 AI가 데이터 편향성에 의한 인종, 문화, 성별 등 차별이 없어야 하고, 이를 통해 인간 가치에 부합해야 하는 수준까지 나아가야 한다는 지적이다.

AI의 윤리성 문제는 AI가 우리 사회에 모습을 드러낸 다음부터 그림자처럼 늘 쫓아다니는 문제였다. 얼마전 AI챗봇 '이루다'가 자체 보유한 카카오톡 대화 100억건과 라인 대화 10억건을 중심으로 사람다운 대화를 하는데 성공하면서, 세간의 관심을 받았었다.

하지만 사람들의 이목을 더 크게 이끈 것은 이루다에 음담패설 등 성적 대화를 시도하는 사람들이 늘면서다. 일부 사용자들이 이루다를 '걸레'나 '성노예' 등으로 지칭하며 이루다와 대화를 나눈 것을 온라인에 게시한 것을 두고 성희롱 문제가 불거졌다.

이를 두고 AI를 인격으로 볼 수 있을지에 대한 문제도 함께 뒤따라왔다. 현재 수준의 AI가 법인격을 부여받을 만한 지위에 있는 지 등 뜨거운 논란이 이어졌다. 향후 고도화된 AI가 나올 미래에 살아가게 될 인류의 단상이라고 비판하는 목소리도 컸다.

때문에 AI기술 발전과 더불어 AI윤리와 관련한 법제정 논의도 급물살을 탔다. 글로벌 기업이 AI윤리 영역을 담당하는 직원만 200여명에 이르는 것과 달리 국내 기업은 이런 분야에 대한 투자가 부족한 상황이라는 지적이 나왔다. 현재 국회에는 AI 윤리와 관련해서 3, 4개 정도 법안만이 상정된 상태다.

업계 관계자는 "혐오 표현 등 AI를 둘러싼 윤리적 문제는 AI기술을 개발해야 하는 각 기업이 중대하게 신경써야 할 분야"라며 "AI가 학습할 데이터 선별에 있어 개입하고 전문적으로 다룰 인력과 시스템 구축이 필요하다"고 언급했다.

실제 현재 수준의 AI도입 속도가 눈에 띄는 금융권에서는 AI기술을 적극적으로 활용할 수 있도록 'AI 가이드라인 세부지침'을 만드는 과정에 있다.

또 AI가 도출한 결과를 검증하는 설명 가능한 AI(이하 XAI)와 같은 기술 개발도 적극적으로 진행돼야 할 필요가 있다는 조언도 함께 나온다. XAI는 AI가 기계 학습으로 데이터를 학습해 입력 데이터에 대한 판단 결과를 제공하지만, 결과에 대한 근거나 데이터 인과관계를 설명하기 힘들다는 한계를 극복하기 위한 기술이다.

현재 XAI에 대한 연구는 국내에서는 2017년 7월부터 올해말까지 혁신성장동력 프로젝트 일환으로 XAI연구센터에서 진행되고있다.

박세아
seeall@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널