[디지털데일리 신제인 기자] 인공지능이 사회적 차별을 확대 또는 재생산한다는 보고가 지속되어온 가운데, 이를 해결하고자 하는 대책이 강구됐다.
이미 유엔, 유럽연합(EU) 등 국제사회에서는 AI로 인한 문제를 예방하기 위한 제도와 지침을 속속 도입하고 있음에도, 그동안 국내에서 만큼은 기업들의 자정적인 노력에만 문제 해결을 맡겨왔다. 이제는 본격적으로국가적 차원의 선제적 규제의 필요성이 촉구된 것이다.
국가인권위원회는 ‘AI 개발과 활용에 관한 인권 가이드라인’을 마련, 국무총리와 관련 부처 장관에게 AI 관련 정책을 수립·이행하고 관련 법령을 제·개정할 것을 권고했다고 17일 밝혔다.
인권위의 가이드라인은 ▲인간의 존엄성 및 개인의 자율성·다양성 보장 ▲투명성·설명 의무 ▲자기결정권의 보장 ▲차별금지 ▲AI 인권영향평가 시행 ▲위험도 등급과 관련 법·제도 마련 등을 골자로 한다.
인권위는 “AI 기술의 발전은 고용, 금융, 행정, 복지 등 사회 전반에 걸쳐 인간의 기본적인 삶과 인권에 영향을 미치고 있으나, 그 영향을 받는 당사자들은 AI 도입·운영·결정 과정에서 의견제시나 참여의 기회를 보장받지 못하고 있다”고 가이드라인 도입 취지를 설명했다.
아울러 “AI에 의해 인권침해나 차별이 발생한 경우에도 효과적인 권리구제를 받을 수 있는 절차와 방법이 미흡한 상황”이란 점도 고려했다고 전했다.
가이드라인을 구체적으로 살펴보면, AI는 인간의 존엄, 가치, 행복 추구권에 부합하는 방향으로 개발·활용돼야 하며, 개인정보는 목적달성에 필요한 최소한의 범위 내에서 처리해야 한다고 규정됐다.
특히, AI가 개인의 생명, 안전 등 기본적 인권에 중대한 영향을 미치는 경우엔 사용한 데이터와 알고리즘의 주요 요소를 일반에 공개하고 설명해야 한다는 내용이 담겼다. 국가도 마찬가지로 AI의 인권영향 평가제도를 마련하고, 평가 결과 위험성이 드러나면 그 내용을 공개해야 한다.
이때 AI가 개인의 인권과 안전에 미치는 위험성을 단계별로 구분하고, 그에 걸맞은 수준의 규제와 인적 개입이 이뤄지도록 법과 제도를 마련해야 한다고 가이드라인은 강조했다. 또 AI 피해자에 대한 권리구제 기회 제공과 관련해서도 언급됐다.
인권위는 “이번 가이드라인을 통해 AI 기술의 개발과 활용 전 과정에서 인권적 가치가 보호되는 계기가 마련되기를 기대한다”고 말했다.