AI 기본법에 벌칙 있다면..."죄형법정주의 따른 판단 기준 명확해야"
[디지털데일리 이건한 기자] '인공지능(AI) 기본법' 제정 시 벌칙조항을 포함해 금지 혹은 고위험 AI 개발을 통제하려면 '죄형법정주의'에 따른 판단 기준을 명확히 해야 한다는 지적이 나왔다.
더불어민주당 권칠승 의원은 16일 국회 의원회관에서 '통일성 있는 인공지능 정책 추진을 위한 입법 공청회'를 열었다. 주요 참석자는 발제를 담당한 윤계형 법제연구원 연구위원, 좌장에 윤종민 충북대학교 법학전문대학원 교수, 패널에 남철기 과학기술정보통신부 인공지능기반정책과 과장, 김택우 대법원 법원행정처 판사, 정종구 서울대학교 컴퓨터공학부 강사(박사) 등이다.
이날 공청회는 최근 사회적, 입법적 측면에서 관심도가 높아지고 있는 국내 AI 기본법 제정 움직임을 두고, 합리적인 법안 마련을 논의하기 위해 이뤄졌다. 현재 해외에선 유럽연합(EU)을 필두로, 국내에선 최근 개원한 22대 국회에서 'AI 기본법' 제정을 위한 움직임이 활발하다. 모든 산업에서의 AI 접목이 점점 더 활발해지고 있는 만큼, 정부 차원에서 이를 진흥하거나 통제하기 위한 근거 법령 마련 또한 시급해지고 있기 때문이다.
22대 국회에선 16일 기준 여야 각 3개씩 총 6개의 AI 기본법 발의가 이뤄져 있다. 이 중 권 의원은 지난 5일 '인공지능 개발 및 이용 등에 관한 법률안'을 대표 발의했다. 이날 발제자로 본 법안을 분석한 윤계형 연구원은 "안전하고 신뢰할 수 있는 AI 이용 기반을 조성하는 기본법의 성격이 잘 규정돼 있다. AI 윤리 원칙 등에 대한 명확한 규정, 국가인공지능위원회 설립 추진 근거 등이 균형 있게 잘 마련된 법안"이라고 평가했다.
타 AI 법안과 비교할 때 눈에 띄는 차이점은 AI 정책수립 및 법 집행체계에서 정부의 통합적인 컨트롤타워 역할을 명확히 한 것이다. 타 법안이 관계 중앙행정기관과 지자체 의견을 수렴하도록 한 것과 달리, 본 법안은 과기정통부 장관이 직접 컨트롤타워로서 관계부처 등의 시책과 계획을 종합하도록 규정했다. AI 관련 국가정책이 '사공이 많아 배가 산으로 가는' 상황을 막고 보다 통합적, 체계적으로 추진될 수 있도록 하기 위함이다.
더불어 사회적으로 안전한 인간 중심의 AI 개발을 확립하기 위해 AI 3대 윤리 원칙인 '인간 존엄성의 원칙', '사회의 공공선 원칙', '기술의 합목적성 원칙' 등의 명확한 규범적 토대와 위반 시 벌칙조항 등을 함께 구축한 것도 두드러지는 차이점이다.
종합하면 이런 특징들은 전세계적인 AI 기술패권 경쟁 상황에서 AI 기본법을 통해 정부가 AI 산업 진흥 및 관리감독 역할을 보다 신속하고 명확하게 수행할 수 있도록 일원화하고, 동시에 기업은 사용자의 안전성을 반드시 고려하도록 의무화한 것으로 정리된다. 기본법으로서 국가, 기업, 사회적 측면의 요구를 최대한 수용하며 균형을 꾀할 수 있도록 고민한 결과물로 풀이된다.
허용되는 AI의 한계란 무엇? "더 구체적이어야"
다만 개발과 이용에 따른 심각한 부작용이 예상되는 '금지된 AI'와 '고위험 AI'를 정의하는 기준에 대해선 보다 명확한 법적 허용 기준이 확립되어야 한다는 지적이 따랐다.
지정 토론자로 나선 김택우 법원행정처 판사는 "우리 형법에서 범죄와 형벌을 법률에 미리 규정되어야 한다는 죄형법정주의가 지배한다"며 "이는 범죄가 무엇인지 적극 규정함과 동시에 범죄라 정의되지 않는 영역에선 인간의 자유를 최대한 보장하도록 한다. 이런 측면에서 본 법안이 고위험 인공지능 등을 '중대한 영향', '위험성이 높은 AI' 등으로 규정하고 세부 사례는 대통령령으로 다양하게 포함될 수 있도록 했지만, 반대로 '허용되는 AI의 한계는 어디까지냐'라는 불명확성이 남는다"고 말했다.
김 판사의 의견은 AI 기술 자체의 위험성을 기준으로 삼는 것보다는 기술이 적용되는 상황과 맥락에 따라 위험도를 평가하는 체계가 필요하다는 것이다. 예컨대 국민의 생명과 신체에 영향을 미치는 AI라 하더라도, AI가 제공한 결과물을 인간이 단지 참조만 하는 수준이라면 이런 경우까지 위험한 AI라고 볼 수 있느냔 얘기다. 특히 법 위반 여부와 형량을 최종 판단해야 할 판사들 입장에선 법 규정이 애매할수록 각자의 '해석론'을 펼쳐야 하는 상황에 빠진다. 문제는 이 경우 판사마다 근거와 기준이 다르므로 각 판단에 따른 불필요한 갈등이 발생할 수 있다는 우려가 내포돼 있다.
이와 관련해 토론자들은 모든 내용을 법안에 사전 정의하는 것이 쉽지 않지만, 권 의원을 포함해 조정이 필요하다는 점에선 대부분 동감 의견을 냈다.
윤 연구위원은 "딥페이크를 예시로, 현재는 위험한 AI 기술로 여겨지지만 어느 시점에 딥페이크를 완전히 구분할 수 있는 기술이 나오면 그날로 위험한 기술이 아니게 된다"며 "현재는 대통령령 등을 활용해 최대한 유연하게 대응할 수 있도록 법을 만드는 것이 하나의 방법"이라고 말했다. 이어 "EU처럼 상황에 따라 세부 규정의 시행은 시간차를 두는 것도 고려해 볼 수 있다"고 덧붙였다.
고위험 AI 검·인증 프로세스도 명확해야
이밖에 패널 외 질의응답 시간에는 생성AI스타트업협회(GAISA) 김성철 사무국장이 업계의 일부 우려 사항을 전하기도 했다. 법안 20조에 '인공지능사업자단체가 AI 등의 안정성 및 신뢰성에 대한 검증 또는 인증을 하게 한다'는 항과 23조에 고위험 AI 서비스 제공자는 검·인증을 받아야 하며 위반 시 벌칙조항과 연결되는 것에 대한 구체화 요구였다.
김 사무국장은 "AI 단체라고 지정하면 민간에서 각종 단체가 난립할 수 있고, 정부가 주체가 되어도 사실상 과한 규제가 될 수 있는 등 문제가 있을 수 있다"며 "검·인증의 범위도 굉장히 넓기 때문에 명확한 기준과 균형을 마련하는 것이 필요해 보인다"고 제언했다.
이에 남철우 과기정통부 과장은 "모든 사업자가 검·인증을 받으라는 것이 아니라 단체를 통해 유도를 하고, 정부는 가이드라인 제정과 연구개발을 돕는 측면이다. 현재도 과기정통부가 다 하고 있는 일"이라며 "연내에 설립할 AI 안전연구소에서 보다 구체적인 기준 마련 후, 이를 만족하는 검·인증 단체들이 검증 절차를 가이드하고 기업은 필요시 이를 받을 수 있도록 할 계획"이라고 답했다.
한편 공청회를 주최한 권칠승 의원은 "중소기업벤처부 장관 시절 AI 부문의 여러 잠재력과 위험성, 미래 등에 대한 많은 토론과 현장을 거치며 준비에 대한 필요성을 누구보다 잘 느끼고 있었다"며 "AI가 만들어 갈 미래에 대해, 적어도 필요한 제도도 만들지 못해 여러 불행한 사태가 생기거나 AI 기술 개발이 뒤처지는 일, 기타 바람직하지 못한 방향으로 이어지는 것은 막아야 한다고 생각한다"고 말했다. 이어 "법이 한번 만든다고 천년만년 가지 않고, 사회 변화에 따라 법도 어떤 형태로든 계속 발전해 간다. 이번 국회에서는 먼저 어떤 형태로든 AI 기본법이 통과될 것"이라고 덧붙였다.
[현장] 정부·국회 한 목소리 "AI 발전, 방송·미디어 혁신 이끌 것"
2024-12-17 17:34:58'밸류업 지수 신규 편입' 호재에도 KB금융에 냉담… 외국인들 기대 접나
2024-12-17 17:14:46[DD퇴근길] 단통법 폐지안·AI 기본법, 법사위 문턱 넘었다
2024-12-17 17:07:28한미약품, 'R&D 명가' 위상 추락… 연구개발투자 5위권으로 밀려나
2024-12-17 16:40:17