AI

[AI 레벨업] AI 산업 진흥과 규제 사이, 법제화 논의 가속화

최민지 기자
제22대 국회 개원을 축하하는 현수막이 걸려 있는 국회의사당 모습. [ⓒ 연합뉴스]
제22대 국회 개원을 축하하는 현수막이 걸려 있는 국회의사당 모습. [ⓒ 연합뉴스]

[IT전문 미디어 블로그=딜라이트닷넷]

챗GPT로 촉발된 인공지능(AI) 산업 발전은 국가 경쟁력 강화와 시장 성장의 핵심 동력으로 떠오르고 있다. AI의 사회적 영향이 커질수록, 부작용을 우려하는 목소리 또한 커지고 있다. 일례로, 사회적 문제도 대두된 AI 기술로 영상물 등을 조작하는 딥페이크 범죄 등을 꼽을 수 있다.

이에 산업 발전을 저해하지 않으면서, 윤리적 문제 등을 관리할 법적 장치에 대한 논의가 이어지고 있다. AI 시스템의 투명성 확보와 책임성 강화, 개인정보보호 방안 등이 관건이다. AI 기술 잠재력을 활용하면서도, 사회적 위험을 최소화하기 위해서다. 다만, 지나친 규제는 전세계 AI 패권 경쟁에서 뒤처질 수 있는 요인이 될 수 있다.

현재 22대 국회에서는 AI 기본법 관련 법안들이 상정된 상태다. 지난 21대 국회에서도 AI 기본법 논의는 활발히 전개됐다. 지난해 국회 과학기술정보방송통신위원회(과방위)는 법안소위에서 AI 기본법을 3차례 논의 후 통과시켰으나 전체회의에서 계류됐다.

야당 측에선 당초 통과시켰던 법안은 챗GPT와 생성형AI 이전 법안들을 정리해 만든 것이기에, 진전된 환경에 맞게 보완해야 한다고 요구했다. 이에 제22대 국회 때 논의하기로 미뤄둔 것이다.

지난 5월30일 제22대 국회가 시작되면서, 그야말로 AI 관련법이 쏟아지기 시작했다. 지난 5월31일 안철수 의원(국민의힘)이 ‘인공지능 산업 육성 및 신뢰 확보에 관한 법률안’을 대표 발의한 후, 현재까지 총 10개 법안이 발의된 상태다. 안철수 의원이 발의한 법률안은 신뢰할 수 있는 AI 사용환경을 조성하기 위해 AI 개발‧이용에 관한 기본원칙, AI사업자 책무 및 이용자 권리를 규정한다. 고위험AI와 저위험AI로 유형을 구분해 이용자 보호를 위한 관련 시책을 구분해 마련하는 등 AI 기술‧정책의 제도적 기반을 조성하겠다는 목표다.

이어 ▲인공지능 발전과 신뢰 기반 조성 등에 관한 법률안(정점식 국민의힘 의원 대표 발의) ▲인공지능산업 육성 및 신뢰 확보에 관한 법률안(조인철 더불어민주당 의원) ▲인공지능산업 육성 및 신뢰 확보에 관한 법률안(김성원 국민의힘 의원) ▲인공지능기술 기본법안(민형배 더불어민주당 의원) ▲인공지능 개발 및 이용 등에 관한 법률안(권칠승 더불어민주당 의원) ▲인공지능 기본법안(한민수 더불어민주당 의원) ▲인공지능책임법안(황희 더불어민주당 의원) ▲인공지능 발전 진흥과 사회적 책임에 관한 법률안(배준영 국민의힘 의원) ▲인공지능의 발전과 안전성 확보 등에 관한 법률안(이훈기 더불어민주당 의원)이 줄줄이 발의됐다.

이들 법률안 상당수엔 AI기술위원회 설치 및 AI 기본‧종합계획 수립 근거를 마련하는 내용 등이 담겨있다. 이 외에도 주요 의원실에서 AI 관련 법안들을 준비하고 있어, 그 수는 더 늘어날 전망이다.

비단 한국만의 현상이 아니다. 미국과 유럽연합(EU)도 AI 규범 정립에 경쟁적으로 나서고 있다.

EU는 2024년 5월21일 세계 최초로 AI를 포괄적으로 규제하는 법률을 최종 확정했다. EU 인공지능법에 따른 첫 조치는 올해 12월 이후 시행, 법 발표 24개월 뒤인 2026년 중반부터 대부분 규정이 시행된다. 법제처 미래법제혁신기획단이 발표한 ‘AI 관련 국내외 법제 동향’에 따르면 EU 인공지능법은 고위험 AI 시스템을 중점적으로 규율하고 있고, 제공자와 배포자를 대상으로 투명성 의무를 규정했다.

과징금 부담도 크다. AI 관련 의무를 위반했다면, 3500만유로(한화 약 524억원) 또는 전년도 매출액의 7% 중 높은 금액을 부과해야 한다. 고위험 AI 관련 의무, 투명성, 범용AI 관련 의무를 위반한 경우 750만유로(약 112억원) 또는 전년도 매출액의 3% 중 높은 금액을 내야 한다. 스타트업‧중소기업이라면 낮은 금액으로 책정된다.

국내에선 EU 인공지능법을 참고하려는 움직임도 있는데, 일각에선 EU 경우 규제 강도가 과도해 시장 실패를 가져올 수 있다고 우려하고 있다.

미국은 2021년 국가 AI 계획 수립‧시행을 담당하는 기구와 위원회를 설립하는 내용의 ‘2020 국가인공지능계획법’을 제정해 AI 개념을 정의했다. 2022년 12월 AI 분야에서 미국 경쟁력을 강화하기 위해 AI 관련 프로그램 및 시책을 장려하는 ‘미국 인공지능진흥법’을 제정했다. 지난해 10월 바이든 정부는 ‘안전하고 보안이 보장되며 신뢰할 수 있는 인공지능의 개발과 사용’에 관한 행정명령을 발령했다. 인공지능 개발·사용에서 지켜야 할 행정부의 8가지 원칙과 우선순위, 연방기관이 참여해야 할 100개 이상 특정 조치를 규정했다. 대통령실 내 백악관AI위원회도 설립하도록 했다.

이는 진흥에 초점이 맞춰진 모습이다. 이와 반대로 미 캘리포니아주에선 강력한 AI 규제법 ‘SB1047’가 도마 위에 올랐다. 이 법은 기업이 AI 기술 공개 전 의무적으로 안전성을 테스트해야 한다. 제3자 감사 인력이 AI 기업의 안전 관행을 평가한다. 또, 대규모 AI 시스템이 많은 사람을 죽게 하거나 5억달러 이상 피해를 일으키지 않도록 주의를 기울여야 한다. 법안을 준수하지 않는다면 주 법무부 장관이 기업을 고소할 수 있다. 오픈AI 샘 올트만 최고경영자(CEO)는 “나쁜 규제”라고 비판했고, 마이크로소프트와 메타 등도 반대의사를 전달했다.

이처럼 미국과 EU에서도 AI 규제법과 관련해 의견이 분분한 만큼, 한국은 EU와 미국 사례를 참고하되 국내 상황을 적극적으로 반영한 법제화 고민을 심도 깊게 해야 할 필요가 있다는 의견이 모아지고 있다.

최민지 기자
cmj@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널