법제도/정책

범람하는 AI 규제·가이드...KISA, 'AI 보안 가이드라인' 만든다

최민지 기자

AI 보안 이미지 [ⓒ 픽사베이]

[디지털데일리 최민지기자] 과학기술정보통신부 'AI기본법(인공지능 발전과 신뢰 기반 조성 등에 관한 법률안)'이 국회 계류 중인 가운데, 정부부처·기관들이 앞다퉈 인공지능(AI) 관련 규제 및 가이드라인 수립을 위해 움직이고 있다. 개인정보보호위원회는 올해 'AI프라이버시 가이드라인'을 내놓겠다 밝혔고, 방송통신위원회는 올해 업무보고를 통해 'AI이용자보호법' 제정을 공식화했다.

한국인터넷진흥원도(KISA)도 이같은 움직임에 합류했다. KISA는 올해 AI 보안 가이드라인과 AI 이용 보안 수칙을 수립할 방침이다.

이와 관련 KISA는 지난 16일 조달청 나라장터를 통해 AI 보안 가이드라인 등을 만들기 위해 '안전한 AI 개발 및 이용을 위한 보안 모델 연구'를 진행한다고 공고했다.

KISA는 다음달 사업자 선정 후, 현황 조사·분석을 거치고 연구반을 구성할 방침이다. 개발자·관리자, 이용자별 보안 필요사항을 도출해 오는 11월까지 상세 보안 요구사항 및 이용자 보안 수칙을 마련할 계획이다. 가이드라인 발간 경우, 오는 12월까지 추진하겠다는 목표다.

연구반은 AI 및 정보보안 산·학·연 전문가, 정부·공공기관·기업 등 정책 이해관계자 등으로 구성된다. AI 보안의 기술적·정책적 측면을 함께 논의하겠다는 입장이다. 이들은 안전한 AI 시스템 개발과 서비스 이용에 필요한 보안 강화 방안을 마련하고 가이드라인을 개발·검토하는 역할을 맡게 된다.

AI 보안 가이드라인은 개발자와 관리자 대상이다. AI 시스템 개발 과정 전반의 보안 내재화와 안전한 개발·운영 환경 구축을 위해 개발자·관리자가 확인해야 할 사항을 제시한다. 이를 위해 주요국 선진사례와 국내·외 AI 현황을 조사하고, AI 보안 모델링을 진행할 예정이다. 보안 체크리스트도 제작한다.

KISA는 미국과 유럽연합(EU) 지침뿐 아니라 국정원 '챗GPT 등 생성형AI 활용을 위한 보안 가이드라인', 과기정통부·TTA '신뢰할 수 있는 인공지능 개발 안내서' 등 국내·외 AI 보안 관련 정책 등을 분석해 한국형 AI 보안 프레임워크를 마련하기로 했다. 이와 관련 과기정통부와도 협의하고 있다는 설명이다.

이용자 보안 수칙 경우, 글로벌 AI 관련 보안 위협과 이용기기 보안설정 미흡, 이용자 부주의 및 악용 등 피해 사례 등을 조사한다. 개인정보나 민감정보를 입력하지 않고, 결과물에 대한 저작권 및 재산권 검증 등 이용자 보안 수칙과 구체적인 준수사항을 포함시킬 예정이다.

KISA는 "AI 기술 개발 및 시스템 활용이 경제·의료·금융 등 다양한 분야로 확산하면서 AI 기술이 현실화되고 일상에 영향을 미치기 시작했다"며 "국민·기업이 AI를 안전하게 개발·활용할 수 있도록 기술 관련 각 분야의 필수적인 보안조치·기준 등을 제시하는 AI 모델을 마련하는 것이 목적"이라고 말했다.

최민지 기자
cmj@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널