보안

국정원, ‘챗GPT 가이드라인’ 수립에 산·학·연 의견 청취

이종현 기자

[디지털데일리 이종현기자] 국가정보원(이하 국정원)은 ‘챗GPT’ 등 생성형 인공지능(AI) 기술 활용 과정에서 발생할 수 있는 보안 문제를 사전에 예방하기 위한 보안 가이드라인 마련에 착수했다고 11일 밝혔다.

국정원은 지난 9일 산·학·연 전문가 의견 청취를 위한 ‘국가 사이버안보 민관 협의체 회의’를 개최, 생성형 AI 기술 활용 과정에서 ▲업무상 비밀·개인정보 유출 ▲가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려에 대응하는 방법에 대해 논의했다.

미국과 유럽연합은 최근 정부 차원에서 챗GPT 사용시 부작용 방지를 위한 AI 행동강령 제작에 착수했다. 이탈리아 정부는 정보보호 명목으로 챗GPT 접속을 차단했다가 운영사의 보안 조치 시행을 확인한 뒤 접속을 재개하기도 했다. 국내외 민간 기업들도 사내 보안정책을 강화하는 추세다.

국정원은 지난 4월부나 국가보안기술연구소 및 학계 전문가 합동으로 ‘챗GPT 등 생성형 AI 기술 활용 보안 가이드라인’ 제정에 착수했다. 9일 회의에는 AI 및 정보보안 전문가를 비롯해 행정안전부, 교육부 등 각 부처 정보보안 담당자 60여명이 함께했다.

권태경 한국정보보호학회 AI보안연구회 부위원장(연세대 교수)는 “기술의 발전 만큼 중요한 것이 관련 보안제도의 마련이다. 보안정책의 기틀 위에서 AI 기술 활용이 이뤄져야 한다”고 강조했다.

국정원 관계자는 “국가기관에서 AI 기술 사용시, 민간기술 등을 활용해 정부 차원 AI 모델을 행정업무망 내부에 자체 구축하는 형태가 돼야 한다. 이날 논의된 내용과 기관별 애로사항을 반영해 이달 중 전체 국가공공기관 및 지자체에 보안 가이드라인을 배포할 계획”이라며 “앞으로도 등장하는 신기술에 대한 보안대책을 적시에 마련해 각급기관의 안전한 정보통신기술(ICT) 활용을 지원하겠다”고 전했다.

이종현 기자
bell@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널