국정원, 챗GPT 활용 보안 가이드라인 배포
[디지털데일리 이종현기자] 국가정보원(이하 국정원)이 챗GPT와 같은 생성형 인공지능(AI) 활용에서 주의해야 할 사항을 담은 보안 가이드라인을 29일 발표했다.
국정원은 챗GPT 등 생성형 AI기술 활용 과정에서 ▲업무상 비밀·개인정보 유출 ▲가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기돼 지난 4월 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수했다.
국정원 관계자는 “챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만, 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황이었다”며 “국정원은 국가 사이버안보 정책을 수립·시행하는 기관으로서 이번 보안 가이드라인을 마련, 각급기관이 생성형 AI기술을 적극 활용할 수 있는 기반을 마련했다”고 전했다.
이번 보안 가이드라인은 생성형 AI기술 서비스 접속부터 질의, 결과물 활용 등 과정 전반에서 지켜야 할 보안 지침을 단계별로 안내, 각급기관 담당자는 물론, 기술을 활용하는 일반 국민들도 이해할 수 있도록 제작했다는 설명이다.
구체적으로, 생성형 AI기술과 관련한 ▲개요 및 해외동향(챗GPT 사례 중심) ▲보안위협 사례 ▲기술 사용 가이드라인 ▲국가·공공기관의 정보화사업 구축 방안 및 보안대책 등이 담겼다.
국정원은 생성형 AI 기술을 안전하게 이용하기 위한 필수 보안수칙으로 ▲비공개·개인정보 등 민감 정보 입력 금지 ▲생성물에 대한 정확성·윤리성·적합성 등 재검증 ▲생성물 활용시 지적 재산권·저작권 등 법률 침해·위반여부 확인 ▲연계·확장프로그램 사용시 보안 취약여부 등 안전성 확인 ▲로그인 계정에 대한 보안설정 강화 등을 제시했다.
이번 보안 가이드라인은 국내 420여개 국·공·사립대학 등에 배포할 계획이다. 현재 생성형 AI가 대학 등 일선 연구·교육현장에서 적극 활용되고 있지만, 명확한 보안대책이 없는 실정이었기 때문이라고 밝혔다.
국정원 관계자는 “보안 가이드라인 준수를 통한 보안사고 없는 적극적인 AI기술 활용을 기대한다”며 “공공분야를 비롯한 대한민국 전역에서 AI 등 정보기술(IT) 신기술이 안전하게 사용될 수 있도록, 지속적으로 노력하겠다”고 말했다.
한편 국정원은 국민들 사이에서도 챗GPT 활용 붐이 일어나고 있어, 이와 관련해 발생할 수 있는 보안사고를 사전 예방하는 데 참고할 수 있도록 국정원 국가사이버안보센터 홈페이지에 게재했다고 안내했다.
“금융권 책무구조도, 내부통제 위반 제재수단으로 인식 안돼”
2024-11-15 15:19:319월 국내은행 가계·기업대출 연체율 하락…"분기말 연체채권 정리규모 확대 때문"
2024-11-15 15:11:10'2조 클럽' 삼성생명, 삼성화재에 순익 앞서며 자존심 회복… 올해 '맏형' 자리는 누가?
2024-11-15 15:00:21DL건설, “공정문화 확산 실천”…‘2024년 DL건설 컴플라이언스 데이’ 개최
2024-11-15 14:18:34