법제도/정책

정부, ‘신뢰할 수 있는 AI 실현전략’ 발표··· “이루다 사태 재발 막는다”

이종현
[디지털데일리 이종현기자] 정부가 ‘신뢰할 수 있는 인공지능(AI) 실현전략’을 발표했다. 개인정보를 오·남용한 AI 챗봇 서비스 ‘이루다’나 가짜뉴스 확산 및 불법 포르노 영상에 쓰이는 딥페이크 등, AI가 악용되거나 잘못 쓰이는 사례를 막겠다는 취지다.

13일 과학기술정보통신부(이하 과기정통부)는 4차산업혁명위원회(이하 4차위) 전체회의서 작년 발표한 AI 윤리기준의 실천방안을 구체화하고 지원체계와 지원책을 담은 신뢰할 수 있는 AI 실현전략을 발표했다.

전략은 ▲신뢰 가능한 AI 구현 환경 조성 ▲안전한 AI 활용을 위한 기반 마련 ▲사회 전반 건전한 AI 의식 확산 등 3대 전략과 10대 실행과제로 구성됐다. 과도한 규제로 AI 기술 발전을 저해하지 않음과 동시에 오·남용 및 악용을 막는 것이 목표다.

10대 실행과제는 AI 제품·서비스 구현 단계별 신뢰 확보 체계 마련 및 AI 학습용 데이터의 신뢰성 제고, AI 윤리 교육과 주체별 체크리스트 마련 등이다. AI 서비스를 개발할 때 개발 단계에서 참고할 수 있는 가이드북을 제공하고, 이후 기술·윤리적 검증과 신뢰성 인증을 한 뒤 서비스를 출시토록 하는 등의 내용을 담고 있다.

기술·재정적 상황이 열악한 스타트업을 지원하는 체계도 마련한다. AI 구현을 위한 데이터 확보, 알고리즘 학습, 검증을 통합 지원하는 플랫폼을 운영해 신뢰 속성별 수준 분석, 실제 환경 테스트 등을 추가해 기업을 지원한다는 계획이다.

국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 고위험 AI 범주를 설정함으로써 위험을 줄이는 방안도 제시됐다. 서비스 제공 전 해당 AI의 활용 여부를 이용자에게 고지하도록 하고 중장기적으로는 AI의 판단 근거에 대한 결과 설명 및 이에 대한 이의제기 등을 제도화하도록 하겠다는 방침이다.

AI 윤리기준에 대한 구체적인 행위지침인 주체별 체크리스트도 만든다. 연구·개발자, 이용자 등이 업무나 일상생활 속에서 윤리준수 여부를 자율 점검할 수 있도록 해 현장의 실천 가능성을 제고한다. AI가 개인정보를 활용 또는 처리해 훈련하거나 개발됐는지, AI 개발 단계에서 선호의 다양성이나 이용자간 수용 능력 차이를 고려했는지 등의 문항을 제공함으로써 자칫 놓칠 수 있는 문제를 방지한다.

최기영 과기정통부 장관은 “최근 발생한 챗봇 사건(이루다)은 우리 사회가 AI의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다”며 “AI 제품·서비스 개발 과정에서 혼란을 겪거나 이로 인해 국민이 피해보지 않도록 AI 신뢰 확보 기준을 명확히하고 기업이 신뢰성 기준을 준수할 수 있또록 지원하겠다”고 말했다.

한편 이날 4차위 전체회의는 4기 4차위의 첫 공식일정이다. 신뢰할 수 있는 AI 실현전략을 비롯해 ▲데이터기반행정 책임관 운영 내실화 방안 ▲미공개 핵심 데이터 개방 ▲4차위 4기 운영방향 등을 논의했다.

4차위는 미래지향적인 이슈 관련 갈등 해결을 위해 개인정보보호와 데이터 활용권 강화 등 갈등상황에서의 기본 원칙을 제시하고 사회적 합의 도출을 위한 규제·제도 혁신 해커톤을 강화할 예정이다. 미래 이슈 발굴을 위한 ‘4차위 미래 포럼(가칭)’을 월 1회 정기적으로 개최해 바람직한 변화 방향에 대해 논의한다.

윤성로 4차위 위원장은 “4기 4차위는 현장·정부·세대 간 소통을 통해 정부와 민간, 현재와 미래를 잇는 가교 역할을 강화해 나가는 한편 국가 데이터119 프로젝트의 성과 창출을 위한 민관합동 데이터 거버넌스로서 그 소임을 다할 것”이라고 피력했다.

<이종현 기자>bell@ddaily.co.kr
이종현
bell@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널