[2024 개인정보정책] 개인정보위, ‘AI’ 방점…6대 가이드라인 공개 시기는?
[디지털데일리 최민지 기자] “최근 생성형 인공지능(AI) 기술의 급격한 발전은 개인정보 중요성을 다시 확인시켜 주는 계기가 됐습니다. AI 등 신기술 발전으로 인한 사회적인 편익은 국민 모두가 누리고, 프라이버시 리스크는 최소화하도록 하겠습니다.”
개인정보보호위원회 고학수 위원장은 지난 15일 서울정부청사에서 ‘2024년 개인정보보호위원회 주요 업무 추진 계획’을 발표하며 이같이 말했다. 이처럼 개인정보보호휘원회(이하 개인정보위)는 올해 ‘AI’에 방점을 찍었다.
올해 개인정보 정책 비전은 ‘국민 삶이 풍요롭게 개인정보가 안전한 AI 시대’다. 정부의 올해 기조는 민생 회복의 해다. 이에 더해 개인정보가 AI 학습데이터 핵심이 되고 있는 상황을 고려, 정책 비전을 정의했다는 설명이다. 이에 따라 개인정보위는 정책방향과 추진과제 중 첫 번째로 AI를 꼽았다. 신뢰받는 AI로 국민 삶의 제고하고, 신뢰할 수 있는 AI 성장 여건을 조성하겠다는 목표다.
이와 관련 개인정보위는 개인정보보호법 적용 원칙과 기준을 구체화한 AI 단계별 ‘6대 가이드라인’을 추진한다. 기업이 가이드라인을 참조해 단계별로 필요한 사항을 참조할 수 있도록 하겠다는 설명이다. 다만, 6대 가이드라인 발표 시기는 각각 다르다.
AI 단계는 크게 ▲기획 및 데이터 수집 단계 ▲데이터 학습 단계 ▲AI 서비스 단계로 구분된다. 이와 관련해 개인정보위는 ▲공개된 정보 ▲비정형데이터 ▲생체인식정보 ▲합성데이터 ▲이동형 영상기기 ▲투명성 확보로 구성된 ‘6대 가이드라인’을 연내 마련할 예정이다.
‘비정형데이터 가이드라인’은 지난 4일 발표된 바 있다. 최근 AI 기술 확산으로 비정형데이터 활용 수요가 증가하자, 영상‧음성‧이미지 등 비정형데이터 관련 가명처리 기준을 제시했다. 가이드라인에서는 비정형데이터를 가명처리하고 활용하는 과정에서 나타날 수 있는 개인정보 노출 위험을 사전에 확인하고 통제하는 원칙을 담았다. 특히, 의료‧교통‧챗봇 등 분야별 시나리오를 제공하기도 했다.
나머지 가이드라인은 순차적으로 공개될 예정이다. 우선, ‘공개된 정보 가이드라인’은 소셜미디어(SNS) 게시글 등의 적법한 처리 기준을 제시하며, 3~4월경 발표될 계획이다.
6월 예고된 ‘투명성 확보 가이드라인’에서는 데이터 처리 공개범위와 내용 등 기준을 구체화한다. 동시에, 오는 9월엔 AI 프라이버시 유형‧용례별 리스크 평가 모델을 내놓는다. 이를 통해 AI 활용에 대한 국민 불안을 해소하겠다는 복안이다.
‘합성데이터 가이드라인’은 비식별 효과가 높은 합성데이터 생성‧활용 기준을 제시한다. 11~12월경 발표될 전망이다. ‘이동형 영상기기 가이드라인’은 연내 발표를 목표로 하며, 이동형 영상기기로 인한 부당한 권리침해 판단 기준을 구체화한다.
‘생체인식정보 가이드라인’은 얼굴인식기술 등 생체정보의 합리적인 활용 기준과 생체정보주체의 권리보장 수단 확대 등을 담은 합리적 규율체계에 속한다. 이는 가이드라인에 한정되지 않으며, 입법을 목표로 한다. 내용 구체화는 연내 이뤄진다.
개인정보위 관계자는 “AI와 관련해서는 실시간 원격 얼굴인식기술 제한 기준을 예로 들 수 있다. AI를 활용해 얼굴을 빠르게, 멀리서도 인식할 수 있는 등 기술이 발전하고 있는데, 이 경우 무차별적으로 활용되지 않도록 명확한 목적과 안전조치 등 활용 기준이 요구된다”고 설명했다.
입법안에서는 실시간 원격 얼굴인식기술 제한 기준과 함께 생체정보 특화된 정보 주체들의 기본권 보호 조항 등이 포함될 예정이다. 신체가 불편한 이들이 생체인식에 어려움을 겪을 때 대체 수단을 요구할 수 있으며, 사진 인식 오류 발생을 방지하기 위해 사진 갱신을 요청할 수 있다.
이와 함께 개인정보위는 ‘사전적정성 검토제’를 본격 운영한다. 지난해 시범운영 결과를 기반으로 고시를 제정해 이번달 운영지침을 마련해 제도화한다는 설명이다.
다음달 선보일 사전적정성 검토제는 스타트업 등이 AI 모델‧서비스 과정에서 개인정보 법령 준수방안을 정부와 함께 마련하고, 행정처분을 면제받을 수 있는 제도다. 관련 사업을 전개하는 과정에서 명확하지 않은 규제 그레이(회색) 영역에 속했을 때, 불확실성을 해소하겠다는 것이다.
‘개인정보 안심구역’도 올해 구체화된다. 그동안 학계와 업계에서는 가명처리 수준이 높아 AI 학습데이터 확보에 어려움을 겪고 있다고 호소해 왔다. 이에 AI 연구자와 스타트업이 안전한 환경에서 고품질 학습데이터를 저비용으로 활용할 수 있도록 개인정보 안심구역을 본격 운영한다.
개인정보위에 따르면 현재 개인정보 안심구역으로 선정된 곳은 통계청과 국립암센터 내 지정된 분석 공간이다. 개인정보위는 양 기관 현장점검을 마친 상태다. 심사 진행 후 통계청 개인정보 안심구역은 다음달, 국림암센터 경우 늦어도 4월말 문을 연다. 올해 상반기 내 공모를 통해 한 곳을 더 지정할 방침이다.
가명정보는 한 번 사용하면 파기해야 하지만, 이곳에서는 가명정보를 재사용할 수 있다. 가명처리 적정성 샘플링 검사 등도 허용된다. 여러번 재활용하고 장기간 가명정보를 사용할 수 있는 만큼, AI 연구자는 충분한 데이터 활용기간을 보장받을 수 있고 시간과 비용도 절약할 수 있다. 특히, 합리적인 가명 수준으로 낮추기 위해 연구 환경을 안전하게 통제했다.
개인정보위 관계자는 “유연한 데이터 활용을 보장한 만큼, 개인정보 안심구역의 데이터 환경 안정성을 강화했다”며 “망분리를 통해 다른 데이터와 섞이지 않도록 분류하고, 투팩터 인증 등 다양한 안전조치를 강구했다. 외부 반출도 최종적인 결과물만 가능하다”고 부연했다.
또한, 개인정보위는 개인정보 안전조치를 전제로 영상정보 원본 활용을 허용하는 규제 샌드박스를 운영한다. 이뿐 아니라 AI에 기반한 채용‧복지수급자 선정 등 삶에 중대한 영향을 미치는 자동화된 결정에 대한 정보주체 대응권을 보장한다. 정보주체는 AI 등에 의한 결정에 대해 설명을 요구할 수 있으며, 이를 거부하고 사람에 의해 다시 판단받을 수 있다.
한편, 개인정보위는 AI 발달에 따른 글로벌 디지털규범 재편 논의에 적극 참여, 신뢰할 수 있는 AI 프라이버시 체계 마련을 주도한다는 계획이다. 구체적으로 UN AI 자문기구에 참여하고, 미국‧유럽연합(EU)‧일본 등 92개국 140개 기관이 속한 GPA(Global Privacy Assembly) AI 작업반에서 활동한다. 프랑스 감독기구(CNIL)와 AI 정책협의체도 분기별 운영한다.
또, AI 데이터 질서 정립 과정에서 국익 확보를 위해 AI 프라이버시 국제 컨퍼런스(9월 예정), GPA 총회(2025년 9월) 등을 개최한다. 영국, 프랑스, 독일, 일본 등 주요국 감독기구와 공조하고 미국 연방거래위(FTC), 영국 과학혁신기술부(DSIT) 등 정책기관과 협력도 추진한다.
고학수 위원장은 “기업이 AI 기술과 서비스 개발을 주저하지 않도록 법적 불확실성을 해소하는 한편, 개별 기술의 리스크 수준에 상응하는 개인정보 보호 장치를 마련해 AI 기반 데이터 경제 활성화를 지원하겠다”고 전했다.
[2024 IT혁신상품] 상담부터 코칭까지 AI로…KT AICC 솔루션
2024-12-24 10:46:09계정·카드번호까지 유출...뉴스레터 서비스 '스티비' 해킹에 이용자 불안↑
2024-12-24 10:45:27오케스트로, 디플정위 기관표창 수상…“AI 공공서비스 혁신에 기여”
2024-12-24 10:23:36MG새마을금고 재단, '내집잡기' 7기 전원 활동수료…"청년 주거문제 해결"
2024-12-24 09:34:18