아이폰 '누드 자동감지 기능' 호주에 첫선...글로벌 확대 예정
[디지털데일리 이건한 기자] 애플이 최근 공개한 iOS 18.2 베타버전에 누드 콘텐츠를 온디바이스 인공지능(On-device AI)으로 자동 감지 및 차단할 수 있는 기능을 추가한다. 본 기능은 호주에 처음 도입되며 전세계로 확대될 예정이다. 이를 통한 주요 보호 타깃은 13세 미만 어린이다.
24일(현지시각) 영국 가디언에 따르면 애플은 호주 정부가 2024년 말까지 애플 같은 IT 기업이 자사 플랫폼에서 '아동 성적 학대 콘텐츠(CSAM)' 노출을 근절하도록 한 조치를 근거로 이 기능을 iOS에 추가했다.
이번 누드 감지 기능은 아이폰에 내장된 AI가 사용자에게 누드 노출되는 누드 사진, 혹은 동영상을 자동으로 감지하고 흐리게 처리하는 방식이다. 이어 해당 콘텐츠가 민감한 내용을 담고 있다는 경고와 함께, 콘텐츠 제공자를 차단하거나 애플에 신고할 수 있는 선택지들을 제공한다. 사용자가 13세 이상일 경우 경고를 무시하고 진행할 수 있으나 '선택하지 않는 것이 좋다'는 알림이 반복적으로 따를 수 있다.
다만 이 기능이 작동되는 앱은 제한적이다. 우선 아이폰 및 아이패드에서 ▲메시지 ▲에어드랍 ▲연락처 ▲페이스타임 등 애플이 서비스 중인 시각 콘텐츠 공유 서비스에 적용된다. 명단이 공개되지 않은 일부 타사 앱들도 포함된다. 또한 사용자는 iOS 18.2부터 아이폰 내 설정→스크린타임→커뮤니케이션 안전 메뉴에서 해당 기능의 활성화 여부를 선택할 수 있다.
한편, 이 기능이 최초로 도입되는 호주는 상대적으로 아동보호에 적극적인 정책을 펼쳐온 국가로 분류된다. 1990년 UN 아동권리협약(CRC)를 비준한 초기 국가 중 하나이며, 2015년 온라인 안전 강화법에서도 CSAM의 제작 및 유포를 범죄로 명시했다. 또한 2021년부터 2030년까지 진행되는 국가 전략 차원에도 아동의 성적 학대 예방 및 대응이 포함되어 있을 정도다.
무엇보다 지난 코로나19 대유행 기간 동안 온라인에서 아동의 성적 학대 및 착취 사례가 급증한 것도 호주가 IT 기업에 대한 CSAM 대응 강화를 주문한 배경으로 꼽힌다. 2021년 조사에 따르면 호주에서 18세 이전에 온라인 환경에서 성적 피해를 경험한 사람은 3명 중 2명으로, 다른 지역보다 높은 비율을 보였다. 2022년에는 텔레그램에서 CSAM을 제작 및 유포한 '엘(가명)'이 호주에서 체포됐으며, 2023년에도 전직 보육고사가 15년 동안 91명의 아동을 성적 학대한 혐의로 기소됐다.
[LG 임원인사] ② '전원 유임' 안정 택한 소부장 사각 편대…미래 효율 강화 '방점'
2024-11-21 18:43:49[LG 임원인사] ① '기업가치 동분서주' 조주완 LG전자 유임…유니콘 사업 '탄력'
2024-11-21 18:43:39LG헬로 송구영 대표이사 재선임…사업 수익성 개선 '총력'
2024-11-21 18:33:01LG그룹, 2025년 임원 인사 단행…AI·바이오·클린테크 '미래준비' 초점
2024-11-21 18:13:24AI 기본법 법안소위 통과…AI 제도 기반 마련 속도 내나
2024-11-21 18:08:05