일반

AI는 공격자에게 더 유리한 도구..."규제만이 정답 아냐"

이건한 기자

[디지털데일리 이건한 기자] 인공지능(AI)은 사용에 따른 장점과 단점, 명암이 명확한 기술이다. 하지만 보안의 측면에선 예외다. 진보한 AI 기술은 방어자보다 공격자에게 유리할 수 있으며 AI에 대한 섣부른 규제는 방어 측 대응에 오히려 독으로 작용할 수 있다.

곽진 아주대 사이버보안학과 교수가 18일 '세이퍼 위드 구글' 미디어 행사에서 AI 보안 위협을 주제로 발표하고 있다.
곽진 아주대 사이버보안학과 교수가 18일 '세이퍼 위드 구글' 미디어 행사에서 AI 보안 위협을 주제로 발표하고 있다.

곽진 아주대학교 사이버보안학과 교수는 구글코리아가 18일 서울 JW 메리어트 호텔에서 개최한 '세이퍼 위드 구글(Safer with Google)' 사전 미디어 간담회에서 이 같은 시점을 공유했다.

곽 교수는 AI에 따른 보안 위협의 관점에서 3가지 측면이 중요하다고 봤다. 첫째는 AI는 독립적이지 않고 늘 무언가와 상호작용한다는 것, 둘째는 양면성, 셋째는 활용능력이다.

이런 측면에서 AI는 다양한 사이버 보안, 공격 기술과도 융합해 더 나은 퍼포먼스를 만들 잠재력이 담겨 있다. 이때 사용자가 AI를 어떻게 활용하는가에 따라 긍정적인 결과물, 혹은 부정적인 결과물로 이어질 수 있는 양면성 또한 분명하다. 또한 그 결과물은 결국 사용자가 AI를 얼마나 잘 활용할 수 있는가에 따라 큰 차이를 갖기도 한다.

주목할 부분은 양면성이다. 곽 교수는 "양면성이란 특징은 중간지점이 없다는 것이며 쓰는 방식에 따라 창과 방패를 오간다"고 말했다. 문제는 창이 되는 경우다.

그는 "많은 보안 전문가들이 강조하길, 공격자 입장에서 보면 AI는 자신이 잘 모르는 형태의 공격 도구, 혹은 관련된 정보들을 획득을 상당히 손쉽게 한다는 것"이라며 "이런 점이 알려진 기존 AI 위협보다 더 큰 위험이 될 수 있다"고 경고했다.

또한 사회적 불균형, 국가적 특성, 경제력 차이 등에 따른 AI 활용능력의 격차 발생도 잠재적 위협이란 입장이다. AI는 어디에나 접목될 수 있고 누구나 쓸 수 있다. 잘만 쓰면 사용자의 비전문 영역에 대한 결과물도 만들 수 있다. 만약 공격자들의 평균적인 AI 활용 능력이 방어자보다 높아지면 AI 기술이 발전할수록 공격자들은 상당한 메리트를 얻게 된다. 반대로 방어자 입장에선 보안 위협이 배가될 수 있다.

곽 교수는 다양한 보안 위협 가운데서도 이런 상호작용과 양면성, 활용격차에서 비롯되는 문제와 위협이 갈수록 커질 수 있다는 부분에 주목해야 한다고 거듭 강조했다.

그럼 대응 방안은 무엇일까? 현재 한국, 미국, 유럽 등 정부 차원의 글로벌 트렌드는 AI에 관련 법률이나 제도 등을 제정하는 것이다. 이는 AI가 만든 결과물에 대해 책임을 물을 수 있는 근거가 포함될 수 있지만 법 조항만으로 AI의 편향성이나 정치적 이슈 등 복잡한 문제까지 모두 해결하긴 어렵다. 게다가 사람과 달리 AI는 학습된 데이터를 바탕으로 결과물을 도출할 뿐, 스스로 악의를 갖고 움직이지 않으므로 AI를 대상으로 책임을 정의하는 건 더욱 어려운 일이 된다.

이와 더불어 곽 교수는 "공격자들에게 법은 의미가 없다"고 지적했다. 또 방어자와 달리 공격 성공이란 하나의 목표만 갖고 움직이므로 방어자들보다 운신의 폭이 넓다.

반대로 법망 안에서 움직여야 하는 방어자들은 AI에 관한 규제와 통제가 늘어날수록 오히려 공격자에 대응하기 위한 운신의 폭이 좁아질 수 있다는 관점이다. 즉, 곽 교수의 시각은 AI가 그 자체로 대단히 좋은 기술이지만, 보안적 측면까지 고려할 때 활용방안 및 법·제도에 의한 통제를 보다 신중하게 접근하는 것과 국민적 AI 활용 능력 향상을 위한 교육 지원의 필요성이 높다는 의미로 풀이된다.

아만다 워커 구글 보안 및 개인정보보호 연구 개발 총괄.
아만다 워커 구글 보안 및 개인정보보호 연구 개발 총괄.

곽 교수에 이어 아만다 워커(Amanda Walker) 구글 보안 및 개인정보보호 연구 개발 총괄은 구글의 보안 정책과 지향점 등을 소개했다. 구글은 AI 머신러닝을 보안에 접목한 최초의 기업이다. 지금은 안드로이드 OS, 지메일 등 전세계 모든 사용자 서비스에 기본적으로 AI 보안 기능을 적용하고 있다.

아만다 총괄도 곽 교수와 마찬가지로 "보안은 방어자의 딜레마가 있다"고 말했다. 공격자는 단 한번만 성공하면 되지만 방어자는 늘 성공해야 하는 점을 말한다. 하지만 각국의 사이버 보안을 담당할 인재는 턱없이 부족하며, 한국이 포함된 아태지역은 그 격차가 특히 크다고 지적하기도 했다.

이에 구글은 모든 조직이 유능한 방어자로 거듭날 수 있도록 AI를 적극 활용하겠단 입장이다. 일례로 AI 기술을 접목한 지메일은 매일 전세계 1억개의 피싱 메일을 차단하고 있으며 크롬 브라우저는 매일 50억대의 기기를 보호 중이다. 또 국내에선 2023년 한 해 동안 4000여명의 개발자, 기업체 직원, 교사 대상의 사이버보안 및 AI 리터러시 교육을 실시하기도 했다.

아만다 총괄은 "AI 기술이 방어자의 딜레마를 해결하고, 오히려 방어자의 이점을 확보할 수 있는 기회를 제공할 수도 있다"며 AI 연구와 보안기술 및 교육 투자의 중요성을 강조했다. 또 그는 이번 행사에서 한국의 연구자들과 'AI 기반 코드 안전'을 주제로 주요 연구 프로젝트들을 공유했다.

한편, 올해 3회차를 맞이한 세이퍼 위드 구글 행사는 구글코리아가 더욱 안전한 온라인 환경을 위해 만든 학계 및 업계 전문가들의 토론장 겸 교육의 장이다. 이번 행사에는 강도현 과학기술정보통신부 제2차관, 김경훈 구글코리아 사장, 원유재 한국정보보호학회 명예회장 등도 참여해 AI 시대 보안 기술에 대한 인사이트를 나눴다.

이건한 기자
sugyo@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널