[챗GPT보안] "생성AI, 피싱에 악용되면 피해 규모 커질 것…정부 대응책 마련 중"
[디지털데일리 서정윤 기자] 생성AI 플랫폼인 챗GPT가 피싱 메일을 보내거나 악성코드를 배포하는 데 악용될 수 있다는 우려에 과학기술정보통신부와 관련 부처가 대책 마련에 나섰다.
김정희 한국인터넷진흥원(KISA) 실장은 13일 오후 서울 송파구에서 진행된 '챗GPT 등 생성형 인공지능(AI) 보안 위협 대응 방안' 토론회에서 "챗GPT는 실생활에서 AI와 공생할 수 있다는 걸 보여준 기술이기도 하지만 여러 한계와 악용의 우려가 있는 상황이기도 하다"며 "특히 사이버공격과 범죄에 악용될 수 있어 정부 차원에서 다양한 대응책을 마련하고 있다"고 밝혔다.
김 실장은 특히 챗GPT가 피싱과 악성코드에 악용될 수 있다고 우려했다. KISA에 따르면 사이버공격의 90% 이상이 피싱 메일로부터 시작된다. 국내 공공기관에서 발생한 사이버 공격을 분석했을 때 74% 이상이 피싱 메일 공격 형태를 띠고 있기도 했다. 김 실장은 챗GPT를 활용하면 보다 정교한 피싱 메일을 만들어낼 수 있다고 지적했다.
김 실장은 "AI가 작성한 메일과 사람이 작성한 메일에 대한 식별 능력을 구분하는 등의 기술이 필요할 수 있어 관련 부분에 대한 기술적 보완책이 마련돼야 한다"며 "피싱 메일과 관련한 공격 속도가 기존과 상당히 다른 양상으로 번져질 것이기 때문에 기존과 다른 조치를 어떻게 신속하게 진행할 수 있을지도 함께 고려해야 한다"고 강조했다.
챗GPT에서 경로를 우회하는 방식으로 악성코드를 만들어낼 수 있다는 지적도 있었다. 김 실장은 "예전에는 고도의 기술이 필요하다고 생각되던 해킹 기술의 진입장벽이 낮아졌다"며 "이로 인한 피해규모도 기하급수적으로 늘어날 것으로 생각하고 있다"고 설명했다.
김 실장은 "생성AI가 제작한 악성코드에 대한 탐지, 분석, 정보 공유 강화 등에 대한 고민이 필요하다"며 "별도의 체계가 아니라 수십년간 국가적으로 운영해왔던 침해사고 대응 체계와 어떻게 유기적으로 함께 갈 수 있을지가 포인트가 돼 선제적인 조치들이 마련돼야 할 것"이라고 말했다.
다만 생성형 AI는 방어 입장에서의 보안 업계에 새로운 기회를 가져올 거라는 주장도 나왔다. 김 실장은 "실제 AI 기술을 악용해 발생할 수 있는 공격과 AI 기술을 활용해 방어할 수 있는 기술 사이의 공방전이 끊임없이 계속될 것으로 보인다"며 "이런 기술 개발들은 보안 생태계에서의 게임체인저 역할을 하며 다양한 변화를 주도하고 시장 규모를 키울 수 있다"고 강조했다.
[인터뷰] 돈 되는 렌탈 데이터?...신상용 프리핀스 대표 “렌탈 창업부터 금융 솔루션까지 함께할 플랫폼”
2024-11-23 12:05:50행안부, 클라우드 네이티브 제도개선 착수…“공공SW 전반 변화해야”
2024-11-23 09:39:29주파수 재할당대가, 정부가 부르는게 값? “산정방식 검토 필요”
2024-11-22 18:23:52