[챗GPT보안] "생성AI, 피싱에 악용되면 피해 규모 커질 것…정부 대응책 마련 중"
[디지털데일리 서정윤 기자] 생성AI 플랫폼인 챗GPT가 피싱 메일을 보내거나 악성코드를 배포하는 데 악용될 수 있다는 우려에 과학기술정보통신부와 관련 부처가 대책 마련에 나섰다.
김정희 한국인터넷진흥원(KISA) 실장은 13일 오후 서울 송파구에서 진행된 '챗GPT 등 생성형 인공지능(AI) 보안 위협 대응 방안' 토론회에서 "챗GPT는 실생활에서 AI와 공생할 수 있다는 걸 보여준 기술이기도 하지만 여러 한계와 악용의 우려가 있는 상황이기도 하다"며 "특히 사이버공격과 범죄에 악용될 수 있어 정부 차원에서 다양한 대응책을 마련하고 있다"고 밝혔다.
김 실장은 특히 챗GPT가 피싱과 악성코드에 악용될 수 있다고 우려했다. KISA에 따르면 사이버공격의 90% 이상이 피싱 메일로부터 시작된다. 국내 공공기관에서 발생한 사이버 공격을 분석했을 때 74% 이상이 피싱 메일 공격 형태를 띠고 있기도 했다. 김 실장은 챗GPT를 활용하면 보다 정교한 피싱 메일을 만들어낼 수 있다고 지적했다.
김 실장은 "AI가 작성한 메일과 사람이 작성한 메일에 대한 식별 능력을 구분하는 등의 기술이 필요할 수 있어 관련 부분에 대한 기술적 보완책이 마련돼야 한다"며 "피싱 메일과 관련한 공격 속도가 기존과 상당히 다른 양상으로 번져질 것이기 때문에 기존과 다른 조치를 어떻게 신속하게 진행할 수 있을지도 함께 고려해야 한다"고 강조했다.
챗GPT에서 경로를 우회하는 방식으로 악성코드를 만들어낼 수 있다는 지적도 있었다. 김 실장은 "예전에는 고도의 기술이 필요하다고 생각되던 해킹 기술의 진입장벽이 낮아졌다"며 "이로 인한 피해규모도 기하급수적으로 늘어날 것으로 생각하고 있다"고 설명했다.
김 실장은 "생성AI가 제작한 악성코드에 대한 탐지, 분석, 정보 공유 강화 등에 대한 고민이 필요하다"며 "별도의 체계가 아니라 수십년간 국가적으로 운영해왔던 침해사고 대응 체계와 어떻게 유기적으로 함께 갈 수 있을지가 포인트가 돼 선제적인 조치들이 마련돼야 할 것"이라고 말했다.
다만 생성형 AI는 방어 입장에서의 보안 업계에 새로운 기회를 가져올 거라는 주장도 나왔다. 김 실장은 "실제 AI 기술을 악용해 발생할 수 있는 공격과 AI 기술을 활용해 방어할 수 있는 기술 사이의 공방전이 끊임없이 계속될 것으로 보인다"며 "이런 기술 개발들은 보안 생태계에서의 게임체인저 역할을 하며 다양한 변화를 주도하고 시장 규모를 키울 수 있다"고 강조했다.
삼성전자 노사, 임협 5.1% 인상·패밀리넷 200만 포인트 합의
2024-11-14 19:53:31SK C&C, 3분기 매출 5835억원…전년비 12.1%↑
2024-11-14 18:06:27LG CNS, 3분기 영업익 60%↑…올해 누적매출 4조원 육박
2024-11-14 17:47:45"파라미터 크기만 보던 AI 시대 저문다…양보다 질로 승부"
2024-11-14 17:46:15