[챗GPT보안] "생성AI로 새로운 보이스피싱 생길 수 있어…기업 보안 우려도"
[디지털데일리 서정윤 기자] 챗GPT로 대표되는 생성AI가 일상 속에 자연스럽게 들어오며, 보안 위협도 커지고 있다. AI 전문가들은 생성AI를 통해 새로운 종류의 보이스피싱이나 해킹이 증가할 수 있다며 우려를 보냈다. 기업들은 챗GPT를 통해 고객정보나 대외비 정보가 노출될 수 있다며 사용을 고심하고 있다.
이상근 고려대 교수는 13일 오후 서울 송파구에서 진행된 '챗GPT 등 생성형 AI 보안 위협 대응 방안' 토론회에서 "챗GPT는 '빙'이라는 마이크로소프트의 검색엔진을 활용해 최신 이슈를 검색해주기도 한다"며 "지난 4월에 관련 내용이 패치된 이후 챗GPT가 보안 취약점을 알려주고 공격 원리와 공격하는 코드까지 찾아줬다"고 설명했다.
그러면서 "챗GPT를 사용하면 사이버보안을 강화할 수도 있지만 동시에 해킹에 악용될 가능성도 높다"며 "정부·군·민간이 협력해 대응할 수 있도록 생태계 구축이 필요하다"고 밝혔다.
보안 전문가들도 챗GPT를 활용해 새로운 종류의 사이버위협들이 등장할 수 있다고 지적했다. 곽규복 LG CNS 보안사업담당 위원은 "다크웹을 모니터링하다 보면 해커들이 챗GPT를 활용해 해킹하는 방법을 공유하는 걸 볼 수 있었다"며 "초보 해커들의 진입장벽이 대단히 낮아졌다"고 지적했다.
윤두식 지란지교시큐리티 대표는 "챗GPT 등장 이후 스팸메일과 피싱메일이 확실히 많이 증가했다"며 "배송 메일을 사칭하는 등 일반인들이 속기 쉬운 경우가 많아 관련한 교육이 필요하다"고 지적했다.
윤 대표는 앞으로 생성AI를 활용한 보이스피싱이 증가할 거라고도 전망했다. 윤 대표는 "3초 정도의 목소리 녹음본만 있다면 누군가의 목소리를 똑같이 흉내낼 수 있다"며 "자녀나 부모에게 전화해 실제 가족인 것처럼 속인다면 대국민 피해가 어마어마할 것으로 보인다"고 강조했다. 그러면서 "과학기술정보통신부는 물론 경찰, 학계, 통신사 모두가 협업해 대응방안을 만들어야 한다"고 주장했다.
이날 토론회에서는 챗GPT를 기업 업무에 활용할 경우 고객정보나 대외비가 AI 학습에 쓰일 수 있다는 우려도 나왔다. 각 기업은 챗GPT를 제한적인 목적으로만 사용하는 등 다양한 방법으로 대응하고 있었다.
곽규복 위원은 "LG CNS에서는 챗GPT를 쓰지 못하게 막거나 사용하더라도 폐쇄된 환경에서만 쓸 수 있게끔 하고 있다"며 "고객의 개인정보가 혹시라도 들어가 또 다른 학습 데이터로 활용돼 다른데서 유출될 위협은 없는지 철저하게 모니터링하고 있다"고 말했다.
KT는 지난 4월 챗GPT 사용 10계명을 만들고 직원들에게 배포했다. 박환석 KT 정보보안단IT부문 상무보는 "기업정보나 개인정보가 올라갈 수 있기 때문에 사내에서 개인적인 용도로 챗GPT를 사용할 수 없으며, 기업의 도메인을 사용하는 것 등을 금지하고 있다"고 말했다.
박 상무보는 "KT가 사용하는 소스코드가 챗GPT에 올라갔을 때 오히려 그것이 KT를 공격하는 도구가 될 수 있다"고 덧붙였다.
과기정통부는 연구반을 통해 챗GPT로 인해 발생할 수 있는 사이버위협을 연구하고 조만간 대응책을 마련할 예정이다. 정창림 과기정통부 정보보호네트워크정책관은 "하나하나 잘 고려하며 가이드라인이나 공격에 대한 대응체계 강화, R&D 정책, 인력 양성, 법제도 개선 등을 종합적으로 검토하겠다"고 말했다.
[인터뷰] 돈 되는 렌탈 데이터?...신상용 프리핀스 대표 “렌탈 창업부터 금융 솔루션까지 함께할 플랫폼”
2024-11-23 12:05:50행안부, 클라우드 네이티브 제도개선 착수…“공공SW 전반 변화해야”
2024-11-23 09:39:29주파수 재할당대가, 정부가 부르는게 값? “산정방식 검토 필요”
2024-11-22 18:23:52