뉴스

AI 챗봇 정말 믿을 수 있을까?… 구글도 '기밀 유출' 우려

김보민 기자
구글의 인공지능(AI) 기반 챗봇 서비스 '바드'(Bard) [사진=구글 바드 페이지 캡처]
구글의 인공지능(AI) 기반 챗봇 서비스 '바드'(Bard) [사진=구글 바드 페이지 캡처]

[디지털데일리 김보민 기자] 인공지능(AI) 챗봇이 이용자의 데이터를 유출할 수 있다는 우려가 커진 가운데, 구글 내부에서도 경고 메시지가 나왔다.

15일(현지시간) 로이터통신이 인용한 소식통에 따르면 구글의 모회사 알파벳은 자사 직원들을 대상으로 '바드(Bard)' 등 AI 챗봇에 기밀 정보를 입력하지 말라는 지침을 내렸다.

특히 개발 엔지니어들에게는 AI 챗봇이 생성할 수 있는 코드를 입력하지 말라고 경고했다.

직원들이 입력한 내용을 AI 챗봇이 학습해 재생산할 경우, 내부 정부가 외부로 유출될 위험이 커지기 때문이다.

알파벳 측은 해당 보도에 대해 "구글은 기술의 한계를 투명하게 공개하는 것을 목표로 한다"라고 말했다.

IT 업계에서는 AI 챗봇 시장을 선점하기 위한 신경전이 치열하다. 구글은 자사 챗봇 서비스인 '바드'를 선보이며 오픈AI의 '챗GPT'와 마이크로소프트(MS)의 '빙챗'에 대항하고 있다.

그러나 AI 챗봇이 이용자의 데이터를 어떻게, 그리고 얼마나 보호할지에 대한 해답을 내놓은 기업은 많지 않다.

특히 AI 챗봇을 업무에 사용하는 사례가 늘어나면서 데이터 유출에 대한 우려는 커지고 있다.

네트워킹 사이트 피시볼의 설문조사에 따르면 올 1월 기준 약 43%의 전문가들이 상사에게 알리지 않고 AI 도구를 활용하고 있다.

이러한 이유로 AI 챗봇을 업무용 도구로 사용하는 것을 금지하는 기업들도 늘어나고 있다. 삼성, 아마존, 도이치뱅크가 대표적이다.

한편 정치매체 폴리티코는 이번 주로 예정됐던 구글 바드의 유럽 출시가 미뤄지게 됐다고 보도했다. 아일랜드 데이터보호위원회(IDPC)는 구글의 데이터 보호 방안을 문제 삼은 것으로 전해진다.

김보민 기자
kimbm@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널