[디지털데일리 신현석기자] 지난 7월, 한국을 방문했던 데이비드 웹스터 델 EMC 사장은 한 포럼에 참석해 “인간은 디지털의 지휘자로서 새로운 역할을 맡게 될 것”이라고 말했다. 그는 또 “(인공지능의 등장으로) 사람의 일자리가 줄어드는 것이 아니라, 사람의 역할이 더 위로 올라가고 더 부가가치가 있는 직무를 맡게 된다”고 강조했다.
AI에 대해 긍정적인 전망은 국내에선 여전히 대세다. 이미 여러 산업분야에서 AI 마케팅이 쏟아지고 있다. 통신사들은 인공지능 스피커를 내놓고 있고, 은행과 보험사들은 하루가 멀다하고 인공지능 기반의 스마트 금융서비스를 출시하고 있다.
물론 그중에는 성능이 의심되는(?) 무늬만 AI인 경우가 적지 않지만 마케팅 키워드로 당장 '인공지능'을 대체할 만한 것을 찾기가 쉽지 않다.
이런 가운데 최근 AI가 이전과는 다르게 질적인 진화를 보이고 있다. AI가 더 깊게사람의 영역으로 들어올 것으로 예상된다. 그러나 AI가 진화할수록 그 위험성을 경고하는 목소리도 더 커지고 있다.
◆ '알파고 제로'... 더 무서워진 AI, 그러나 더 커지는 위험 = 그동안 AI의 학습 알고리즘에는 사람의 데이터가 제공됐다. 이는 AI의 위험성을 가중시켰다. 머신러닝 기반의 인공지능은 그 작동 원리 상 ‘편향성(Bias)’ 문제를 내포할 수밖에 없다. 사람이 제공하는 데이터가 편향됐거나, 알고리즘이 사람으로부터 받는 데이터를 미묘하게 왜곡할 가능성도 있다. 복잡미묘한 상황에 따라 정확한 의사결정을 내리기 어려운 문제도 존재한다.
지난 4일(현지시각) 비즈니스인사이더는 “알고리즘 바이어스가 이미 많은 업계에 퍼져 있지만, 이를 식별하거나 수정하려고 노력하는 사람이 거의 없다”며 이 같은 위험성을 경고했다.
사람이 가진 불완전함이 데이터를 통해 AI에 스며들면서, AI 속에서도 불안 요소가 자라난다는 논리다. 즉, 원천 데이터가 '편향성'으로 인해 부실하거나 왜곡된다면 AI의 위험성도 동시에 커진다.
글로벌 기업 구글도 최근까지 이 같은 문제를 해결하기 위해 고심한 것으로 알려졌다. 구글이 ‘스스로 학습하는 AI’를 개발한 것은, 그들도 사람이 제공한 데이터의 바이어스를 문제로 인식했기 때문이다.
외신에 따르면, 구글의 검색엔진 부문 수석부사장이자 인공지능 전문가인 존 지아난드레아는 최근 구글 회의에서 “정말 중요한 안전 문제는, 우리가 인공지능에 편견이 심어진 데이터를 제공할 때 일어날 편향성의 문제”라고 지적한 바 있다.
그동안 'AI가 사람을 지배할 것'이라는 주장은 너무 앞서 나갔다는 평가를 받았다. AI가 탑재된 자율주행차가 오류를 일으켜 사고를 낼 수는 있어도, AI자율주행차가 스스로 독립 개체로 성장해 사람에 위협적인 존재가 될 것으로 보진 않았다.
하지만 AI가 인간의 통제를 받는 하위 개념으로 설정됐던 기존 AI에 대한 인식에도 큰 변화가 일고 있다. 최근 출시된 '알파고 제로'에 주목하는 이유다.
'알파고 제로'는 사람의 기보 데이터 없이 스스로 바둑을 공부하고 혼자서 원리를 깨우친다. 사람의 기보 데이터를 기반으로 필승법을 찾아내던 기존 방식과는 완전히 차원이 다르다. 사람의 데이터를 활용하기보다, 이제는 스스로 깨닫는 방식이다.
인간의 통제를 벗어난다는 점에서 AI를 더 높은 경지로 이끌었다는 평가다. 데이터 없이 독립적으로 학습한다면 기존 사람의 실수를 답습할 일도 없다. 물론 알고리즘이 오류를 일으킬 가능성은 여전히 존재한다.
이와 관련 AI전문가들은 알파고 제로가 ‘사람보다 더 우월하면서 독립적인 존재’에 대한 두려움을 이끌어냈다는 데 견해를 같이 한다.
사람의 데이터 제공 없이 스스로 학습하는 알고리즘이 공개된 것은 이번이 처음이 아니다. 지난 8월 엘론머스크 테슬라 창업자는 자신이 지원하는 AI연구기관 ‘오픈AI’이 개발한 AI가 사람의 입력 없이 인간게이머와 전략 시뮬레이션 게임 ‘도타2’로 대결을 펼쳐 2:0으로 승리를 거뒀다고 밝힌 바 있다.
훈련은 동일한 AI 2대가 승부를 벌여 연습하는 식으로 이뤄졌다. 게임 방법을 사람의 도움 없이 터득한다는 점에서 알파고 제로와 유사하다.
하지만 역설적이게도 엘론머스크 회장은 AI가 사람에게 치명적인 존재가 될 것이라고 수차례 경고해왔다.
그는 자신의 SNS를 통해 “AI에 대해 걱정하지 않고 있다면 해야 한다”, “AI는 북한보다 훨씬 위험하다”, “AI를 통해 세계 3차 대전이 일어날 수 있다”고 주장한 바 있다.