뉴스

IBM이 말하는 신뢰할 수 있는 AI는?··· “도출 결과 설명할 수 있어야”

이종현
[디지털데일리 이종현기자] “인공지능(AI)을 신뢰하기 위해서는 AI가 예측한 것을 사람이 믿을 수 있어야 합니다. 투명하고 설명 가능한, 언제든지 전체적인 것을 확인할 수 있는 개방성이 갖춰져야 합니다.”(세뜨 도브린 IBM CDO)

23일 IBM은 ‘신뢰할 수 있는 AI’를 주제로 미디어 브리핑을 진행했다. 발표를 맡은 것은 IBM 본사에서 데이터와 분석 기술을 활용한 AI와 클라우드 전환 비즈니스를 총괄하는 최고데이터관리자(CDO)인 세뜨 도브린 박사<사진>다.

도브린 박사는 AI가 활용되기 위해서는 신뢰가 가장 중요하다고 강조했다. 사람들은 어떤 결정을 하는 데 도움을 얻기 위해 AI를 활용하는데, 만약 AI가 도출한 결과를 신뢰할 수 없다면 무용지물이라는 것이 그의 주장이다.

그는 “신뢰라는 문제는 모델에 대해 투명하게 검증하는 것이 가능하냐의 문제”라며 “AI가 블랙박스처럼 인간이 이해할 수 없는 것이 아니라 실제 AI가 어떤 과정을 통해서 결과를 도출하게 됐는지 설명 가능해야 한다”고 말했다.

도브린 박사가 제시한 신뢰받는 AI의 조건은 ▲투명성, 설명 가능성, 전체적인 것을 확인할 수 있는 개방성 ▲편견이 없는 공정성 ▲비즈니스와 윤리에 대한 이해 ▲높은 통합성과 잘 관리되는 데이터 등을 꼽았다.

도브린 박사는 “AI는 인간을 대체하는 것이 아니라 인간의 지능을 보조하기 위한 수단이다. IBM은 AI 전문가 그룹에 참여해 보다 책임있는 AI가 구현되는 데 앞장서고 있다”며 “로마 교향청이 발표한 AI 이용에 관한 윤리지침에도 참여했고, AI에 대해서는 정밀 규제가 필요하다는 입장을 밝히기도 했다”고 전했다.

그렇다면 도브린 박사가 제시한 신뢰받는 AI를 위해서는 무엇이 필요할까. 그는 AI를 제대로 관리할 수 있는 AI 거버넌스 역량이 중요하다고 피력했다. AI 모델을 알고, 신뢰하고, 제대로 사용할 수 있어야 한다는 것이다.

개인정보유출 및 AI 편향성으로 논란이 된 AI 챗봇 서비스 ‘이루다’에 대해 묻는 질문에 도브린 박사는 “안타깝게도 이런 사례가 굉장히 많이 발생하고 있다”며 “기업이 이런 이슈를 예방하기 위해서는 단순하게 AI를 모델로 국한해서 보는 것이 아니라 전체 AI 스택을 고려해야 한다”고 밝혔다.

또 그는 “AI 거버넌스의 관리 체계, 어떻게 해야 컨트롤할 수 있는지, AI 에 쓰이는 보안에 대한 문제는 없는지 등 총체적인 검토가 필요하다”며 “당연히 데이터를 제공하는 개인에게는 적절한 동의를 확실히 받아야 한다. 챗봇이든 무엇이든, 기업이 AI 모델을 운영하기 위해서는 이 AI가 무엇을 하고있는지를 항상 이해하고 모니터링할 수 있어야 한다”고 부연했다.

<이종현 기자>bell@ddaily.co.kr
이종현
bell@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널