인터뷰

[IBM 씽크 2018] 롭 하이 왓슨 CTO, “‘편견’ 가진 AI는 기업에서 퇴출”

백지영

[라스베이거스(미국)=디지털데일리 백지영기자] 최근 미국 MIT 미디어랩의 한 연구원은 얼굴인식 인공지능(AI)이 피부색이 어두워질수록 오차율이 높다는 점을 발견했다.

여러 기업의 AI 얼굴인식 시스템을 이용해 1000여여장의 사진을 분석한 결과 백인남성은 오차율이 1% 미만이었지만 흑인과 여성의 오차율은 이보다 훨씬 높았다. 결국 AI에 사용되는 데이터가 백인과 남성 중심의 ‘편향성(bias)’를 가진 셈이다.

20일(현지시간) 미국 라스베이거스에서 개최된 ‘IBM 씽크 2018’ 컨퍼런스에서 만난 롭 하이 IBM 왓슨 최고기술책임자(CTO)<사진>는 “기업용 AI에선 특히 이같은 편견은 매우 위험하다”며 “왓슨은 훈련 시 편견을 갖지 않는 균형잡힌 데이터 학습을 위해 많은 연구와 노력을 하고 있다”고 강조했다.

그에 따르면 IBM은 성별이나 인종 등으로부터 자유로운 대표성을 지닌 데이터 소스를 왓슨에 집어넣어 훈련시키고 이를 투명하게 공개한다.

다만 법률이나 의료 등 전문화된 집단의 편향성은 존중해야 한다고 말했다. 그는 “예를 들어 의사와 같이 그간의 경험으로 쌓인 지식은 ‘좋은 편향(good bias)’”이라며 “이 경우 데이터 양이 작더라도 규칙을 잘 세워 분석하면 된다”고 전했다.

루치르 퓨리 IBM 왓슨 최고아키텍트도 “오히려 너무 많은 데이터가 존재하고 생성되고 있는 상황에서 더 적은 데이터로 더 빠르고 정확하게 학습시킬 수 있는 능력이 중요해졌다”고 강조했다.

자연어 처리를 예로 들면 이미 4~5개의 샘플 데이터만으로도 95%의 정확도로 질문자의 의도를 파악할 수 있다는 것이 그의 설명이다. 현재 그는 1개의 샘플만으로도 90%의 정확도를 갖는 연구를 진행 중이라고 밝혔다.

퓨리 아키텍트는 “비즈니스에 적용돼 의사결정을 도와주는 AI라면 어떤 알고리즘으로 누가 훈련했는지 밝히고 결과물에 대해 사용자가 이해할 수 있는 근거를 갖고 설명해야 한다”고 힘줘 말했다.

<라스베이거스(미국)=백지영 기자>jyp@ddaily.co.kr

백지영
jyp@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널