[IBM 씽크 2018] 롭 하이 왓슨 CTO, “‘편견’ 가진 AI는 기업에서 퇴출”
[라스베이거스(미국)=디지털데일리 백지영기자] 최근 미국 MIT 미디어랩의 한 연구원은 얼굴인식 인공지능(AI)이 피부색이 어두워질수록 오차율이 높다는 점을 발견했다.
여러 기업의 AI 얼굴인식 시스템을 이용해 1000여여장의 사진을 분석한 결과 백인남성은 오차율이 1% 미만이었지만 흑인과 여성의 오차율은 이보다 훨씬 높았다. 결국 AI에 사용되는 데이터가 백인과 남성 중심의 ‘편향성(bias)’를 가진 셈이다.
20일(현지시간) 미국 라스베이거스에서 개최된 ‘IBM 씽크 2018’ 컨퍼런스에서 만난 롭 하이 IBM 왓슨 최고기술책임자(CTO)<사진>는 “기업용 AI에선 특히 이같은 편견은 매우 위험하다”며 “왓슨은 훈련 시 편견을 갖지 않는 균형잡힌 데이터 학습을 위해 많은 연구와 노력을 하고 있다”고 강조했다.
그에 따르면 IBM은 성별이나 인종 등으로부터 자유로운 대표성을 지닌 데이터 소스를 왓슨에 집어넣어 훈련시키고 이를 투명하게 공개한다.
다만 법률이나 의료 등 전문화된 집단의 편향성은 존중해야 한다고 말했다. 그는 “예를 들어 의사와 같이 그간의 경험으로 쌓인 지식은 ‘좋은 편향(good bias)’”이라며 “이 경우 데이터 양이 작더라도 규칙을 잘 세워 분석하면 된다”고 전했다.
루치르 퓨리 IBM 왓슨 최고아키텍트도 “오히려 너무 많은 데이터가 존재하고 생성되고 있는 상황에서 더 적은 데이터로 더 빠르고 정확하게 학습시킬 수 있는 능력이 중요해졌다”고 강조했다.
자연어 처리를 예로 들면 이미 4~5개의 샘플 데이터만으로도 95%의 정확도로 질문자의 의도를 파악할 수 있다는 것이 그의 설명이다. 현재 그는 1개의 샘플만으로도 90%의 정확도를 갖는 연구를 진행 중이라고 밝혔다.
퓨리 아키텍트는 “비즈니스에 적용돼 의사결정을 도와주는 AI라면 어떤 알고리즘으로 누가 훈련했는지 밝히고 결과물에 대해 사용자가 이해할 수 있는 근거를 갖고 설명해야 한다”고 힘줘 말했다.
<라스베이거스(미국)=백지영 기자>jyp@ddaily.co.kr
한국 등 7개국 디지털화폐 공동 이용 한걸음 더… '아고라' 프로젝트 참여할 40여개 민간기관 선정
2024-09-17 00:25:07'엔하이픈' 웹툰 '다크 문: 달의 제단', 日 애니화 결정
2024-09-16 22:02:28촉법소년 1.68배 증가…"디지털성범죄 피의자, 10대가 70%"
2024-09-16 12:28:28트럼프 2차 암살 시도, 이번엔 비트코인 시세 덤덤… 이번주 미 9월 FOMC, 금리인하폭 촉각 [주간블록체인]
2024-09-16 09:31:44올 추석 관심사는 '서울 아파트 값'… 상승폭 둔화속 “중·강남·송파구 등” 눈길
2024-09-16 07:11:36