로봇

동작·촉감·소리까지 인식해 로봇에 전달하는 센서 개발…UNIST 연구팀

신제인
[디지털데일리 신제인기자] 인간의 모습에 한 발 더 가까워진 혁신적인 로봇 센싱 기술이 개발됐다. 로봇이 인공피부 센서를 통해 전달되는 동작 인식과 촉감은 물론 소리까지도 들을 수 있는 기계-사람 인터페이스(Human-Machine Interface, HMI)기술의 진화로 평가된다.

울산과학기술원(UNIST)은 27일, 고현협 에너지화학공학과·김재준 전기전자공학과 교수 연구팀이 사람의 동작, 촉감, 소리 등을 모두 인식해 기계에 전달할 수 있는 '사람-기계 인터페이스'를 개발했다고 밝혔다.

연구팀에 따르면, 이 인터페이스는 귀의 달팽이관 구조를 모방한 인공피부 센서를 기반으로 한다. 즉, 달팽이관 기저막은 두께와 너비, 단단함 정도가 부위별로 다르기때문에 소리를 주파수별로 구분해 받아들 수 있는 원리를 응용했다. 이를 이용해 로봇이 사람의 동작을 따라하고 촉감을 구별하며, 음성을 인식해 명령을 수행할 수 있다는 것이다.

이 센서를 활용해 아바타 로봇 손 제어 기술, 스마트 햅틱 장갑 같은 응용 기술을 개발했다고 밝혔다. 실제로 연구팀은 소리로 아바타 로봇 손을 조종하는 시연을 통해서는 주파수를 바꿔 로봇 손의 손동작을 조종했다. 또 사용자가 스마트 햅틱 장갑을 끼고 움직이면 아바타 로봇 손이 사용자의 손 움직임을 그대로 따라하는 동영상도 공개했다. 이와함께 유리, 종이, 실크 등 8가지 각각 다른 물질에 대한 질감을 93%의 정확도로 인식했다고 밝혔다.

연구팀에 따르면, 인공피부의 인식 센서는 내부 구조를 특수하게 설계해 기존 평면 형태 센서보다 압력 민감도를 최대 8배 향상시켰다. 이를 통해 인식 주파수 대역폭은 45~9000Hz(헤르츠)로 사람의 심전도 신호(0.5~300Hz), 근전도 신호(50~3000 Hz), 심음도 신호 (20~2만Hz), 목소리(100~400Hz)와 같은 생체 신호를 모두 인식할 수 있다는 설명이다. 이와함께 외부 소음의 경우 머신 러닝을 통해 95% 정확도로 사람 목소리만 인식하도록 했다.

울산과학기술원측은 이번 연구가 미국과학협회(AAAS)에서 발행하는 '사이언스 (Science)'의 자매지인 '사이언스 어드밴시스(Science Advances)'에 3월 25일(현지 시각) 자로 게재됐다고 밝혔다. 앞서 이 연구는 미래창조과학부 중견연구자지원사업, 이엠텍, 포스코 사이언스 펠로쉽의 지원을 받아 수행됐다.
신제인
jane@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널