국내 연구진이 감정 변화의 흐름을 흉내 낼 수 있는 로봇을 개발해 감정 교감 몰입도를 높인 소셜 로봇 개발에 활용될 것으로 기대된다.
UNIST는 디자인학과 이희승 교수팀이 감정을 눈과 움직임으로 표현하고 그 반응이 시간에 따라 변화하는 적응형 로봇 기술을 개발했다고 8일 밝혔다.
해당 로봇은 눈 모양과 색상, 움직임의 조합으로 총 6가지 감정을 표현한다. 자극은 로봇 머리를 쓰다듬거나 두드리는 방식으로 입력되며, 쓰다듬기는 긍정 자극, 두드리기는 부정 자극으로 인식되도록 설정됐다.
예를 들어 갑자기 로봇을 두드리게 되면 눈이 커지고 청색으로 변하며 몸을 뒤로 젖히는 동작을 통해 놀람 감정을 표현한다. 만약 같은 자극이 반복되면 단순히 동일한 반응을 반복하지 않고, 이전 감정 상태와 자극의 누적값에 따라 감정 표현이 달라진다.
이러한 적응형 표현은 실제 사람과 비슷한 감정 흐름을 재현한 것이다. 사용자 평가에서는 ‘같은 자극에도 상황에 따라 반응이 조금씩 달라지는 점이 단순한 기계 반응과는 다르게 느껴져 인상적’이라는 의견이 많았으며, 참가자의 80% 이상이 감정 표현이 ‘자연스럽고 생동감 있다’고 평가했다.
이 교수팀은 감정을 고정 상태가 아닌 시간에 따라 변화하는 ‘벡터(vector)’로 해석해 로봇 제어 모델에 반영함으로써 이 같은 기술을 개발했다고 밝혔다. 강한 자극은 감정 벡터의 크기를 빠르게 키우고, 약한 자극은 서서히 반응을 변화시키도록 제어하는 방식이다.
이희승 교수는 “기존 로봇은 자극에 따라 정해진 감정을 보여주는 데 그쳤지만, 해당 모델은 감정의 변화 흐름까지 구현해 사용자가 로봇을 생명체처럼 느끼게 만든다”며, “반려로봇이나 정서지원 기술 등 다양한 인간 중심 로봇 분야에 활용될 수 있을 것”이라고 말했다.