로봇, ‘치즈’라고 할 수 있어요?

만약 여러분이 사람처럼 생긴 머리를 가진 로봇에게 다가갔다가 로봇이 먼저 여러분에게 미소를 지으면 여러분은 어떻게 할 건가요? 여러분은 아마 미소를 지으며 아마 두 사람이 진정으로 상호작용하고 있다고 느낄 것입니다. 하지만 로봇은 어떻게 이것을 하는지 알 수 있을까요? 아니면 더 나은 질문인, 여러분이 미소를 짓게 하는 방법을 어떻게 알 수 있을까요?

우리가 언어적 의사소통에 능숙한 로봇에 익숙해지고 있지만, 부분적으로 ChatGPT과 같은 대규모 언어 모델의 발전 덕분에 그들의 비언어적 의사소통 기술, 특히 얼굴 표정은 훨씬 뒤쳐졌습니다. 다양한 얼굴 표정을 만들 수 있을 뿐만 아니라 언제 사용해야 하는지도 알 수 있는 로봇을 설계하는 것은 어려운 일이었습니다.


과제 해결

콜롬비아 엔지니어링의 크리에이티브 머신 랩(Creative Machines Lab)은 이 도전에 대해 5년 이상 연구해 왔습니다. 오늘 사이언스 로보틱스(Science Robotics)에 발표된 새로운 연구에서 이 그룹은 표정을 예측하고 사람과 동시에 실행하는 로봇 이모(Emo)를 공개했습니다. 심지어 사람이 미소를 짓기 약 840밀리초 전에 다가오는 미소를 예측하고 그 미소를 사람과 동시에 표현하는 법도 배웠습니다.

인공지능(AI)과 로봇공학 분야의 선도적인 연구원인 호드 립슨이 이끄는 그 팀은 두 가지 도전에 직면했습니다: 복잡한 하드웨어와 작동 메커니즘을 포함하는 표현적으로 다용도인 로봇 얼굴을 기계적으로 설계하는 방법과 자연스럽고, 시기적절하고, 진짜처럼 보이도록 어떤 표현을 생성해야 하는지 아는 것입니다. 그 팀은 인간의 미래 얼굴 표정을 예측하고 그것들을 사람과 동시에 실행하도록 로봇을 훈련시킬 것을 제안했습니다. 이러한 표현의 타이밍은 매우 중요했습니다. 지연된 얼굴 흉내는 솔직하지 않아 보이지만, 적시에 실행하기 위해 인간의 감정 상태를 정확하게 추론해야 하기 때문에 얼굴의 공동 표현이 더 진짜처럼 느껴집니다.


Emo가 당신과 연결되는 방법

이모는 다양한 미묘한 얼굴 표정을 가능하게 하는 26개의 작동기가 장착된 얼굴을 가진 인간과 같은 머리입니다. 머리는 자석 부착 시스템이 있는 부드러운 실리콘 피부로 덮여 있어 쉬운 사용자 지정과 빠른 유지가 가능합니다. 더 실제와 같은 상호작용을 위해 연구원들은 각 눈의 동공 내에 고해상도 카메라를 통합하여 이모가 눈을 마주칠 수 있도록 하여 비언어적 의사소통에 중요합니다.

연구팀은 두 가지 인공지능 모델을 개발했습니다: 하나는 목표 얼굴의 미묘한 변화를 분석하여 사람의 얼굴 표정을 예측하는 모델이고 다른 하나는 해당 얼굴 표정을 사용하여 운동 명령을 생성하는 모델입니다.

로봇이 표정을 짓는 방법을 훈련시키기 위해, 연구원들은 이모를 카메라 앞에 놓고 무작위로 움직임을 하도록 했습니다. 몇 시간 후, 로봇은 표정과 모터 명령 사이의 관계, 즉 인간이 거울을 보고 표정을 연습하는 방식을 배웠습니다. 이것이 그 팀이 “셀프 모델링”이라고 부르는 것인데, 이것은 우리가 특정 표정을 지을 때 우리의 모습을 상상하는 인간의 능력과 비슷합니다.

그리고 나서 그 팀은 이모가 프레임별로 관찰할 수 있도록 인간 얼굴 표정의 비디오를 실행했습니다. 몇 시간 동안의 훈련 후, 이모는 사람들이 미소를 지으려는 의도를 형성하기 시작할 때 얼굴의 작은 변화를 관찰함으로써 사람들의 얼굴 표정을 예측할 수 있었습니다.

“저는 인간의 얼굴 표정을 정확하게 예측하는 것은 HRI의 혁명이라고 생각합니다. 전통적으로, 로봇은 상호 작용하는 동안 인간의 표정을 고려하도록 설계되지 않았습니다. 이제, 로봇은 인간의 얼굴 표정을 피드백으로 통합할 수 있습니다,” 라고 립슨 연구실의 컬럼비아 엔지니어링 박사과정 학생인 이번 연구의 주요 필자 유항 후가 말했습니다. “로봇이 실시간으로 사람들과 표정을 지을 때, 상호 작용의 질을 향상시킬 뿐만 아니라 인간과 로봇 사이의 신뢰를 쌓는 데에도 도움이 됩니다. 미래에는, 로봇과 상호 작용할 때, 마치 실제 사람처럼 여러분의 얼굴 표정을 관찰하고 해석할 것입니다.”


다음은

연구원들은 현재 ChatGPT와 같은 큰 언어 모델을 사용하여 언어 소통을 이모(Emo)에 통합하기 위해 노력하고 있습니다. 로봇이 인간처럼 행동할 수 있게 됨에 따라 립슨(Lipson)은 이 새로운 기술과 관련된 윤리적 고려 사항을 잘 알고 있습니다.

“비록 이 능력은 가정 보조원에서부터 교육 보조원에 이르기까지, 수많은 긍정적인 적용들을 예고하지만, 신중함과 윤리적인 고려들을 행사하는 것은 개발자들과 사용자들에게 있습니다”라고 콜롬비아 공과대학 기계공학과의 Lipson, James and Sally Scapa 교수, 그리고 Columbia Makerspace의 공동 책임자, 그리고 Data Science Institute의 일원이 말했습니다. “하지만 인간의 표현들을 정확하게 해석하고 모방할 수 있는 로봇들을 발전시킴으로써, 우리는 로봇들이 우리의 일상 생활에 매끄럽게 통합하고, 우정, 도움, 그리고 심지어 공감을 제공할 수 있는 미래에 가까워지고 있습니다. 로봇과 상호작용하는 것이 친구와 대화하는 것처럼 자연스럽고 편안하게 느껴지는 세상을 상상해 보세요.”

Leave a Comment