撰文 | Cloud

审校 | 河边的卡西莫多
机器人越来越像人了,但和人互动时,它如果不明所以地咧开嘴笑了……这大概并不会传达出开心之情,而是让人感到恐惧。
不过现在,一款名叫Emo的机器人就不会这么瘆人。它可以分析人类的面部表情,并在人类做出表情前的0.839秒就预测出人类即将做出的表情,于是它可以和人类几乎同时一起微笑,从而避免尴尬或让人害怕。
机器人Emo会预测人类的微笑,并一起笑|参考资料[1]
目前,大多数机器人只会在人类做完表情后再做出反应。这种滞后会让机器人显得不真实、不真诚。对人而言,在面对面的沟通过程中,微笑之类的非语言交流非常重要。“我认为准确预测人类面部表情是人机交互(Human-Robot Interaction)领域的一场革命,”该研究的主要作者、美国哥伦比亚大学创意机器实验室(Creative Machines Lab)的博士生胡宇航说道。
在2021年,他和研究团队还开发了一个名叫Eva的机器人,这是首批能够自我模仿人类面部表情的机器人之一。从Eva到Emo,我们可以看到机器人在模仿人类面部表情方面实现了显著的进步。
机器人Emo实时预测、模仿研究者的面部表情。这是一个有声音的视频|参考资料[1]
事实上,要实现这一点很困难,这首先需要研究人员打造出一张能够实现逼真的面部肌肉运动的机器人脸,其次还要让机器人通过人工智能学习人类表情的细微差别,并迅速做出准确的反应。
如何造头?
与机器人Eva相比,Emo具有显著的硬件改进。Eva脸部只有10个执行器,而Emo有26个独立的执行器——这些组件可以更精密地控制机器人脸部的运动,而且也提供了更大的自由度,可以实现不对称的面部表情。
没有皮肤时的样子|Columbia Engineering
机器人Emo的每只眼睛都配备了具有高分辨率的RGB相机,可以实现人形视觉感知,并追踪和自己对话的人类的眼睛,进行眼神交流。RGB相机基于人眼对颜色感知的方式,能够分别记录红、绿、蓝三种基本颜色的信息,并将其组合生成彩色图像,从而呈现出真实的视觉信息。其生成的图像可用来做目标识别、颜色分割等各种数据处理和分析。
眼睛可以追踪人类移动,然后和人进行眼神互动|Columbia Engineering
而机器人的整个面部皮肤由柔软的硅胶制成,并使用30块磁铁连接到硬件上。磁铁连接的设计使得机器人可以轻松换皮肤,从而获得不同的外观,并能让人得以更好地维护它的“脸皮”。
Emo的脸可以换皮肤。|Columbia Engineering
当被问及机器人的脸为什么是蓝色时,研究团队的负责人、哥伦比亚大学机械工程教授霍德·利普森(Hod Lipson)表示,他们想离开或者走出所谓的“恐怖谷”。
恐怖谷(uncanny valley)理论,即人形机器人的外貌逼真度越高,人们对它的亲近感就越强。然而,当一个逼真度很高的人形却仍存在微小的不自然之处时,人们则会对其感到反感,甚至恐惧。而超过这个“谷底”后,随着机器人外貌完全拟人了之后,它会再次赢得人们的好感。 
所以,研究团队就想:“好吧,让我们把它们变成蓝色,我们甚至不想让它们看着像个人。”事实上,研究人员制作了好几块不同颜色的脸皮——除了蓝色,机器人的脸皮颜色还有绿色、紫色等等。
图片来源:参考资料[1]
“照镜子”自我学习
除了复杂缜密的硬件和驱动装置,研究人员还为机器人开发了两个独立的人工智能模型。一个模型可以分析人类微小的面部表情线索,然后预测人即将做出的表情。另一个模型则负责计算如何让机器人的脸部快速做出相应的表情。
第一个模型是通过网络视频上的人脸表情视频进行训练。通过逐帧观察,经过几个小时的训练后,机器人就可以观察出人们准备做某个表情之前的微小面部变化,从而预测人的表情。
第二个模型的训练过程则是让机器人自己“照镜子”。确切地说,机器人是面对着一部RBG摄像机,实时观测自己的表情。研究人员通过RGB相机来捕捉机器人面部的细微变化,并提取面部标志,通过面部特征和运动命令的数据集来训练模型。
机器人自己学习面部表情和运动命令之间关系。|参考资料[1]
说白了,这就像人类通过照镜子来练习面部表情。“它知道当它拉伸所有这些肌肉时,它的脸会是什么样子。”利普森说道。这个在没有人类监督的情况下,机器人自己学习面部表情和运动命令之间关系的训练过程,被研究人员称作“自我建模”(Self Modeling)。
学习框架|参考资料[1]
在实验中,为了避免机器人头出现碰撞或柔软的面部皮肤被撕裂,机器人的运动动作受到了限制。
机器将更加像人
虽然机器人在掌握非语言交流方面还有很长的路要走,但现在这个微笑算是向前迈出了一步。“我认为这是一个重要的一步。” 利普森说道。
“我是一个厌倦了的机器人专家,我不会对机器微笑,但当这个机器人对我微笑时,我会对它回以微笑。”在同步微笑之后,
研究团队之后还打算拓宽机器人的表情范围,并进一步研究口型同步。现在,机器人Emo只会分析人类的面部表情,还无法通过分析语言文本与人类对话。研究人员希望后续能把机器人与ChatGPT等大型语言模型相结合,实现更加自然的人机互动。
图片来源:Columbia Engineering
虽然这有望带来大量积极的应用,但其潜在的伦理问题也让一些人感到担心。“我们真的不想让它看起来像人类。但是,如果你给它戴上假发,涂上口红,加上各种各样的东西,它就真的开始像人了。”利普森补充道。
“我认为这是不可避免的,最终这些机器人都将越来越像人类,而我们将不得不……无论我们是否喜欢,我们都得开始和它们建立联系。”
图片来源:Columbia Engineering
参考文献
[1] Hu, Y., Chen, B., Lin, J., Wang, Y., Wang, Y., Mehlman, C., & Lipson, H. (2024). Human-robot facial coexpression. Sci. Rob., 9(88). Retrieved from https://www.science.org/doi/10.1126/scirobotics.adi4724
[2] Wilkins, A. (2024). This robot predicts when you're going to smile – and smiles back. New Sci. Retrieved from https://www.newscientist.com/article/2424545-this-robot-predicts-when-youre-going-to-smile-and-smiles-back[3] Saha, P. (2021). Watch these rare ocean creatures caught on candid robot camera. Popular Science. Retrieved from https://www.popsci.com/animals/deep-sea-life-videos[4] Teaching robots to smile, and the effects of a rare mandolin on a scientist’s career. (2024, April 09). Retrieved from https://www.science.org/content/podcast/teaching-robots-smile-and-effects-rare-mandolin-scientist-s-career[5] Networks, T. (2024). Meet Emo: The Friendly Robotic Face That Uses AI To Anticipate a Person’s Smile. Informatics from Technology Networks. Retrieved from https://www.technologynetworks.com/informatics/news/meet-emo-the-friendly-robotic-face-that-uses-ai-to-anticipate-a-persons-smile-385270
本文经授权转载自把科学带回家ID:steamforkids),如需二次转载请联系原作者。欢迎转发到朋友圈。
继续阅读
阅读原文