移动机器人的人机交互设计+CAD图纸(3)_毕业论文

毕业论文移动版

毕业论文 > 机械论文 >

移动机器人的人机交互设计+CAD图纸(3)


二、课题调研
2.1. 国外研究现状:
婴儿机器人“Kismet”技术型面部表情机器人的代表是著名的美国麻省理工 (MIT)机器人 Kismet。在1999 年,辛西娅•布雷齐尔(Cynthia Brea zeal)“诞下”了一个“婴儿”:Kismet,它表情丰富,极具智慧,精密的控制系统能通过眼、鼻、耳等处相应的传感器识别来自外界各种感情信号,并能够回应出相应的喜、怒、哀、乐等。例如,当“Kismet”的视觉识别系统通过图像比对检测到了人的面孔,控制系统就会将脸转向图像来源,并协调眼部结构以与人形成对视,一副很是关心的样子; 当它对某事物产生反感时, 控制系统通过机构耷拉下眼皮和耳朵; 当它的传感器检测到系统预定的兴奋物品时,比如玩具,它又会调动感兴趣相应的程序和机构;若是物品在视觉传感器中忽闪忽现,它甚至会拟人的给出不知所措、万分焦急。
该实验室判断, 制造出能与人进行深度交流、拥有高级人工智能的“robot”是完全能够实现的。由于机构尺寸和控制功能的需求,整体拥有21个自由度的Kismet 的体积比成人还要大0.5倍,控制面部表情的 15 个自由度分布在眉骨、耳廓、眼球、眼睑、嘴唇等部位, 依靠两个焦距 5.6mm 彩色 CCD 摄像机识别外界图像,微型麦克来检测外界声源。除了视觉和听觉,控制系统要求机构在行为上也与人类高度仿真,比如模仿母子之间的交流反馈,婴儿向外界表达需求的动作和神态, 甚至是牙牙学语的学习外界的方式等等。
1996 年日本早稻田大学理工学部高西研究室研发的名为 WE-3R 的系列机器人,如图所示为 WE-3RV 机器人它总共有 28 个自由度,其中颈部 4 个!眼球 4 个!眼睑 6 个!眉毛 8 个!嘴唇 4 个!下颚 1 个!肺 1 个,并安装了很多的传感器作为感觉器官"WE-3RV可称得上是目前感觉器官最为齐全的仿人机器人" 。
在 2002 年东京理工大学小林研究室郁雄原教授开发了机器人 SAYA ,它通过扫瞄观察者的面部表情,比较眼!口!鼻!眉的距离,对照记忆中存储的表情库,识别出该观察者面部表情所表达的某种情绪,然后可以由人工肌肉驱动并控制 18 个面部控制点的运动,表达出相应的愤怒!厌恶!恐惧!高兴!惊讶等形象的面部表情"。
2.2. 国内研究现状:
在国内方面,哈尔滨工业大学率先获得突破,开发出了“仿人像机器人”,并模拟国父孙文演讲时的动作,其缺憾是尚未进行表情动作的模拟,作为机器人方面的国内领头羊,哈工大于 2004 年对“孙中山”进行了改进。首先,为获得真实的第一感官印象,他们采用电影中常用的材料作为机器人表皮;然后引入驱动控制机械机构并在控制系统中编入人的“心理”,因此命名为 “H&G”机器人。它全身整体尺寸与真人大体相同,头部可进行 12 个自由度的运动:头颈关节有 6 个自由度,面部弹性机构通过 6 个自由度的来模拟喜、怒、哀、乐等,成功实现的人类基本面部表情可达 8 种。在设计机械控制结构时,H&G 研究室还充分考虑了诸多细节因素,如其眼珠与眼睑机构的运动实现采用线传动,并将绳子置于保护管中,内置滚珠利用滚动摩擦以延长绳索寿命。相较于该实验室之后的进一步改进,该仿人头像机器人被命名为 H&G robot-I。工程院院士蔡鹤皋教授和吴伟国博士在1996 年研制了具有讲演技能的仿人演讲机器人;该机器人头部实现了演讲时面部!头部的动作,主要解决了脸部弹性面膜材料!形象设计及制作工艺等关键问题,在仿人像的艺术形象与技术两方面取得了成功,但其弹性面部并未进行表情控制" 在此基础上,进行了有弹性面部皮肤及表情的仿人头像系列机器人研究,吴伟国教授于 2004 年在国内首次研制成功了具有八种(自然(中性)!喜!怒!哀!乐!惊讶!严肃!恐惧等)面部表情的仿人头像机器人 H&F Robot-I"基于Ek-man 提出的人类面部表情编码系统原理实现了该机器人面部的对称表情控制" 在 H&F Robot-I 型基本面部表情验证成功基础上,设计并研制了有表情识别与再现机能的仿人头像机器人系统 H&F Robot-II,论述了用于机器人的表情视觉识别与机器人表情再现控制基本问题。 (责任编辑:qin)