2.3 类人婴儿机器人
发展型机器人技术的研究诞生于21世纪初,它引发了各种类人婴儿机器人的研究和平台制造。伴随着更新型、更标准的类人成人机器人平台的研发,婴儿机器人也已经在一些发展型机器人研究中使用。
接下来的几节将简要描述这种机器人的主要特点。表2-3展示的是这些特征的简要对比。表中主要列举了发展型机器人研究中最常用的12种机器人平台,并详细介绍其设计或制造的细节、自由度的总数、执行器的型号和位置、皮肤传感器、外观和尺寸特征以及主要的参考文献和交付年份。通过对该表的简要分析,大多数的机器人是类人全身机器人,上部躯干和腿部都具有执行器,并且大多数执行器是电动的。但是有一个非常特别的例外,那就是COG,它是麻省理工学院研发的机器人,是最早使用在认知和发展型机器人研究中的机器人之一。最新的婴儿机器人是Affetto,目前它只有上半身的执行器,但该机器人未来将拓展成全身型类人机器人。至于皮肤传感器,只有少数的机器人(iCub、CB2和Robovie)才拥有,这些传感器分布在整个身体表面或覆盖了大部分体表。大多数的机器人有着类人的机械结构,35
除了典型的女婴人形机器人Repliee R1和全身覆盖硅型芯片的CB2。这并没有让人感到过于惊讶:大多数(12个里面有10个)的发展型机器人平台有着类似婴儿的外表或身材大小,其余的则是拥有标准成人的人形尺寸。大多数机器人是非商用的,仅仅在学术或工业研究中有特定的用途,并且这些机器人的副本数量通常少于10个,或者只有一台,就像Repliee R1和CB2。当然也有例外,如法国奥尔德巴伦(Aldebaran)机器人研究公司的NAO机器人,截止到2013年已经售出了2500台。iCub机器人也是一个例外,尽管该机器人也没有开始商用,但是目前(截止到2013年)全世界范围的实验室里已经有28台。这是因为欧盟第六研发框架计划(FP6)和欧盟第七研发框架计划(FP7)为认知系统和机器人学方面的研究投入了大笔资金,在这一背景下,意大利理工学院首先采用开源的方法来搭建RobotCub-iCub。
表2-3中选取的12种类人机器人是目前发展型机器人中最主要的研究平台。现在有越来越多的婴儿和成人类人机器人相继推出,其中部分被用于认知方面的研究。例如IEEE综览(IEEE Spectrum,Guizzo 2010)发表了13种婴儿机器人在其外表和行为复杂度两个方面的对比表。其分类含有表2-3中列举的四种机器人(iCub,NAO,CB2,Repliee R1),还有9种其他的婴儿机器人: NEXI(美国麻省理工学院),SIMON(美国佐治亚理工学院),M3 NEONY(日本大阪大学JST ERATO Asada项目),DIEGO-SAN(美国加州大学圣地亚哥分校和日本Kokoro公司),ZENO(美国汉森机器人技术公司),KOJIRO(日本东京大学),YOTARO(日本筑波大学),ROBOTINHO(德国波恩大学)和REALCARE BABY(美国Realityworks公司)。当然,其中有一些是类似玩具的娱乐产品,如REALCARE BABY和YOTARO。〖ZP(〗
表2-3 发展型机器人研究中使用的类人机器人制造商自由度
个数执行器
类型执行器
位置是否拥有柔软
敏感皮肤是否拥有
人形外观是否儿童
尺寸身高/
体重时间(模型)主要参考文献iCubIIT(意大利)53电动马达全身是否是105cm
22kg2008Metta 等人2008
Parmigglani等人2012NAOAldebaran(法国)25电动马达全身否否是58cm
4.8kg2005(AL-01)
2009(Academic)Gouaillier等人2008ASIMOHonda(日本)57电动马达全身否否是130cm
48kg2011
(所有新的ASIMO)Sakagami等人2002
Hirose和Ogawa 2007QRIOSony(日本)38电动马达全身否否是58cm
7.3kg2003(SDR-4X-II)Kuroki等人2003CBSARCOS(美国)50液压马达全身否否否157cm
92kg2006Cheng等人2007bCB2JST ERATO(日本)56气动马达全身是是是130cm
33kg2007Minato等人2007Pneuborn-13
(Pneuborn-7II)JST ERATO(日本)21气动马达全身否否是75cm
3.9kg2009Narioka等人2009Repliee R1
(Geminoid)ATR,Osaka
Kokoro(日本)9
(50)电动马达
(气动马达)头部
(上半身)否
(是)是
(是)是
(否)
(150cm)2004
(2007)Minato等人2009
(Sakamoto等人2007)InfanoidNICT(日本)29电动马达上半身否否是2001Kozima 2002AffettoOsaka(日本)31气动和
电动马达上半身否是是43cm
3kg2011Ishihara等人2009KASPARHertfordshire(英国)17电动马达上半身否是是50cm
15kg2008Dautenhahn等人2009COGMIT(美国)21电动马达上半身否否否1999Brooks等人1999〖ZP)〗其他的一些成人形类人机器人也在一定程度上用于认知机器人学中的一般性研究,包括:PR2(美国Willow Garage公司),HRP-2、HRP-3和HRP-4类人机器人系列(日本高级工业科学技术研究所和日本川田工业),LOLA(德国慕尼黑理工大学),HUBO(韩国科学技术高级研究院),BARTHOC(德国比勒费尔德大学),Robovie(日本国际电气通信基础技术研究所),Toyota Partner Robot(日本丰田公司)和ROMEO(法国奥尔德巴伦机器人研究公司)。这其中的许多平台也被开发成用于双足行走机器人(比如HRP机器人)、娱乐系统(比如丰田公司的音乐演奏机器人)以及机器人手臂与服务机器人的一般性研究平台。
2.3.1 iCub机器人
iCub类人婴儿机器人(Metta等人2008;Metta等人2010;Parmiggiani等人2012;www.icub.org)36
~
37是发展型机器人研究中使用最广泛的机器人平台之一。该机器人是以明确地支持跨实验室协作为目的,通过开源许可模式来构建的。它的这种开放模式允许各个实验室在iCub上从事结果验证与复制、和现有软件的集成以及具有复杂认知能力的认知模型建模等工作,这促使其成为发展型机器人研究的一个关键基准平台。
iCub机器人是由意大利理工学院主导,由多个欧洲实验室通过欧盟基金赞助的研究机构robotcub.org协同努力的成果(Sandini等人2004;Metta、Vernon和Sandini 2005)。iCub机器人早先的两个版本是由热那亚大学(the University of Genoa)和意大利理工学院LIRA实验室的研究人员研发的。Babybot的设计始于1986年,它是一个上半身的类人机器人,在其最终的配置中含有头、臂、躯干和手在内的18个自由度(Metta等人2000)。Babybot机器人的头和手是在LIRA实验实设计的,而它的臂是通过商用的PUMA机械臂来实现的。在Babybot上的实验经验引导了James的后续研究,于是诞生了一个拥有23个自由度的更高级的上半身类人机器人(Jamone等人2006)。对Babybot和James的机械和电子方面的测试对之后的iCub机器人设计产生了很大的影响,该欧盟项目robotcub.org开始于1996年。
iCub机器人身高105cm,体重大约22kg,身体是以三岁半的儿童为模型设计的(图2-4)。该机器人共有53个自由度,比相同大小的38其他类人机器人的自由度多得多。因为设计该机器人的主要目的是研究其操作和移动能力,所以它拥有自由度很高的手和上半身躯干。其53个自由度主要包含:头部有6个自由度,双臂有14个自由度,双手有18个自由度,躯干有3个自由度,双腿有12个自由度。
特别的,头部的6个自由度包括:颈部的3个自由度,可提供全部的头部动作;眼部的3个自由度,可以竖直/水平追踪和转动。每一只手有9个自由度,其中有3根分别独立控制的手指,第4根和第5根手指由1个自由度控制。机械手的执行器由肌腱驱动,大部分马达位于前臂中。机械手的手腕整体宽度为34mm,手指长为60mm、直径为25mm(图2-4)。它的每条腿有6个自由度,并且可以直立行走或爬行。每条腿的6个自由度包括:臀部的3个自由度,膝部的1个自由度,脚踝处的2个自由度(前屈/后伸和外展/内收)。
图2-4 iCub机器人:头部(左上)、手掌(左下)和人-机器人交互设置(右)。图片由Giorgio Metta、意大利理工大学和普利茅斯大学提供
iCub机器人中的传感器套件包括两个数码摄像机(640×480px,30fps高分辨率)和麦克风。惯性传感器有三个陀螺仪、三个线性加速度计和一个指南针。它的臀部和肩部也有四个定制的力/力矩传感器。手掌和手指中的触觉传感器是基于电容式感应的。其分布式的感应皮肤也采用电容感应技术,并且通常位于手臂、手指、手掌和腿(Cannata等人2008)。每一处关节都含有一个位置传感器,在大多数情况下使用绝对位置编码器。
在iCub机器人的头部是奔腾PC104主板,主要对集成所有传感器和电机状态信息的各种数据流进行同步处理和格式化。但是,其复杂和耗时的计算会在外部的计算机集群中完成。与机器人的通信是通过千兆以太网(Gbit Ehternet)连接的,并且通过脐带式软线提供网络连接和能源。为适应iCub有限的空间需求,一套基于DSP的控制卡通过CAN总线互连来实时负责局部的低级控制回路。共有10条CAN总线连接着机器人的各个部分。
YARP(Yet Another Robot Platform;Metta、Fitzpatrick和Natale 2006)是用于iCub机器人的软件中间件框架。这是一款通用的开源软件应用工具,正如机器人是实时、计算密集和多样化发展的硬件一样。YARP由一组支持模块化的软件库构成,模块化的实现主要基于对两个方面进行抽象化,即算法模块化和硬件接口模块化。第一个抽象化是根据通过“端口”的通信来定义的。它可以使用TCP-IP协议在网络中传递信息,并且可以在运行时连接和断开。39特别是在iCub机器人中,机器人被分为5个独立的端口(头、右臂/手、左臂/手、右腿、左腿)。第二个抽象化是为了处理硬件“设备”。YARP使用定义类的接口来封装本地代码API(应用程序编程接口),API通常由硬件制造商提供,或者当硬件生产/更新时可以被创建和修改。
iCub机器人的研发开始于2006年,并于2008年的秋天交付了第一个全身型iCub原型,在2013年将28个iCub机器人送到世界各地的实验室。后续的iCub机器人研发包括一个升级到2.0的头以及分布式的高效电池。
iCub已经被广泛应用于发展型机器人学的研究中,尽管它的最初设计目的是通过婴儿机器人来进行认知发展建模。本书讨论了很多iCub机器人的实验例子,主要有运动学习(第4章)、社交合作(第6章)、语言学习(第7章)、抽象符号及数字(第8章)。还有一些其他发展相关的iCub机器人的研究在本书中没有涉及,这些不涉及的研究包括:抓取实验(Sauser等人2012),操纵物体来发现物体运动功能(Macura等人2009;Caligiore等人2013;Yürüten等人2012),画图(Mohan等人2011),通过振荡神经网络模型进行对象识别(Browatzki等人2012;Borisyuk等人2009),被动运动模式的工具使用(Mohan等人2009;Gori等人2012),基于视觉相关性的涉身识别(Saegusa、Metta和Sandini 2012)。另外,可以参考Metta等人(2010)和Nosengo(2009)来获得关于机器人认知发展建模的综述内容。
图2-5 Aldebaran机器人公司的NAO机器人。图片由Aldebaran机器人公司授权,由Ed Aldcock拍摄2.3.2 NAO机器人
NAO类人机器人(Gouaillier等人2008;aldebaran-robotics.com)是由法国Aldebaran(奥尔德巴伦)机器人研究公司生产的,是近些年来在发展型机器人研究中使用越来越多的另一种类人机器人平台。NAO机器人的广泛使用不仅仅是因为它在研究领域的合理价格(2014年大约6000欧元),还因为它自2008年以来被选为机器人足球赛(robotcup.org)的“标准平台”,因此NAO机器人在世界范围内的很多大学实验室里比较常见。第一款NAO机器人(AL-01)于2005年生产,自2009年以来很多教育版本均可用于学术研究。截止到2012年,超过2500个NAO机器人在全球60多个国家的约450家研究和教育机构中(通过个人联系Aldebaran公司获得此信息)被长期使用。
NAO是一款小型的类人机器人,身高58cm,重达4.8kg(见图2-5)。其教育版本是发展型机器人研究中最常用的,共有25个自由度。这些自由度包括:头部有2个自由度,臂部有10个自由度(每个手臂有5个),骨盆有1个自由度,腿部有10个自由度(每条腿有5个自由度),手部有2个自由度(每只手1个自由度)。目前在机器人足球标准赛使用的版本中,机器人只有23个自由度,因为其手臂不需要执行器。NAO使用两种类型的马达,该马达的专利归法国Aldebaran机器人研究公司所有,每一种马达能够结合两个旋转的关节一起行成一个万向关节模块。
NAO机器人的传感器套件包括4个麦克风和2个CMOS数字摄像机(960px,30fps有线传输;或640×480px,2.5fps无线传输)。摄像机并不位于眼睛的位置(眼睛其实是红外发射器/接收器),而是位于额头和下巴的位置。这种奇怪的摄像机位置可以在一定程度上由NAO机器人的原型来解释,因为原型机主要用于机器人足球比赛,额头的摄像机有利于看到整个比赛场地,下巴的摄像机有利于看到前方需要踢到的足球。其他的传感器包括:32个感应运动状态的霍尔效应传感器,2个单轴陀螺测试仪,1个三轴加速度计,2个足部防撞器,2个通道声呐,2个红外传感器,40
~
418个力敏电阻(FRS)传感器(每只脚上有4个),以及3个头部的触觉传感器。
NAO机器人有2个扬声器,位于机器人的耳朵里;4个麦克风,位于头部四周(前、后、左、右)。它也使用各种LED灯来促进人与机器人的交互,例如,用于头部触觉传感器的12个LED灯(16级蓝色调),还有其他用于眼睛、耳朵、躯干和脚部的LED灯。
NAO机器人还有其他硬件规范,包括Wi-Fi(IEEE 802.11 b/g)网络连接和有线以太网连接。2012年发布的主板拥有ATOM Z530 1.6GHz的CPU和2GB的闪存。
NAO机器人中的CPU使用嵌入式Linux操作系统(32bit x86 ELF),并且Aldebaran Choregraphe和Aldebaran SDK是其专属开发软件。该机器人可以通过一个用户友好型动作编辑器(Choregraphe)进行控制,这个编辑器是通过编译C++模块或通过脚本与 API进行交互。NAO机器人还可以使用其他编程语言,主要包括C++、Urbi脚本、Python和.Net。
NAO机器人的软件模拟器也存在于很多机器人仿真软件中,例如,“Cogmation NAO Sim”“Webots”和“Microsoft Robotics Studio”(详见2.5节)。还有很多专门的嵌入式软件功能模块,如通过机器人的扬声器和麦克风进行语音识别和合成,通过视觉系统进行人脸和形状检测,通过声呐进行障碍物检测,通过LED灯来展示视觉效果。
目前NAO机器人已经用于各种发展型机器人的实验,包括关于运动的研究,Li、Lowe、Duran和Ziemke等人(Li等人2011;Li、Lowe和Ziemke 2013)用中央模式生成器对iCub机器人的爬行模型进行了拓展,从而与改进前的iCub机器人和NAO机器人的步态行为进行对比(详见5.5节)。这部分工作是为了进一步对早期双足行走行为进行建模(Lee、Lowe和Ziemke 2011)。Yucel 等人(2009)开发了一种新型的由发展理论启发的联合注意力关注机制,该机制可以估计头部的位置和注视方向,并可以使用自底而上的视觉显著性。
由于NAO机器人较低的价格和较好的商业安全性标准,因此NAO机器人平台也被广泛用于人-机器人交互的研究中,尤其是对婴儿的研究。例如:Sarabia、Ros和Demiris(2011)使用NAO机器人在人-婴儿交互中模仿学习跳舞的案例(详见第7章);Andry、Blanchard和Gaussier(2011)关于通过非语言交流来支持机器人学习的研究;Pierris和Dahl(2010)关于姿势识别的研究;Shamsuddin等人(2012)关于自闭症儿童互动的研究;以及Baxter、Wood、Morse和Belpaeme(Baxter等人2011;Belpaeme等人2012)关于NAO作为住院儿童的长期伙伴的研究。对NAO机器人更进一步的研究领域是用脑机接口技术来控制类人机器人(Wei、Jaramillo和Yunyi 2012)。
42
2.3.3 ASIMO和QRIO机器人
ASIMO(本田)和QRIO(索尼)都是类人机器人,ASIMO机器人是由汽车工业的全球性企业本田公司生产的,QRIO机器人是由电子娱乐业巨头索尼生产的。它们目前主要用于内部研发中,但是有一些基于ASIMO机器人和QRIO机器人平台的研究是专门面向发展型机器人研究的。
ASIMO(Advanced Step in Innovative Mobility,领先创新移动机器人)是世界上最著名的类人机器人之一(world.honda.com/ASIMO;Sakagami等人2002;Hirose和Ogawa 2007)。ASIMO机器人的研究开始于1986年,其原型系统是本田公司的第一款双足型机器人E0,以及之后在1987~1993年的足式改进型机器人(E1到E6系列)。通过1993~1997年对大型类人全身机器人(P1到P3系列)的研究,1997年生产的P3系列机器人是第一个完全独立的双足类人机器人(高1.6m,重130kg)。这直接导致2000年11月第一款ASIMO机器人的诞生,它是身材略小的类人机器人,高1.2m,并且可以在人类生活空间中进行工作(Sakagami等人2002)。ASIMO机器人的一个最主要特征是,它可以进行高效的双足移动行走。这是基于本田公司的i-WALK技术,该技术采用了预期动作控制。i-WALK基于的是早期原型的行走控制技术,但是被拓展成可以产生更平滑、自然的动作。另外,自2002年以来,ASIMO机器人已经添加了可以对环境(物体、行人)、声音、人脸、动作和姿势等进行识别的软件模块。
“New ASIMO”机器人(见图2-6a)研发于2005年,并且已经在认知机器人研究的各个层面上使用。它高1.3m,重54kg。新型的ASIMO机器人共有34个自由度:头和颈部有3个自由度,手臂有14个自由度(每只手臂有7个自由度:肩部有3个自由度、肘部有1个自由度、腕部有3个自由度),手部有4个自由度(每只手有2根手指),臀部有1个自由度,腿部有12个自由度(每条腿有6个自由度:胯关节处有3个自由度、膝关节处有1个自由度、踝关节处有2个自由度)。这款类人机器人已经用于一些认知机器人的研究,包括在一些场景中与人类同步行动,例如,机器人跟人类手牵手散步。ASIMO可以以2.7km/h的速度行走,奔跑时可达6km/h。
图2-6 图片由本田汽车公司(欧洲)和索尼公司授权提供
2011年,该机器人发布了升级版本,即“All New ASIMO”,其自由度有所增加(57个自由度),重量有所减少(47kg),拥有更好的运动性能,奔跑速度可达9km/h,添加了更多能够操作物体的软件功能。
QRIO是由大型企业开发的第二种用于内部研发的类人机器人平台。索尼公司在2002年研发出QRIO机器人(模型名称为SRD-4X,也被称为索尼梦机器人;Fujita等人2003;Kuroki等人2003)。其配置以SDR-4X II型号最为人熟知(Kuroki等人2003),机器人高50cm,重约7kg(见图2-6b)。该机器人共有38个自由度:头部有4个自由度,躯干有2个自由度,臂部有10个自由度(每只手有5个自由度),手部有10个自由度(每根手指有1个自由度),腿部有12个自由度(每条腿有6个自由度)。
机器人的传感器包括两个小型的CCD彩色摄像头(110000px)和多个麦克风。QRIO的躯干中含有一个三轴加速度计和陀螺仪,每只脚上各有一个两轴加速度计和力传感器,头、肩、脚部都有触碰/压力传感器,头和手部还有红外距离传感器。该机器人头部使用7个麦克风来检测声音的方向并抑制电机噪声。
QRIO机器人拥有一个专门的集成了多种运动能力的 “实时综合自适应运动控制系统”(Real-time Integrated Adaptive Motion Control System)。其包含了负责全身稳定性、43
~
44地形自适应控制、集成式跌倒与恢复控制以及推举动作控制的模块。它在平整地面上的最快步行速度可达20m/min,在不平整的地面上可达6m/min。然而,该机器人主要面向索尼公司所特别关注的娱乐领域,它已经可以进行舞蹈优化和音乐表演。在2004年的一场儿童音乐会中,一个QRIO机器人指挥东京爱乐交响乐团进行了贝多芬第五交响曲的彩排表演(Geppert 2004)。与AIBO机器人(详见2.4节)相比,QRIO从未达到商业化生产的阶段,并且在2006年就停止了研发。
目前在ASIMO机器人上进行的发展型机器人研究的应用包括:物体识别(Kirstein、Wersing和Krner 2008);分类学习和概念语言,如左、右、上、下、大、小(Goerick等人2009);运动技能的模仿学习(Mühlig等人2009);以及注视检测与人-机器人辅导交互的反馈(Vollmer等人2010)。大多数基于本田机器人的发展型研究工作是受到神经科学启发的发展型架构,该架构被称为ALIS(Autonomous Learning and Interaction System,自主学习和交互系统;Goerick等人2007,2009)。该架构是一种建立在ASIMO机器人上的层级式、增量式的集成系统,其融合的功能包括:视觉、听觉和触觉显著性探测功能;对象原型的视觉识别功能;物体分类与命名功能;全身动作和自身碰撞避免功能。ALIS架构允许通过人-机器人交互实验来进行交互式学习,并且遵循认知能力增长式获取和集成的发展型策略。该架构还能从类人机器人拓展延伸到与汽车驾驶相关的视觉场景中,用来辅助驾驶员进行移动物体的探索与检测(Dittes等人2009;Michalke、Fritsch和Goerick 2010)。
QRIO机器人也被用于一些认知实验中,这些实验是关于模仿和镜像神经系统(the mirror neuron system;Ito和Tani 2004)的,通过多尺度反馈式神经网络来实现组成式运动表征方法(Yamashita和Tani 2008)、交流与构式语法(Steels 2012)以及幼儿教育与娱乐支持(Tanaka、Cicourel和Movellan 2007)。
2.3.4 CB机器人
图2-7 由ATR(日本)和SARCOS公司开发的CB机器人。图片由Gordon Cheng授权提供CB(Computational Brain,计算之脑)机器人是一款成人大小的类人机器人,它作为“JST 计算之脑”项目的一部分,由SARCOS在日本京都的ATR计算神经科学实验室研发(Cheng等人2007b)。该机器人高1.57m,重92kg(见图2-7)。该机器人共有50个自由度:头部有7个自由度(脖子有3个自由度,两只眼睛各有1个自由度),躯干有3个自由度,臂部有14个自由度(每个胳膊有7个自由度),手部有12个自由度(每只手有6个自由度),腿部有14个自由度(每条腿有7个自由度)。手部和头部使用被动型柔性马达,其余部分使用主动型柔性执行器。这些执行器是以人类身体的物理表现为模型设计的,如快速眼睛扫视动作、45
~
46指向、抓取和握捏动作。该机器人的传感器套件包括:每只眼睛中有两个摄像机,一个提供周围视觉的广角摄像机和一个窄视的中央视觉摄像机。CB机器人也有用于声音感知的麦克风。在头部有一些惯性传感器(三轴旋转陀螺仪和三轴平移加速度计),主要用于控制头部朝向和注视的稳定性,在臀部有一个传感器用于整个身体的平衡和方向感知。本体感受信息由各种位置、速度、力矩传感器来提供,这些传感器能感知在手臂、腿、躯干和脖子处的主动式柔性信息,并且脚部的压力传感器可用于实现行走与平衡的控制。
鉴于CB机器人的设计强调了人类行为和社会神经科学,因此该机器人被用于探索各种运动和社会学习任务,从而可以更好地了解人-机器人的交互行为(Chaminade和Cheng 2009)。例如,在运动控制方面,机器人与中枢模式发生器被用于设计生物学启发的行走算法(Morimoto等人2006)。在社交技能方面,一种基于神经科学模型的分布式视觉注意模型被开发出来。该模型基于大脑的多信息流处理机制(颜色、强度、方向、运动与不匹配的视觉特征),这些信息流被整合成一个关注焦点选择的全局显著性映射图。一旦CB机器人实现选择性注意,这个模型还能提供相关的反馈连接(Ude等人2005)。CB机器人也用于脑机接口中,使猴子可以控制机器人的动作(Kawato 2008;Cheng等人2007a)。
2.3.5 CB2和Pneuborn-13机器人
JST ERATO(日本科学技术振兴事业团)的协同智能Asada项目(Asada等人2009)已经专门为实现发展型机器人研究提供了两种婴儿机器人平台的设计方案:CB2和Pneuborn-13。该项目也为人类胎儿与新生儿研发了一个仿真模型(详见关于机器人仿真的2.5.3节)。
CB2机器人(Child-robot with Biomimetic Body,拥有仿生身体的儿童型机器人)是一种儿童身材大小的类人机器人,它拥有仿生的身体和覆盖有分布式触觉传感器的软硅胶皮肤。这种机器人通过气动执行器来实现灵活的关节功能(Minato等人2007)。该机器人高1.3m,重33kg(见图2-8a)。它总共有56个自由度,除了眼球和眼睑的快速动作需要使用电动马达外,其余的执行器均是气动型。气动执行器可以通过高能压缩空气产生的机械能来实现灵活的关节动作,也可以通过释放空气进行被动的运动。这样可以确保交互过程中人类参与者的安全。该机器人也有一个人工声道,可以产生类似婴儿的声音。其传感器套件包括两个摄像机(一只眼睛一个)和两个麦克风。机器人的躯体中共有197个触觉传感器,都是嵌入软硅胶皮肤下基于PVDF(聚偏氟乙烯)材料的压力传感器。由于触觉传感器是嵌入皮肤内部的,因此当机器人进行动作的时候也会引起自我肢体触碰,而且这些动作和传感器的反馈还可以帮助机器人建立内部表征。
Pneuborn-13是JST ERATO Asada项目研发的第二款婴儿机器人平台(Narioka等人2009;Narioka和Hosoda 2008)。该机器人是一个气动肌肉骨骼型机器人,高0.75m,重3.9kg(见图2-8b),和13个月大的人类婴儿具有相同的身高和体重。它总共有21个自由度:脖子有1个自由度,手臂有10个自由度(每个手臂有5个自由度,3个控制肩膀,1个控制肘部,1个控制手腕),腿部有10个自由度(每条腿有5个自由度,臀部有3个自由度,膝盖和脚踝各有1个)。这款机器人的另一个原型是Pneuborn-7II,类似于人类7个月大的婴儿,并且具有翻滚和爬行能力。
图2-8 JST ERATO Asada项目的婴儿机器人。图片由JST ERATO Asada项目提供Pneuborn-13机器人的执行器是受到人类婴儿由骨骼与肌肉构成的启发,47 ~48每个执行器都有一个作用和非作用的单关节肌肉,用来控制关节的角度动作和刚度。在Pneuborn-13用于早期婴儿双足行走的研究时,它的18个气动肌肉都集中在脚踝、膝盖和臀部关节中(每条腿有9个)。因此,它的腿可以在臀部位置做弯曲、向内侧收、向外侧打开和左右旋转动作,在膝盖位置可以做弯曲和伸直动作,在脚踝位置可以做弯曲和伸直动作。
上述两种婴儿机器人都在人-机器人交互实验中进行了运动控制和学习的相关测试。由于CB2的设计目标是支持人与机器人之间的长期社会交互,并且也是基于婴儿发展规则的,因此一系列实验均关注机器人感觉运动的发展,以及人类在搭建机器人运动学习框架中的作用。有一项研究探索了人类参与者在帮助机器人站立起来这一过程中的作用(Ikemoto、Minato Ishiguro 2009;Ikemoto等人2012)。在这项研究中,机器人可以完成三个姿势:①初始坐姿,②中间弯膝起身,③最后站姿。在从①切换到②时,机器人的手是由人类拉着的,从而使得CB2机器人产生一个弯膝起身的过程。由②切换到③时,机器人的腿会被人类参与者持续拉升而伸直。该实验分析了机器人在进行姿势切换时的时间点和运动策略,并表明这些时间点与策略取决于机器人机构,并且也取决于人类参与者是拥有初级还是专家级别的技能。在训练阶段,机器人和人类的一对组合可以展现出更强的动作协调性,这个现象是由在学习过程中机器人与人类之间的逐步提高的同步性所导致的。在第二个实验中,CB2机器人发展出基于视觉、触觉和本体感觉输入的跨模态集成的自身表征方法(Hikita等人2008)。例如,当机器人与物体碰触时,其触觉信息会影响身体的视觉接受域的建立。此外,当机器人使用工具来触碰远距离的物体时,该工具就会被集成到一个扩展的身体图示中,可以参见Iriki的猴子实验(Iriki、Tanaka和Iwamura 1996)。
Pneuborn-7II和Pneuborn-13机器人也用于一些爬行、站立姿势和行走的研究中。Pneuborn-7II型机器人上的实验主要专注于翻滚和爬行行为,这些行为也包括在爬行时尝试在手臂中使用软性皮肤与触觉传感器(Narioka、Moriyama和Hosoda 2011)。Pneuborn-13机器人有一个自动的动力供应来源和空气阀门,并且它可以在数小时的行走测试过程中不发生损坏和过热(Narioka等人2009)。
2.3.6 Repliee和Geminoid机器人
Repliee和Geminoid机器人是Hiroshi Ishiguro和他在日本ATR实验室以及大阪大学的同事共同研发的一系列人形机器人。需要强调的是,Repliee R1型机器人有着5岁日本女孩的外表(Minato等人2004;如图2-9所示)。该原型的头部有9个自由度(眼睛有5个,嘴有1个,49脖子有3个),使用的都是电动执行马达。该机器人下半身的关节都是被动式的,当人类实验者移动关节时,这些自由的关节允许机器人做出各种动作。该机器人的脸部覆盖了一个日本女孩的脸部硅胶模型。Repliee R1型机器人左胳膊的皮肤下有四个触觉传感器,这四个传感器使用一种变形压力传感器来做出与人类皮肤伸展相似的反应。
图2-9 Repliee R1型机器人。图片由大阪大学Hiroshi Ishiguro授权提供这款机器人的成人女性版本叫作Repliee Q1,它使用气动执行器来控制整个成人女性的上半身躯干(Sakamoto等人2007)。随后的Geminoid 人形机器人也是以成年人为模板制作的(Nishio、Ishiguro和Hagita 2007),例如Geminoid HI-1型机器人是以Hiroshi Ishiguro本人为模板(详见图2-1c)。Geminoid HI-1型机器人坐在椅子上时(目前机器人还无法站立)有140cm高。它总共有50个自由度,其中有13个脸部自由度用来模仿人类面部动作。
儿童型机器人Repliee R1目前已经应用到人形机器人注视行为的研究中。Minato 等人(2004)探索了在与儿童型人形机器人按照剧本进行交谈时,人们交互过程中的眼球动作。在参与者与机器人进行交流和参与者与一个女演员进行交流这两个过程中,通过对比眼睛的注视次数与注视目标位置,可以发现:参与者看人形机器人眼睛的次数会比参与者看女演员脸的次数更频繁。并且,通过对参与者注视点的分析可以发现:50参与者注视机器人眼睛的方式不同于参与者注视人类的方式。另外,Repliee和Geminoid机器人目前已经广泛用于探索在人类感知机器人的恐怖谷(uncanny valley)现象中的社交与认知机制,正如在2.1节中讨论的那些内容。
2.3.7 Infanoid机器人
Infanoid机器人是由Kozima(2002)开发出来的用于研究人类社交发展的机器人,并且在人与婴儿的交互研究中,该机器人被作为支持儿童发展与教育的机器人实验平台。该机器人是一款上半身型机器人,类似一个3~4岁的人类儿童(图2-10)。其共含有29个电动执行器。Infanoid机器人有四个彩色CCD摄像机,每只眼睛有两个,分别用于外围视觉和中央视觉,在耳朵的位置还有两个麦克风。每个电机都有编码器和力传感器。
图2-10 Infanoid机器人。图片由Miyagi大学Hideki Kozima授权提供
该机器人的手掌能够做出一系列动作,例如指向、抓取和多种手势等。在嘴唇和眉毛处的电机用来产生各种面部表情,
51包括吃惊和愤怒等。该机器人的眼睛能够完成扫视动作和视觉目标的平稳跟踪。机器人中的软件系统提供了用于人脸检测和用来注视物体的视觉注视方向定位的模块。该机器人配备了一些相应的算法来听取和分析人类的声音,并且还可以进行语音模仿或者咿呀学语。
该儿童机器人目前已经广泛用于人类社交发展的探索,特别强调人际间沟通交流能力的获取。因此,该机器人还被广泛用于众多的儿童-机器人交互实验,包括一些针对残疾儿童和自闭症障碍儿童(Kozima、Nakagawa和Yano 2005)的实验。例如,在一项针对五六岁儿童的(包括正常发展的儿童和有自闭症的儿童)研究中,主要调查了儿童对机器人的感知。机器人通过编程进入自主模式,在与儿童相处的45分钟里,机器人交替进行眼神交流和指向动作引导的联合注意力任务。通过对儿童-机器人交互实验的分析,可以看出儿童经历了对Infanoid机器人进行“本体论理解”的三个阶段:①新事物恐惧阶段,在开始的三到四分钟,儿童表现出局促不安,并凝视着机器人;②探索阶段,儿童通过触碰机器人和向机器人展示玩具,来探索机器人的感知和应变能力;③交互阶段,儿童逐渐参与到对等的社会交往过程中,体会机器人的精神状态和诸如渴望与喜欢/不喜欢的感觉。自闭症儿童的实验展示出了类似的反应,唯一的区别是他们在长时间的交流后还不会感到无聊(Kozima等人2004)。
2.3.8 Affetto机器人
图2-11 Affetto婴儿机器人。图片由大阪大学Hisashi Ishihara和Minoru Asada授权提供Affetto机器人是一个有着婴儿外表的上半身型人形机器人,由大阪大学的Asada发展型机器人实验室研制,该机器人研发的目的是专门研究人类看护者和婴儿机器人之间的情感交流(Ishihara、Yoshikawa和Asada 2011;如图2-11所示)。为了使Affetto机器人和人类看护者之间的类似婴儿般交互的情感与依恋质量达到最大化,该机器人的设计概念需要遵循以下三条准则:①基于柔软皮肤(聚氨酯弹性体凝胶)的真实脸部外表,并且使用婴儿衣服来覆盖上半身的机械部分;②实际婴儿的身材大小,机器人是1~2岁大人类儿童的模型(数据来自日本幼儿的尺寸数据库);③基于微笑的面部表情,能够与人类参与者进行积极的感情交流,同时使用节奏性的身体动作和手部姿势来加强情感交流。此外,为了使人类参与者和Affetto机器人之间的交互更加安全、无拘束,还必须遵循这些额外的技术标准:①使用柔性的被动执行器,通过在关节52 ~
53中使用气动执行器来承受触碰交互中的外力;②使用柔软的肌肤,因为用柔软的皮肤覆盖脸部和手臂可以减少人身受到伤害的风险,从而提高参与者接触机器人的意愿;③减轻重量,通过分开布置马达与控制器,可以获得更安全的身体接触并能增强机器人的运动性能,还可以使用具有高功率质量/体积比的启动执行器;④在脸上使用参数化变形点,使机器人的面部表情更加容易变化。
这款机器人的头部高17cm,宽14cm,厚15cm。Affetto机器人头部有12个自由度:眼睑和嘴唇有5个自由度,下巴和眼睛有2个自由度用来上下运动,眼睛还有2个自由度用来左右移动,脖子还有1个垂直轴。头的转动和俯仰轴是由两个气动执行传动器控制的。为了控制面部动作和情感表达,直流电机的输出轴连接到皮肤的内侧来拉动皮肤。
机器人的上身躯干高26cm,整个婴儿的身体高43cm。除去气动执行器的外置控制器外,其头部和躯干的整体体重小于3kg。连接到头部的这部分机器人躯干总共有19个自由度:身体部分有5个自由度,每个手臂有7个自由度。
Ishihara、Yoshikawa和Asada(2011)在Affetto机器人平台上提出了四个研究领域。第一个领域专注于在人-机器人交互中,儿童真实外表和面部表情在人类看护者支架策略中的作用。其他的研究领域包括现实世界的依恋关系发展模拟器,以及探索机器人和人类看护者在情绪/情感交互的动态过程中影响作用的实验。另外,Affetto机器人可以支持类似儿童的多模态特征的探索研究,这些特征除了面部/皮肤之外,还包括声音感知模态(高音、稚嫩而有活力的声音)和触觉模态。
Affetto机器人目前主要用于人-机器人交互的实验中(Ishihara和Asada 2013)。交互的场景涉及:当人类看护者可以牵住婴儿机器人的双手并摇晃机器人的双手时,婴儿机器人还能试图保持直立的姿势。由于内在机构机电系统的柔性性质,Affetto机器人的身体部分可以跟随人类看护者进行平滑运动,而不需要任何主动的计算。而且,为了方便在交互过程中节奏性动作的出现,后续的研究主要关注使用CPG控制器来实现动作节奏生成器。
图2-12 KASPAR机器人。图片由Hertfordshire大学Kerstin Dautenhahn授权提供2.3.9 KASPAR机器人
KASPAR(www.kaspar.herts.ac.uk)机器人是一个儿童身材大小的小型类人机器人,该机器人的研发最初只是作为一个人-机器人交互设计项目的一个组成部分(Dautenhahn等人2009年;图2-12)。这个平台背后的设计理念是使用廉价的、现成的组件来使得更多的研究团队可以负担起机器人的成本,54 ~55其设计灵感来自于漫画设计和日本能剧剧场,这些设计使得机器人拥有最低的具有表情能力的外观。具体来说,Dautenhahn等人对KASPAR这类具有最低表情能力的机器人通用设计方法,提出了三个原则:①平衡的设计,换句话说,需要长期使用的审美与物理设计选择要适合预期的人-机器人交互场景;②创建带给人自主性印象的表情特征,这些特征包括机器人的注意力(通过头部转动和注视)、情绪状态(面部表情)以及人类参与者与机器人之间行为的偶然性;③最低的面部表情特征,通过使用类似日本能剧元素的设计,以及控制数量有限的自由度来表达感情行为,如微笑、眨眼、皱眉。
最初的KASPAR机器人高55cm,宽45cm,重15kg。最新版本的KASPAR机器人共有13个自由度。在头部:脖子有3个自由度(左右摇动、上下倾斜和转动),眼睛有3个自由度(上/下、左/右、眼睑打开/关闭)同时控制两只眼睛,嘴有2个自由度(打开/关闭,微笑/悲伤)。每个手臂有4个自由度。该最新版本的机器人还包含具备1个自由度的躯干,这样可以使机器人向两侧转动,并且在该型机器人的身体表面还覆盖着触摸传感器(Robins等人2012a,2012b)。机器人的每只眼睛有一个0.25ft 1ft=0.3048m的黑白CMOS图像摄像机,可以产生一个288(水平)×352(垂直)的PAL制式的视频输出。该机器人的头部覆盖着橡胶面具,这种面具被广泛用在练习心肺复苏的假人上。
KASPAR机器人的后续版本是KASPARⅡ机器人,它提高了传感器和执行器的技术,但仍然是表情平台的低成本实现方案中最廉价的。KASPARⅡ机器人有与之前版本相同的头部机构,但是增加了眼睛的颜色并改进了连线方式,还有一个类似六岁儿童的更大型的身体。机器人的每个手腕也拥有了一个额外的自由度(扭转运动),还加入了关节位置传感器,且在机器人胸部装有一个Swiss Ranger 3000型声呐传感器用来采集深度信息。全新的、重大改进的KASPAR机器人版本在2015年完成,该机器人的系统更加稳定,对于非专业人士更容易使用,并且成本依然很低。
Dautenhahn等人(2009)发表了与KASPAR机器人有关的三个重要研究成果。第一项研究是探索机器人辅助游戏和自闭症儿童治疗中的机器人应用情况。这是辅助型机器人与自闭症儿童(ASD)的一系列广泛实验的一部分(Wainer等人2010,2013;Robins、Dautenhahn和Dickerson 2009),并且最近这些实验还拓展应用到了唐氏综合症患儿上(Lehmann等人2014;详情参见9.2节)。第二项研究是在一个音乐击鼓游戏场景中,为了实现通用的与成人进行的人-机器人交互实验,探查人体动作学与姿势的交互作用(Kose-Bagci、Dautenhahn和Nehaniv 2008)。第三项研究关注KASPAR机器人如何使用在发展型机器人研究中,尤其是探索适合于躲猫猫(Peekaboo)这类游戏交互场景的交互历史认知结构的设计(Mirza等人2008)。56KASPAR机器人可以通过使用远程控制或者结合远程控制的混合模式(通过教师或儿童的手动控制),进行完全自主的操作。
2.3.10 COG机器人
COG机器人是一款只有上半身的类人机器人,由MIT(麻省理工学院)在20世纪90年代早期研发(Brooks等人1999),它也是被专门研制用于认知机器人研究的第一代类人机器人之一。该机器人共有22个自由度:手臂有12个自由度(每个手臂有6个自由度),躯干部有3个自由度,头部和脖子有7个自由度(详见图2-1a)。该机器人的视觉系统含有四个彩色CCD摄像机,每只眼睛有两个摄像机(一个用于广度视角,一个用于21°的窄度视角)。该机器人使用两个麦克风来感知声音。COG机器人也有前庭神经系统,该系统采用一个三轴惯性系统部件、多个编码器、电位计和应变器作为运动传感器。
COG机器人目前用于发展型机器人学研究,特别是社交学习、主动视觉和启发式学习。Scassellati(2002;详见6.5节)通过使用机器人意识理论的发展模型,在COG机器人上实现了多种认知和社交能力。Fitzpatrick和Metta(2002)在COG机器人上的实验表明,通过实验性操作,对物体的主动探索可以提高视觉识别能力。这种感觉运动的策略基于手臂动作与光流之间的可观测到的相关性,这些相关性对机器人区分出自己手臂和物体的边界有很大的帮助。