机器人的改变,人类已阻止不了?
2012-02-01 17:28 来源:中国自动化学会专家咨询工作委员会
当人工智能技术在机器人一词前冠以“新一代”,而不是“新型”时,无论过往你是爱是怕,从此已再不能忽视它们了——
让我们爱恨交织的技术太多了。它们大部分是在几十年间从世人完全陌生到耳熟能详,势头快得让人不敢掉以轻心,这里面,就包括曾经十分可爱的机器人。
但近几年,人工智能(AI)前行的步伐把机器人研发带到了一个崭新的领域里——它们不但眼耳口鼻、连所思所行都开始越来越像我们人类。同时,研究者们也正以自己为模板,在极力完善机器人的情绪,似乎急着把它们也拉进贪嗔痴喜恶怒的苦海中。
那些科学与伦理的权衡之辞,早已在科幻和各种探讨中被人们嚼烂了,亦或因此,至今在现实发展中,未见出现大面积过激的反对声浪。但也有科学家认为,机器人技术当前之境地,其实已接近让人们负面情绪崩溃的边缘。
不过,这种改变是渐进式的,这让人类似乎很难真的意识到正发生改变的机器人意味着什么,或者说,未必做好了应对这一切改变的防备。于是近日,美国《国家地理》在线版以《我们,与他们》为题,撰写了一篇分析文章,试图探索机器人和人类当前的关系及我们能看得见的未来发展。
只是,现在就叫“它们”为“他们”,是否言之过早?
从形到神的颠覆,机器人做到了吗?
随着控制人员在笔记本电脑里输入了一条命令,Actroid-DER仿真女性机器人仿若刚睡醒般,带着人类特有的喘息声,活灵活现地站起了身。以压缩空气为动力,藏于有机硅胶皮肤下的传动装置,让Actroid-DER轻轻抬起了手臂,甚至露出了一个有几分恬淡味道的微笑,让观者惊叹不已。
这款机器人的脚步被固定在展示平台上,因为许多管线要从脚踝处贯入身体,但Actroid-DER依然能够自在的移动头部,拿眼睛扫视着整个演示间——这当然远称不上是顾盼若兮、眼波流转,“她”的眼神依旧是机械缺乏生气的,但“她”却可以将眼光投定在一个观众身上,用不断眨巴着眼睛的所谓俏皮姿态,向对方发出询问:“我是个机器人,令你很惊奇么?我看起来就像个活生生的人,不是么?”
或许,第一次看到Actroid-DER的人,会为“她”逼真的表现而震惊,但不幸的是,这都是提前预设好的内容。科学家们反而会从对立面的角度,去关注这款机器人颇多的缺陷。
这款由日本机器人研发企业Kokoro公司开发的Actroid-DER机器人,此前已经多次被租借出去担任商业活动的发言人。但该领域发展至今,此类简单的任务已并不能描绘出一个仿真机器人所应追求的细致入微和部分性格体现。依美国《国家地理》那篇文章作者之见,这就是——花费了25万美元的巨额投入,却并不能让Actroid-DER的一举一动摆脱机器特有的死板生硬。
而作为人类最显著特征的语言能力,Actroid-DER的模仿表现尤其令人失望。“她”的说话习惯是一边说着一边随时准备睡着,仿佛“她”身上还有着比电更强大的力量来控制似的,这可不是“她”意图模仿正常人该有的行径。
但这款Actroid-DER机器人的待遇却是特殊的。当越来越多更加先进的Actroid型机器人出现在各类技术展览上时,“她”却被运送到匹斯堡的卡耐基梅隆大学以获取人类所应有的外貌特征。这正是该大学娱乐技术学院5名乐观的研究生所期望的——或是不得不乐观也说不定,因为他们之前已经耗费了长达15个星期的一个学期,来让这位女性机器人更加具有女人味而不是更多机器的冰冷,且在一开始,他们就按照“她”日文名字Yume的含义,称其为“梦”。
“Kokoro公司赋予了她逼真的仿真身体,但这还远远不够。”参与项目的学生克里斯蒂安·巴恩斯说,“我们即将展开的工作是令‘梦’从逼真升级为真实可信。”
它们是不是家里的“田螺姑娘”?
尽管不见得让人称意,但Actroid型机器人其实是新一代机器人的代表。这一代机器人的设计初衷已经超越了简单的程序输入式的工业机器人,而致力于将机器人打造得愈益自主,使其能够如真人一样在学校、家庭、办公室扮演角色,承担任务。
该潮流的先锋代表便是ROOMBA保洁型机器人。当圆头圆脑的ROOMBA来到用户家中后,就像一只初来乍到的电子宠物狗,看似没头没脑地乱转,其实自有套章法,如用电脑模拟出它走过的痕迹,就会发现能覆盖到房间的角角落落。
比较妙的是,ROOMBA也能自己出动清理地面,在主人不在家的时间里把活干完——这一点倒真有点“田螺姑娘”的意思。而麻理人工智能实验室的良好出身,以及美国iRobot公司多年为军方提供战地机器人的可贵经验,让ROOMBA的感应系统“耳聪目明”,即使无人看守,也从不会弄成一团糟,更不必担心会一头栽到楼梯下面去。待它任劳任怨地干完活,再自己摸着路回电站充电。
这款机器人不再是实验室或小规模高端产物了,它作为一款在售产品,早已引发了大批量的模仿。其商业化之后优秀的反馈让人们相信,更加复杂的服务型机器人或许不久之后就可以为我们准备饭菜,整理衣物,甚至照看孩子和老人的生活,而我们,像是无良监工,只需在几英里外的办公室得意的地过电脑进行操作和监督。
“在5年到10年的时间里,机器人将会在人类生活中发挥越来越重要的作用。”卡耐基梅隆大学机器人学教授里德·西蒙斯断言。
这种前景当然也带来了一系列的问题。
首先,你打算将日常生活内容的几成交给机器人?这其实是个深远的、对机器信任度的问题。
其次,服务型机器人应当具有怎样的外表?ROOMBA看起来就是圆盘子,这也让很多人误认为它就是个机器而不是机器人;《星球大战》里好人缘的C3PO虽僵硬但不失优雅……至少,许多人不会希望看到“梦”这样有些女鬼气质的机器人在家里晃荡,而且恐怕也不会乐意在卧室墙上安装一只粗壮的机械手臂。
再其次,我们的人际关系会因为机器人的加入而发生怎样革命性的变化?日本一家养老院已经禁止老人们拥有一种用来娱乐的机器小海豹,因为担心这会让老人与其他人逐渐疏远。相似的忧虑也开始针对起未来照看婴儿的机器保姆。受此牵连,理想浪漫情人型机器人的尝试,也进展缓慢。
总而言之,我们是否准备好迎接它们了?此问题反之亦有效。
机器人是否已为我们做好了准备?
在卡耐基梅隆大学娱乐技术中心外山上的一座山上建筑里,HERB安坐不动,仿佛陷入深思。HERB一词是家庭探索机器人管家的简称,这是由卡耐基梅隆大学与英特尔匹斯堡实验共同合作研制的,用于在未来照顾老残人士的标准型服务机器人。
作为按家庭用品设计的机器人,HERB装配了赛格威车轮的“腿脚”以及一大堆复杂的电脑设备组成的“身体”。但与“梦”有所不同的是,HERB更近似于具备精神能力的生命体。目前,这款机器人正在通过以每秒数以万计个场景的速度对不同场景进行选择并作出正确反应的方式,来不断改进自身的性能。
“我将其称作造梦。”HERB的制作者、卡耐基梅隆大学机器人学院教授悉达多·斯日尼瓦萨说。“这让人们直观地理解机器人事实上可以明白它们自己正在做的事。”
传统的机器人,比如人们常见的汽车车间流水线上焊接车体的那种,能够按照预先输入的指令从事非常精确的工作,但是需要非常严格组织起来的环境。而HERB这样的机器人,为了融入人类的生活空间,就必须感知、察觉并处理不同的陌生事物,并且移动的过程中不能与活动的人类相撞。HERB的感知系统包括安装在顶部架杆上的一台摄像机和一部激光导航设备不同于液压驱动的工业机械臂,HERB的手臂通过压强感知的电缆系统模仿了人类的肌腱功能。这种灵敏将使得HERB可以轻柔地将一位被照顾的老妇人送进浴室,而不至于发生大力把她扔出门外的事故。
在实验室里,斯日尼瓦萨的一个学生按下了一个按钮,发出了一条拿起放在附近桌上的果汁盒的指令。HERB的激光导航设备开始旋转,制造出一幅3D的网格地图,其中标注出了周围人类和物体的坐标位置。同时,摄像机捕捉并锁定了最为接近目标——果汁盒的候选物体。机器人缓慢地靠近并抓起了盒子,并始终保持水平。最后,依照命令,它将果汁轻轻地放下。
对于一般人来说,这种表现或许并不是那么抢眼,“当我展示这一切给我母亲看时,她竟然不能理解HERB拿杯水为什么会费那么大劲。”斯日尼瓦萨说。
其实问题并不在于HERB本身,而在于事前输入给它的场景案例。拿杯水对于人来说确实是简单之极,我们的大脑经过几百万年的进化已经非常善于做这类事。对于那些专门从事某类事情的工业机器人同样也精通此道,但HERB超越它们的地方在于,它知道自己所要拿取的是一盒果汁,而不是一杯牛奶或一个茶杯。这种理解能力来源于大量先进的数学与计算机技术,但用斯日尼瓦萨的话说,一切最终归结为:“它能够将输入的信息,在自身预先存储的关于外部世界的场景语境中进行智能分析。”
当HERB遇到新的物体时,先前学习的规则会指导具备压力感应功能的手臂的行动。这个物体有把手吗?会打碎么?斯日尼瓦萨按照人类的行为特征设计了HERB的手臂。比如在酒吧里,他观察到酒保用一种违反直觉的神秘手法来进行调酒,便将其简化为运算法则。如今HERB的指令系统里就有这一招。
当然,HERB正在探索的世界,是可控的实验环境。让它具备在真实的人类生活中发挥作用依然要面对许多困难挑战。
而HERB还有一个车铃铛似的号角,以告知人们它在靠近。如果屋子实在太过于凌乱和拥挤,它就会选择最安全的行为方式——站在那儿,对着所有人不停按喇叭。
若当我们都不能理解自己时……
以上之策略在实验室里确实有效,但是换成办公室里就不一定奏效。人类可以做出许多无法用词汇来表达的无意识行动,比如我们会小心地绕过挡在前进路上的人,还能明白自己正在侵入他人的私人空间——而这种事无法用数字上的距离来表达。
卡耐基梅隆大学的研究者们知道大众也希望机器人能够做到这一点。它们如果做不到或做出傻事,人们通常不愿意去原谅。
卡耐基梅隆大学另一款研发中的零食机器人就是个例子。它被设计用来在计算机学院的人群中散发零食,但经常出现送错货或者找错钱的事儿。
当然,如果机器人能够提前告知人们它会出错或者学会道歉的话,多数人们也是比较宽容的。但是问题在于人类自己有许多它们理解不了的奇怪举止。“监控显示,有时候人们会偷零食。”机器人的设计者说。
与其他社会机器人一样,零食机器人也是个可爱的家伙。它四英尺半高,卡通风格容貌的脑袋让它勉强还像个人。由于人们对它的期望值就没放太高,这避免了它掉入所谓“诡异之谷”的困境。
而所谓“诡异之谷”,是日本机器人研发的先驱森昌弘于40多年前提出的概念,意思是一般说来,人们都会非常肯定地认为机器人应当具备人类的外观面貌,但森昌弘观察到,当机器人越来越栩栩如生的时候,这种“与人近似”的期望就会迅速转变为排斥。
虽说,大部分的机器人学家并不愿走到那种极端的地步,但是依然有人提醒说,如果人们愿意接受机器人发展到和真人一样的地步,“诡异之谷”则是一个必须经历和度过的阶段。
而推动“梦”这款机器人穿过“诡异之谷”的人,正是无畏的机器人专家石黑浩。他长期观察机器人领域的改进创新,研究仿真机器人电子元件的相互作用。去年他就研制出了包括以一位留着山羊胡子和短发茬微笑的丹麦教授为原型的逼真机器人,以及一个和婴儿般大小的思科网真手机机器人Elfoid。后者一旦经过改良,人们就能够通过它来与同样适用Elfoid的朋友聊天,在这个过程中,机器人会模仿你做的动作。
而石黑浩最“雷人”的作品,还当属他最近研制出的以他自己为原型造的Geminoid型号。人们如果造访他位于日本京都的ATR智能机器人和通讯研究所的实验室时,他和他的复制品都一袭黑衣。机器人坐在制作者后面的椅子上,留着一模一样的黑色头发,同样是拥有一张愁云密布的脸。
石黑浩打趣说,自己在两小时车程外的大阪大学也担任教职。有了这个硅胶替身,自己就可以同时出现在两个地方。通过安装在机器人面部的动作捕捉感应器,石黑浩就可以一边通过网络操作机器人与京都研究所的同事们交流,自己则在大阪的教室里上课。
与其他机器人领域的先驱者一样,石黑浩不仅乐于在技术层面推动机器人的进步,更意欲获得哲学上的解释。他的机器人像是测试风速的气球或者不完美的镜子,通过这些越来越逼真的作品折射出人类根本上的属性为何,并观察人们如何与机器人互动,来制造出更加可信的机器人。
“人们倾向相信我是真实的人,而那个东西不是。”石黑浩指着自己的替身说到,随着技术的进步,这种特征上的差别实际上会越来越难以分辨。当最终真假难辨的时候,在意与之交流的是不是真人还有什么意义么?对于自己的替身,他表示最佳的用途,是送到自己远方母亲的身边,因为自己很少回去探望。
“你母亲会接受这么一个机器人?”人们这样问他。
而石黑浩的回答是:“但这就是我自己呀。”
机器人能拥有道德反应吗?
在前面这个可以与母亲互动的机器儿子的梦想付诸实践前,还有许多环节比单纯模仿更需要加以研究。
在HERB通过导航设备融入简单的人类物理环境之后,其他机器人则开始向神秘复杂的人类精神情绪领域进发。范德堡大学的萨卡与他的前同事、现就职于华盛顿大学的温迪·斯通,开发一个可以与自闭症患儿玩简单球类游戏的原型机器人。通过测量每分钟心率、出汗、注意力和其他身体特征的变化,来监视儿童的情绪。但监测到厌倦或者激怒的情绪时,它便改变游戏的内容直到这些指数恢复到正常的快乐。这套机器人系统在技术上并不是非常复杂,但面对复杂的语言和生理相互影响,却具有实际的治疗效果。当然,这仅仅只是机器人接近人性的第一步:知晓他人的思想和感受,调整自己的行为作出回应。
在2007年,一份报纸使用了“什么是一个人?”这样的挑衅性标题。因为华盛顿大学的发展心理学家皮特·卡恩与石黑浩等同事,共同拟定了一套九等心理基准来衡量机器人是否在模仿人类方面成功与否。他们强调的重点并不在于机器人技术方面的功能,而在于人们如何观察和对待它们。
比如这条“内在的道德价值”。不管我们是否认为机器人值得获得基本道德对待,人类彼此之间是存在自然的相互尊重的。
卡恩的实验说明了这一点,他让青少年们与一部名为Robovie的机器人共同玩猜谜游戏。几轮之后就有人在轮到机器人回答时出来打断,并呵斥机器人回到壁橱里去。Robovie会提出抗议,宣布不让自己回答问题是不公平的。但打断的人回答:“你只是个无关紧要的机器人。”尽管不断地徒劳抗议,最终Robovie还是被扔进了壁橱。当然,这并不是机器人为自己利益作出的反应,它背后是由人操作的。这是人的主观反应。
“有超过一半的实验参与者表示他们认为Robovie被扔进壁橱是不公平的,这就是一种道德上的反应。”卡恩说。
人类,尤其是儿童,同情一个遭受不公平待遇的机器人或许并不令人惊奇,毕竟他们一直接触玩具和各类玩偶。而让一个机器人自己具有道德上的判断能力还遥远得多。机器人能够被赋予良知这种最为独特的人文属性么?因为在战场或实验室这类人类道德备受考验的场景里,这种思量或许更加有效。
在阿基莫夫三定律之后
描述机器人行为规则的阿基莫夫三定律,实在太老生常谈了,且只能作为最基本要素存在。当代战争中机器人扮演的确是越来越复杂的角色,如远程操控的无人机,和装备机枪炸弹的地面车辆。各国政府都在发展具备敌我识别能力的机器人,尽管让一个机器人为所犯下的错误决定负责有些荒唐,但人们已经笃信它们可以做出正确的决定。
在机器人道德领域研究中探索得最深远的,要数亚特兰大佐治亚技术研究所的研究员罗纳德·阿尔金。他指出,并不是机器人在战争中的道德约束启发他从事现在的研究,而是人类自己的道德界限。
他列举了两个在伊拉克发生的实例,一个是美军直升机飞行员打死受伤的敌方人员,一个则是在哈迪塞遭伏击后,海军陆战队杀害平民。或许是承受着恐惧与愤怒的巨大压力,这些士兵竟然先射击然后再质询,结果是妇女儿童惨遭杀害。
阿尔金相信机器人或许比人更能作出正确的伦理决策。在战争的喧嚣中,机器人不会像人类一样受动荡不定的局势和情感的起伏所摆布,因此它们在炮火下犯错的几率更小,同理也更不可能伤害到非战斗人员。
在阿尔金的系统中,有一套内置到软件里的“伦理控制程序”——当机器人锁定目标时,控制程序会根据交战规则和战争法则检查一整套预先编程的制约条件;而当机器人甄别是否该开火时,又会受这套程序的指导。例如,按交战规则,若程序给出的指令是开阔战场上的一辆敌军坦克,对此机器人极大可能开火;而对于有武装敌人参加的墓地葬礼,则会被禁止开火。
第二个程序是“伦理适配程序”——目的是限制机器人选择的武器。由于部分武器火力过猛,恐会导致无法预料的伤害,比如,程序可能禁止使用导弹,直到将系统调适为止。
最后的一个程序,则是“责任建议程序”——让机器人可以接受人类评判,如果评判人都认为机器人过于犹豫或者过于“激动”了,那么该程序允许覆盖保守设计的伦理控制程序。
但这整套程序的原创人却也承认,该系统或许还不能适用于真实世界,但是他的努力却是为了让军方乃至国际社会将目光多投注在一些伦理问题上。
我们与它们
10年前的影片《人工智能》(AI)中,被制造出来用于“去爱人类”的机器人大卫有了自己的感知,他只想成为养母真正的儿子,“他的爱是真的,可他自己不是”。那位人类母亲呢,虽说没当他是台家电,但也只勉强平了宠物的地位。
此时让我们重返卡耐基梅隆大学的“梦”改造项目,也到了与这个机器人有关的学期已经进入尾声的时刻。课题组选择向教师评审团展示经改良优化后的机器人,看其能否由“形似人类”迈向“神似人类”。
这段“进化之路”并不好走。课题组的计算机程序员严林(音)设计了一个用户友好型软件界面,用于十分流畅地去控制“梦”的动作了。但面部识别、更真实更服人的眼神互动,都只来得及尝试了一半。
为了掩饰掉这几处缺点,研究人员赋予了“她”假定的身份及与身份相符的服装和举止——有点哥特、朋克气息的少女,所作所为皆是在吸引对方的注意。
现在,“梦”戴上了一副掩盖僵硬指节的半指手套,擦着黑色唇膏来混淆别人对它嘴部无法快速闭合的注意,看人时总会先定定地望上一会——以掩盖眼神内容的不足,再然后头部机械地摆了两下——以免暴露她的不灵活,课题组成员们假定“她”这样的少女会有类似的倾向。
当然,朋克与哥特表象下,这还是那个原来的Actroid-DER型机器人。所幸,它自己至少现在明白了这一点。
“我并非人类。”她坦承。“我永远都不会和你们一样。可这也并不太糟,实话说,我才喜欢当一个机器人哩。”改良后的效果让教师团动容,课题组因此拿到A成绩。
接下来的那个月,生产商KOKORO公司的技术人员就要将这个Actroid-DER型机器人运回日本东京了。课题组成员之一克里斯汀·巴恩斯没能通过游说将机器人留在这里。在日本人装箱时她本想上前帮上一把忙,扶住“梦”耷下来的脑袋。但对方礼貌地回绝了。他们就那么随意地把依旧穿着可爱服装的“梦”,三两下塞进板条箱,封装打包走人。