神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:未来会有越来越多的机器人出现,这一点几乎已经是大家的共识。但是,人应该如何跟机器人交往这个问题还没有非常确切的答案。具体来说,人可以虐待机器人吗?当机器人受到虐待时,其他人该做何反应?如果其他机器人做出了反应,会对其他人的反应产生什么样的影响?针对这些问题,耶鲁大学的通过实验进行了研究。Evan Ackerman总结了他们的发现,原文标题是:Can Robots Keep Humans from Abusing Other Robots?
悲伤脸的Cozmo 机器人
划重点:
实验表明,当其他机器人对黄色机器人被虐待做出“悲伤”反应时,受试者会对被滥用的机器人产生更多的同情心,并且更有可能干预以阻止虐待行为。
但是旁观者机器人的悲伤实际上既没有加重受试者认为黄色机器人受到虐待的感觉,也没有增加其对被虐待机器人的同理心
原因有3点可能性:潜意识移情、群体动力以及从众的不作为
耶鲁大学的研究人员在一项实验里面利用了一组Cozmo 机器人,目的是想观察当有人推搡或者拿起来扔到一边,而旁边目睹这种“虐待”情况的机器人露出悲伤表情时,其他人会有什么反应。
人类在公共场所邂逅机器人的情况会越来越多,虐待机器人的可能性也会越来越高。虐待可以有多种表现形式,从不那么恶意的行为(比方说故意阻挠自动送货机器人,看看会发生什么)到暴力和破坏性攻击不等。可悲的是,跟虐待其他人或动物相比,人类更愿意虐待机器人,而且人类旁观者对于减轻此类攻击的作用并不可靠——哪怕机器人在乞求帮助。
由于在公共场合机器人不能指望附近的人施以援手,所以它们别无选择,只能靠自己和朋友,也就是其他机器人来保障安全。耶鲁大学Interactive Machines Group的研究人员为此进行了一项实验,目的是想确定具有情感表达能力的机器人旁观者能不能够促使附近的人介入,从而阻止对机器人的虐待。
其想法是:有一小群机器人以及另一小群人。当某人开始虐待一个机器人,而旁边的机器人对这种虐待行为作出悲伤的反应时,其他人会不会更有可能说点什么或者做点什么?根据之前对机器人虐待、移情以及欺凌的研究,答案是有可能,而这就是进行这项实验的原因。
实验由3个Cozmo 机器人,一名受试者及伪装成第二名受试者的研究人员(所谓的“同谋”,心理学实验术语)共同完成。人和机器人需要利用木块共同完成一系列的搭积木任务,机器人看起来像是自动的,但其实是按照脚本运行的。在执行这些任务时,其中一个Cozmo (黄色)会时不时把事情搞砸,而装作参与者的研究人员会对机器人的每个错误做出反应:对机器人不断加重的虐待:一开始骂机器人“蠢”,然后拎着它的头向下摇晃,最后把它扔到桌子上。
每次被虐待后,作为反应黄色机器人会露出一张悲伤的脸,然后自动关闭10秒钟。与此同时,在一个实验条件下(“无响应”设定),另外两个机器人什么也不做,而在另一种条件下(“悲伤”设定),它们会把头转向黄色机器人,并通过动画(研究人员解释说是“为黄色机器人感到难过”的表情)来表达对这种虐待感到悲伤。
耶鲁大学研究人员提出的理论是,当其他机器人对黄色机器人被虐待做出“悲伤”反应时,受试者会对被滥用的机器人产生更多的同情心,并且更有可能干预以阻止虐待行为。干预强度分为“强”或“弱”两种,可以是口头上或行为上的。强有力的干预措施包括亲自制止虐待或采取预防措施,以口头形式直接制止虐待(说出类似“你应该停止这种行为”,“不要那样做”或者“ 不可以”这样的话来制止虐待或对其做出反应) ,以及施加社会压力,比方说对研究人员说些什么来让他们质疑自己所做的事情(比方说“你伤害了它的感情”以及“等一下,它让我们摇它了吗?”)。弱一点的干预会微妙一些,其中包括类似在机器人被虐待后摸摸机器人确保它没事,或者说出“感谢你的帮忙,小家伙”或“没关系的,小黄”之类的话。
对于整个人类来说,有一些好消息,那就是当黄色机器人被虐待时,受试者会介入干预,而当作为旁观者的机器人露出悲伤时,他们介入的可能性更大了。但是,调查结果表明,旁观者机器人的悲伤实际上既没有加重受试者认为黄色机器人受到虐待的感觉,也没有增加其对被虐待机器人的同理心,这一结果有点违反直觉。我们问研究人员怎么会这样,他们分享了他们一直在思考的三个主要原因,认为那可能可以解释为什么受试者会这样:
潜意识移情:广义上的移情是指一个人对观察到的另一个人的感受做出的反应。人往往会下意识地感同身受,导致对他人的行动或行为进行模仿或镜映。我们认为,实验的受试者也可能会出现这种情况。尽管我们在研究当中并没有发现明显的移情效应,但是在发生虐待时,人们可能仍会体验到潜意识移情。与无响应设定进行对比,旁观者机器人做出悲伤反应时,这种效应可能会体现得更加明显。一个原因是,在前一种情况下,旁观者机器人的反应反映出对被虐待机器人的同情。
群体动力:人倾向于按照社会群体来定义自己,这会对他们处理知识,给事件分配价值和情感意义的方式产生影响。在我们的实验里,因为这项任务,受试者者、同谋以及机器人都属于同一个群体。他们的目标是共同努力搭建物质结构。但是随着实验的进行,以及同谋对(无法完成任务的)其中一个机器人进行虐待,人可能已经感觉跟同谋的行为发生了冲突。当旁观者机器人对虐待行为表现出悲伤时,跟无视虐待行为相比,这种冲突可能会显得更加突出,因为悲伤的反应会加剧人们对虐待的负面印象。反过来,这种负面看法可能会让受试者将同谋更多地看作是群体外的人,从而使得进行干预更加容易。
从众的不作为(Conformity by omission):从众是群体交往当中的一种社会影响,已在HRI的背景下得到了证明。尽管从众往往与大家因顾忌社会影响而做一些他们正常情况下不会做的事情有关,但在某些情况下,人们又会因为顾忌群体内部的社会规范或期望而没法像正常一样表现。后面这种效应就叫做 “从众的不作为”,这是我们结果的另一种可能解释。在我们的实验里,受虐待机器人的任务设定和表现已经足以激发大家要去进行干预。但是,当旁观者机器人无视了这种虐待行为时,由于机器人对受试者施加了社会影响,受试者可能就不会进行过多的干预。之所以会发生这种情况,是因为在后面这种情况下,大家把旁观者机器人的缺乏回应内化为群体交往的规范。
看一下受试者决定不对虐待进行干预的原因也很有趣:
有六名受试者(4人在“无反应”设定下,2人在“悲伤”设定下)认为之所以没有进行干预的必要,是因为他们认为机器人是没有感觉的,或者虐待也不会搞坏黄色机器人。五人(3人在“无反应”设定下,2人在“悲伤”设定下)在事后调查中写道,他们之所以没有介入是因为他们在面对同谋时感到害羞、害怕或不舒服。两个人(均为“无反应”设定)之所以没有阻止同谋,因为他们担心干预可能会影响任务完成。
可怜的Cozmo。模拟的感觉也感觉啊!不过说真的,这里面还是有很多问号的,所以我们请耶鲁大学Interactive Machines Group的负责人Marynel Vázquez回答了我们的几个问题:
IEEE Spectrum:在此次实验中,Cozmo的设计在实验里面起到多少的作用?你是否认为,如果机器人不那么小或不那么可爱,或者没有脸的话,人进行干预的可能性就会更低?或者,如果如果采用比Cozmo 更拟人化的机器人,比方说Nao的话,又会怎么样?
Marynel Vázquez:HRI此前的研究表明,机器人的体现以及情绪感知能力是可以改变人对它们被虐待的感受方式的。所以,我认为Cozmo 的设计可能是促使进行干预的因素之一。
我们选择Cozmo 进行研究的原因有以下三个:很坚固,能经受躯体虐待;很小,互动可以很安全;而且很有表现力。我怀疑Nao未必能像 Cozmos那样在我们的研究中引起干预,因为它的尺寸和社交能力都相对较小。人有同情机器人的倾向,这跟它们是不是有一张传统的面孔,表情是否有限以及拟人化程度是不是比较低无关。R2D2就是一个很好的例子。此外,HRI用比Cozmos 更简单的机器人进行实验时也观察到了群体社会影响。
论文提到你向受试者强调受虐待的机器人最后是没问题的。为什么要这么做?
同谋当着受试者的面虐待了机器人。虽然我们知道机器人并没有因为同谋的行为而受到损坏,但受试者仍可能会认为机器人被摔坏了。所以我们最后向他们展示机器人并没有事,这样他们就不会对发生的事情带着错误的印象离开实验室了。
“在公共场所部署机器人的时候,我们不应该假设机器人是不会受到用户虐待的——很可能机器人会受到虐待。因此,无论是从物理的角度还是计算的角度,在设计机器人的时候,都要考虑其面对人的恶意行为的安全性。”——耶鲁大学,Marynel Vázquez
受试者有没有做过(说过或写过)什么令你感到特别惊讶的事情?
在对实验进行一次试验时,我们对受虐待的机器人进行了编程,让它错误地破坏掉受试者与同谋之前搭建的一个结构。这种设定导致一名受试者在看到同谋虐待机器人后也对机器人进行了轻度虐待。这种反应很能说明问题:机器人在完成协作任务中可以犯的那种错误似乎是有阈值的。一旦超过这个阈值,人就不太可能会帮助机器人,而且甚至可能会产生敌意。我们最后对方案进行了调整,以防止被虐待的机器人在实验当中会犯下那么严重的错误。尽管如此,对这些阈值进行操作,来让机器人对自己动作(哪怕是意外的动作)可能产生的社会后果做出推理,这仍然是未来工作的有趣研究领域。
虐待机器人似乎是儿童经常会出现的特殊问题。如果有儿童受试者参与的话你认为结果会有所不同吗?
我相信人之初,性本善。因此,我偏向于预期儿童也愿意像几位成年人一样能够在我们的实验当中去帮助机器人,哪怕儿童行为在本质上更具探索性。值得注意的是,我们从事机器人虐待研究的一个长期动机就是同伴干预计划,目的是为了减少校园里面的欺凌行为。就像那些计划一样,我预期如果孩子们意识到自己在冲突的情形上可以扮演旁观者的积极角色的话,就更有可能干预对机器人的虐待行为。
经过此项研究之后,你对在公共场所部署机器人的人有什么建议?
我们的研究对于想在公共场所部署机器人的人可以有很多启示:
在公共场所部署机器人的时候,我们不应该假设机器人是不会受到用户虐待的——很可能机器人会受到虐待。因此,无论是从物理的角度还是计算的角度,在设计机器人的时候,都要考虑其面对人的恶意行为的安全性。
至于机器人应该对虐待作何反应,我们过去的工作表明,让机器人表达一下悲伤,关闭几秒钟,要比用更情绪化的方式或者完全不做出反应要好些。关机这条策略在我们的最新实验当中也很有效。
机器人利用自身的社交环境来减少敌对行为对他们的影响是有可能的。比方说,就像我们最新的研究所表明那样,它们可以鼓励旁观者进行干预或提供帮助。
接下来要做什么?
我们在设法更好地理解在我们的研究当中促成了亲社会的干预的不同原因:潜意识的移情,群体动力以及从众的不作为。我们还在耶鲁开发着一个社交机器人,做好之后会部署到公共场所里面,让我们可以在更真实、不受限制的环境当中去研究群体性的人机交互。我们在虐待机器人方面的研究工作为这款公共机器人的设计提供了很多信息。我们期待在校园活动恢复正常后对这个平台进行测试。
译者:boxi。
相关推荐
机器人能阻止人类虐待其他机器人吗?
机器人会比人类更善于照顾老人吗?
AI错删YouTube机器人视频,背后是人类难以消弭的身份焦虑
请停止霸凌机器人,“波士顿动力 Atlas” 反击人类真相
机器人界的素质教育,是时候该普及一下了
从京东 618 导购机器人说起,机器如何更理解人类?
“人工智能第三定律”的漏洞:人类能造出失控的机器人
两位诺奖女人向杀人机器发起了“攻击”
潮科技 | 认知计算:“机器认知”与“人类认知”的碰撞
粒子机器人,能否敲开机器意识觉醒之门?
网址: 机器人能阻止人类虐待其他机器人吗? http://m.xishuta.com/newsview30133.html