马利克·穆里森和克里斯·米德尔顿报道了一系列新的类人机器人研究,揭示了人类如何轻易地受到设计巧妙的机器的影响。

一个由社会心理学家斯坦利·米尔格拉姆系列在20世纪60年代臭名昭著的实验表明,大多数人都服从于权威人物-有时到了极致。

他的实验显然表明,强迫一个人伤害另一个人所花费的只是一个穿着实验室外套发表指令的人:“代理”理论,其中人类将其个人责任和良心包含在权威人物的意志中。

近年来,米尔格拉姆的实验在某种程度上已经失去了信誉,但它们仍然是一项引人入胜的研究,研究权威人物如何能够推动大多数参与者对他人造成伤害,或者让人们感到有义务取悦他们,这取决于他们如何解释结果。

但是,如果将相同类型的阶段过程应用于探索人机交互?人类会伤害情绪机器人吗?或者实际上是一种不同的,更严重的伤害?

我们如何对待具有社交技能的机器人

这就是杜伊斯堡 – 埃森大学的研究人员想要回答的问题。

为了测试人形机器人与人类之间的同情心 – 以及机器人的社交技能决定交互如何发挥作用的程度 – 他们招募了89名志愿者,分别与NAO 机器坐下来,这是一种 来自SoftBank Robotics的幼儿大小的人形机器人。

这些互动被分为两种不同的风格:社交,其中机器人模仿一些参与者的情感人类行为,以及纯粹的功能,其中它更像是一个简单的机器与其他人。

该研究发表在PLOS One期刊上 ,解释了参与者如何认为他们参加了一项学习练习,以测试和提高机器人的能力。但实验的真正目的在于如何交互 – 无论是社交还是功能 – 结束:一旦练习结束,科学家就会要求参与者关闭机器人。

在这些阶段性交互中的大约一半中,机器人被编程为对象,无论其先前是否具有情感或功能风格。在恳求之上 – 用同情触发的陈述,比如“我害怕黑暗” – 它会乞求,“不!请不要把我关掉!“

在89名志愿者中,43名受到了NAO机器的反对。听到机器人请求不要关闭,13拒绝了这一点,而平均而言,剩下的30个人花了两倍的时间来遵守研究人员的指示,而不是那些没有经历过怜悯请求的人。

该研究还需要进一步观察。例如,面对机器人的志愿者显然在纯粹的功能性互动之后乞求生命,这使得所有参与者中最长的一个人犹豫不决。有趣的是,似乎社交机器人更容易关闭,即使它反对。

虽然出乎意料,但这一结果表明了人类反应中不和谐的作用:当单调的,类似机器的交互突然获得(明显的)感知和/或机器人在情感方面说话时,我们会更加注意。

儿童容易受到机器人的影响

另一项在英国普利茅斯大学进行的研究发现,年幼的孩子比成年人更有可能让他们的行为和意见受到机器人的影响。

该研究比较了成人和儿童在同龄人和人形机器存在时对同一任务的反应。它表明,虽然成年人的观点经常受到同龄人的影响,但他们在很大程度上能够抵制机器人的劝说 – 这一发现可能与德国的结果相矛盾。

然而,年龄在7到9岁之间的孩子更有可能给出与机器人相同的反应,即使这些显然不正确。

在大学的网站上写作,该大学的Alan Williams解释了这项研究是如何使用Asch范例的,该范式最初是在20世纪50年代开发的,它要求人们看一个显示四行的屏幕,并说出哪两个长度匹配。当一个人,人们几乎从不犯错误,但在与他人进行实验时,他们倾向于遵循别人所说的话(米尔格拉姆的实验再次抬头)。

在这项研究中,当孩子独自一人进入房间时,他们在测试中得分为87%,但是当机器人加入时,孩子的得分降至75%。在错误的答案中,近四分之三(74%)与机器人相匹配。

与情绪机器人研究一样,普利茅斯研究揭示了机器人对人们产生负面或操纵性影响的可能性 – 在这种情况下,对弱势幼儿的影响。

该研究由比勒费尔德大学博士后研究员Anna Vollmer和普利茅斯大学和根特大学机器人学教授Tony Belpaeme领导。

Belpaeme教授说:“这表明儿童与机器人的关系可能比成年人更多,这确实提出了一个问题:例如,机器人会建议购买什么产品,或者想什么?”

普利茅斯的研究得出结论:“将自主社交机器人用作教育专业人员或儿童治疗师的辅助工具的未来并不遥远。

“在这些应用中,机器人处于这样的位置,其中所提供的信息可以显着影响他们与之交互的个体。

“需要讨论是否应采取保护措施,例如监管框架,以尽量减少社会儿童机器人互动中儿童的风险,以及他们可采取何种形式,以免对有希望的发展产生不利影响。