这里是科学美国人——60秒科学系列,我是克里斯托弗·因塔格里塔
去年,谷歌推出了人工智能助手Duplex 。
“有什么需要我帮忙的?”
“你好,我打电话来为一名女客户预约理发 。嗯,我想订5月3日那天 。”
这是机器人在说话 。
“好的,请稍等 。”
“嗯,嗯 。”
“您想预约几点理发?”
在演示中,机器助手从头至尾都未表明自已是机器人 。谷歌因此饱受指责 。之后,他们澄清说,在安装“内置披露”后才会发布这项技术 。
但这里存在一个两难局面,因为《自然机器智能》期刊上的一项新研究表明,当机器人隐藏其机器身份时,其效率最高 。
“也就是说,它被允许模仿人类的时候 。”
纽约大学阿布扎比分校的计算社会科学家泰拉尔·拉万说到 。他的团队招募了近700名网络志愿者,与人类或机器人玩“囚徒困境”,这是涉及谈判、信任和欺骗的经典博弈 。一半时间里,志愿者被告知对手的真实信息 。另一半时间里,对阵角色是真人时,志愿者会被告知对方是机器人;或者当他们被告知与真人对弈时,其实对面只是个机器人 。
科学家发现,如果机器人模仿人类,那它们在这场谈判博弈中的表现会非常出色 。
“当机器被谎报为人类时,它的表现要优于人类 。机器人比人类本身更具说服力;它能够引导合作,说服对手与自已合作 。”
但一旦机器人的真实身份暴露,那其优越性就会消失 。拉万说这指向了一个根本难题 。我们现在可以制造真正高效的机器人,执行任务能力甚至超越人类,但机器人的高效可能与它们隐藏身份的能力相关,这可能存在伦理问题 。
“那些会被机器人欺骗的人,正是最终不得不做出选择的人 。否则,就会违反人类自主、尊重和尊严的基本价值 。”
在机器人与人类每次互动前征求人类的同意,这并不现实 。当然,这会暴露机器人的真实身份 。因此,我们作为群体必须要弄清楚:为了让我们的生活更轻松一点,与假装人类的机器人互动是否值得 。
“嗯,嗯 。”
谢谢大家收听科学美国人——60秒科学 。我是克里斯托弗·因塔利亚塔 。
译文为可可英语翻译,未经授权请勿转载!