研究希望让机器人具备类似人类的社交技能
为什么机器人永远不能完全达到人类一样的水平?其中一个理由是,因为机器人缺少类似人类的社交技能 。
但研究人员正在测试新方法,赋予机器人社交技能,以更好地与人类互动 。两项新研究提供了此类研究取得进展的证据 。
其中一项试验由麻省理工学院(简称MIT)的研究人员进行 。该团队开发了一种用于自动驾驶车辆的机器学习系统,旨在学习其他司机的社会特征 。
研究人员研究了驾驶情况,以了解路上其他驾驶者可能有的行为方式 。因为不是所有人类驾驶员的行为方式都一样,所以这些数据旨在教导无人驾驶车辆避免危险情况 。
研究人员表示,这项技术使用了从社会心理学领域借来的工具 。在这项实验中,科学家开发了一个系统,以试图确定一个人的驾驶风格是更为自私还是更加无私 。在道路测试中,配备这一系统的自动驾驶车辆预测其他司机行为的能力提高了25% 。
在一项测试中,研究人员观察到自动驾驶车辆向左转弯 。这项研究发现,如果预测到迎面而来的驾驶员会做出自私而且不安全的行为,那该系统会让车辆在转弯之前等待 。但是当迎面驶来的车辆被判定为无私时,那自动驾驶车辆会立刻转弯,因为其认为出现不安全行为的风险很小 。
一篇报告介绍了这项研究,威尔科·施瓦廷是报告的主要作者 。他对麻省理工学院新闻网表示,任何与人类合作或在人类周围工作的机器人都必须能有效地学习人类的意图,以更好地理解人类的行为 。
施瓦廷说:“人类的合作或竞争倾向往往会渗透到他们的驾驶行为中 。”他还表示,麻省理工学院的实验试图了解系统在经过训练后能否判断和预测这类行为 。
这一系统旨在了解不同驾驶情况中应该采用的正确行为 。研究人员指出,举例来说,即使是最自私的司机也应该知道,避免危险有时需要迅速且果断的行动 。
麻省理工学院团队计划扩大其研究模型,以涵盖自动驾驶车辆可能需要应对的其他问题 。这包括预测车辆周围的行人以及在驾驶环境中发现的自行车和其他东西 。
研究人员表示,他们认为这项技术也能应用在人类司机驾驶的车辆上 。它可以作为预警系统,以应对其他被判定为行为激进的驾驶员 。
另一项社会实验涉及人与机器人之间的游戏竞赛 。卡内基梅隆大学的研究人员测试了机器人的“垃圾话”是否会影响与机器玩游戏的人类 。“垃圾话”是以消极或侮辱的方式谈论某人,通常是为了让他们犯错 。
人形机器人“佩珀”被设计成会像人类对手说一些话,比如“我不得不说,你真是一个糟糕玩家” 。机器人还会说:“在游戏过程中,你的表现变得很混乱 。”
这项研究涵盖每个人在35个不同时间与机器人玩游戏的情况 。该游戏名为《守卫与宝藏》,用于研究决策制定 。研究发现,遭到机器人批评的玩家在游戏中的表现通常要比得到称赞的玩家差 。
该研究的主导研究员之一是卡内基梅隆大学软件研究所的助理教授方菲(音译) 。一篇新闻介绍了这项不同于大多数人类和机器人实验的研究,里面提到了方菲的看法 。她说:“这是首批聚焦人类与机器人在非合作环境中进行互动的研究之一 。”
研究表明,人形机器人有能力像人类那样在社交方面影响人类 。方菲说,预计未来人类和机器人会经常互动,而届时这种能力就会变得更加重要 。
她说:“我们可以期待家庭助手能和我们合作 。但是在涉及网上购物等情形时,它们可能不会和我们有相同的目标 。”
布莱恩·林恩报道 。
译文为可可英语翻译,未经授权请勿转载!