办事指南

如果机器人缺乏信心,机器人将更有用

点击量:   时间:2017-06-01 23:34:45

Jason Lee /路透社Matt Reynolds对你的能力充满信心通常是件好事 - 只要你知道什么时候该寻求帮助当我们构建更智能的软件时,我们可能希望将相同的思维模式应用于机器这是一个探索机器人自身实用性的实验背后的想法,这可以帮助指导未来人工智能的制作方法加州大学伯克利分校的Dylan Hadfield-Menell表示,过度自信的人工智能会引发各种各样的问题以Facebook的新闻源算法为例这些旨在建议人们想要查看和分享的文章和帖子然而,通过毫无疑问地遵循这个职权范围,他们用假新闻填补了一些人的信息对于Hadfield-Menell和他的同事们来说,答案是让AIs寻求并接受人类监督 “如果Facebook有这种想法,我们可能不会对假新闻产生这样的问题,”他说而不是推动它认为Facebook用户想要看到的每篇文章,一种不太确定其能力的算法更有可能推迟人类更好的判断为了探索这个想法,伯克利团队设计了一个人类和机器人之间相互作用的数学模型,称为“切换后游戏”在理论设置中,机器人被赋予了一项任务,人类可以随时将它们关闭但是,机器人可以选择禁用其开关,以便人员无法将其关闭 “如果Facebook的新闻源算法不太确定它的能力,它可能会寻求更多的人为监督”随着模型的发挥,机器人给予高度“信心”他们正在做一些有用的东西永远不会让人关掉它们,因为他们试图最大化完成任务所花费的时间相比之下,一个低信度的机器人总是会让人关掉它,即使它做得很好然而哈德菲尔德 - 梅内尔认为让人工智能太不安全是错误的例如,如果一辆自动驾驶汽车正在驾驶一个小孩上学,那么这辆车绝不应该让孩子控制住在这种情况下,无论情况如何,AI都应该确信自己的能力会超过孩子的能力牛津大学的Marta Kwiatkowska表示,那些拒绝让人们关闭它们的认可机构可能听起来很牵强,但在机器人与人类一起工作时,这些考虑应该是至关重要的她说,无人驾驶汽车和机器人消防员等机器将被要求做出有关人身安全的决定,因此,这些决策的道德框架必须尽快落实到位 Hadfield-Menell说,开关后的比赛只是一个开始他计划在机器人获得有关其自身实用性的更多信息时,探索机器人决策的变化例如,咖啡制作机器人可能会认为它的任务在早上更有用最终,他希望他的研究能够导致人工智能制定人类易于理解的决策 “如果你把一个机器人送到现实世界,你想要很好地了解它正在做什么,