麻省理工学院和微软的研究人员合作开发了一套系统,可帮助识别自动驾驶汽车和机器人工智能知识的失误,这些失误被称为“盲点”,也就是当训练样本与人类在某种情况下会做什么之间存在显着差异时 - 例如无人驾驶汽车难以区分大型白色汽车和救护车之间的差异,例如忽略了警笛声,因此表现不佳。
麻省理工学院和微软的新模型将人类的真实行为与在相同情况下所做的事情进行比较。或者,在实时环境中观察AI可以在发生或之前纠正任何错误。其结果是AI系统将根据其动作与人类的匹配程度来改变其行为,并确定需要更多理解的情况。
“这个模型帮助自治系统更好地了解他们不知道的东西,”研究作者Ramya Ramakrishnan写道。,“很多时候,当部署这些系统时,他们的训练模拟与现实环境不匹配,AI他们可能会犯错误,例如发生事故时。我们的想法是利用人类处置特定状况的方式弥合模拟和现实世界之间的差距,这样我们就可以减少其中的一些错误。“
该模型还没有为公众推出做好准备,但是研究人员一直在使用游戏对其进行测试,其中模拟人对游戏中的角色进行校正。然而,似乎下一个合乎逻辑的步骤是开始将它与真正的自动驾驶汽车及其测试系统一起使用。(来源:cnBeta.COM)
领取专属 10元无门槛券
私享最新 技术干货