首页 » 报价 >

'道德机器'思考谁死的无人驾驶困境

2020-04-08 07:46:47来源:

CARS.COM —在1960年代后期,凯尔西·D·阿瑟顿(Kelsey D. Atherton)在最近的《大众科学》上写了一篇关于无人驾驶汽车困境的文章,所谓的“手推车问题”(Trolley Problem)考虑了有轨电车失控的道德行为。拉动拨动开关杆并杀死一个人,或者在汽车行驶过程中小心翼翼地杀死五个人?

有关:自动驾驶汽车是否必须通过驾驶员考试?

阿瑟顿(Atherton)讲述了他在麻省理工学院媒体实验室(MIT Media Lab)的道德机器(Moral Machine)上的经历,该研究为参与者提供了13种不同的场景,所有这些都要求两种选择中的一种来反映测试对象心目中的邪恶程度较小。换一种说法:他们应该允许谁死?

阿瑟顿写道:“无人驾驶汽车,未来的载人机器人,有望在汽车安全方面取得长足进步,有时会失败。”“希望这些故障比人为失误造成的伤亡少见,但是这意味着驾驶汽车的计算机和算法可能必须做出人为选择,例如,刹车发出了:汽车应该撞向五个行人,还是应该调整行进路线撞到水泥路障,而杀死汽车的唯一乘员?”

此外,阿瑟顿(Atherton)指出,道德机器提出的选择包括:转向或保持前进;罢工与合法行人横穿马路的行人;人与动物儿童与成人;无家可归的人与孕妇。当人工智能以一种意想不到的方式表现出来时,阿瑟顿还讨论了“紧急行为” —指出特斯拉Model S在自动驾驶模式下最近未能将白色卡车与苍白的天空区分开来,导致驾驶员死亡。

在此处阅读Atherton的全文,标题为“麻省理工学院的游戏问无人驾驶汽车应该杀死谁”。