安全性是一个很难回答的社会问题
在今天的美国,由人类控制的驾驶已经是一项相对安全的活动,尽管显然还有很大的改进空间——2017年有3.7万人死于机动车碰撞,道路事故仍然是死亡的主要原因。因此,如果我们要让自动驾驶汽车车队上路,我们希望它们更安全。这并不仅仅意味着自动驾驶技术提高了,其安全性方面也取得了进步,因为汽车更重了,有了安全气囊和其他安全设备,刹车更好了,翻车的频率也更低了。不过,当谈到我们究竟希望无人驾驶汽车达到何种安全程度的问题时,这仍然是一个悬而未决的问题。
“在我们确信一台机器至少和人类一样安全之前,我们应该行驶多少英里呢?”密歇根大学MCity自动驾驶汽车测试实验室主任格雷格·麦圭尔(Greg McGuire)在最近的一次采访中表示。“还是自动驾驶汽车需要比人类更安全?它需要达到人类10倍的安全性吗?我们的阈值是什么?”
兰德公司2017年的一项研究发现,越早部署高度自动化的汽车,最终拯救的生命就越多,即使这些汽车只比人类驾驶的汽车安全一点点。研究人员发现,从长远来看,部署比普通人类驾驶员安全性高出10%的自动驾驶汽车,比等到安全系数提高75%或90%后再部署,可以挽救更多的生命。
换句话说,在我们等待自动驾驶汽车变得完美时,可能会有更多的人丧生。
自动驾驶汽车除了安全性之外,还有一个难题,那就是当出现问题时该由谁负责。当一名人类驾驶员造成事故或死亡时,人们往往毫不怀疑谁应该对此负责。但如果一辆自动驾驶汽车发生事故,事情就没那么简单了。
斯珀林将这一情景与另一种交通方式——飞机进行了比较。“如果飞机上没有正确的软件和技术,那么谁来负责呢?是软件编码吗?是硬件吗?还是拥有这架飞机的公司?”他说。
2018年,在一辆Uber测试车撞死一名女子后,我们已经看到了无人驾驶汽车的责任界定问题。这起事件引起了媒体的一片哗然,最终Uber与受害者家属达成了和解。2018年,一名男子在驾驶特斯拉时死亡,他的家人今年早些时候起诉了这家汽车制造商,称其自动驾驶功能有问题。美国国家运输安全委员会(National Transportation Safety Board)在一份初步报告中表示,特斯拉的自动驾驶系统在今年3月佛罗里达州的一起致命撞车事故中处于活跃状态。然而,在2016年特斯拉撞车事故中丧生的一名男子的家人表示,事故并不怪他,也不应该由特斯拉负责。
还有一个关于自动驾驶汽车的争论引发关注,焦点在于如果自动驾驶汽车面对一个艰难的情况,车辆应该做出怎样的选择呢?例如,如果事故是不可避免的,自动驾驶汽车应该转向行人密集的人行道上,还是撞上一根杆子,这种情况会对车上的乘客造成更大的危险。
麻省理工学院媒体实验室(MIT Media Lab)发起了一个名为“道德机器”(Moral Machine)的项目,试图利用数据来弄清人们是如何看待这些类型的权衡的。该实验室去年发表了一份关于其研究结果的研究报告。“在伤害已经降到最低,但可以在不同人群之间转移的情况下,我们希望汽车如何做到这一点呢?”研究人员之一埃德蒙德·阿瓦德(Edmond Awad)说。
但正如Vox网站的凯尔西·派珀(Kelsey Piper)当时所解释的那样,这些道德权衡问题虽然有趣,但并没有真正触及自动驾驶汽车安全性辩论的核心:
整个自动驾驶汽车的设置基本上只是一种新颖的方式,目的是将人们的注意力吸引到一系列老问题上。麻省理工学院媒体实验室让受访者回答的只是一系列经典电车问题的变体。经典电车问题是道德哲学中构建的一个假设,目的是让人们思考如何权衡道德。经典电车问题问的是,你是否会拉动一根杠杆,让电车驶向偏离轨道的五个人,避免撞死另外一人。问题的变体探索了在什么样的情况下,我们愿意牺牲一些人来换取拯救其他人。
当人们被迫在糟糕的情况下做出两难选择时,这是一种了解他们如何思考的有趣方式。有趣的是文化差异的存在。但是,尽管收集到的数据描述了我们如何做出道德选择,却没有回答我们应该如何做的问题。目前还不清楚,这与自动驾驶汽车的关系,是否比我们每天考虑的其他政策更密切——所有这些政策都涉及可能导致生命损失的权衡。
这项研究发表在《自然》杂志上时,奥迪公开表示,研究结果可能有助于围绕自动驾驶汽车的决策展开讨论,但包括Waymo、Uber和丰田在内的其他公司则保持沉默。