在智能驾驶、自动驾驶艰难的发展历程中,要解决的远不止芯片、传感器、车联网等技术性问题,还有更多涉及法律和道德伦理的选择问题。自动驾驶全面普及,理性层面的设计与感性层面的选择,缺一不可。
去年3月,一辆Uber自动驾驶汽车在亚利桑那州坦佩市的公共道路上与一名行人相撞,该行人在送往医院后不治身亡。这是世界上首起被曝光的自动驾驶车辆在公共道路上撞击行人并致死的事件。据悉,这次Uber事故中车辆装配了64线激光雷达、多个摄像头和雷达,该车辆的自动驾驶系统当时识别到了行人,但机器大脑“决定”不减速。有人猜测称,该“决定”可能是因为系统算法认为如果减速可能会给驾驶员造成严重伤害。由此可以看出,即便自动驾驶汽车能够解决目前面临的所有技术难题,即便自动驾驶技术不会在运行过程出现纰漏,一旦自动驾驶汽车上路也必然会面临一些无法完美解决的伦理难题——囚徒困境与电车难题——发生事故是必然的。对此,人工智能的“大脑”设计可能会陷入无尽的矛盾中。
在智能驾驶、自动驾驶艰难的发展历程中,要解决的远不止芯片、传感器、车联网等技术性问题,还有更多涉及法律和道德伦理的选择问题。自动驾驶全面普及,理性层面的设计与感性层面的选择,缺一不可。
那么,“机器驾驶员”面临未知的事故状况如何权衡不同对象的生存几率和生存价值?紧急状况下优先保护乘客还是路人?老人和年轻人的生命如何选择?在设定机器事故算法时,依据和原则是什么?由谁来决定算法原则和依据?不同的决策有什么不同的后果?这些都属于自动驾驶汽车事故算法的问题范畴。对此,汽车工程师、伦理学家以及各方学者众说纷纭,借助经典的思想实验如电车难题、囚徒困境等呈现自动驾驶汽车可能遭遇的事故类型,分析其中涉及的伦理争议,探析诸算法之间的优劣对比。
决策者:自由模式还是强制模式
对于事故算法的决策者,讨论的焦点是:从个人角度还是集体角度决定自动驾驶算法的选择。前者认为每一位司机或乘客都有权对自己所乘坐的汽车进行伦理设定;后者主张由全社会集体来强制决定事故算法的伦理设定。
康提萨、拉吉亚诺和萨尔托尔旗帜鲜明地为个人自由选择模式辩护。他们认为,当遭遇不可避免的事故时,自动驾驶汽车进行何种伦理选择应该由使用者或乘客做出,使用者或乘客作为事故的直接主体,有权做出结果导向性选择。但紧急事故发生时,人类无法在短时间内做出理智抉择,只能依靠本能反应,因此实际来说,自由模式的事故算法决策权可操作性不强。
哥格尔和缪勒认为个人自由选择事故算法会带来囚徒困境,最终造成交通事故不降反升的后果,只有政府介入进行强制性的伦理设定,以集体利益为导向,大部分群体利益最大化后才有利于大众完全接受自动驾驶。他们指出,政府应该给自动驾驶汽车生产商引入新的行业标准,即最大化安全、最小化伤害——功利主义式的自动驾驶汽车。不管是乘客还是车主都没有决策权,因为在汽车出厂前就已内设事故算法。从维护社会利益最大化角度,由最能代表大多数人利益的群体来决定自动驾驶的事故算法。
然而,无论是个人化还是强制性的集体伦理设定都面临相当多且颇具挑战性的异议。
算法依据:优先保护
在具体的算法依据问题上,讨论主要围绕以下几个方面进行:乘客优先,还是行人或其他利益相关者优先?弱势群体(老人、小孩、妇女/乞丐)优先,还是优势群体(壮年男性/社会精英)优先?多数人优先还是少数人优先?笔者认为以上不同的社会群体,可以依据场景角色来划分:一种是按照事故中角色进行优先选择,另一种是根据社会角色的差异进行优先选择。按照事故中角色进行优先选择的事故算法又可分为功利主义的事故算法和自保主义的事故算法,大多数人认为功利主义的事故算法更为道德,但市场调查却显示消费者更愿意购买置入了自保算法而非功利主义算法的自动驾驶汽车。而按照社会角色的不同进行优先选择的事故算法则面临了要将人划分为三六九等以及如何划分的质疑与困惑。
笔者观点
2016年,麻省理工学院媒体实验室的研究人员启动了一项实验。他们建立了一个网站,了解人们希望无人驾驶汽车有怎样的行动模式,在网站中任何人都可以体验到多种不同的无人驾驶汽车场景。两年后,研究人员发表在《自然》杂志上的一项研究表明,政治、经济、文化、历史等差异都会影响人们对机器伦理选择的看法。但该研究还发现,世界各地的人趋向于在三个方面达成一致:优先保护人类而非动物、优先保护年轻人而非老人、保护尽可能多的人。这些见解可以为机器伦理的国际准则提供基础——研究人员写道,当这些“危及生命的两难困境出现时”,必须要有相关的国际准则,那些讨论不应该局限于工程师和政策制定者,毕竟那些问题会影响到每一个人。
2018年,德国为自动驾驶汽车制定了首个伦理规则。该规则提到,相比对动物或财产造成的伤害,系统必须最优先考虑人类安全;如果事故不可避免,禁止任何基于年龄、性别、种族、身体特征或其它区别的歧视;对于道德上模糊的事件,人类必须重新获得控制权。
面对那些虚构的关于自动驾驶汽车事故的思想实验,每个道德健全的理性人都会自发地就“我们该怎么做”形成信念。然而某些调查数据显示,我们的这种直觉是如此地不统一也不唯一:人们普遍认为拥有功利主义式事故算法的自动驾驶汽车最具道德性,但却鲜有人想购买置入了此种算法汽车。这种矛盾的心理和做法使得研究者们更倾向于理想的道德选择来设置事故算法。而所谓理想的道德选择又有其不能普遍化的理论假设、依赖某些成定势的伦理直觉。在虚拟的思想实验中,可以用理想化的道德选择做指导,但现实的驾驶过程会面临许多不能被解决的冲突和困境,在这种困境中,不论作不作为、哪种作为,都无法出现“最优决策”。现有的不同道德原则间的冲突、道德决策的复杂性以及人类道德判断的情境化导致并非所有的道德和法律规则都适用于具体的事故情况,具体到乘客个人也会有不同的选择,笔者认为我们应该综合考虑多种因素,利用多种能力,分析各种不同状况,尊重利益的主体相关者——乘客的自我选择,即道德约束式事前尊重、法律限制式事后惩罚。
(审核编辑: 林静)