先救乘客还是行人?关于无人驾驶的伦理讨论

关键词:

假设 A 在开车,车上还有另外两名乘客,突然三个行人跳入车前的人行横道。司机必须马上做出抉择,是撞倒行人(减少乘客的伤害),还是换道撞上混凝土护栏(行人免受伤害)。你会怎么选择?

自2016年以来,科学家通过“道德机器”(Moral Machine)向世界各地的人们展示了这种情形。“道德机器”是由 MIT 创办的一个在线平台,用来采集人类对人工智能可能会遇到的各种伦理难题的意见。

十月份的时候,道德机器背后的团队发布了来自233个国家、地区的200多万人的回复。他们发现了一些普遍的决定——例如,受访者倾向于救人而不是动物,倾向于救年轻人而不是老年人——但其他的回复因地区文化和经济地位而各不相同。

随着无人驾驶正准备在美国和一些地方上路试运行的时候,这些发现非常重要。未来,汽车制造商和政策制定者可能会发现与无人驾驶之间陷入法律困境。如果一辆无人驾驶的公共汽车撞死了一名行人,那么制造商该承担责任吗?

这项研究的结果提供了一些线索:如何根据区域偏好对无人驾驶汽车进行合乎道德的编程,但该研究也突显了科技行业潜在的多样性问题——即它忽略了发展中国家的声音。

道德机器用一个测验,为参与者随机生成13个问题集。每个场景都有两种选择:是救车上的乘客还是救行人。然而,乘客和行人的特征是随机变化的,包括性别、年龄、社会地位和身体素质等。

例如,有一个场景要求用户在行人和乘客之间选择,行人是两名老年男性和一名老年女性,而乘客是一对成年男女和一个男孩。

之后,参与者回答了针对他们教育水平、社会经济水平、性别、年龄、宗教信仰和政治态度的问卷。依照地理区域,参与者被划分为三种“文化群”——东方(东亚、伊斯兰背景的中东国家)、西方(欧洲和北美)和南方(中南美洲)。

MIT 的计算机科学家,这项研究的第一作者 Edmond Awad 解释:“我们有两个目标,一个是鼓励公众讨论这个话题,另一个是以量化的方式衡量人们的文化偏好。”

研究人员确定了三个相对普遍的偏好。

一般来说,人们倾向于先救:

人类而不是动物

人数更多的那一边

年轻人而不是老年人

当受访者的偏好有所不同时,通常与国家间的文化和经济差异高度相关。例如,对非法横穿马路更宽容的人往往来自治理较弱的国家,与美国文化距离较远的国家,以及不那么重视个人主义的国家。这些独特的文化偏好产生了一个问题:如果非法横穿马路的行人被无人驾驶汽车撞到,是否应该得到与合法横穿马路的行人同样的保护。

加州理工大学专门研究技术伦理的哲学家 Patrick Lin 表示:“在这个灰色地带,做出的决定没有对错,而取决于他们的判断。”

汽车制造商和技术开发人员在这些道德困境中苦苦挣扎,因为无人驾驶汽车不能简单地遵守现有的机器人道德原则,现有的原则规定机器人必须服从人类,而不是伤害人类。

“道德机器”的场景也并不完全适用于现实生活。参与者100%确定场景中人物的身体状况,以及他们的死亡几率,但在真实的路上不总是这样。

Edmond Awad 希望这些研究结果可以激发更多的研究,并增加公众围绕无人驾驶汽车的道德困境的讨论。随着无人驾驶汽车行业的发展,这可能影响未来的相关政策。


分享到:




文章点评:

昵称*

邮箱*

网址