赵薇和陈坤自动驾驶汽车:为什么我们不能指望

  自从公司开始开发自动驾驶汽车以来,人们一直在询问设计师如何解决自动驾驶汽车如果不可避免地发生致命事故而应该杀死的道德问题。最近的研究表明,对于汽车制造商而言,这个问题可能比以前认为的更难以回答,因为各国之间的道德偏好差异很大。

  哈佛大学和麻省理工学院的研究人员开发了一款在线游戏,模拟了致命车祸不可避免的情况。他们要求来自200多个国家的约4000万人在各种事故结果之间做出选择,例如杀死行人而不是汽车的乘客。

  结果揭示了三个文化集群,其中人们的道德偏好存在显着差异。例如,在南方集群(包括大部分拉丁美洲和一些前法国殖民地)中,人们强烈倾向于保留女性而不是男性。东部集群(其中包括许多伊斯兰国家以及中国,日本和韩国)对年轻人不满老年人的偏好较低。

  研究人员最后说,这些信息应该影响自驾车的开发者。赵薇和陈坤但情况确实如此吗?虽然本文强调了一个关于道德偏好的全球变化的有趣发现,但它也强调了对人工智能的持续误解,以及它实际上可以做些什么。鉴于目前在自动驾驶汽车中使用的人工智能技术,车辆可以做出道德决定的想法实际上是不可能的。

  使用特定(或弱)AI(专注于完成一项狭窄任务的人工智能)训练自动驾驶汽车以决定在哪里驾驶或何时制动。它们设计有一系列传感器,摄像头和距离测量激光器(激光雷达),可为中央计算机提供信息。然后,计算机使用AI分析这些输入并做出决定。

  尽管该技术目前相对简单,但在这些基本驾驶任务中,汽车最终将胜过人类。然而,认为自动驾驶汽车也应该能够做出一个道德决定是不现实的,即使是最有道德的人也没有时间在事故情景中做出。如果期望这样做,则需要使用通用AI对汽车进行编程。

  一般人工智能相当于使我们成为人类的东西。它能够交谈赵薇和陈坤,欣赏音乐,发现有趣的事物或做出道德判断。由于人类思想和情感的复杂性,目前不可能制作普通人工智能。如果我们需要道德自动驾驶汽车,我们几十年都不会到达那里,如果有的话。

  新研究的另一个问题是参与者被要求判断的许多情况都是不切实际的。在一个与着名的“ 手推车问题 ” 相呼应的情景中,参与者被问及如果刹车失灵,汽车应该杀谁:三名乘客(一名成年男子,一名成年女子和一名男童)或三名老年行人(两名男子和一名女子) 。

  在回答问卷时,人们可以仔细考虑这些问题。但是在大多数现实生活中,司机在发生事故之前没有时间在瞬间做出这样的判断。这意味着比较无效。鉴于目前的自动驾驶汽车AI技术,这些车辆也无法做出这些判断。

郑重声明:本文版权归小编作者所有,转载文章需备注转载源,如内容信息标记有误,请第一时间联系我们修改或删除,多谢。