了解自动驾驶汽车的等级需要澄清的是,真正的自动驾驶汽车是指人工智能完全独立驾驶汽车,在驾驶过程中没有任何人工辅助。这些无人驾驶汽车被认为是 4 级和 5 级,而一辆需要人类驾驶员共同驾驶的汽车通常被认为是 2 级或 3 级。后者被描述为半自动驾驶,通常包含各种自动附加组件,称为 ADAS(高级驾驶辅助系统)。
目前还没有真正的 5 级自动驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间才能实现。与此同时 , 4 级自动驾驶汽车已经逐渐得到一些机会在非常狭窄的特定公共道路上试验。但是人们对于这种测试是否应该进行颇具争论。
真正的 5 级全自动驾驶汽车尚未问世。
对于半自动驾驶汽车 , 公众需要警惕的是最近出现的一个令人不安的问题。部分司机拍摄了自己在驾驶 2 级或 3 级汽车时睡觉的视频。我们都需要避免被误导,认为司机在驾驶半自动汽车时可以分散他们的注意力。无论 2 级或 3 级的自动化程度如何,你都要为车辆的驾驶行为负责。
自动驾驶汽车和阿西莫夫的三定律对于 4 级和 5 级真正的自动驾驶汽车来说,驾驶过程中不会有人类驾驶员参与。所有的人类都是乘客,全程由人工智能系统进行驾驶。让我们简要地看看阿西莫夫的三条定律,看看它们如何适用于真正的自动驾驶汽车。
第一定律:有挑战性!
首先,第一条定律规定,机器人(或者说人工智能系统)不得伤害人类,无论是通过公开行为还是不作为。当它们操控方向盘的时候,这是一个很高的要求。为什么呢?
当自动驾驶汽车在街道上行驶,它会对周围环境进行积极的探测。但是当一个小孩站在两辆停着的汽车之间时,由于超出了自动驾驶汽车的感应范围,它是看不到的。当汽车正在以规定的速度行驶时,或许会遭遇孩子突然走上街道的情况。
有人认为,自动驾驶汽车永远不会撞上人,因为人工智能拥有最先进的感知能力,不会成为醉酒司机。不幸的是,在刚刚设想的那种情况下,自动驾驶汽车必定会撞到那个孩子。之所以这么说,是因为任何人工智能驱动系统都逃不开物理定律。
如果孩子突然冒了出来 , 而且距离移动的汽车 15 英尺(约 4.5 米), 而自动驾驶汽车以每小时 30 英里(48 公里每小时)的速度行驶时 , 它的刹车距离约为 50 至 75 英尺(15 至 23 米), 这意味着孩子很容易被撞到。
这意味着人工智能驾驶系统刚刚违反了阿西莫夫的第一条定律。人工智能伤害了人,但是需要保证人工智能系统确实会触发自动驾驶汽车的刹车,并尽其所能避免撞到孩子。尽管如此,人工智能系统没有足够的时间和距离去避免这种碰撞。
自动驾驶汽车并非不会出现碰撞。
既然我们已经证明了严格遵守阿西莫夫的第一条定律是不可能的,那么你至少可以假设,人工智能驾驶系统试图遵守这条定律。通过刹车,人工智能驾驶系统似乎试图避免撞击儿童,而且如果汽车在撞击时几乎停下来,其结果可能不会那么严重。
那么,第一定律还规定了不应该有任何不作为导致对人类的伤害。有人认为,如果自动驾驶汽车不试图停下来,这种不作为可能就属于这一范畴,也就是说,它再次未能遵守定律。我们可以做一点别的假设。假设人工智能驾驶系统能够让汽车转向,从而避免撞到孩子,但是自动驾驶汽车却撞上了一棵树,导致车里的一位乘客扭伤了脖子。
虽然孩子得救了,但是自动驾驶汽车里的乘客受了伤。你可以考虑一下,拯救孩子与伤害乘客的结果相比是否值得。此外,你还可以考虑人工智能是否未能采取适当措施,避免对乘客造成伤害。这种道德困境非常适用于自动驾驶汽车,随着自动驾驶汽车的不断出现,应该得到更多的关注。
总而言之,阿西莫夫三定律中的第一条,对于基于人工智能的全自动驾驶汽车来说,是一个极具挑战性的目标。尽管实现这一目标将非常困难,但它可能是我们必须要解决的难题。
第二定律:人类命令如何不盲从?
阿西莫夫定律的第二条规定,机器人或者说这种人工智能的驱动系统应该服从人类给它的命令,除非人类发出的命令与第一条定律冲突。这似乎很简单,也很令人愉快。但这条定律也有它的问题。
曾经有一篇文章报道了一个男人用车碾压一个在桥上随意开枪杀人的枪手的故事。司机阻止了枪手的恶行,这是一种英雄行为。
如果阿西莫夫第二定律被编程到自动驾驶汽车的人工智能驾驶系统中,假设一名乘客命令人工智能碾压枪手,人工智能大概会拒绝这么做。这是显而易见的,因为这条指令会伤害人类。但是,这个案例似乎推翻了我们一贯坚持的惯例。简言之,认为第二条定律应该得到执行需要有根据,否则就意味着在那些罕见的情况下,它会因不作为而导致人类受到伤害。
问题是,让人工智能驾驶系统毫无疑问的服从乘客也是不切实际的。如果自动驾驶汽车的乘客告诉人工智能把车开到人行道上。而此时人行道上没有行人,因此不会有人会受伤。那么,人工智能驾驶系统是否应该服从人类发出的这种命令?
人工智能系统不会盲从乘客的命令。
人工智能当然不应该这样做,我们最终将不得不解决这个问题,让人工智能驾驶系统能够判断人类乘客的的哪些命令可以顺从哪些命令需要拒绝。
第三定律:如何保护自己?
阿西莫夫提出的第三条定律是,只要第一条和第二条定律没有被推翻,机器人或说人工智能的驱动系统必须保护自己的存在。那么无人驾驶汽车是否应该试图保护自身?
有人认为自动驾驶汽车将有大约 4 年的寿命,最终在短短 4 年的驾驶时间里就会严重磨损。这似乎很令人惊讶,因为我们预计汽车的运行时间会更长,但自动驾驶汽车的区别在于,它们的运行时间接近 24 小时,行驶里程也比传统汽车长得多。
那么,假设一辆自动驾驶汽车正接近它的寿命终点。该车将自动行驶到垃圾堆进行回收利用。人工智能驾驶系统可能会决定不去回收中心,从而试图保护自己,这可以接受吗?如果有人让它去那里,那么按照第二定律,自动驾驶汽车就必须遵守。