其实在去年事故曝光时,我就发现很像一个非常出名的逻辑问题:
现在有一个疯子,把五个人绑在一条铁轨上面,你可以通过改变火车车轨来让火车转到另一条轨道上,但是这个疯子在另一个轨道上也绑了一个人,你该做什么选择?
大多数人会说牺牲那一个人来救第一条轨道上的五个人,但是生命是平等的,与其说这是个逻辑问题,不如说是一个伦理道德上的问题。
无人驾驶汽车是属于智能汽车的,这一点算是公知。但当诸如此类的事件发生后,我们会发现智能汽车依旧有难言之隐。
物理公式摆在这里,我们不能不尊重牛顿。
物体从运动到静止是需要惯性来抵消的,而这个动作是需要过程的,过程就是事故区间;理论上来说足够强大的制动力是可以让运动中的物体瞬间静止的,但这也意味着放弃了车主。而智能汽车能做的只能是把事故率降到最低,而不是把选择消除掉。
基于以上,智能汽车的难点就在于,当置身于选择时,我们究竟是优先保护车主还是行人?是选择先保护60岁以上的车主,还是选择保护幸福美满的行走在街上的一家三口?
据我所知,无论是Google、还是Uber等厂商所选择的都是优先保护车主的性命。完事儿后这一起沸沸扬扬的Uber被判无刑责。
在人人生而平等的基础上,无人驾驶的选择很大程度上所代表的就是一种不平等,对于无人驾驶来说,选择即是事故。
当无人驾驶出现时,就意味着我们把一个哲学家都无法抉择的判定全转移到了程序上,不同于上面的逻辑问题,无人驾驶的道德困境的特别之处在于:结果,一开始就被我们的输入的指令所决定了。
写在最后:
智能汽车是未来的发展趋势,但也有许多要完善的地方。比如当乘坐无人驾驶汽车时,遇到事故时该如何选择,选择后该由谁来承担相应责任等等。
路还长着呢。