樱花樱花 发表于 2016-3-6 08:24:26

谷歌因系统误判担责 无人驾驶陷伦理困局

设想下以下情景:你正坐在2022年豪华的无人驾驶汽车内享受着旅途的欢愉,突然,前方行驶的卡车上跌落一件巨大的货物,而你的汽车却已无法及时刹停。因此它自动选择急转弯,转而冲向了街边露天的咖啡店,此时咖啡店的孩子们却浑然不知,与家里人惬意嬉闹,后果自然不敢想象。又或者,汽车能快速转向另一边,但撞向的却是孤身一人的摩托车车手。

无人驾驶能否破解伦理困局?

试问,面对此情此境,你的无人驾驶汽车怎样抉择才是最优?

无独有偶,现实生活中,谷歌无人驾驶测试车2月14日在加州山景城的路上为避免撞上路上的沙袋而变更车道,结果撞上了那条车道上的一辆公交汽车。所幸当时谷歌无人驾驶汽车的速度只有2英里每小时,公交汽车的车速也不过15英里每小时,所以没有造成人员伤亡。更幸运的是,碰撞事故发生前,无人驾驶系统不必面对上述设想情形中的两难选择。

这次事故成为谷歌无人驾驶汽车首次因系统判断失误而导致的事故,谷歌宣布承担责任。

无人驾驶,未来已来

在搭载强大的图像识别、防撞系统、导航及人工智能等一系列令人印象深刻的技术后,无人驾驶汽车已然能飞驰在加州的公路上。紧急制动系统、自动泊车、车道偏离预警系统等能有效提高驾驶员安全及行驶便捷性的“黑科技”正以难以想象的速度被引入到各新车中,有些功能甚至已成为新车型标配。无人驾驶技术成熟的同时也降低了开发成本。

毋庸置疑,近期德尔福、谷歌及其他公司所研发的无人驾驶汽车都在共同宣告:“未来已来”。

在我们预想中,未来汽车不会出现交通事故,每年能因此拯救数以千计的生命;能遵照人类意志去想去的地方,为老年人及残疾人群体带去福音;能有效缓解现有交通拥挤状况,也使得上下班变得更为便捷轻松。

但是,无人驾驶汽车能否胜任安全驾驶的重任?是否能成为日常移动体验中不可或缺的一部分?还有,我们是否已做好接受它的准备?

协助无人驾驶汽车破伦理困局

1942年,美国科幻小说家Isaac Asimov在介绍其短篇小说《Runaround》时首次提出了“机器人三大定律”。1950年出版的《I, Robot》将该小说收录其中。巧的是,同年Alan Turing发表了著名的图灵测试,用以判断电脑是否能像人类一样思考。

根据《I, Robot》所提,“三大定律”引自公元2058年第五十六版《机器人手册》,准则如下:

1. 机器人不得伤害人类、或看到人类受到伤害而袖手旁观

2. 机器人必须服从人类发出的指令,但指令与第一条原则相矛盾时例外

3. 机器人必须保护自己,但不得与第一、第二条原则相冲突

上世纪四十年代,这种远瞻至遥远未来的观点如今看来都是非常有趣的(这个未来甚至于我们而言尚有四十余年)。但想要将复杂的人类行为编纂成为一系列具象规则,是难以如人意的,且充满了伦理困境。

例如,解决开篇所描述的困境,可以采取一种尽可能减少生命损失的方式。以同样思路类推,死一个人必定优于死五个人。但我们该如何将这个死板却又明显的道理付诸实际呢?我们又如何为汽车配置决定他人生死的算法?咖啡店里一家三口的性命就比独身一人的车手更为宝贵吗?

当我们驾驶汽车时,任何在瞬时依靠本能做出的决定都被理解为不够完善的反应。正因如此,事后我们还是会因一时大意做出的错误决定而受到相应惩罚。

但是,当一辆汽车被提前设计好程序,并以不同的决定来应对不同的结果,但做出的选择却又都很糟糕,那么所有人都会认为其中会有预谋。请问,这究竟该算是谁的责任?

谷歌、奔驰及沃尔沃,凭借前瞻的视野与魄力,公开宣称了将会承担无人驾驶汽车的一切责任。

混合驾驶模式

在2015年股东大会上,谷歌创始人之一Sergei Brin表示:“我们并不认为谷歌汽车将是完美的,但谷歌的目标是打败人类司机。基于人为因素导致的碰撞、受伤、死亡事故庞大数目,及目前无人驾驶技术所达到的阶段,我们正在越来越接近这一目标。”

接近机器人级别的汽车会大大减少人类所犯的错误,并会减少碰撞、受伤以及财产损失等事故发生。但只要人类驾驶的汽车与无人驾驶汽车同时出现在道路上,那么事故仍将无法避免。

更有甚者,马路上无人驾驶与人类驾驶的混合行驶模式会置人类司机于边缘地带。例如,行驶过程中,面对突然闯入街道的孩子,无人驾驶汽车一定会通过快速但安全的变道操作来避免碰撞。与此不同的是,人类司机仅仅是看到一个滚入街道的小球,便能预测到随后有可能会有孩子闯入,因此人类会在看到孩子之前便预先做好紧急制动准备,而无人驾驶汽车则会始终保持原有高速状态直到检测到孩子,再进行快速变道。但这就存在一个极大隐患,尾随于无人驾驶汽车后的人类司机很有可能就会因无法应对前车如此之快的变道而撞上孩子。

积跬步而至千里

南卡罗莱纳大学的助理教授Bryant Walker-Smith认为,目前因人为因素导致的致命交通事故占绝对数目,当务之急就是加快无人驾驶技术发展:“如何设置移动速度是最大的道德问题。我们掌握了将会拯救无数人性命的科技,但这并非完美,依旧可能会伤害人类。”

无人驾驶所有选择算法都是基于对外部一个或多个因素的正负响应设计,只有在立法者、监管人员及程序员们协商达成共识后,才能将合法的行为编入程序指令中。

然而,当我们面临如文中所提的复杂情景时,我们毫无优先级、法规及判例法可用来参考决定无人驾驶汽车的正确动作。更糟的是,我们甚至不了解整个社会对此类事件的态度。但绝大多数情况,社会会强加给这位司机强大的舆论压力。那么,我们是否能原谅软件算法犯错误、又或者是写了这个错误程序的软件工程师?

今后几年,这些话题必然会成为哲学家、人工智能专家、法律学者以及普通公众的讨论重心。

一种能提高无人驾驶技术、同时又可减轻伦理道德压力的办法是——允许无人驾驶汽车优先在安全区域进行推广,如专用高速公路车道,在机场航站楼与出租车区之间接送乘客,又或是大型公司园区内提供运输等。这样做能在提高无人驾驶技术的同时增强公众对其信任度

bouNyseo 发表于 2016-3-7 03:00:47

不错不错.,..我喜欢

小丑 发表于 2016-11-25 02:15:09

无济于事

如风 发表于 2017-12-6 00:55:02

左右为难

狐狸的故事 发表于 2019-5-9 08:37:47

非同小可

當緣烬頭 发表于 2021-2-21 07:00:25

走投无路

★不色的狼★ 发表于 2022-10-31 04:17:34

非同小可
页: [1]
查看完整版本: 谷歌因系统误判担责 无人驾驶陷伦理困局