王治鈞
伊亞德·拉萬(Iyad Rahwan)是敘利亞裔澳大利亞科學家,他的研究涵蓋了計算機社會科學和人工智能所涉及的倫理規(guī)范等,處于計算機和社會科學的交叉領域,其中包括自動駕駛技術的倫理思考。
伊亞德·拉萬在演講中提出了自己的假設:在2030年的某一天,你和家人坐在一輛無人駕駛汽車里,悠閑地看著投放在車前窗屏幕上的電影。突然前方路口出現(xiàn)緊急情況,你的車根本停不下來。如左圖,左拐,可能會撞上障礙物,車毀人亡;右拐可能會撞到等紅綠燈的人群;直行會撞到路上的行人和狗。
此時,這輛車的自動駕駛技術該怎么做?又該是誰來預設這個算法呢?預設好的程序、基于某種目標算法的撞擊方向、系統(tǒng)性的傾向,自動駕駛的技術問題就變成倫理道德問題。
其實上述假設是受到了電車難題的啟發(fā),這是幾十年前由一群哲學家發(fā)起的對道德的考問。電車難題指的是一輛剎車失靈的電車面臨鐵路分叉口,一條鐵軌上有5名工人,另外一條鐵軌上有1名工人,如果你是扳道工或者司機,你會選擇哪條路?
調查顯示,大約90%的人會選擇犧牲1人來拯救5個人的生命。
但是,當假設發(fā)生變化,即軌道上的5名工人可能會被電車輾軋,如果從天橋上推下1個人就可以讓火車停下,你是否愿意去推這個人?這種情況下,大部分人會改變自己的選擇,認為不應該有意去傷害一個人,應該讓車自然行駛,即使這樣會傷害到更多的人。
在自動駕駛領域也面臨類似的道德困境——緊急情況下,技術應該優(yōu)先保護哪些人或犧牲哪些人?此外,也可以引申出其他的道德困境,比如,如果讓你從以下兩輛車中選擇——一輛車在事故發(fā)生時總是試圖拯救盡可能多的生命,另一輛則會不顧一切地拯救你的生命,你會購買哪輛車?如果汽車開始分析并考慮車里的乘客以及他們的生存概率,情況又會怎樣?一個隨機的決定會不會比一個以“最小化傷害”為原則事先設計的決定更好?
電車難題最早由英國哲學家菲利帕·福特(Philippa Foot)于1967 年提出
伊亞德·拉萬以這一系列問題制作了一份調查問卷。他發(fā)現(xiàn),人們認可無人駕駛汽車能為交通帶來整體改善,但是如果在極端事故中乘駕人的生命安全不是被優(yōu)先考慮的,那么他們并不會購買無人駕駛汽車。
此后,伊亞德·拉萬又設計了13個無人駕駛汽車剎車失靈場景。大家需要把自己當成無人駕駛汽車,來決定把車開向何方。
這13個場景預設了很多不同的變量,以此來確定被調查者更傾向于選擇拯救多數(shù)人還是少數(shù)人,犧牲年輕人還是老人、寵物還是人類、正常行人還是闖紅燈者,甚至還會在社會地位不同的人中作出選擇。
如右圖,當無人駕駛汽車剎車失靈時,選擇撞向老先生還是小男孩?
當無人駕駛汽車剎車失靈時,選擇撞向人群自救,還是撞向障礙物,最終車毀人亡?
俄羅斯科幻小說家艾薩克·阿西莫夫在20世紀40年代,就寫下了著名的機器人三大法則:(如右圖)機器人不能傷害人類,機器人不能違背人類的命令,機器人不能擅自傷害自己——這是按重要性由高到低排序的。
但是現(xiàn)實中太多具體事件不斷挑戰(zhàn)這些法則的底線,于是阿西莫夫又引入了第零號法則——機器人不能傷害人類這個整體。針對自動駕駛技術來說,交通事故中無法避免的那些人員附帶傷害不僅僅是個技術問題和法律問題,它還是一個社會合作的倫理問題,是各種算法的組合,也是開發(fā)者和監(jiān)管者需要考慮到的道德困境。
數(shù)據分析表明,不同國家被調查者因文化、經濟和背景不同,決策存在廣泛差異。這些差異預示著為自動駕駛技術建立一套普適性的道德原則是不太可能的
圖為俄羅斯科幻小說家艾薩克·阿西莫夫
無人駕駛汽車會是首批大規(guī)模融入人類生活的人工智能產品之一,所以在自動駕駛方面所發(fā)生的一系列事情都將為其他人工智能和機器人技術定下基調。但是有一條需要謹記——算法是有價值觀的,因為算法的背后是人,算法的價值觀就是人的價值觀,算法的缺陷是價值觀上的缺陷。倫理難題既非自動駕駛技術所專有,也無須由自動駕駛技術來終結,更不應該成為其應用推廣的阻礙。