斯文·歐威·漢森 張秋成譯
(1.皇家理工學院哲學部,瑞典斯德哥爾摩 100 44;2.東北大學文法學院,遼寧沈陽 110819)
技術在使人類獲益的同時也帶來了風險。降低技術風險是工程師的中心任務之一。對技術風險進行哲學的分析和澄清也因此成為技術哲學家支持工程活動的重要任務。技術哲學家可以澄清風險、不確定性和安全性等核心概念的含義。通過運用倫理學和決策理論所提供的工具,技術哲學家可以更好地理解工程師為降低技術風險和提高技術安全性所采取的措施。我將試圖探討技術哲學家在降低技術風險和提高技術安全性的理論與實踐等方面能夠發揮作用的一些途徑。因為我不懂漢語,所以我不知道本文中的一些概念區分在漢語中是否自然,但是我要指出,這些概念在普通英語中也還沒有固定下來。這種情況說明,許多在哲學和科學等方面重要的概念區分是很難用日常語言中含義模糊的詞語來表達的[1]。
毋庸置疑,被廣泛使用的“風險”一詞有多種含義,其中既有口語化的模糊含義,也有比較精確的技術含義[2-3]。在“風險”一詞的諸多含義里面,有兩點共性:
首先,“風險”指稱“不合人們心意的事物”。例如,希望能有一周晴天的游客會把降雨看做“風險”,相反,其莊稼受干旱威脅的農民會把降雨看做“好運”而不是“風險”。既然“風險”的概念包含“不合心意性”,它就是負載價值的[4]。因為諸如死亡、疾病和環境破壞等被人們談論最多的風險,毫無爭議地是不合人們心意的,“風險”概念的負載價值性往往被人們所忽略。然而,從哲學的觀點來看,我們不能把“具有無可爭議的價值”和“根本不具有價值”相混淆。同樣重要的是,“負載價值”并不等同于“缺乏事實或者客觀內容”。一個像“如果你踩上地雷,你就會有斷腿的風險”這樣的陳述,既有客觀內容(腳踩地雷會致殘)又負載價值(斷腿是不合人們心意的)。這個例子表明,“風險”概念兼具事實和價值兩種因素。
其次,“風險”意味著“缺乏知識”。如果我們肯定地知道一家工廠將會發生爆炸,就沒有理由視這次爆炸為“風險”。類似地,如果我們知道沒有任何爆炸會發生,我們同樣沒有理由談論“風險”。我們說的“爆炸的風險”是指這樣的情況,即是否會發生爆炸無從知曉。由此可以看出,關于“風險”的知識是不確定的,因此這樣的知識經常會遭到人們的質疑也就不足為怪。
在日常語言中,“風險”通常不具有量化含義。我們可以認為海洋石油開采具有很高的風險,卻不會想到對這種風險進行量化。但是在技術語境中,對風險進行精確量化卻是一種強烈的趨勢。對風險進行量化主要有兩種方法。其一是指出風險事件可能發生或不發生的概率。一位向醫生詢問治療方案失敗的風險有多大的病人,期望被告知該治療方案在歷史上失敗的概率。但是在風險分析領域,這種概率量化方法自從上世紀80年代以來就越來越少用了。目前,另外一種對風險進行量化的方法成為主流:指出風險事件可能發生或不發生的統計期望值。這種方法略微有些復雜:把風險事件可能發生的概率和負價值量相乘。如果只考慮死亡風險(這是相當普遍的限定),則意味著風險的量值等同于一種或若干種可能事件所導致的死亡統計期望值。因此,如果200名深海潛水員執行某一項任務的個人死亡概率是0.1%,執行該任務的死亡統計期望值就應當是0.001×200=0.2。這種風險量化方法自從1975年以來被用于著名的“核反應安全研究”[5],目前,在技術領域占統治地位。
從哲學定義理論的觀點看來[6],采用統計期望值對風險進行量化至少存在兩個問題。首先,這種方法混淆了“風險”和“風險的嚴重程度”。當我們把1000人玩過山車有一人死亡的可能性,與一次核事故所涉及的100萬人中有1000人死亡的可能性相比,認為它們的概率或“風險的嚴重程度”相同(都是0.001)是有意義的,但是如果我們據此認為這兩種風險相同則毫無意義,因為這是兩種各具特色的風險。
其次,“具有相同統計期望值的風險,其嚴重程度是相同的”,這樣的價值陳述也是有爭議的。一些學者認為,有些統計期望值較低的風險事件在決策方面應該比它們在統計期望值應用模型中所表明的情況被給予更多的重視[7-9]。但不幸的是,采用統計期望值對風險進行量化,這種術語方面的選擇,卻使得上述對風險嚴重性的觀點不可能實現。為了清晰地討論風險問題,我們須要在“風險”和“風險的嚴重程度”之間作出明確的區分,我們也要避免使用無視在“風險的嚴重程度”方面存在不同理解的術語。因此,在風險分析方面,把統計期望值看成是對“預期破壞”的刻畫要優于看成是對“風險”的刻畫。
在前文所討論的對風險量化的兩種方法都基于這樣的假設:可能的風險可以用概率來描述。把對風險的概率分析和決策理論中對“風險”與“不確定性”的傳統區分進行比較將會是富有啟發意義的。在決策理論中,對“風險”的決策被定義為依據已知概率所作的決策;對“不確定性”的決策被定義為在不知曉概率的情況下所作的決策[10]。
對關鍵術語“風險”和“不確定性”的這種使用與它們的日常用法明顯不同。但是,它們是得到確立的技術術語,在接下來的討論中,我們將采用它們的標準技術含義。
關于“不確定性”,我們還有三點附加的評論:首先,“不確定性”不像“風險”那樣蘊涵“不合心意性”。我們對合心意的未來事件也可以使用“不確定性”的技術含義。其次,用“不確定性”代替“風險或不確定性”是很普遍的,也就是說,把“不確定性”定義為缺乏知識(無論是否概率性知識),把“風險”定義為“不確定性”的特例。最后,“不確定性”還有在未知可能后果的情況下作出決策的含義。
人們在實際生活中很少依據確定的概率作決策。嚴格說來,“風險”(具有已知概率)的明確例子似乎就是理想化的教科書中的例子,例如骰子、硬幣或者輪盤賭等被人們確信為公平的游戲。玩輪盤賭的人作出的決策接近于在已知概率的風險情況下作出的決策。只要輪盤賭的規則是公平的,贏錢和輸錢的各種結果的概率是很容易計算的,因此是可知的,雖然賭博的人可能并不真的這樣做。我們舉一個明顯地依據不確定性進行決策的例子,請考慮這樣的情況:一個探險者要對是否進入至今無人光顧的叢林深處進行探險作出決策。叢林里有老虎和毒蛇,但是對是否會受它們的攻擊所作的概率估計不會比盲目猜測好到哪兒去。此類攻擊是具有未知概率的已知危險。另外,預測叢林里可能會有未知的物種——比如昆蟲和微生物——會構成危險也是合乎情理的。未知的不僅僅是這些危險的概率,還包括危險的性質和是否存在這些危險。
無論如何,生活通常更像對未知叢林的探險,而不是光顧娛樂場。大多數的真實生活場景包含不具有準確概率的不確定性,這一點也適用于技術。因此,我們所謂的“技術風險”,用決策理論的術語來說,在很大程度上可以稱為“技術不確定性”。
在決策支持諸學科中有一種強烈的傾向,即認為可以根據可靠的概率估計所有可能的結果。我把這種觀點稱為“晚禮服謬誤”[11]。這種謬誤在于把決策所依據的認知條件等同于輪盤賭的認知條件。犯“晚禮服謬誤”是危險的,因為它會導致一種“可以控制”的幻想,也會導致人們忽視對決策有很大影響的不確定性。
在健康和環境領域中的許多問題都具有顯著的不確定性,決策者要依賴科學家的意見對這些問題作出決策。雖然我們知道全球變暖正在發生,但其嚴重程度卻是不確定的。在生產化工產品的過程中,對化學物質的毒性缺乏充足的知識成為化學工程師和管理者的主要障礙[12]。因此,處理科學的不確定性的策略必須成為以科學為指導的工程的主要部分。
在這里,把內在科學知識生產作為出發點是有用處的??茖W知識生產始于通過實驗和觀察獲得的資料。通過批判性評估,這些資料成為科學事實總體,見圖1。

圖1 科學中的知識生產過程
科學事實總體是研究者共同體后續研究所共同承認的東西,如果沒有新的資料和充足的理由,它是不可置疑的[13]。只有當新理論有充足的證據支持,才可以被引進。
對科學事實總體的修改要基于嚴格的證據標準。這些標準是科學特質的基本部分。那些想要改變科學事實總體(例如通過認可以前未經證明的現象或引進新的科學理論)的人要承擔依據證據標準舉證的責任。這表明,科學事實總體有很高的準入標準。這對于確??茖W的穩步發展是必須的,如果我們過于草率地接受新思想,科學的進步就可能被錯誤的假設所阻礙。
科學信息不但用于指導科學進步,而且用于指導實際決策。例如,對溫室效應的研究既可以用于獲取關于氣候變化的可靠科學知識,也可以用于決策采取哪些實際的氣候政策。在這個和其他許多事例中,存在兩類決策,即關于我們可以相信什么的科學內部的決策和關于做什么的科學外部(實踐)的決策,它們必須依據相同的科學信息。雖然它們利用了相同的科學資料,但這卻是兩類不同的決策,見圖2。

圖2 為決策目的使用科學資料的兩種方式的比較
圖2展示了科學信息的實際應用。將科學信息用于指導決策目的的明顯方式是使用來自科學事實總體的信息(箭頭2)。在某些情況下,這樣做就足夠了。但在某些場合,人們在處理一些實際問題時,強度達不到科學事實總體準入標準的證據卻有著足夠強的合法影響力。例如:一種嬰兒食品中的防腐劑被懷疑對人體健康有害。現有的證據對于這一點只有些許的支持,而且大多數的科學家認為存在這種危害的可能性大于其不存在的可能性。盡管如此,現有的證據不是決定性的,從科學的觀點看,這仍是一個懸而未決的問題??紤]到問題的嚴重性,有關的食品公司或政府機構停止使用這種防腐劑將是明智的。這樣的決策不得不依賴于無法滿足科學事實總體準入標準的科學信息。更一般地說,決策者忽視可能危險的所有預先征兆是不明智的,在道德上也是得不到辯護的,盡管這些預先征兆還不等于完全的科學證明。我們當然愿意保護自己免受可疑的健康危險,即使現有證據跟科學證明的要求相比要弱很多。因此,為了指導我們想要的決策類型,這些決策所依賴的證據標準只能與適用于科學內部目的的證據標準不同。達不到科學事實總體準入標準的證據不能影響由圖2中箭頭1和箭頭2所表示的決策。在這類情況中,我們須要采取從資料到實際決策的直接路徑,請見箭頭3。
但至關重要的是,在后者的過程中,使用這條旁道不會導致對現有科學信息的無效使用。為了看清這里的要求,比較一下箭頭1和箭頭3代表的過程是有啟發意義的。首先,須要考慮的證據類型是沒有區別的。因此,在嬰兒食品的例子中,相同的實驗和流行病學研究分別對科學內部的決策(箭頭1)和對實際的決策(箭頭3)都是相關的。雖然使用方式不同,但證據是相同的。進而,在這兩個過程中,對證據強度的評估也是相同的,所不同的是這兩種目的各自所要求的證據強度。
“預防原則”這個術語經常被用于指稱圖2中箭頭3的過程。這個原則被用于對科學的不確定性進行決策,已經體現在幾個和環境政策有關的國際協議中。這個原則所傳遞的主要信息是:環境問題的政策決策可以合法地依據標明危險的科學證據作出,即使現有證據的強度還不足以確證危險的確存在[14-17]。
在我看來,為了應對許多與可證實性有關的科學的不確定性,我們須要運用基于科學的預防措施。我這樣說的意思是,規避危險的決策可以依據我前面對科學信息的解釋來作出,具體說就是:①使用與科學內部目的所要求的類型相同的證據;②對證據強度的評估與科學內部的情況相同;③所需要的證據強度要根據必須要作的決策來調整[18]。
從19世紀以來,工程師們就一直專門研究工人的安全和其他與安全性有關的任務。隨著技術科學的發展,工程安全性的理念受制于學術的眼光。雖然如此,但是關于工程安全性的大多數討論卻散見于不同的技術領域[19]。有關安全性的基本哲學思想似乎在工程的不同領域或多或少地獨立發展著。因此,相同或類似的思想經常被化學、核工業和電子等領域的工程師們以不同的名義進行探討。但是,在這種多樣性中卻存在著很大的一致性。盡管術語不統一而且類似或相互重疊的安全性原則多得令人困惑,在不同的工程安全性領域的許多基本思想卻大致相同[20]。為了弄清這一點,我們討論三個工程安全性的主要原則:內在安全性、安全因素和多重安全阻抗。
內在安全性,也被稱為首要預防,是指消除危險。而與之相對的次要預防是指降低與危險相關的風險。這可以通過減少危險事故發生的概率或不良后果來做到。舉一個簡單的例子,請考慮使用可燃材料的過程。內在安全性的做法是用非可燃的材料替換可燃材料。次要預防的做法是去掉和隔離燃燒源并且(或者)安裝滅火裝備。這個例子表明,次要預防通常涉及附加的安全設備。
傳統上有四種安全措施在工廠的內在安全性設計上值得推薦[21-22]:
① 最小化(強化):使用較少量的危險材料;
② 替代:用較少危險的材料替換危險的材料;
③ 降低效力(緩和):以較少危險的形式使用危險的材料;
④ 簡單化:避免設施或過程中的無必要的復雜性,以利于減少運行錯誤。
現代內在安全性的倡導者認為在同等條件下,“消除”是較好的選擇。其主要理由是:只要危險存在,它就可能被某種難以預料的事件所引發。即使采用最佳控制措施,某種不可預料的事件鏈條也可能導致事故。即使最好的附加安全技術也可能在事故的過程中失敗或被破壞。
支持內在安全性的另外一個論據是,它在應對恐怖主義威脅時是有用的??植婪肿咏洺p易地使附加的安全措施失效。當恐怖分子進入一家化學工廠意圖炸毀它,燃燒源是否從爆炸物質附近清除是不太重要的(雖然這可能在過去曾解決過安全問題)。作惡者可以自己攜帶燃燒源。與此相反,大多數使得工廠內在安全性較高的措施也會有助于轉移恐怖威脅的目標。如果爆炸物質被非爆炸物所代替,或者爆炸物質和可燃物質的數量可以大幅度削減,那么工廠對于恐怖分子就會不那么具有吸引力,也因此不太可能成為被襲擊的目標[23]。
可能人類自出現以來就已經在使用安全防護措施。為了確保安全,我們在房屋、工具和其他人造物上面附加額外的強度。但是,使用數值因素來度量安全防護措施似乎只是相對較晚才出現的事情,可能出現于19世紀下半葉。人們發展了詳盡的安全因素系統,并落實在規范和標準里面[24]。
根據機械結構學的標準描述,安全因素被用來彌補五種主要的故障源[25-26]:高于所預測的負荷、劣于所預測的材料性能、有關故障機制的不完善理論、可能未知的故障機制、人為失誤(例如在設計方面)。
后三項基本上是指理論及其應用中的失誤。它們因此明顯是不確定性的例子,用概率的方法很難處理。換言之,在我們的計算或對計算的證實中失誤的可能性,是應用安全因素的一個重要原因。這是一種不能被還原為概率的不確定性。因為計算本身存在失誤的可能性,所以試圖通過準確地調整計算來彌補計算自身存在的失誤是難以實現的。雖然如此,但是這些困難不會影響在安全性分析和工程設計中考慮這些故障源的重要性。安全因素既被用來處理可以用概率術語解釋的失誤,也被用來處理不能用概率術語解釋的失誤。
多重安全阻抗的使用基于這樣一條簡單的原則:即使我們用于避免危險的一項措施失靈,還應當有其他備用措施可以避免它。多重安全阻抗的原型是古代的堡壘。如果敵人設法通過了第一道墻,還會有其他多道墻保護著防御部隊。一些工程安全阻抗同樣遵循強化物理障礙物的原則。核廢料管理是這方面有趣的例子。
多重安全阻抗的概念也指稱不按空間序列排列,但具有功能連續性的安全阻抗。作為說明,請考慮可能是現代歷史上最著名的技術失誤的例子——于1912年4月使1500人喪生的泰坦尼克號。該船被認為是永遠不會沉沒的,因此船上只配備了大約夠一半人逃生的救生艇。
我們現在知道了泰坦尼克號還遠未達到永不沉沒的程度。讓我們考慮一個假設的場景:明天一個輪船制造商想出來一個令人信服的造一艘永不沉沒的船的計劃。計算顯示沉船的概率極低,并且用救生艇挽救每條生命預計要花費100億元人民幣。很明顯,把這么多錢用在別的地方可以更有效率地挽救生命。艦艇工程師如何回應這個提議?他會接受概率計算和經濟分析的裁定而將救生艇排除在設計之外嗎?我們有理由相信一個負責任的工程師不會這樣做。計算是會出錯的,一旦出現這種情況,后果將是災難性的。因此,一定要考慮救生艇、疏散程序以及其他的附加安全阻抗。雖然計算顯示此類措施沒有效率,但這些計算也不足以支持不設計救生艇的決策[27]。
上述安全性工程的三個原則有一個共同點:它們都旨在保護我們不但抵御風險(在技術的意義上)而且抵御不確定性。這里不確定性是指不能用概率估計的危險,例如某種不可預料的事件可能引發似乎可以控制的危險。在工程傳統中的這個領域已經有很多智慧的經驗。對于工程哲學家來說,把這些智慧的經驗系統化并且澄清如何成功建造安全工程的基礎是一項重要的工作。
我希望已經展示了與技術風險和不確定性有關的幾個重要的哲學問題域。這些問題域為技術哲學家提供了廣闊的用武之地。請允許我借此機會強調在這些問題上加強國際性對話的必要性??紤]到中國在國際社會和技術發展中的關鍵作用,我個人希望與中國的同行加強接觸,以利于共同在國際上為防范風險和提高安全性作出貢獻。
參考文獻:
[1] Ove Hansson S. Philosophical Terminology[J]. Theoria, 2005,71(4):291-293.
[2] Ove Hansson S. Seven Myths of Risk[J]. Risk Management, 2005,7(2):7-17.
[3] Ove Hansson S. The Entry “Risk” in the Stanford Encyclopedia of Philosophy[EB/OL]. [2010-08-30]. http:∥plato.stanford.edu/entries/risk/.
[4] Ove Hansson S. Risk——Objective or Subjective, Facts or Values?[J]. Journal of Risk Research, 2010,13:231-238.
[5] Rechard R P. Historical Relationship Between Performance Assessment for Radioactive Waste Disposal and Other Types of Risk Assessment[J]. Risk Analysis, 1999,19(5):763-807.
[6] Ove Hansson S. How to Define——A Tutorial[J]. Princ′pios, Revista de Filosofia, 2006,13(19/20):5-30.
[7] O'Riordan T, Cameron J. Interpreting the Precautionary Principle[M]. London: Earthscan, 1994.
[8] O'Riordan T, Cameron J, Jordan A. Reinterpreting the Precautionary Principle[M]. London: Cameron May, 2001.
[9] Burgos R, Defeo O. Long-term Population Structure, Mortality and Modeling of a Tropical Multi-fleet Fishery: The Red Grouper Epinephelus Morio of the Campeche Bank, Gulf of Mexico[J]. Fisheries Research, 2004,66:325-335.
[10] Luce R D, Howard R. Games and Decisions: Introduction and Critical Survey[M]. New York: Wiley, 1957:13.
[11] Ove Hansson S. From the Casino to the Jungle: Dealing with Uncertainty in Technological Risk Management[J]. Synthese, 2009,168:423-432.
[12] Rud′en C, Ove Hansson S. REACH Is but the First Step——How Far Will It Take Us? Six Further Steps to Improve the European Chemicals Legislation[J]. Environmental Health Perspectives, 2010,118(1):6-10.
[13] Ove Hansson S. Values in Pure and Applied Science[J]. Foundations of Science, 2007,12:257-268.
[14] Ove Hansson S. The Limits of Precaution[J]. Foundations of Science, 1997,2:293-306.
[15] Ove Hansson S. Adjusting Scientific Practices to the Precautionary Principle[J]. Human and Ecological Risk Assessment, 1999,5:909-921.
[16] Sandin P, Ove Hansson S. The Default Value Approach to the Precautionary Principle[J]. Human and Ecological Risk Assessment, 2002,8:463-471.
[17] Sandin P, Bengtsson B-E, Bergman ?, et al. Precautionary Defaults——A New Strategy for Chemical Risk Management[J]. Human and Ecological Risk Assessment, 2004,10:1-18.
[18] Ove Hansson S. Regulating BFRs——From Science to Policy[J]. Chemosphere, 2008,73:144-147.
[19] Ove Hansson S. Risk and Safety in Technology[M]∥Meijers A. Handbook of the Philosophy of Science:Vol 9.Amsterdam: Elsevier, 2009:1069-1102.
[20] M?ller N, Ove Hansson S. Principles of Engineering Safety: Risk and Uncertainty Reduction[J]. Reliability Engineering and System Safety, 2008,93:776-783.
[21] Khan F I, Abbasi S A. Inherently Safer Design Based on Rapid Risk Analysis[J]. Journal of Loss Prevention in the Process Industries, 1998,11:361-372.
[22] Bollinger R E, Clark D G, Dowell III A M, et al. Inherently Safer Chemical Processes——A Life Cycle Approach[M]. New York: Center for Chemical Process Safety of the American Institute of Chemical Engineers, 1996.
[23] Ove Hansson S. Promoting Inherent Safety[J]. Process Safety and Environmental Protection, 2010,88:168-172.
[24] Clausen J, Ove Hansson S, Nilsson F. Generalizing the Safety Factor Approach[J]. Reliability Engineering and System Safety, 2006,91:964-973.
[25] Knoll F. Commentary on the Basic Philosophy and Recent Development of Safety Margins[J]. Canadian Journal of Civil Engineering, 1976,3:409-416.
[26] Moses F. Problems and Prospects of Reliability-based Optimisation[J]. Engineering Structures, 1997,19:293-301.
[27] Ove Hansson S. Safe Design[J]. Techne, 2007,10(1):43-49.