文/成素梅
在由科學技術驅動發展的當今社會,基于計算機的技術與勸導理論的深度融合所研發出的各類計算產品,正在不斷地裂變出越來越多的生活可能和新突破。這些計算產品由于蘊含了勸導功能,已經在教育、運動、游戲、廣告、金融、社交、社會治理、衛生保健、電子商務、環境保護、疾病管理、平臺管理、個人的自我管理等各行各業得到了極其廣泛的應用,并取得了顯著的社會效果。問題在于,當這些應用將過去一個人或群體勸導另一個人或群體改變觀念或行為,轉化為交互式計算系統勸導人或群體改變態度或行為的活動時,勸導就從有形變成無形、從顯性變成隱性、從單一行動變成多態行動,體現出更強大的勸說力和誘導性。與此同時,具有勸導功能的技術也會產生許多倫理問題并帶來新的倫理挑戰。因此,我們迫切需要強化倫理治理意識,對勸導式技術的研發與應用過程進行倫理審視。本文通過對勸導式技術的產生及其內涵的簡要闡述,揭示技術勸導活動所帶來的倫理問題,探討相應的治理原則,以求深化我們對人機交互技術的倫理理解。
“勸導式技術”是由美國社會科學家和行為設計學的創始人福格在20世紀90 年代提出的概念,意指能夠影響乃至改變人的觀念、態度、價值或行為的人機交互技術,或者說,能夠影響和引導用戶的觀念、態度或行為向著設計者或機構所希望的特定目標演變的人機交互技術。在此基礎上形成的“計算機勸導學”泛指勸導設計和基于計算機的技術相互重疊而產生的一個新的跨學科領域,是對如何使以計算機為基礎的技術更具有勸導功能,以及如何更有效地改變用戶的態度或行為的研究。
就勸導的內涵而言,勸導意味著受勸者自愿接受,而自愿接受源于人的內驅力。因此,勸導不是強迫、欺騙、洗腦等。福格將勸導定義為:“在沒有任何強迫或欺騙之前提下,改變人們的態度或行為或者兩者的一種企圖。”在這個定義中,勸導式技術設計者是本著為用戶著想的善良動機,將勸導意圖嵌入在人機交互的計算產品中,誘導用戶改變其態度或行為。
然而,從認識論意義上來看,這樣的初衷和目標潛在地隱含了家長制的思維方式,認為用戶普遍缺乏正確選擇和做事的能力,需要被引導、被提醒乃至被管控。從方法論意義上來看,勸導式技術預設了技術解決主義的世界觀,把運用技術來解決人的問題作為優先選擇或重要途徑。然而,事實上,勸導式技術并不總是能夠做到客觀、透明、公平、公正等。在實際應用中,已經出現了種族仇恨、性別歧視、恐怖組織招募、網絡犯罪、侵犯隱私、加劇社會不公等許多令人擔憂的社會后果。
這種情況要求我們必須提高警惕,用批判的眼光來認真評估勸導式技術的研發與應用,特別是監督與審查智能化決策系統所優化或傳播的價值導向,從而引導設計者和商家將技術的研發與應用奠基在堅實的倫理基礎之上,防止和避免勸導式技術的誤用和濫用。這是因為,就現狀而言,絕大多數相關利益方都沒有受到過良好的倫理培訓,更缺乏系統的倫理知識。我們現有的倫理培訓和倫理審查只是在與醫學相關的領域內進行,在其他技術的研發領域內幾乎是空白。許多技術人員依然持有技術中立論的觀點,認為技術的善惡在于使用者,而不在于發明者。比如,刀槍的發明沒有對錯,刀槍的指向才有對錯。
勸導式技術對這種技術中立論、理論倫理與應用倫理的二分思維方式及其相應的概念框架提出了挑戰。因為勸導式技術產品的勸導是主動的和場景敏感的,勸導意圖的善惡既與研發者的動機和動用的勸導方法相關,也與算法系統的技術限制和人機互動過程中的信息交互等路徑因素相關。比如,成癮或游戲化項目在以自動獎勵等方式來改變用戶的態度或行為時,就有可能凌駕于人性之上。因此,揭示勸導式技術有可能導致的倫理問題成為規范其發展的必要環節。
在由數據驅動、越來越智能化的算法系統所進行的勸導活動中,算法系統的勸導方式變化多端,足以讓沒有專業知識的用戶應接不暇;算法系統的勸導意圖經久不衰,足以促使用戶產生情感共鳴;算法系統的勸導過程隨機應變,能夠以潤物細無聲的方式潛在地引導用戶的選擇。問題在于,勸導式技術的這些優勢同時也會帶來下列倫理問題:
首先,技術勸導有可能變相地掩蓋勸導意圖。在人機交互系統中,執行勸導任務的計算產品既是方法,也是方法的執行者。這種雙重身份使得它們既可以借助圖形、音頻、視頻、動畫、仿真模型、超鏈接等形式產生協同效應,來獲得最佳勸導效果,也可以利用技術本身的新穎性和復雜性來掩蓋其真實的勸導意圖和分散用戶的注意力,使用戶在沒有仔細審核內容的情況下接受信息,甚至以默認設置的形式迫使用戶必須接受預定選項。
其次,技術勸導有可能潛在地限定用戶的自由選擇權。在人機交互系統中,計算產品控制著互動方式的展開,用戶只有選擇是否繼續進行交互的權力,而沒有要求系統做出澄清或解釋的權力。技術勸導在應用于一個人時,勸導的成功與否,不是取決于這個人的理性和邏輯推理能力,而是取決于引導其情緒。勸導式技術在應用于“集體”情境和市場時,個人行為不再是自主選擇的結果,而是成為被“構造”的結果。
再次,技術勸導有可能使“成癮”成為新的“鴉片”。內嵌有勸導功能的數字環境,不僅能夠根據用戶留下的數字行為特征來自動調整系統的互動行為,而且廢除了物質是被動的和精神是主動的二分觀念,將用戶置于被“解讀”與被“投喂”狀態。特別是對于沖動等情緒的控制還處于發育期的少年兒童來說,他們在數字環境中癡迷或成癮,不再是意志薄弱或自我放縱的結果,而是由于勸導式技術的設計者利用了兒童的心理脆弱性所造成的,這很有可能將兒童的身心健康置于危險的境地。
最后,算法系統的情感暗示有可能會使人處于不利地位。在人機交互的勸導過程中,當算法系統具有了情境感知力時,它們所提供的情感暗示會影響人,但不會產生真實的情感共鳴。這種不對等關系有可能使人處于不利地位。目前,機器的情感表達是人機交互的道德灰色區域,迫切需要對其進行系統的倫理學研究。
在實踐過程中,有效避免產生倫理問題的方式之一是前瞻性地對勸導式技術產品的設計意圖、運用的勸導方法、預期得到的社會結果,以及產品在應用中能夠被合理地預見到的意外結果等各個方面進行倫理審查。從勸導倫理和技術倫理(特別是計算機倫理)的視域來看,勸導式技術的設計應用應該遵守下列四項倫理原則:
其一,雙重隱私原則,意指勸導式技術的創造者必須至少確保像尊重自己的隱私一樣尊重用戶的隱私。通過勸導式技術將用戶的個人信息傳遞給第三方時,需要對隱私保護措施進行嚴格審查。因為勸導式技術能夠通過互聯網等收集用戶的信息,并且能夠利用其目標用戶的信息更有針對性地勸導。由此,創造者在設計收集和操縱用戶信息的勸導技術時,有必要遵守雙重隱私原則。
其二,公開揭示原則,意指勸導式技術的創造性應該公開其動機、方法和預期結果,除非這樣的公開會嚴重破壞其他道德目標。因為創造勸導式技術背后所隱藏的動機必須是符合道德規范的。勸導式技術可預見的所有結果,在任何時候都不應該是不道德的,即使是在沒有技術的前提下進行勸說,或者,即使所發生的結果與勸說本身無關。勸導式技術的創造者必須考慮到,要為其產品在實際應用中能夠合理地預計到的后果承擔責任。
其三,準確性原則,意指勸導式技術一定不能為了達到其勸導目標而提供錯誤信息。普通用戶一般都會期待技術是可靠的和誠信的,他們在實際運用技術產品的過程中,對技術的欺騙性并沒有天生的覺察能力,所以,為了確保計算產品的可信性和避免濫用,勸導式技術的創造必須遵守準確性原則。
其四,勸導的黃金原則,意指勸導式技術的創造者絕對不應該力圖使人們相信連創造者自己都不同意的那些事情。這也是羅爾斯在他的《正義論》一書中考慮“無知之幕”背后的倫理問題所支持的黃金法則。
這四項設計原則既是研發與應用勸導式技術產品的底線原則,也是對整個過程進行倫理審查的基本原則。
勸導式技術的創造者所遵守的倫理原則只是針對計算產品的設計和應用而言的,沒有涉及具體的技術細節問題。實際上,創造者在研發由數據驅動的算法系統時,不可避免地蘊含著三種偏置:一是作為設計者背景認知的社會文化和風俗習慣所帶來的既存偏置;二是算法系統在訓練時由于數據的不完整所帶來的數據偏置;三是算法系統在人機互動過程中所涌現出來的新生偏置。這是由當前運用的機器學習算法的基本特征所帶來的。
算法系統的這三大偏置以及計算產品功能的特殊性,使得勸導式技術帶來了在原有的倫理概念框架內或根據原有的思維方式無法解決的倫理挑戰,其中,最明顯的倫理挑戰是“責任歸屬問題”。勸導式技術系統是介于設計者與用戶之間的技術系統,這個系統的復雜性與相互關聯的居間性使得傳統的責任追溯方式變得困難起來,導致下列四種形式的“歸責困境”:
其一,歸責的因果關系困境。人機交互計算產品的開發與應用涉及多重道德能動者之間的協作與配合,比如,科學家、工程師、設計師、訓練師、評估者、決策者、管理者以及監管者等形式多樣而分散的實驗小組。硬件與軟件生產都是在公司設置中進行的,沒有一個能動者能夠對所有的研發決策負責,通常是多個工程小組分別研制整個計算系統的不同模塊。在這種情況下,如果造成損害,在這些相互關聯的多重小組之間找出真正的道德責任承擔者不再是一件容易的事情。
其二,歸責的系統“漏洞”困境。由數據驅動的算法系統必然依賴于關于現象的某種抽象程度的具體假設,算法的統計本性和訓練數據的不完整性會導致計算系統出現錯誤分類、統計誤差和不確定的結果等。當機器學習專家把這些“漏洞”說成是機器學習的基本特征時,開發者就有可能將由此造成的損害歸因于算法系統的“漏洞”。這樣,算法系統的統計性有可能成為道德能動者推卸責任的借口,導致用戶不得不被動地承擔由此造成的損失。這種現象意味著在技術提供方和用戶之間簽定了一份無形的“不平等條約”。
其三,免責的所有權困境。所有權與責任是倫理學和法學概念,歷史悠久,意義豐富。但計算機行業的趨勢是強化產權而回避責任。比如,軟件版權授權采用的拆封許可和點選許可中所設立的霸王條款;各類APP等服務條款中的免責聲明;以商業機密為理拒絕接受審查;信息物理系統的制造商很可能將責任轉嫁給人機回圈等。這些免責的所有權意識或問責文化的弱化趨勢,賦予技術公司對規則的優先支配權,將用戶的損害視作是運氣不佳,從而帶來新的社會問題。
其四,歸責的人造能動者困境。隨著算法的智能化程度的提高,計算系統具有了類似于人的行動能力,體現出人格化的傾向。但計算系統具有行動能力并不意味著本身能夠成為像人一樣的道德能動者。如果我們依然在原有的問責框架內,把技術過程視為類似于人的認知活動,讓技術來承擔責任,那么,問責就會被降格為追溯產品質量的優劣,而不再是與道德責任相關的規范性概念。
擺脫這四種歸責困境的思路或許是,超越只限于在道德能動者之間分配責任或尋找因果關系的傳統思維方式,拓展責任概念的語義和語用范圍,提出新的倫理框架,重塑與勸導式技術發展相適應的思維方式,建構免責的賠償機制,即將物質系統所要承擔的責任與應該受到的懲罰區分開來,探索為每個復雜的智能系統籌建賠償資金池及其合法使用機制等。當然,這里主張由物質系統來承擔責任,既不是將責任轉嫁給物質系統來規避相關人員的責任,也不是主張懲罰物質系統,而是呼吁提出一種有效機制,在責任難以認定的情況下,使受害者能夠獲得相應的資金賠償。
綜上所述,勸導式技術的勸導功能是建立在智能系統具有的自動化決策能力基礎上的。用戶喜歡采納自動化決策的原因之一是,他們普遍認為,自動化決策是建立在海量數據基礎上的,不僅比人類的決策更迅速更可靠,而且能夠提供超越人類想象力的決策建議。然而,這種認知忽視了算法系統特有的偏置和不確定性有可能帶來的決策失誤。因此,道德能動者在設計技術勸導產品時,既需要呈現知情同意的選擇標志,確保算法系統的勸導意圖、勸導方式以及社會結果與公認價值保持一致,與用戶利益保持一致,以及尊重用戶的自主性,也需要自覺地加強倫理意識和人文教育,統籌安全與發展的關系。倫理學家需要從建構追溯相關責任人的倫理框架,拓展到建構涵蓋智能化的物質系統在內的倫理框架,從當前強調被動負責任的技術倫理轉向積極擔當的技術倫理。法學家需要系統地探討智能化的算法系統或智能機器是否具有法律主體資格等問題。監管部門則需要探索對勸導式技術全過程的倫理審查機制,來確保智能化社會的健康運行。