999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能倫理規范建構與芬伯格的技術代碼方案

2022-11-22 14:28:26王曉梅
倫理學研究 2022年2期
關鍵詞:建構規范人工智能

王曉梅,何 麗

人工智能信任問題是人工智能發展中的重大課題之一。2021 年7 月,中國信通院、京東探索研究院聯合發布《可信人工智能白皮書》[1],指出人工智能技術風險引發信任危機,其內容涉及算法安全導致的應用風險、黑箱模型導致算法不透明、數據歧視導致智能決策偏見、系統決策復雜導致責任事故主體難以界定和數據濫用導致隱私泄露風險等五個方面??尚湃斯ぶ悄芤幏稛o疑是可信人工智能的重要內容,通過建構可信倫理規范以化解人工智能發展面臨的信任風險是一種可行方案,但規范的建構本身依然面臨深刻挑戰。

倫理規范必須是可信的,這是可信人工智能框架設計的應有之義,也是其有效性的主要來源。只有充分反映并增進公眾利益的規范才是可信的,才能為公眾普遍接受并自覺遵守。然而,現代社會如同一個技術鐵籠,新型的控制與人工智能、大數據等高新技術緊密結合,進一步擴大了技術鴻溝,影響公眾參與技術規則的制定,阻礙公眾利益的實現,對可信倫理規范的建構造成了挑戰。芬伯格提出的技術代碼是一種可信的倫理規范,是調節多方利益的動態平衡機制,其通過提升技術設計中的公眾參與度避免利益格局失衡,推動倫理規范體現民主價值。

一、可信人工智能倫理規范的內在要求

人工智能的內在本質和發展趨勢存在侵犯個人隱私、弱化人的自主性、模糊人的道德責任、威脅人的存在意義和價值等倫理風險[2](128)。如何規避道德風險,確保人類始終有能力控制人工智能的最終發展,成為學界和業界的一大課題,可控人工智能(Trustworthy AI)的概念因此得以提出,為其設計某種“阿喀琉斯之踵”勢在必行。對人工智能可知、可管、可控的強調源自對它不確定、不可預期性和不信任的恐懼。“信任是人類及人類社會開發、推廣以及利用人工智能的先決條件”[3],倘若社會對人工智能缺乏必要的信任而將其視為潛在危險,那么人工智能就不可能得到有效的推廣與使用,它所能帶來的經濟與社會效益也將無法實現。在人們對人工智能的態度由消極防范到積極引導的轉變過程中,可信人工智能的構想逐漸成形?!翱尚湃斯ぶ悄軅惱砜蚣堋保‥thics Guidelines For Trustwor?thy AI)[3]不僅延續了在技術層面防范安全風險的傳統思路,更提出了通過價值內嵌規避道德風險的倫理要求,包括技術可信(主要指技術穩健性)與倫理可信。信任原是作為主體的人對信任對象的揣度,是人對處于全知與無知之間的不確定性狀態所表達的一種由衷期望或積極態度。信任一般發生在人與人之間,通過對技術進行人格化與具象化理解[4](446),亦可將信任延伸至技術中并進一步追問倫理規范的可信與否。倫理規范負荷規范(與技術)設計者的設計意圖與價值理念,為技術活動提供方向引領與行為指南,直接影響技術活動的設計、生產、使用等各個環節,可信是其應有之義。

信任關涉利益。不論是心理層面的信任感,還是倫理層面的道德感,抑或作為一種理性決策,都隱含著主體對某個層面的利益維度的考究。哈?。≧ussel Hardin)是專門從利益出發研究信任的學者之一。他認為在眾多的信任關系中,關鍵要點在于包覆利益(encapsulated interest)[5](3-9)。信任只發生在主體通過滿足對象的利益可以實現自身利益的條件下。信任主體與信任對象的利益相互纏繞,兩者是利益共同體。利益對信任具有更強大的解釋力,物質要求與精神需求最終都能被納入其中。可信是建立在保障信任主體利益之上的。尤斯拉納(Eric M.Uslaner)同樣認為,當自己利益與他人利益不沖突時,更容易信任對方。他的工作的創新性在于進一步指出信任具有民主氣質,它與社會公平之間存在聯系,“通過促進平等,能間接地提高信任”[6](221),不平等會導致對群體外的恐懼和怨恨心理,“加劇了仇外和反對道德主義信任的情緒”[6](254)。換言之,利益不僅要得到保障,其分配也應彰顯公平。

這一結論在可信倫理規范的討論中同樣適用。盡管倫理規范有不同的層次和種類,譬如行業規范、安全標準等存在不同的適用對象與作用范圍,但針對面向全社會的人工智能技術提出的倫理規范應該面向社會公眾??尚艂惱硪幏稇敽虾豕娎妫龑嫿ㄆ胶饪陀^的利益格局,充分發揮人工智能等高新技術的解放作用,使人們盡可能地擺脫技術的宰制與奴役,最終實現自由全面的發展。

二、可信倫理規范建構的挑戰

可信倫理規范的建構并非一帆風順,在現實中面臨一系列的挑戰。信任本身所固有的不確定性問題與人們對規范可信性的質疑相互糾纏。技術、資本與知本三位一體式的深度結合不斷增強優勢群體在規范制定中的權威。人工智能等高新技術導致的民主技術化問題不斷消解公眾參與規范設計的自主性。優勢群體與公眾在人工智能的技術設計、研發和應用的規則制定中的權力比例失衡,公眾的利益并未得到充分的、公平的表達。

信任存在風險,這種風險很大程度上源自未來的不確定性。一方面,未來的情狀難以預測,信任主體始終難以掌握足夠的客觀依據;另一方面,踐行較之承諾必然是滯后的,被信任者能否實踐可信的行為并不能完全確定。因此,人們對規范的可信性提出質疑:是否真的存在一種倫理規范可以有效指引人工智能等高新技術規避所有潛在的風險?相對滯后的規范可以緊跟技術迭代的步伐嗎?規范是否會限制技術發展,違背發展的初衷?[7](8)除卻對倫理規范的存在論意義上的質疑,利益格局的持續失衡也是可信倫理規范建構的一大挑戰。這種失衡體現在規范的制定中,表現為優勢群體的話語權與決策權不斷加強而公眾的呼聲卻日益減弱。

一方面,技術、資本、知本的深度結合賦予優勢群體操作自主性(operational autonomy)[8](75)與技術權力。資本家在各種可替代的合理化中實施戰略性選擇的權力,他們甚至在做出某種選擇時不考慮習俗、慣例、工人的嗜好等外在因素,也不考慮他們的抉擇將對工人家庭產生何種影響。溫納(Langdon Winner)記述的“瓊斯海灘”[9](121-136)這一經典案例很好地佐證了這一點:社會的上流階層可以自由地進入瓊斯海灘,而經濟弱勢群體尤其是黑人卻因為賴以乘坐的公共汽車高于橋梁與通往海灘的道路之間的凈高而被攔截在外?!凹夹g裝置體現了某種規范共識”[10](89-91),設計者的嫌貧愛富與種族偏見作為隱藏的倫理維度滲入這項工程之中,看似簡單的設計卻不正當地限制了一個階層的自由。知識鴻溝與數字鴻溝等概念表征出(高新)技術針對不同對象所產生的迥異的賦能結果。表面上似乎所有人均可從技術進步中受惠,但實際上總有一些人享受著更多的好處甚至操縱了技術利益的分配?,F有的大多數技術體系都建立在等級之上,它們通過各種途徑去實現資本所有者與技術專家等特殊群體的利益制度化、合法化,卻回避了其他社會成員的利益訴求。資本掌控者與技術精英掌握住技術及技術的解釋權也就掌握住了這種技術權力,并借此獲得了一個凌駕于社會之上的位置,“使他們得以從這個位置居高臨下地觀察和控制社會”[8](84)。

人工智能無疑放大了這種技術權力且有破壞傳統民主根基的可能。數據主義大行其道,使人類一切社會行為皆可數據化。這被應用于政治極有可能產生兩種后果:西方傳統的代議制民主選舉被人工智能牽制、高科技巨頭公司運用大數據相關技術干預政治權力。就前者而言,人工智能可依托海量數據與超級算法實現競選方案的“精準投放”,通過滿足不同個體的訴求獲得普遍的支持。盡管在某種程度上提高了競選效率,但是借助信息手段操縱民意卻違背了民主選舉的初衷;就后者而言,科技巨頭公司或以人工智能等高新技術為政治砝碼,比純粹的財團更深層次地介入政府運作的各個方面。當公眾不再具備經濟與政治上的影響力量,“民眾的未來只能依賴一小群精英心懷仁慈”[11](77)。通過自由的民主辯論和平等對話來達成共識或實現決策目標會被認為費時費力且成效不明顯而漸次被取締,技術專家的合理決策將代替公眾意志的民主實踐,所謂的技術共識背后是權力控制的真相。

另一方面,公眾參與人工智能技術設計、研發和應用等規范制定的自主性幾乎被消解殆盡。首先,現代技術及其所適配的規則日益滲透進社會生產生活的各個方面。為了追求流程清晰化、利益最大化,資本家與技術專家總是傾向于通過層層分工將工作簡化為容易習得的機械步驟,令公眾在各自的工作領域被“去除技能”而隨時可以被取代。公眾由于知識和能力的局限無力理解和掌握生產實際,從而喪失了在技術設計中的話語權。其次,系統信任成為公眾的被動選擇。伴隨著經濟發展與社會轉型,特別是在“數字轉向”(digital turn)[12](566-569)的背景下,一方面,技術正在從根本上改變我們的生活環境;另一方面,在我們沒有意識到的情況下,它們也在改變我們自己[13](196-203)。廣泛應用于熟人社會的人格信任已不敷使用,精細化的分工與廣泛的聯系增加了個體對他人的依賴,公眾不得不擴大信任的儲備,選擇相信社會制度、規范和專業知識。這種信任是“產生于在無知或缺乏信息時的盲目信任”[14](19),其產生既非由于公眾參與了社會決策的全過程,也不是因為公眾擁有技術專家、社會精英所具備的知識體系與資源稟賦,而是由于公眾在資本與知本方面的匱乏。盡管公眾也逐漸對專家有所懷疑,卻被動地陷入了不信任卻又不得不信任的境地。公眾面對前所未有的現代生存焦慮,選擇的能動性空間被極大地壓縮。人們不斷總結前人經驗卻不斷發現經驗已經過時,不斷學習知識卻不斷發現跟不上知識更新的步伐。財富不斷流動,變故層出不窮,風險不期而至。作為絕對中介物的金錢被視作緩解焦慮的良藥,成為現代人奮斗一生的首要目標。物質與精神的倒置使得大多數公眾根本無暇顧及科技的進展和規范的制定。最后,不斷走向庸俗的大眾文化日漸摧毀公眾的反思精神。政治、教育等公共領域慢慢以娛樂的方式出現,不斷走向膚淺。人們自我反思的能力遭遇危險的退步,否定批判的精神受到來自各方的壓抑,淪為單向度的人,心甘情愿地成為“娛樂至死的物種”[15](162)。

可信倫理規范不僅需要應對“是否存在”的詰問,更應該就“誰來制定”“為誰制定”等問題作出清楚的闡釋。盡管資本主義社會的技術與管理發生了深刻變革,但階層分化、利益固化等各種類型的不平等在當代并沒有被解決,反而隨著時間的推移愈發嚴重??尚艂惱硪幏兜慕嬋沃氐肋h。哈貝馬斯曾試圖通過對話來協商形成“滿足每個參與者的利益的規范”[16](65),可他卻將這種民主對話機制局限在技術專家與政治家之間,選擇的顯然是一種自上而下、單向度的直線式技術民主化道路。與之相反,技術代碼則將自下而上地沖破層層結構性桎梏,在技術世界內部尋求解放的張力,找到技術與自由達成和解的可能。

三、技術代碼的破局之道與解放張力

芬伯格從技術的角度對技術壟斷與技術霸權下資本主義民主的偽善這一現代性病癥進行了診斷,將其癥結歸因于“將社會中的大多數人排除在技術決策之外”[8](3),技術中濃縮著的是優勢群體的利益。為此,他呼吁一種根本性的、自下而上的民主轉化,“優先考慮那些被排斥的價值和表達這些價值的公眾”[8](22)。只有對技術進行民主化改造,才能釋放公眾被忽略的利益和被壓抑的潛能。為了回答技術民主化何以可能的問題,芬伯格提出了技術代碼的概念。

根據芬伯格的闡釋,技術代碼是一種聚合了技術需求與社會需求的“技術合理性”[8](76)。在技術設計中,技術要素是必然存在的,否則不成其為技術,但那些社會要素也非常重要,一旦審美、倫理、文化等特性凝固為最終的代碼內嵌于具體技術,便會成為技術的內在組成部分,這些“組成部分”到底是什么,建構主義者有時稱之為“黑箱”,因為一旦技術的定義被普遍接受,人們就不會質疑技術的“內部”是什么,這使得一切合理化[10](5)。譬如,顧客在挑選冰箱時往往更重視性能與價格,卻理所當然地忽略了冰箱容積等技術指標,這些技術指標的背后有現代家庭的規模大小、飲食習慣等社會文化因素的沉淀。

技術代碼是動態建構的,它的生成及發揮作用的重要機制涉及兩級工具化。初級工具化實際上是技術代碼的解構過程,即按照有用性將技術體系中相對穩定的部分譬如自然原料、技術知識等相對中立的技術要素提取出來,使其成為價值無涉的存在,也可以將其視作一種功能化過程;次級工具化則主要在于解釋和表達價值、文化與規范等。建構的過程也是現實社會中的倫理文化特質與技術要素再度融合的過程,承載著新的利益與價值的技術代碼在此過程中生成。技術代碼的動態建構過程使得它并非一成不變,如果資本主義的技術霸權可以在此建立,那么民主的技術設計亦可在此形成,技術代碼最終的性質取決于新生技術代碼所沉淀的文化特質。不難理解,資本家總是設法讓技術盡可能狹窄到初級工具化上,如此才能使得技術與價值相分離,使工人淪為機器體系的某個部件,以實現高效管理和粗暴控制,“這樣的帶有偏見的技術代碼使得設計趨向于集權化和等級制,會系統地削弱能動性和參與積極性以及交往理性”[10](87)。技術代碼的生成場景和應用場景部分決定了技術的性質,社會主義的技術代碼跟資本主義的技術代碼不一樣,它會更傾向于全面地顧及道德倫理、人和技術的可持續發展等因素,將創造機會讓更多利益相關主體參與進技術決策過程,這就在一定程度上避免了技術壟斷導致技術規范可信度被削弱的情況,為技術設計的民主化創造了更和諧的氛圍。

技術代碼具有倫理意蘊與規范屬性。就理論內涵而言,技術代碼與倫理規范一樣,涉及價值的形成與沉淀,其解構與重構過程就是價值生成與沉淀的過程;就價值旨趣而言,技術代碼的要義便在于通過喚醒公眾對技術設計的參與,實現技術設計全過程民主,使技術充分反映并實現公眾的利益訴求,使公眾免于被技術規訓與型構;就作用路徑而言,技術代碼的提出意味著揚棄過去認為倫理問題只產生于產品的社會使用中的看法,更加重視技術設計過程。事實上,技術與倫理的沖突在人工智能發展的各個階段均會出現,在技術設計之始便注入價值有利于從源頭規避倫理風險。簡言之,技術設計的過程要突破“設計—使用”的二分法,將倫理內置于技術以及內嵌于技術設計的全過程。

技術代碼的動態建構特性與自下而上的作用路徑為可信倫理規范的建構提供一種新的視野。其一,動態建構的規范可有效應對技術的不確定風險。人工智能等高新技術的發展是曲折而復雜、難以被全面把控的,以不變應萬變的傳統思路未必持續有效,一種更值得提倡的態度是因勢而變、以變制變。動態建構的規范遵循開放的設計理念,其權宜性、可修正性能在一定程度上克服傳統規范相對滯后的局限,更加切合實際。笛卡爾的“權宜道德”、胡比希(Christoph Hubig)的“倫理帳篷”對此曾有過討論,可以為現階段的問題提供相對穩定的倫理規范和共識。當然,這些規范不是一經修訂就永遠不變的,我們可以根據現實需要對它加以與時俱進地修正,而修正的標準就在公眾的利益訴求之中。一旦在技術使用中出現新的問題,公眾即可通過次級工具化在技術設計中添加新產生的利益訴求,使現實問題得到積極回應。

其二,規范作為一種利益平衡機制可避免利益格局固化,自下而上、源源不斷地釋放沖破等級的張力,這就大大增強了它的可信度。在現有的利益格局中,一方面,政府、資本掌控者甚或技術專家等優勢群體更有可能成為技術的既得利益者,他們的價值標準、文化元素、利益關系能更容易地滲透進技術系統中而得到較為充分的滿足。而另一方面,公眾因為遠離技術系統而無法參與技術規范制定等過程,所以他們的價值和利益等會受到忽視、壓抑。一旦他們意識到這個事實,那么技術體系內所有的操作都會失去可信度,技術的民主化也失去了它的有效性。因此,倘若想使技術的民主化有效,那么就必須對技術設計中的資本掌控者、政府管理者、技術專家等優勢群體與公眾的權力配比作出調整。某種程度而言,代碼的沉淀、規范的制定便是利益交鋒的過程,多元價值主體在其中對話交流,為潛在利益的實現提供可能,避免利益的固化,這就使得多元主體的利益趨向于達致一種動態平衡。一方面,為了充分考慮和平衡各方利益,代碼需不斷在多元主體之間來回理解、釋義并向各主體表達,如此一來,優勢群體的操作自主性越大,作為弱勢群體的公眾顛覆內嵌著固化利益的代碼的潛力就越大;另一方面,利益的社會歷史性決定了公眾的利益訴求會隨著社會的發展而發生變化,這就要求技術代碼對現實問題作出回應。這種動態平衡過程使得技術功能是可變的,它可以強化階級統治,也可以構筑民主體系,這就使得技術擁有了變革的張力。

結語

人工智能的可持續發展離不開社會的信任與支持,如何提升人工智能的可信度成為學界與業界共同關注的問題。可信人工智能不僅需要以技術安全為支撐,更以可信倫理規范為保障。然而,在現實的規范的制定中,名義上的公眾利益往往被優勢群體的利益取代,背離公平、正義等應有的價值內涵,削弱了規范的可信性。人工智能等高新技術的不確定性風險也令可信倫理規范本身的存在遭到質疑。芬伯格提出的技術代碼以其動態建構的生成方式開拓了在不確定性時代構建新型倫理規范的新視野,以其自下而上的作用路徑從技術世界內部尋求解放的張力,通過擴大公眾參與避免了規范制定中利益格局的固化,為公眾潛能的釋放預留了空間,為應對可信倫理規范建構的挑戰提供了學理支持。

公眾可以從微觀與宏觀兩個不同的層面參與人工智能相關技術設計[17](121-129),進而將代表自身利益的倫理、文化等元素嵌入技術代碼。就微觀層面而言,存在以下幾種具體途徑:第一,不同的利益群體可以通過技術論爭尋求盡可能滿足多元主體利益的技術方案(譬如環保運動中不同的利益訴求能夠對抗議及政策制定起調節作用等);第二,包括技術設計者、使用者在內的多元價值主體可以參與到技術設計的全過程,展開創新對話,鼓勵參與式設計,加強彼此的溝通和交流(譬如婦女參與分娩技術的設計、艾滋病人對臨床治療方案提出建議等);第三,對技術進行創造性再利用,使最初設計中未能釋放的技術潛能更多地顯現出來并最終實現。在宏觀層面上,可以嘗試技術代議制,將這些微觀層面的互動成熟化、體系化。技術代議制是在傳統代議制民主的基礎上推演而來的,它不是選舉某個特定的人物,而是將不同利益群體提出的社會的和政治的訴求集中、整合起來并將其嵌入特定的代碼中,最終實現一種社會力量的平衡[17](142)。

當然,技術代碼只是為可信倫理規范的建構提供一種思考進路,并不能解決所有問題。公眾的利益如何有效界定?群體利益是否不該被保護?[18](155-175)公眾具備參與技術設計的能力嗎?技術精英會主動承擔社會責任嗎?這些問題都有待進一步追問與回答。但有一點是值得向往的:斯諾筆下的“兩種文化”①參看C.P.斯諾著:《兩種文化》,陳克艱、秦小虎譯,上??茖W技術出版社2003 年版。將會在全社會的共同努力下逐漸消弭,人們將從技術的束縛中解放出來,走向更加光明美好的未來。

猜你喜歡
建構規范人工智能
來稿規范
來稿規范
PDCA法在除顫儀規范操作中的應用
消解、建構以及新的可能——阿來文學創作論
阿來研究(2021年1期)2021-07-31 07:38:26
來稿規范
殘酷青春中的自我建構和救贖
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
建構游戲玩不夠
主站蜘蛛池模板: 在线国产毛片手机小视频| 欧美日韩高清在线| 色吊丝av中文字幕| 国产丝袜无码一区二区视频| 久久永久精品免费视频| 国产哺乳奶水91在线播放| 色综合久久久久8天国| 激情無極限的亚洲一区免费| 91久久性奴调教国产免费| 国产欧美精品午夜在线播放| 欧美精品综合视频一区二区| 免费一极毛片| 四虎影院国产| 制服丝袜亚洲| 色天天综合久久久久综合片| 色首页AV在线| 久久久久亚洲AV成人人电影软件| 免费观看成人久久网免费观看| 亚洲国产精品成人久久综合影院| 中文字幕伦视频| 亚洲精品亚洲人成在线| 亚洲一欧洲中文字幕在线| 伊人久久福利中文字幕| 成人国产免费| 成人在线天堂| 亚洲日韩在线满18点击进入| 亚洲区视频在线观看| 亚洲成人高清在线观看| 国产精品极品美女自在线网站| 国产真实乱人视频| 欧美高清国产| 国产SUV精品一区二区6| 国产丝袜精品| 麻豆国产精品| 国产成人无码综合亚洲日韩不卡| 亚洲AV无码一二区三区在线播放| 国产网站在线看| 青草娱乐极品免费视频| 国模私拍一区二区| 国产精品欧美在线观看| 中文无码精品a∨在线观看| 有专无码视频| 精品福利视频导航| 国产人免费人成免费视频| 国产日韩欧美精品区性色| 在线视频97| a欧美在线| 小蝌蚪亚洲精品国产| 色视频久久| 麻豆国产精品一二三在线观看| 成人免费网站在线观看| 亚洲精品中文字幕午夜| 国产精品女同一区三区五区| 四虎成人精品在永久免费| 亚洲一区色| 国产一级裸网站| 97se亚洲综合| 国产一级特黄aa级特黄裸毛片| 成人毛片免费观看| 久久窝窝国产精品午夜看片| 韩国福利一区| 国产精品专区第一页在线观看| 国产精品流白浆在线观看| 日本人又色又爽的视频| 国产91全国探花系列在线播放| 欧美一区二区精品久久久| 国产在线视频二区| 凹凸国产熟女精品视频| 国产91精品久久| 国产在线观看一区二区三区| 色婷婷在线播放| 人妻无码中文字幕一区二区三区| 日韩小视频在线观看| 久久综合干| 毛片在线播放a| 一级香蕉视频在线观看| 在线永久免费观看的毛片| 亚洲无线观看| 欧美精品另类| www.91在线播放| 欧美在线导航| 中文字幕有乳无码|