999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人機融合智能的倫理風險及其適應性治理

2022-12-26 21:52:11譚九生
昆明理工大學學報·社科版 2022年3期
關鍵詞:智能融合

譚九生,李 猛

(湘潭大學 公共管理學院,湖南 湘潭 411105)

“人機融合智能注重人、機、環境系統三者的交互作用,它既不同于人類智能也不同于機器智能,而是聯系物理系統和生物系統的新一代智能科學體系。”[1]人機融合智能充分發揮人類智慧與機器智能各自的優勢,并在兩者之間尋找一種平衡狀態,讓無序的人與有序的機器結合起來,達到安全、高效、敏捷的智能融合結果。人機融合智能帶來生活的便利和享受,也帶來了行為模式、生活理念的深刻影響和改變,但科技越是高歌猛進,越應思考倫理風險問題。學界對人機融合智能倫理風險的研究分為宏觀和微觀兩個層次。有些學者從宏觀層面上認為倫理風險是未來人機融合研究的重點[2],從設計層面防范人機融合倫理風險[3]。有的學者從微觀視角剖析人機融合中認知不一致和責任歸屬問題[4]、人機融合人工智能會分享人的主體地位[5]、人機融合后人類會嚴重依賴機器[6]。從已有研究來看,有關人機融合智能倫理風險的研究不斷拓展,為治理人機融合倫理風險奠定了基礎,但仍有值得商榷之處:一是現有對人機融合智能倫理風險的研究仍然遵循以往人工智能倫理風險的傳統路徑,并未針對人機融合智能的特殊性進行闡釋;二是人機融合智能倫理風險的治理措施缺乏彈性,未根據人—機—環境三者關系提出建議,適應性治理缺位。本文聚焦于人機融合智能倫理風險樣態,追溯倫理風險生成的機理,以適應性治理為理論基礎,探索人機融合智能倫理風險治理的實踐路徑。

一、人機融合智能倫理風險的凸顯表征

人機融合智能充分利用人的智慧和機器智能,為當前的治理難點、痛點、堵點問題提供了創新的解決方案。然而,人機融合智能非但沒有得到道德倫理的擁護,反而其自身的合理性和合法性遭到了公眾的質疑和批評。人機融合智能得不到公眾信任的原因主要在于其蘊含著巨大的倫理風險。

(一)安全風險

安全是指沒有危險、不受威脅、不出事故。安全和風險是對立統一的關系,風險是可能的危害,安全是可以接受的危險,可見安全一詞具有相對性。根據人機融合智能的影響面,可以將安全風險劃分為個體安全風險和國家安全風險。人機融合智能應用危害人的生理系統,這是最直接和最現實的問題。作為人機融合智能應用的典范——無人駕駛汽車,其設計的初衷是讓人類從煩悶的駕駛中解脫出來,將更多的精力轉向休閑娛樂活動,但近年來無人駕駛汽車交通事故頻發,嚴重損害人的身體健康。例如,2021年特斯拉女車主車頂維權事件,此次交通事故造成車主父親輕微腦震蕩,母親身上出現多處軟組織損傷。腦機接口技術是人機融合智能的關鍵技術,它是“通過植入電極、利用腦電、腦磁等技術,采集人類進行認知活動時腦電信號,利用這種信號來指導外部設備工作。”[7]腦機接口技術能夠幫助有交流障礙的人,收集腦電信號完成語言的輸入,與其他人進行交流。但使用腦機接口技術,人體可能會產生排異反應,對大腦組織造成局部創傷。當人的安全問題無法在現有的社會框架下妥善解決,人的安全風險便會升級為國家安全風險。在評估一國綜合國力中科學技術發展水平是重要組成部分,技術本該是維護國家安全的重要工具,但技術的深入嵌入也會催生一種國家安全悖論,即人機融合智能不僅對國家安全具有極強的“破壁效應”,而且技術的應用可能超出預期的設想。國家傳統安全討論的首要議題是軍事安全和戰略平衡,人機融合智能在軍事上的應用將會打破國家間力量的對比,加劇國家間軍事競爭。軍事領域中引入人機融合智能具有不確定性,智能技術嵌入軍事戰場,超出傳統軍事行動的范圍,非常規的軍事行動使戰爭與沖突的界限模糊。現有的全球軍事協議并未將人機融合智能包括在內,各方也未對這一議題形成共識,全球規制的缺失導致人機融合智能軍事應用的無序競爭[8]。

(二)隱私風險

隱私一般指個人免于被打擾和干預的權利。人機融合智能對數據的收集和使用涉及大量的隱私問題,其全面而詳細的記錄隱私,存在隱私泄露的風險。當隱私暴露在他人面前時,個體性及其權利就可能受到威脅。

1.人機融合技術本身帶來隱私風險。得益于深度學習等多項前沿技術的突破,自然語言處理取得了快速發展,機器已經可以判別句子中存在的情感。人機交流中原始語言通過模型轉化為機器能夠理解的通用語言,文本的特征在傳輸過程中容易被人獲取,或者緩存在云端,服務方通過分析文本特征以竊取用戶的隱私信息[9]。人類無法掌握自己的隱私,自己的私人信息甚至被實時監控,個人隱私可能會陷入“圓形監獄”的困境,每個人都成為“透明人”。

2.應用帶來的隱私風險。人工智能的研發和應用中,服務方根據用戶協議獲取消費者的瀏覽記錄和位置信息,通過數據挖掘技術從繁雜和模糊的數據中,分析用戶的消費偏好,個性化推送商品,誘導用戶購物,增加消費的額外需求。例如,智能廣告的出現潛移默化地改變了人的主觀選擇,智能算法依據深度學習提取有用的數據,對用戶進行“精準畫像”,定向推送信息,甚至比用戶更加了解他們自己。不法分子通過非正當手段獲取用戶數據,利用深度偽造技術實現對圖像、視頻的修改,達到虛假信息的“以假亂真”,對用戶進行精準詐騙。機器憑借它的高效和價值中取得人們的信任,倘若智能技術不再安全,人們便不再信任它,人機間關系將逐漸惡化。

(三)公平風險

公平意味著人們享有平等的發展權利。人機融合智能的應用可能產生強權異化效應,嚴重影響社會發展的均衡性和公平性。智能機器高效地提供公共服務,卻不能公平分配服務。一方面加劇了勞動的分化。智能機器可以替代簡單勞動的從業者,造成一定規模的失業,產生一批“無用階層”。復雜勞動的工作也正逐漸地被機器取代,甚至需具備創造性思維的工作也將被機器所代替。人機融合中與機器合作的人須是經過專業訓練的人,于是形成了就業的技術性壁壘。智能技術將社會財富聚集到少數技術精英手中,導致收入分配的不均衡,教育程度低的人在收入分配資源中處于劣勢地位。因使用成本和機會不均等,導致“數字鴻溝”和“發展鴻溝”擴大,構成了新的就業不平等,引發激烈的社會矛盾。另一方面引發社會階層的分化。隨著腦機接口技術的成熟,個體的認知能力隨著技術的應用而顯示出明著的變化,所帶來的不公平問題凸顯。腦機接口技術由于種種限制,只有少數人能夠使用,造成人的認知能力不平等,影響個人收入和社會地位,在個人權利方面顯示出明顯的差異。這些不平等還會傳遞到下一代身上,影響孩子的身體素質以及認知水平,貧富階層間形成一道隱形的鴻溝。算法顯示出創造者和使用者的價值偏好,機器會逐漸習得人類決策在年齡和性別上的偏見。例如,2015年,芝加哥法院使用的一個犯罪風險評估算法COMPAS,被證明對黑人造成了系統性歧視。算法歧視對于社會弱勢群體產生嚴重負面后果,對于人的不公平,進而加劇社會階層的分化,破壞社會的公平正義。

(四)責任風險

責任意味著對自己行為承擔后果。人與機器之間的合作是社會治理智慧化的表現,其中責任歸屬問題十分重要,但集體行為的特性使得責任很難區分[10]。人類在與機器的接駁中逐步替代了傳統的人際關系,機器的自主性導致責任主體不明,沖擊現有的責任體系。

1.人機融合智能技術設計中的責任失當。在傳統的責任倫理中,設計者是清晰的責任倫理主體,現代機器復雜的內部結構且算法設計的系統性特征,設計者之間產生利益的糾纏,使得責任邊界難以確定。傳統責任倫理偏好事后的規范,當決策失誤時,決策者權利—責任關系十分明晰。在人與機器共生的關系中,決策者與機器的責任限度成為難題。當人與機器面臨決策倫理困境時,是機器提供的數據和信息影響了人的判斷,還是作為決策者主觀選擇性機器所提供的資料而導致的最終結果,責任限度如何才能準確厘清?

2.人機融合智能應用中的責任歸屬困難。無人駕駛有別于傳統的人車關系,打破傳統責任倫理規則,導致責任認定和劃分的難度大增。交通規則的違背是傳統交通事故責任評判的關鍵標準,當無人駕駛汽車發生交通事故時,人和汽車是誰違反了交通規則,傳統評判標準不適用于無人駕駛。軍事智能在戰場上逐漸應用,無人作戰成為軍事熱點。機器作戰存在失控的潛在風險,戰爭正義問題受到懷疑,軍事智能責任邊界如何確定?戰爭機器犯下罪行,機器和軍人各承擔怎樣的責任,軍人如何展現自身的價值和存在感?“軍事智能一定程度上造成責任的規避與轉嫁,削弱軍人職業的社會認可和道德價值。”[11]

二、人機融合智能倫理風險的成因透析

人機融合智能發展到今,產生了各種負面影響,其消極面引起了學界的關注,同時普羅大眾面對威脅產生了恐慌。正視人機融合智能帶來的倫理風險并且究其根源,才能促使其良性發展,推進治理能力和治理體系的現代化。

(一) “機器”的因素:技術內在的不確定性

智能機器的決策依賴于數據和算法,數據決定決策所能抵達的深度,算法決定計算得到的最優解。在機器自主學習技術架構下,大數據與算法的不確定性容易產生倫理風險。

1.數據的不確定性。數據是人工智能的血液,智能機器從繁雜的數據中尋找規律,從而進行科學的決策。數據本質上是價值觀的縮影和映射,容易產生社會偏見。數據本身的代表性對機器決策的科學化具有保障作用,現實中有意選擇數據,簡化數據關系,增加了機器決策的不確定性。機器數據的設計開始于訓練數據的選擇,這是產生不公平的第一個環節。智能機器利用數據不斷進行學習訓練,選擇的數據不同,智能系統的偏好也會不同。如果不能確保數據的“代表性”,種族主義和性別歧視可能會偷偷溜進機器決策之中。智能系統從繁雜的數據中尋找相關關系,替代了傳統的因果關系。相關關系替代因果關系是對問題的簡單化,相關關系強調的是一種概率預測,這樣得出的研究成果和決策活動與社會事實很難精準吻合。

2.算法的不確定性。算法是“上帝之眼”,算法自身的不確定性易形成“算法黑箱”和“算法歧視”,威脅公民人身自由和生命財產安全。算法就像一個“黑箱”,輸入的數據和輸出的結果,存在公眾難以解釋的“隱層”,用戶甚至開發者難以洞悉其因果關系。“黑箱的不透明性及難以解釋,極易引發社會公眾對決策合理性的擔憂,從而引發政府的信任危機。”[12]以對社會弱勢群體的歧視為例,低收入家庭申請住房貸款時,可能被智能算法認定存在較高的違約概率,拒絕向貧困家庭提供貸款。弱勢群體本應受到政府更多的關懷,但算法“算計”社會弱勢群體,不能得到政府救助,威脅國家政治的民主。

(二)“人”的因素:技術參與主體責任倫理意識淡薄

人機融合智能的發展尚處于初級階段,人與智能機器是主客體關系,智能機器尚未具有自覺性,不能成為獨立的主體。“人”在倫理失范現象中屬于主要因素,剖析倫理風險中“人”的因素需要從創新主體和使用主體入手。一方面責任倫理失范。現代社會科技文明高度發達,人對工具理性的過度崇拜使在某種程度上使人喪失了自身的主體地位。

1.技術創新主體責任倫理失范。責任倫理是是個人、集體對其行為負責進而采取行動的規則。技術創新主體容易受到政治的影響,為了迎合政治和經濟利益,做出不正確決策,違背責任倫理的規范,將會產生災難性后果。倫理風險的產生不僅要歸咎于技術設計者,技術的使用者也有著不可推卸的責任。人工智能因其自身的不確定性,嵌入到政府治理中來會產生歧視現象,使用主體若絕對信任智能機器,完全依賴機器做出的決策,將逐漸被智能技術奴役,最終喪失人的主體性地位。

2.責任角色失準。人機融合智能本身的專業性、系統性特征決定了不可能像過去那樣由一個或幾個獨立的人完成,相反需要更多的人團隊分工合作來創新,個體的行為活動與整體科技活動的現代化交織在一起,每個人都是人機融合智能活動鏈條的某個環節。于是每個人都應該對結果負責,但每個人又不需要負責。責任被分攤到多個主體,使得責任歸屬愈加復雜,責任倫理主體難以定位。社會歷史條件的有限性,人類獲得的知識受到所屬時代條件的限制。智能機器一方的高速發展,人類一方在特定階段認知能力有限,人類無法感知倫理風險及預測風險發生的概率。與此同時,倫理風險具有隱蔽性和未來性等特點,導致倫理風險的擴散超出人類認知范圍,風險主體披上了“隱性斗篷”,人類無法確定直接的責任主體。

(三)社會環境因素:倫理風險防范制度缺位

科學技術猛烈沖擊著人類社會,科學理應使得世界的可預測性增強,但卻帶來了新的不確定性,社會中倫理關系失衡現象涌現,風險社會悄然來臨。人機融合智能倫理風險生成在風險社會的環境中,傳統倫理規范與現代倫理風險之間的張力,致使倫理風險在全球擴展。

1.“昨天”的風俗規范失效。古老的風俗有著悠久的歷史,風俗形成之后便擁有相對的穩定性。傳統倫理規范面對高速發展的人機融合智能,顯示出明顯的滯后性。人機融合智能的工具理性與風俗的價值理性兩者摩擦強烈,風俗的價值調節作用在人機融合的技術權威面前處于劣勢,傳統倫理規范技術威脅無能為力,處處退讓。價值本身不會改變,傳統風俗并沒有消失,只是對現代社會失去了規范作用,它們有屬于自己的時代。

2.“明天”的倫理規范尚未建立。傳統倫理規范失效,新的倫理規范尚未建立,導致倫理風險頻發。人機融合技術具有內在的不確定性,衍生出的倫理風險具有高度隱蔽性、不可預測性、極端危害性等錯綜復雜的特征。從時間范圍上看,不僅影響當代人的發展,而且也會對未來子孫后代產生危害。從空間范圍來看,人機融合引發的倫理風險跨越了國界,以隱私泄露為例,日本、中國、美國、英國均爆發出用戶隱私泄露的事件。現代倫理風險的規范是全球性問題,必須以全人類這個整體來構建倫理規范,倫理責任歸因而應具有前瞻性,呈現超個體性特征。實際上,傳統倫理規范以個體為中心,認為個體才能承擔倫理責任,倫理責任歸因呈現個體特征,缺乏整體性的倫理規范。

三、適應性治理:人機融合智能倫理風險的實踐路徑

人機融合智能倫理風險的治理并沒有一勞永逸的方案,只能折衷權衡。折衷權衡本質是適應性治理,治理風險的理想形態無法預想,只能根據治理情境的變化不斷調整。適應性治理是在適應性管理和適應性共管基礎上的理論升華,其首先應用于復雜社會—生態系統的管理。2003年迪茨(Dietz)等學者在《科學》期刊上首次提出適應性治理一詞[13]。經過奧斯特羅姆(Ostrom)和福爾柯(Folke)等學者的發展,起初應用于環境管理領域的理論被引入到公共事務治理領域,原因是公共事務和社會—生態系統在很多方面高度相似。

適應性治理的核心要義包括情境特征制約著治理主體行為的選擇。行動受到情境的影響,要求行動與情境的“恰當性”匹配[14];制度是彈性治理再生產的結構性條件;彈性是事物運動但不變的本質[15];制度是行動的結果也是運行的中介[16],彈性治理離不開制度的作用。適應性治理的關鍵是“干中學(Learning by Doing)”。干中學是在實踐中學習,它是一種集成式的差異化知識系統(Synthesis of Different Knowledge Systems)。適應性治理強調地方知識和各類專業知識的汲取,這樣外部的知識就可以快速進入治理系統,推動因地制宜的實現[17]和自組織的多中心治理。奧斯特羅姆在“公共池塘資源管理”研究中提出“自組織(Self-organizations)”,是在市場化和政府管理之外的第三途徑[18]。自組織要求各利益相關者共同參與公共資源管理,強調多元利益主體和以其作為中心節點的互動關系。

(一)人機融合智能倫理風險適應性治理的現實邏輯

1.情境治理滿足技術的持續創新。智能機器發展到一定階段,機器逐漸具有自主性,倫理風險治理需要針對“機器”和“人”兩大主體展開。隨著技術創新“具身性”被改變。人機融合倫理風險的治理不僅包括“肉體”還包括“機體”,增加了治理的難度。適應性治理要求治理行動與情境相匹配,治理主體根據技術發展階段,依據技術環境的特征,因地制宜地采取行動。適應性治理顯現出應對不確定性的能力,使得治理制度與倫理風險的治理情境和治理目標之間保持足夠的靈活性,有效預防和應對人機融合智能創新導致的倫理風險變化。

2.學習型治理應對倫理風險的復雜性。技術倫理風險呈現高度隱蔽性、不可預測性、極端危害性等錯綜復雜的特征。在空間上,現代社會是全球化的社會,風險自由地在世界各地暢通無阻,隱藏在我們生活的每個角落。在時間上,倫理風險具有代際特征,當代人和未來子孫后代均受倫理風險的影響。適應性治理在深入觀察和識別的基礎上,主張通過動態調節和適應性學習,增強治理效能。治理主體在變化的環境中,不斷總結實踐經驗,通過科學的管理程序,實現政府治理的持續創新,持續提升治理水平。

3.協同治理調節參與主體的廣泛性。人機融合智能的廣泛應用,政府不再獨享決策權威,技術開始賦能社團、公眾、企業,他們發揮各自優勢自發組成決策聯盟,影響政府決策。多元利益相關者呈現顯著的利益差異,他們互相博弈,導致矛盾突出。從治理系統的角度看,需要改變以往單一的模式,轉而發揮服務、組織和引導的功能,“形成一種彈性、分層和尊重地方知識的適應性治理模式。”[19]適應性治理注重政府、市場和社會等利益相關者的多元互動,從而趨向高效、公平、合理的多元協同治理。

4.彈性治理適應風險社會的來臨。風險社會的明顯特征是未來決定現在,需要考慮今天對明天的影響。現代社會的系統性功能,孕育了倫理風險的系統性。適應性治理的“彈性”是指社會需求和倫理風險的動態演變中,反復不斷地彈性調整,賦予治理制度足夠的彈性空間和彈性功能,有效應對治理中各種復雜和突發狀況。彈性化的治理要求具有“恰當性”的制度,管理體制要具有足夠的韌性和靈活性,以解決“公地的悲劇”的難題,以制度彈性契合風險社會治理體系的內在要求。

(二)情境式治理:強化負責任的人機融合智能

2003年,德國學者Tomas Hallstr首次提出“負責任創新(Responsible Research and Innovation, RRI)”概念,他認為應在更寬泛、更普遍的技術發展背景下建立“負責任創新”的一般框架,對系統創新進行技術和管理的風險評估[20]。負責任創新要求在科技創新活動中加入社會倫理因素的影響,它為新興科技的發展提供了具有實踐效力的倫理框架。人機融合智能需要持續創新,但要以負責任的態度保障技術安全,消除機器自身的不確定性,規范人機融合智能的發展。

1.加快人機融合智能技術的突圍。政府應強調人機融合智能的戰略性發展,加快人機融合智能關鍵技術上的突圍,加大互聯網、大數據、硬件裝備等基礎設施的投入,鞏固人機融合智能的發展基礎。社會各界應加大人機融合智能領域引才和人才培養力度,警惕可能帶來的就業風險,并且關注人機融合智能關鍵安全領域的發展。例如,增強算法的透明性、注重數據的代表性、促進人機相互理解等。最后打破技術精英壟斷,推進政府數據、企業數據開放共享、避免數據泄露、保護個人隱私。

2.人機融合智能的情境治理。人機融合智能的持續創新增加了技術的復雜性,給公共管理者的治理帶來了難題。情景性治理人機融合智能倫理風險,意味著政府在可預見的技術發展的后果下,政府有意采取必要措施預防科技的負作用。從戰略的高度審視人機融合智能的發展,在遵循客觀規律的基礎上,考慮技術的未來狀況,更好地規范智能技術的發展。情境性治理要求政府立足于實踐,“超越一般哲學停留于科學認識論、抽象人性論的局限,表現出深入到資本統治與技術控制的歷史深度的批判性優勢。”[21]政府既要采取一般性的倫理規范,又要通過對人機融合智能風險的防備,要建立一種面向未來又約束現代、以人為本的,可持續發展的倫理觀。

在保持總體的位置形狀不變[10]情況下,開運算能夠去除孤立的小點、小橋和毛刺,可以利用開運算的作用來避免眼睛與睫毛或眼角陰影粘連,使表征人眼瞳孔的連通域能夠更好地獨立出來。處理效果如圖7所示。

3.完善人機融合智能的風險評估機制。政府對短期顯現的“利益攸關”風險關注較多,長期潛在風險的關注處于薄弱環節,完善風險評估的機制迫在眉睫。一方面,對產品的研發到使用做到全流程監管。在技術設計階段中,應明確技術研發的邊界,對于不確定性的技術應全面禁止,預測各項技術錯誤發生的概率。例如,算法程序上做出合乎道德倫理的設計,并且反復試驗。在技術應用階段中,重視公眾的風險感知,重點考慮使用主體的心理、感知和需求,理解使用者對人機融合智能風險的認知。另一方面,創新風險評估模式。堅持技術專家、社會專家、人民群眾“三結合”的評估主體,強調定性和定量相結合的評估方法,評估內容上注重以人為本并結合實際,以風險信息的雙向流動為基礎,形成專家與公眾認知統一的評估過程[22],最終形成以“預警安全”為核心的風險防控模型,建立風險識別、監測、預警、決策和反饋的風險防控機制,達到能夠識別風險,判斷風險多大,通過什么手段防控的目的。

(二)學習型治理:提高參與主體的倫理素養

人機融合智能的倫理風險的產生,既有自身不確定性和復雜性的客觀因素,同時也有活動主體心理上對技術負效應的預測和判斷。參與主體的主觀判斷影響技術活動和倫理風險的道德選擇,也關系到對倫理風險的應對,提高參與主體責任意識和風險感知能力是規避倫理風險的關鍵因素。

1.提升設計主體的責任意識。技術的設計者在技術發展過程中處于核心地位,即使道德責任難以追究,他們仍然要承擔責任。設計主體的自我良知使他們對從事的科技活動的善惡性質有明確的意識,能夠分辨出什么能做,什么不能做,從而劃定技術研發的邊界。當研發人員在個人利益與國家利益發生沖突時,如何選擇是困難的事情,在矛盾沖突中法律的規制作用滯后,自覺的責任意識監管顯示前瞻性。技術設計主體在道德認知、道德自律、責任意識及道德實踐等方面的自我完善和自我提升對于倫理風險的規避有著重大的現實意義[23]。設計主體需要本著負責任的原則去研究人機融合智能,內化為自身的道德自律,嚴謹對待研究對象的選擇與研究方法的使用,公開研究的全過程,隨時接受監督。

2.提升公眾對風險的感知能力。公眾對人機融合技術產生恐慌,原因在于公眾對倫理風險認知較少甚至存在盲區。因此,必須提升公眾對風險的感知能力,形成對風險的正確觀念。在思想上,加強公民倫理風險的教育。通過向公眾普及人機融合智能的知識,充分了解技術的積極和消極影響,形成對技術冷靜和客觀的態度。幫助公眾了解科技倫理和道德標準,提高公眾的倫理素養,增強倫理觀念。在行動上,促使科學技術面向公眾開放。打破技術“黑箱”賦予專家的特權,保障公民的知情權。一方面,擴大公眾決策的參與,另一方面,加快政府和企業信息共享。在輿論上,引導公民多樣化的價值判斷。媒體等輿論方應通過對技術的全方位多維度宣傳,引導公眾對其形成多樣性價值評判,形成人們對于技術采取多樣性選擇[24]。

3.推進倫理風險治理的國際交流學習。全球正在進入不確定性的“風險社會”時代,風險成為現代社會的主要特征,倫理風險的治理呼吁世界各國共同參與。首先,積極參與全球風險治理。在全球化浪潮中,中國始終是一個負責任大國的形象,深深融入到全球治理體系中,成為全球風險治理的重要參與者。中國要充分發揮自身制度優勢,在風險治理的價值理念、治理目標、治理路徑和治理機制上形成中國方案,為國際社會借鑒和參考。從風險治理的實踐中,充分認識倫理風險,提高風險治理能力。其次,注重國際交流學習。人機融合智能技術在中國起步較晚,其科技倫理風險防控上處于薄弱環節,應合理吸收歐美政府風險治理的實踐經驗。例如,英國的漸進整體型風險治理、加拿大的綜合風險治理、美國的國家安全型風險治理等。積極參加人機融合智能研討會,討論技術的發展前景,推進技術倫理規制和立法。

(三)協同式治理:構建新型人機融合倫理關系

倫理風險的協同治理,要發揮政府在治理中的主導作用,注重協同組織的培育,規范協同治理范式,進行倫理關系的協同調適,構建新型人機融合倫理關系。

1.建立多元協同組織。在現代社會中,政府不是唯一的治理權威,需要與企業、社會團體、公民等其他治理權威合作,攜手應對技術倫理風險的挑戰。一方面,鼓勵多元主體參與。政府在風險治理中處于領導核心作用,其他參與主體同樣起著重要作用,要充分發揮它們各自的治理優勢,鼓勵多元主體的廣泛參與。通過社會參與機制的拓寬,促進共同參與,加強對話協商,尋找倫理風險的合理解決方案;積極引導公眾、企業參與倫理規則的制定;研究機構倡導負責任的技術創新,使其成為第三方監管組織。另一方面,建立“國際人機融合智能倫理委員會。”各國政府、跨國企業、社會組織、學者要共建人機融合智能道德委員會,委員會的建立要以客觀中立為基礎。道德委員會積極組織人機融合智能設計的道德對話,并將其制度化,賦予委員會相對獨立性,使其活動不受干擾。

2.規范協同治理范式。協同治理范式的規范是倫理風險治理的制度保證,“自組織的行為關鍵靠制度,必須根據多方信任且默契的某種規則,各司其責,而又協調統一,自動地形成有序結構。”[25]一是組織間基于透明的信息網絡,進行信息資源的共享,克服有限理性的不足,共同參與公共政策的制定。透明的參與機制是合作的前提,信任機制是協同治理的關鍵。政府與其他參與主體在尊重各自利益的基礎上采取行動。通過多次博弈與積極對話,形成共同的價值取向,基于信任的伙伴關系,擺脫集體行動的困境。二是當多元主體之間發生矛盾,導致無法共同治理倫理風險時,便需要協調和制裁機制的保障。每個組織都有自身追求的利益,自身利益受到侵犯,便會產生沖突,甚至威脅協同組織的生存。應建立協調組織間關系的委員會,其中政府在其中發揮著重要作用;制定詳細的懲罰機制,當某一組織侵犯其他主體利益時,按照相關要求實施仲裁。

3.構建人類命運共同體的倫理關系。人機融合技術不僅影響著資本市場,而且影響到人類的共同利益,倫理風險更是將人機融合和人類命運聯系起來。首先,建立整體性的倫理觀。倫理風險的治理需要超越文化、制度、價值等因素的要求,超越倫理風險治理中的工具理性,“在人類的心理結構上構建世界意識和共同價值觀”[26],實現倫理風險治理中的價值理性。需要提倡一種遠距離的倫理、面向未來的倫理,即關注自然、關注未來、關注生命、關注人類將來的生存的可能性、關注人對自然所承擔的責任。其次,建立以人為本的倫理觀。當前人機融合智能倫理風險的責任主體是人,隨著技術向更高階段發展,機器也可以成為責任的承擔者,建立怎樣的倫理關系成為難題。人機融合倫理關系要注重人的主導作用,強調機器的輔助角色。在設計層面上要嚴格防范智能機器對人類的威脅,引導技術向著人類積極的方面發展,達到“善智”的最終效果。

(四)彈性化治理:完善“恰當性”的政府治理機制

倫理風險的復雜性使得官僚制組織引以為豪的技術性優勢式微,原因在于傳統治理模式的固定化、線性化的治理機制無法應對復雜多變,非線性的風險情境。公共部門需要建立“恰當性”的政府治理機制,構建人機融合智能相適應的治理結構,增加制度的包容性、靈活性和彈性要素,有效防范倫理風險的沖擊。

1.建立可塑性的政府治理架構。政府要達到倫理風險的適應性治理目標,韌性的組織架構必不可少。傳統條塊分割的治理模式,無法應對倫理風險治理的復雜性,迫切需要優化政府組織架構,增強組織的可塑性,契合人機融合智能技術。一是優化政府決策模式。決策在政府治理中居于首要地位,倫理風險治理對政府決策提出了更高的要求,必須拋棄以往經驗型的決策方式。公務人員要跳出部門中心主義的狹隘觀念,推進跨政府部門信息資源共享,打破“數據煙囪”,建立跨層級和跨部門的政府決策模式;同時吸引多元利益相關者的廣泛參與,集合集體智慧,增強決策的科學性和民主性。二是重塑政府組織架構。倫理風險的治理需要突破單風險治理視角,多維度識別和綜合治理風險成為應有之義。在明確各職能邊界的基礎上,集中權力和資源對技術場景和倫理情境分門別類靈活準入,實現部門間、層級間、府際間參與的規制和協調,加強政府與科技企業和社會力量的溝通合作。

2.創新政府治理制度。基于倫理風險治理的復雜性,政府應建立新的治理路徑,形成新的規則、機制和制度,用硬性的制度約束行為失當,規范人機融合智能技術以及參與主體。首先,完善責任追究制度。科斯定理規定只要產權明晰,并且交易成本為零,無論將財產權賦予誰,市場均衡的最終結果都是有效率的。這一理論同樣適用于倫理風險的治理,只要明晰風險的所有權,并且保證信息的公開透明,便能有效治理倫理風險。確定風險的所有權是風險責任分擔的前提,要明確組織和個人承擔的責任,追溯風險責任主體。增加技術的透性,“使用大多數人均能理解的語言向公眾解讀技術,破解算法黑箱的責任模糊。”[27]其次,建立智能技術監管體系。人機融合智能能否成為法律主體?這是一直困擾著學者的難題。政府應順應時代的要求,探索智能機器的“法律人”內涵,明確相關權利與義務歸屬,改進人機融合的問責機制。協同組織對技術進行階段性評估,及時發現問題,建立智能技術的監管體系,以技術“對付”技術。例如,利用區塊鏈的共識機制保障數據的真實性,實現問責方式由事后問責向事前評估的轉變。

3.完善保障機制。面對科技的負面效應,政府作為負責任的主體,必須承擔起保護公民免受技術沖擊的責任,平衡好技術創新與風險規避的關系。一是保障人的安全。智能機器僅是歷史開拓的工具,即使發展到具有意識,可以獨立決策,也必須遵守“機器人三定律”,奉行“不傷害”原則。政府要完善人機融合智能的法律政策體系,制定人機融合的技術標準來規避倫理風險,明確智能機器的責任機制、倫理原則以及監管原則,提供原則性和方向性的指引,保證規制的穩定性和權威性[28]。二是構建技術沖擊的社會保障制度。智能機器的創新與人類安全的渴望存在一種緊張的關系,社會保障制度可以緩解緊張關系,促使技術發展不會因風險而被剝奪。政府需要制定社會政策,將技術沖擊的社會救濟和再分配政策列入政府工作議程;鼓勵針對新興技術的社會保險體制建立,從而更好地規避風險,使人們從保險中獲得安全感。

猜你喜歡
智能融合
一次函數“四融合”
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
寬窄融合便攜箱IPFS500
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
智能制造 反思與期望
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
主站蜘蛛池模板: 免费毛片a| 丁香婷婷在线视频| AV不卡在线永久免费观看| 精品视频第一页| 国产传媒一区二区三区四区五区| 国产午夜福利在线小视频| 中文字幕免费播放| 国产精品自在线拍国产电影| 性网站在线观看| 亚洲国产一成久久精品国产成人综合| 一区二区自拍| 一本大道东京热无码av| 亚洲娇小与黑人巨大交| 国产青青草视频| 国产麻豆福利av在线播放| 992tv国产人成在线观看| 最新国产精品鲁鲁免费视频| 国产成人精品视频一区二区电影| 国内老司机精品视频在线播出| 国产麻豆福利av在线播放| 欧美视频在线播放观看免费福利资源| 欧美精品v| P尤物久久99国产综合精品| 国产综合精品日本亚洲777| 丁香五月亚洲综合在线| 日韩一级二级三级| 成人欧美在线观看| 欧美日韩一区二区在线免费观看| 久久精品娱乐亚洲领先| 亚洲精品你懂的| 激情综合婷婷丁香五月尤物| 国产又爽又黄无遮挡免费观看 | 国产日韩欧美精品区性色| 日韩欧美国产另类| 中文成人在线视频| 色婷婷亚洲十月十月色天| 亚洲欧美成aⅴ人在线观看 | 国产精品污视频| 一级毛片中文字幕| 少妇精品网站| 成人年鲁鲁在线观看视频| 91视频99| 成人福利在线视频免费观看| 精品国产99久久| 欧美在线网| 青青青视频91在线 | 免费观看成人久久网免费观看| 日韩精品高清自在线| 最新精品久久精品| 欧美影院久久| 久久精品日日躁夜夜躁欧美| 中文字幕在线欧美| 一本色道久久88| 9999在线视频| 精品撒尿视频一区二区三区| 夜夜高潮夜夜爽国产伦精品| 亚洲人人视频| 亚洲成a人片77777在线播放| 国产精品播放| 精品人妻无码区在线视频| 欧美性猛交xxxx乱大交极品| 国产凹凸视频在线观看| 欧美精品成人一区二区在线观看| 国产亚洲精品va在线| 亚洲首页在线观看| 91九色视频网| 国产精品美女在线| 免费激情网站| 中文字幕在线不卡视频| 亚洲综合色在线| 国产美女在线免费观看| 在线看国产精品| 97超爽成人免费视频在线播放| 日本亚洲最大的色成网站www| 国产欧美性爱网| 国产福利一区二区在线观看| 99视频在线看| 在线亚洲精品福利网址导航| 国产欧美日韩综合一区在线播放| 国产精品99久久久| 欧美日韩中文字幕在线| julia中文字幕久久亚洲|