999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能創新發展中的道德風險研究*

2020-01-19 17:44:34常曉亭
中國醫學倫理學 2020年2期
關鍵詞:人工智能

常曉亭

(廣州中醫藥大學馬克思主義學院,廣東 廣州 510006,283952830@qq.com)

人工智能設備如無人駕駛汽車、服務型機器人、軍用機器人等半自主性決策,甚至自主性決策的人工智能系統越來越多地進入社會生活中,給人們的生活帶來了便利,也為企業帶來巨大效益,但也產生了道德風險問題,如無人駕駛汽車倫理困境、數據隱私泄露、自主性武器傷害無辜生命等。人工智能道德風險的研究可以分為兩個方面,一是從外部加強人工智能倫理建設和管理;二是從技術內部提高人工智能道德維度的安全性[1]。2019年4月8日,歐盟委員會發布了人工智能倫理指導原則,然而,為響應歐盟委員會的人工智能倫理指導原則而成立的谷歌道德小組,僅存在一周便解散。其原因之一是該小組的一名委員反對保障同性戀和變性人同等權利的法律,從而導致了谷歌員工對該委員的資格產生了異議。由此可見人工智能道德風險問題的棘手性及人們對該問題的嚴謹與審慎的態度。同時也表明了人工智能道德倫理的建設不可能是一蹴而就的,將是一個需要從全方面、多角度進行探索的過程。在2018年中共中央政治局的一次就人工智能的集體學習中,習近平指出“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。”[2]因此,從“風險社會”理論的視角出發,結合現代技術風險的特點,對人工智能道德風險的成因、表現、影響及規避途徑進行分析與研究,或許是一次有益的嘗試,將有助于完善人工智能風險管理體制,促進該技術穩健發展。

1 人工智能道德風險的內涵與表現

人工智能道德風險可以理解為人工智能技術帶來倫理結果的不確定性,具體有兩方面表現,一是技術設計階段所產生的道德風險,主要有道德算法風險和道德決策風險;二是技術應用階段所產生的道德風險,主要有人類主體地位被削弱的風險、數據隱私泄露風險、道德標準固化的風險和感染道德型計算機病毒的風險等。

1.1 技術設計階段產生的道德風險

首先是人工智能道德算法風險。人工智能和神經科學倫理學專家溫德爾·瓦拉赫(Wendell Wallach)和認知科學家科林·艾倫(Colin Allen)在他們合著的《道德機器:如何讓機器人明辨是非》書中提出來的三大進路,即自上而下式進路、自下而上式進路和混合式進路是關于人工智能的道德算法的設計中最典型的方法。自上而下式進路是為人工智能設定道德普遍原則,根據普遍原則的不同,又可以分為功利主義和道義論兩種。功利主義秉承的原則是“最大數量的人的最大幸福”。英國哲學家杰里米·邊沁(Jeremy Benthanm)提出的“道德算術”和計算機科學家詹姆斯·吉普斯(James Gips)提出的效果論機器人的四能力是對功利主義思想的發展。道義論認為道德的核心是責任,康德的絕對律令和黃金法則及阿西莫夫三定律可以作為其代表。自下而上式進路是將進化和發展的觀點融入人工智能的道德設計中去。阿蘭·圖靈(Alan Turing)提出的“模仿孩子的思維”以及由約翰·霍蘭德(John Holland)的遺傳算法啟發而產生的人工生命的觀點都可以視為自下而上式進路的例子。復雜的系統設計中,工程師和技術專家們傾向于采用混合式進路,即同時使用自上而下式進路與自下而上式進路進行人工智能道德功能建構。因此,要完成人工智能道德算法的設計工作就要完成兩個重要的任務,必須要從兩個方面進行研究,一是篩選出自上而下式進路需要的道德總標準;二是建立一個自下而上式進路需要的道德能力的學習模型。第一種方法在道德總標準的制定方面,哲學、倫理學及心理學等學者一直以來對康德的絕對律令、黃金法則和阿西莫夫三大定律等諸多道德準則的普適性的爭論,讓我們認識到,目前任何一個道德準則都有其局限性,將這些道德準則設計到人工智能中,面臨復雜社會道德倫理問題時,將產生不可預知的倫理結果。即使我們確定了較完善的道德總標準,將這些道德標準轉化為程序時也不能做到完全精準,出現轉化不對稱的風險。第二種方法中自下而上式進路側重以實際環境為背景的道德能力學習模型,要從實驗室走進現實社會環境,這其中的巨大的環境因素的差距是不能忽視的。一個小的錯誤的道德標準的學習,可能產生嚴重影響社會的結果。

其次是人工智能道德決策風險。可以分為兩個方面,一是道德決策設定方面,二是人工智能體參與實踐方面。在道德決策設定方面,一方面需要由政府、企業和技術專家等相關利益主體進行風險評估。在此過程中,由于技術本身的不確定性,人們很難做出準確的風險評估,因此,在風險評估的基礎上做出來的道德決策便具有一定的風險性;另一方面人工智能是面向社會公眾的,其產生的道德風險也是面向社會和公眾的。僅有政府、企業和技術專家所作出來的道德決策不僅在某種程度上是對社會公眾決策權的剝奪,呈現一定的不公正性,而且很可能會出于自身利益團體的考慮而導致損害到社會公眾的利益。在人工智能體參與實踐方面,人工智能體參與到實踐活動中去產生的道德決策風險最為著名的就是“自動駕駛汽車的倫理困境”。自動駕駛儀在面臨倫理困境時,“學術界已經提出兩種相互競爭的解決方案:強制的倫理設定和個人的倫理設定。”[3]但無論是“強制的倫理設定”還是“個人的倫理設定”其背后的算法設定無外乎兩種,即功利主義算法和道義論算法。道義論算法被質疑會引起社會的不公平,功利主義算法因其秉承社會效益最大化的原則而更具合理性。但是功利主義雖然確保了事故中大多數人的利益,但卻損害了相對應的少數人的利益,剝奪了事故中少數人的安全正當性。因此無論哪種道德決策,都會產生一定的道德風險。也許隨著技術的發展,人工智能可以做出比人類更好的道德決策,但至少目前這種道德決策風險是現實存在的。

1.2 技術應用階段產生的道德風險

首先是人類主體地位受到挑戰的風險。人工智能作為一項技術應該為人類謀求福祉,而不應該阻礙人類發展甚至威脅人類命運。但是隨著人工智能道德維度自主性的不斷提高,它在社會關系中扮演了越來越重要的角色,這在一定程度上削弱了人的道德主體的地位。例如目前的支持決策工具(DSTs)就被社會學家巴蒂雅·弗里德曼(Batya Fridman)和皮特·卡恩(Peter Kahn)認為“可能導向一個人類決策者放棄道德責任的滑坡謬誤。”[4]33人工智能技術越完善,人們對其信賴及依賴程度越高,完全自主的決策系統也越可能到來。當自主決策系統到來時,直接參與道德行為產生的結果是否符合人類的預期并為人類所掌控將不得而知。

其次是數據信息泄露的風險。大數據是人工智能的一個重要支撐,一是在進行人工智能道德算法時需要收集大量數據信息,二是在使用過程中會預先存儲或者在現實環境的運行中存儲數據信息作為經驗案例。這些數據信息的來源和存儲都涉及人們的個體隱私,但公眾對這些數據信息的私密性重視程度不夠使得許多隱私數據信息的獲取十分容易。而且在數據隱私安全性方面也存在隱患,例如目前投入市場的家用機器人,其在投入使用時需要存儲家庭中的數據信息,一旦出現黑客入侵問題,就面臨隱私泄露的風險。

再次是道德標準固化的風險。人工智能道德標準固化可以分為兩個方面,一是其內置的道德標準的固化,二是社會道德標準的固化。人工智能內置的道德標準的固化表現在,具有社會性質的道德倫理原則和準則在不同地域和不同的歷史條件下往往具有很大差異,而且道德建構時的數據收集往往是抽樣的、有限的,隨著時間的推移和社會倫理規則的不斷融合與演化,人工智能道德系統部分不能因時因地的更新,在面對最新的道德倫理問題時,不可避免地將產生錯誤的行為結果,帶來負道德效應。而社會道德標準的固化,對人工智能的發展是不利的,新技術需要新的倫理標準來推動,目前的人工智能倫理準則不能很好規約該技術的發展和應用中的問題,導致出現諸多問題。

最后還有由于技術失控而產生的道德風險。目前越來越多的人工智能產品投入市場,應用于人們的日常生活和工業生產等方面,但其技術安全性目前尚不完全成熟,有可能會產生失誤和傷害。自動駕駛汽車的技術差錯在實際環境中便是關系到個體生命安全的重大問題,美國軍用機器人在伊拉克戰場上射殺的無辜平民的真實案例也已經發生。家用機器人、服務型機器人等智能服務系統如果感染病毒,對人身的直接傷害也是顯而易見的。在這些案例中,如果內置的道德準則被推翻,那么,人工智能很可能會違背阿西莫夫三大定律的第一條“不傷害人”的原則,對社會道德倫理產生惡劣的影響。

2 人工智能道德風險的成因分析

人工智能道德風險的成因可以從三個方面分析:一是主體層面,主要是相關主體如技術專家、 企業、政府和公眾等由于自身的特點產生的。二是技術層面,主要有技術本身創新發展中的不可控性和人工智能道德倫理的系統建構在技術方面還有待提高。三是社會層面,主要有政治、經濟、文化等因素的影響。

2.1 主體成因

工程師和科學家是人工智能道德風險的直接制造者,韋德與布勞德認為科學研究活動中技術實踐者的誠信缺失是造成科技道德風險的成因之一。人工智能的實際編碼工作是由工程師來書寫的,在此過程中工程師的個人道德素養和社會道德價值取向便體現在了轉化代碼中,以一種隱性的方式滲入道德程序中,最終出現在人工智能的道德倫理行為中,產生了一定程度上人工智能技術中的個人道德偏見。傳統倫理學認為只有人類才是目的,才可以成為道德能動者。20世紀出現的非人類中心主義將道德對象從人類擴大到了一切生物,而人工智能道德功能的建構無疑就是非人類中心主義思想的體現。隨著人工智能道德自主性的不斷提高,其去人類道德中心主義也越來越明顯。

政府和企業也應該積極承擔起應對人工智能道德風險的責任。隨著技術的發展,其受政治的干預日益增強。人工智能技術全球化特點顯著,其道德風險理應得到高度重視。各國政府基于本國國民的經濟效益考慮,在面對復雜的國際環境時,都想把控人工智能發展方向,擁有全球主導權。這勢必會造成人工智能技術國際合作緊張化,不能夠形成很好的全球調控作用,以至于留下空隙讓人工智能對全人類的道德倫理發起了挑戰。而企業則以盈利為目的,合理的生產及銷售獲得合理的經濟效益也是正常的,但是目前人工智能作為不斷創新發展中的現代技術,其技術穩定性還不能完全保證,高風險也沒有充分得到評估。風險社會學家烏爾里希·貝克(Ulrich Beck)[5]認為企業通常會優先考慮自身經濟利益,其次才考慮社會公眾的利益,甚至會有意引導公眾對技術風險的忽視。此外,政府和企業對人工智能技術的科普力度不夠,致使公眾對該技術沒有達到一定的認知水平。比如對自我隱私不夠重視、被有目的的信息宣傳所蒙蔽以至于對人工智能道德風險的認知不準確、主觀臆造人工智能對人類帶來的風險等,都會對人工智能的道德倫理建設產生消極的影響。

2.2 技術成因

技術創新是一個發展的過程,各種新知識更新的速度和頻率是不可控的,其中的道德因素的不可控性尤為顯著。法國技術哲學家貝爾納·斯蒂格勒(Bernard stigler)[6]認為不確定性體現了一切技術物的本質。人工智能技術作為不斷創新發展的現代技術,無論是在技術階段還是運行階段都有諸多不確定性。尤其是人工智能道德功能的建構,其本質上是為了應對人工智能的風險問題產生的,但其自身也存在著相應的風險,這就意味著我們在使用有風險的技術來控制技術風險,從而很可能產生巨大的有損社會道德倫理準則的風險。其次人工智能道德倫理的系統建構在技術方面還有待提高。自上而下式的道德設計進路的缺點是產生人工智能道德標準固化風險的原因之一。人工智能在應用到社會關系時,其本身的以自上而下式進路內置的道德準則是固定的,社會卻是不斷發展與更迭的,道德倫理標準也在不斷演變與更新。人工智能中固定的道德標準不能夠完全應對時時更新的倫理問題,這構成了道德標準固化風險的技術成因。自下而上式進路需要在數據環境中學習,這個學習過程中許多不可控因素是產生道德風險的另一原因。此外由于技術發展中不可避免的異化現象推動著人工智能道德自主性不斷提高,使得人工智能開始直接參與道德行為,導致人類喪失部分的道德責任的主動權,產生人類的責任主體地位受到挑戰的風險。

2.3 社會成因

首先在政治方面,政治對人工智能技術發展的過多干預是產生巨大道德風險的成因之一。目前有關人工智能國際倫理規則的制定,大多來自擁有尖端技術的西方發達國家。而發達國家與發展中國家的技術價值觀和道德制定標準是有差異的,這也會造成某種程度上的人工智能道德風險。如在軍事方面,20世紀80年代的美蘇軍備競賽中曾引入搭載核武器的船艦,這些艦船取消了十分鐘屏障,由計算機進行數據分析和自動執行運算結果。在關乎生命死亡的重大事項上,人類反而失去了決策權。2007年美國陸軍又資助計算機專家羅納德·阿金(Ronald Arkin)[4]16研發軍用機器人所要遵守的戰爭倫理準則的軟件。很明顯,無論這些軟件中的倫理準則是什么,基于軍用機器人的作戰特性,它們都將違背阿西莫夫第一定律,即“不能傷害或殺害人類”。這種為實現政治霸權而致力于殺人軍用機器人的研究,對人類生命將造成極大的威脅。

其次在經濟方面,一味追求技術的經濟效益而忽視人類福祉和代際發展是產生人工智能道德風險的又一成因。在人們關注人工智能技術帶來的巨大的經濟效益時,卻在一定程度上忽視了其產生的道德風險。人工智能不僅威脅到人的主體地位而且還關乎到人類未來命運。傳統的道德倫理規范已經不能滿足人工智能在當今社會關系中的需要,而新的倫理規范沒有及時跟進,直接影響了對人工智能道德功能建構各個階段的把控力度,這在某種程度上損害了社會公眾的利益和生態效益。

最后在文化方面,技術價值觀人文信仰等因素也對人工智能道德風險的產生有一定的影響。如技術樂觀主義傾向于繼續提高人工智能道德的自主性,來實現人工智能自我道德約束;而技術悲觀主義者則對此持消極態度,認為人工智能道德自主性的提高會對人類的主體地位產生不利影響,因此抵觸人工智能道德自主性的發展。

3 人工智能道德風險的防范與治理

在人工智能道德風險成因的基礎上,人工智能道德風險的規避途徑的探尋也可從主體層面、技術層面和社會層面三個方面展開。

3.1 主體層面

人工智能道德風險具有不同于傳統工業社會的現代技術風險的特點,即人為性、責任側重定位到個體或團體的特性,因此所涉及的主體的道德建設便顯示出了其獨特的時代意義。人工智能道德風險所涉及的主體主要有技術專家、企業、政府及公眾等,另外隨著人工智能自身智能特性的不斷提高,人工智能體作為道德接受者或者發出者的情況也逐漸進入人們的視野,因此人工智能體作為道德風險主體的情況也應該充分考慮。

引導人工智能技術專家正確的技術價值觀和呼吁企業的社會責任擔當對應對人工智能道德風險而言具有重要意義。技術專家是人工智能道德風險最直接的制造者,其自身要樹立正確的技術價值觀,重視職業道德素養,具有人道主義精神,不能為利益所裹挾而忽視了人工智能道德風險對人類及人類未來而言的重大意義。同時也要為技術專家營造良好的職業發展空間,從制度上保證技術專家的獨立性。此外,還要有明確的激勵機制,提高人工智能道德風險的成本,加強技術專家的個體責任感和集體責任感。企業對人工智能道德風險也應該承擔相應的社會責任。人工智能道德自主性越來越高,人工智能產品參與社會關系的比重也越來越大,這就要求企業要確保投入市場的人工智能道德責任主體明確,指向清晰,不能只為企業私利而將目前道德責任主體模糊的人工智能產品大量投入市場,要為企業的長遠發展和社會公眾利益考慮,體現出一個值得信賴的企業的責任與擔當。

政府的有效監管是規避人工智能道德風險的重要環節。政府要加強對技術發展方向和企業人工智能產品運行情況的監管,人工智能產品在社會關系中產生的事故責任要明確,處理事故問題要快速有決斷力,讓社會公眾在人工智能技術發展中真正受益。加快跟進人工智能道德倫理標準的制定,在涉及人工智能與社會道德倫理關系時,一定要確保人的完全的監督能力,不能讓人工智能威脅到人的道德主體地位。開展人工智能道德風險的科普工作,提高公眾的道德風險意識,樹立公眾正確的技術價值觀,不盲從輕信和主觀臆斷技術風險,讓人工智能在安全的基礎上發揮其最大的社會效益,真正推動技術穩健發展。

此外,應加強人工智能的產出控制。隨著人工智能道德自主性的不斷提高,其作為道德主體而產生相應的道德風險的情況也有可能出現。要嚴格控制其生產質量和投放市場的數量,加強售后觀察,保證人工智能系統在特定范圍內運行,保證人類的絕對監督權和管理權。

3.2 技術層面

從技術外部看,實現技術民主化是應對人工智能道德風險的一個重要舉措。人工智能道德風險涉及的不僅僅是計算機專業的問題,由于其復雜性,需要更多的領域參與技術設計和決策中來。首先,從人工智能技術專家的組成來看,有必要讓哲學家、心理學家、倫理學家等相關學科的學者參與進來,并且將政府、企業、公眾的建議納入參考范圍。其次,要確保技術透明性和安全性,尤其是人工智能的數據信息的隱私保護,正如歐盟委員會制定的人工智能七大原則中指出“人工智能系統收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜”[7]。

從技術內部看,提高人工智能道德設計的安全性是一個重要的措施。瓦拉赫與艾倫提出了人工道德智能體(Artificial Moral Agents)的概念,從自主性和對價值的敏感性這兩個維度出發進行設計。人工智能奇點研究所的創始人之一的埃利澤·尤德科夫斯基(Eliezer yudkovsky)提出并發展了友善人工智能的概念。此外,約翰·福克斯(John Fox)提出的“危險動態管理”理論對人工智能道德設計也有重要的參考意義。他提出在醫療領域的人工智能系統中將“靜態軟件設計”與“驗證和危險的動態管理”結合,將能夠識別潛在危險的智能系統看作獨立的行為主體,與主系統同時運行[1]。同樣,在人工智能道德設計的自下而上式進路中設置一個識別與管理潛在危險的獨立智能系統,對有悖于內置倫理規則的錯誤學習有很好的規避作用。

3.3 社會層面

在政治方面,應加強國際政治合作,充分發揮對人工智能技術政治上的正向干預。現代技術越來越多地受到政府干預,而且這種政治干預全球化趨勢明顯。貝克認為我們已經處在了一個世界風險的社會,“現代化風險具有一種內在固有的全球化趨勢”[8]。人工智能道德風險即是如此,它是全人類要面對的風險,尤其是人工智能道德自主性的不斷提高所帶來的代際風險,更是對人類未來帶來巨大威脅。因此,應該將該風險防控上升到全球政治高度,加強國際合作,建立“全球治理”機制,運用世界“力量”來應對。此外,道德倫理準則應隨著社會的發展而發展。在當今世界逐漸全球化的趨勢下,應該致力于創建新的全球倫理,積極研究與制定全球人工智能倫理原則,以國際人工智能倫理標準為原則,因時因地制宜才能更好地應對人工智能道德風險。

在經濟方面,要將保證全人類的利益作為技術發展的第一原則。人工智能道德風險關乎人類未來的發展,必須審慎對待,做好規避工作,確保人工智能技術最終目的是造福人類,而不是妨害人類自身主體發展。企業也不能一味只考慮經濟效益,正如漢斯·倫克(Hans runk)在其所主張的“責任倫理”中強調,要避免“有組織的不負責任”。企業應該重視內部道德標準的提高,進行及時有效的技術風險評估和自我監督,自覺全面做好人工智能道德風險的應對工作。

最后還要考慮到文化因素的作用。作為現代技術的人工智能技術的道德風險具有顯著的人為性,對此應該重視加強人工智能界專業人員的道德教育,將哲學、心理學和倫理學等學科吸納進來,加快技術人員對人工智能道德風險全面準確的認知與把控。從人類命運共同體的角度出發,加強國際文化交流,在民族文化差異、宗教信仰不同的基礎上探討和建構一個多層次多角度的人工智能道德風險的應對系統。

人工智能道德風險的研究是人工智能技術創新發展的重要環節。以“風險社會”理論為基礎,探討人工智能道德風險的成因與表現,響應人工智能道德倫理建構的發展趨勢,有助于完善人工智能道德倫理建構體系,確保人工智能創新發展的安全、可控、穩健。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 欧美69视频在线| 亚洲色图欧美视频| 天堂成人av| 一级在线毛片| 尤物特级无码毛片免费| 欧美一级黄色影院| 色婷婷电影网| 曰韩免费无码AV一区二区| 亚洲无码免费黄色网址| 乱码国产乱码精品精在线播放| 国产一区在线观看无码| 2020国产精品视频| 欧美午夜视频| 日韩天堂视频| 国产性生交xxxxx免费| 欧美午夜一区| 欧美日韩精品综合在线一区| 国产精品视频白浆免费视频| 日韩AV无码免费一二三区| 精品国产免费观看一区| 亚洲午夜国产片在线观看| 亚洲欧美日韩精品专区| 91毛片网| 免费中文字幕在在线不卡| 久久久无码人妻精品无码| 欧美不卡在线视频| 欧美日韩另类国产| 综合色天天| 无码免费试看| 91精品伊人久久大香线蕉| 亚洲第一天堂无码专区| 国产成人免费| 亚洲精品无码av中文字幕| 天天视频在线91频| 欧美丝袜高跟鞋一区二区| 亚洲一区二区三区麻豆| 久久综合色天堂av| 漂亮人妻被中出中文字幕久久| 99国产精品国产高清一区二区| 五月婷婷综合网| 国产一区二区精品高清在线观看| 四虎影院国产| 国产爽妇精品| 热99re99首页精品亚洲五月天| 国产乱子伦视频三区| 91成人在线观看视频| 无码 在线 在线| 亚洲国产中文综合专区在| 中文无码日韩精品| 亚洲swag精品自拍一区| 99热6这里只有精品| 成人中文在线| 国产精品亚洲va在线观看| 中日无码在线观看| 亚洲精品另类| 亚洲三级色| 欧美一区国产| 国产精品福利尤物youwu| 亚洲第一区在线| 日韩国产 在线| 九九九精品视频| 视频国产精品丝袜第一页| 亚洲女同一区二区| 欧美第二区| 国产成人精品一区二区免费看京| 先锋资源久久| 国产精品精品视频| 亚洲精品国产日韩无码AV永久免费网| 国产精品99久久久| 狠狠色香婷婷久久亚洲精品| 99久久国产精品无码| 亚洲日韩精品欧美中文字幕| 国产亚洲一区二区三区在线| 91午夜福利在线观看精品| 99久久精品国产综合婷婷| av在线5g无码天天| 六月婷婷精品视频在线观看| 亚洲成a人片77777在线播放| 國產尤物AV尤物在線觀看| 一级福利视频| 国产乱人免费视频| 伊人久热这里只有精品视频99|