999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

給人工智能一顆“良芯(良心)”
——人工智能倫理研究的四個維度

2018-01-24 18:33:37,
教學與研究 2018年8期
關鍵詞:人工智能人類智能

,

隨著大數據技術的發展、算法的進步和機器算力的大幅提升,人工智能在眾多領域不斷攻城略池,趕超人類。同時,圍繞人工智能產生的倫理問題也越來越突出,成為全社會關注的焦點。近年來,國際學術界對人工智能道德算法、價值定位、技術性失業和致命性自主武器等問題展開了廣泛的討論,一系列富有卓見的研究成果相繼問世。然而,學界關于人工智能倫理研究的問題框架尚未達成共識,正處于探索研究范式的階段,人工智能倫理的教育與教學究竟該從哪些方面展開仍然缺少框架指導。其實,設計和研發安全可靠的人工智能不是單純的技術層面的要求,也需要道德層面的引導和規制。人工智能的發展應增進人類福祉,與人類的道德價值相符合。要做到這一點,必須給人工智能一顆“良芯(良心)”。這意味著以打造“良芯(良心)”為中心任務的人工智能倫理研究應圍繞“機芯”(機器之芯)和“人心”(人類之心)兩個維度來展開。“機芯”研究主要是指人工智能道德算法研究,旨在使人工智能擁有“良芯”,使之成為道德的人工智能或道德的機器(moral machine)?!叭诵摹毖芯渴侵溉斯ぶ悄苎邪l者和應用者應當具有“良心”,使人工智能的設計合乎道德,避免惡意設計,并確保人工智能的善用,使之造福人類社會。也就是說,“人心”研究主要涵蓋人工智能設計倫理和社會倫理等方面的研究?!皺C芯”和“人心”研究存在諸多基礎性問題,需要在道德哲學層面做出回應或拓展。因此,人工智能倫理研究包括人工智能道德哲學、人工智能道德算法、人工智能設計倫理和人工智能社會倫理等四個維度。

一、人工智能道德哲學

隨著人工智能和自主系統的決策能力的不斷提升,它們可能對傳統的道德哲學構成挑戰。傳統的倫理觀念和道德理論的適用性問題將變得越來越突出,其中一些倫理原則或道德規范有可能會失效或部分失效,甚至在某些領域引起道德哲學的真空。不過,這反過來可能會倒逼倫理學家進行更加深刻的思考,修正已有的道德概念和道德理論,提出適應智能時代的全新的道德哲學體系,從而促進道德哲學的整體發展。從這種意義上講,人工智能道德哲學不是替代傳統道德哲學,而是對傳統哲學的延伸和擴張。

那么,我們究竟該從何種意義上談論人工智能的道德哲學呢?按照尼克·波斯特洛姆(Nick Bostrom)和埃利澤·尤德考斯基(Eliezer Yudkowsky)的觀點,“創造思維機器的可能性提出了一系列的倫理問題,這些問題既與確保這種機器不傷害人類和其他道德上關聯的存在者有關,也與機器自身的道德地位有關?!盵1](P316)智能機器不傷害人類和其他道德上關聯的存在者是設計倫理的要求,而機器自身的道德地位問題則是人工智能道德哲學的范疇,相關討論可以從人工智能的主體地位、道德責任和人機關系等方面展開。

第一,構建人工道德主體(artificial moral agents,簡稱AMAs)是否是可能的?談論人工智能倫理是否應該把AMAs地位的確立作為前提。不過,按照計算機倫理學的開創者詹姆斯·摩爾(James Moor)的觀點,我們可以根據智能機器的自主性程度劃分出四種人工道德主體:有道德影響的主體、隱式的道德主體、顯式的道德主體和完全的道德主體。[2]因此,即使人工智能系統并沒有被內置道德規范,只要其決策算法能夠產生倫理影響,即可將其視為具備道德推理能力,可以成為道德受體或道德關懷對象。此外,討論更為前沿的話題是:擁有自由意志或自主能力是否可以作為人工智能和自主系統成為道德主體的前提?如果人工智能有資格作為道德主體,那么人性中的情感和意識等因素是否是人工智能具備道德的必要條件?的確,擁有自我意識并且具備人類情感的人工智能會更像人,但將情感和自由意志賦予人工智能有可能會打開“潘多拉的魔盒”,給人類帶來災難性后果。在處理人類錯誤方面,人類社會積累了豐富的經驗,但如何應對人工智能機器的錯誤方面,我們的社會可能還尚未做好充分準備。如果不良情緒被植入智能系統,它們可能不是給人們帶來便利,而是給人們制造更多麻煩。關于類似問題的探討對傳統的道德哲學提出了挑戰,我們已有的關于“自由意志”“自主”“理性”“道德主體”“道德受體”“道德地位”等概念的內涵可能需要重新被定義。這可能導致新的道德哲學的產生,或導致傳統的道德哲學發生轉向,如人工物倫理學的轉向?!芭c許多人的直覺想法相反,技術不再是讓我們的生存變得便利的簡單的中立工具。在這些技術完成它們功能的同時,已經產生了更多的效應:它們框定著我們該做什么以及我們如何體驗世界,并且以此方式,它們積極參與到我們的生活中?!盵3](P1)

第二,人工智能的道德權利和責任分配問題。在直覺上,多數人可能會認為AMAs并不應享有與人類相等的權利。在他們看來,AMAs是服務于人的福祉,而不應該被設定為追求自身的福祉。人工道德主體的界定困難導致相應的責任、義務和權利的認定變得復雜。如果人工道德主體以人類伙伴的身份服務于社會,它們的權利和義務的邊界如何劃定,這是需要慎重對待以平衡人類的同理心。如果人工智能具有道德決策能力,同時獲得了道德主體的地位,那么它的設計者、制造者和使用者是否應當為它們的過失負擔相應的責任?如果它們能夠承擔一定的責任,那么是否人們會設法將一些道德責任推卸給人工智能來承擔?面對這種情形,AMAs可能淪為替人類行為免責的一種工具,它們的權利保障可能更是無從談起。如果AMAs能夠為其不當行為承擔完全責任,那么責任的邊界和限度的劃定問題將變得越來越突出。畢竟,道德譴責和否定評價如何對AMAs產生實際的道德約束力在技術上仍然是個難題。如果道德約束對于AMAs是不充分的,那么它們承擔相應的法律責任是否是可行的?如果AMAs需要承擔一定的刑事責任,那么究竟何種懲罰對它們具有威懾力,例如清除記憶、機身銷毀等是否等同于機器的死亡?限制機器人人身自由是否有效?同時人類共同體在情感上能否接受這種形式的懲罰;如果它們沒有基本的財產權,那么它們以何種形式承擔民事責任?是社會整體承擔還是多主體分擔,這些都是值得深入探討的問題。

第三,人類道德與機器道德的關系問題。通常,人們是基于后果來判定某人行為是否道德,但通過深入探究,人們會認識到主體的心靈狀態(意圖、動機或目的等)在評價或判定某人行為是否道德時發揮重要作用。目前,主流的道德理論基本都是以人類為中心提出的。隨著人機互動時代的到來,這些道德理論可能需要盧西亞諾·弗洛里迪(Luciano Floridi)提出的所謂“分布式道德”來補充。根據這種觀點,局部層面的智能體相互作用,可以導致系統整體或宏觀層面的道德行為和集體責任感的增加。[4]另外,雖然AMAs必須以人類價值為目標被建構起來,但面對多樣化的文化價值系統、多元化的宗教傳統和無數的倫理理論,我們究竟該選擇哪種作為底層的設計框架?按照瓦拉赫和艾倫的觀點,弱人工智能的道德實際上是一種“操作性道德”,由設計者和使用者賦予意義;隨著復雜程度的增加,人工智能將會表現出所謂的“功能性道德”,它將使其自身具備道德決斷能力并能夠影響道德挑戰。[5](P6)這種劃分有助于我們明晰所談論的到底是指何種道德。不過,如果純粹從實用主義視角出發,那么人工智能是否有資格成為道德主體可能并不是最緊迫的問題,只要它們能夠像道德主體一般行動,盡可能地減少道德摩擦,而不惹是生非。從現實層面來講,那些在道德上具有卓越表現的智能機器會有更高的公眾認可度,能夠更加順利地融入到人類社會。這種可接受性的動力學來源可能來自以下兩個方面:一方面機器道德的研究要求深刻理解人類道德的發生、起源和機制。從這種意義上建構人工智能道德,可能要求我們更多地去思考如何從學習、進化和發展的角度去考察如何培養人工智能的道德感;另一方面機器道德的研究對于傳統的道德哲學發揮“反哺”功能,它能夠激發傳統的倫理學研究做出革新,甚至催生全新的倫理學體系。

二、人工智能道德算法

我們已經生活在算法時代,幾十年前,人們對于“算法”的認識主要是在數學和計算機領域?!爱斀?,文明社會的每個角落都存在算法,日常生活的每分每秒都和算法有關。算法不僅存在于你的手機或筆記本電腦,還存在于你的汽車、房子、家電以及玩具當中?!盵6](P3)事實上,算法已經成為當今信息社會的一種基礎設施,它們能夠引導甚至支配人們的思維與行動。因此,算法越來越多地參與到人類的道德生活將是一種必然趨勢。當然,有人會主張道德是不可計算的,反對用算法刻畫道德,甚至認為道德領域是技術擴張的禁忌之地。不過,人工智能對社會結構的滲入作用勢不可擋,算法的影響早已深入到文明社會的每個角落。

人工智能相關技術的核心主要體現在決策算法方面。人工智能道德算法的研究主要是指那些在道德上可接受的算法或合乎倫理的算法,它們使自主系統的決策具有極高的可靠性和安全性。從這種意義上講,道德算法是實現人工智能功能安全的一項基本原則和技術底線。那么,人工智能如何才能成為一個安全可靠的道德推理者,能夠像人類一樣甚至比人類更加理性地做道德決策呢?在此,我們首先需要明確人工智能是如何進行道德決策。也就是說,人工智能的道德推理機制問題。目前,相關研究主要沿著三個方向展開。

一是理論/規則驅動進路。這也被稱為自上而下的進路,它是將特定群體認可的價值觀和道德標準程序化為道德代碼,嵌入智能系統,內置道德決策場景的指導性抉擇標準。在這方面,人們最容易想到的是20世紀40年代艾薩克·阿西莫夫(Isaac Asimov)提出的“機器人三定律”:“1.機器人不可以傷害人,或者通過不作為,讓任何人受到傷害;2.機器人必須遵從人類的指令,除非那個指令與第一定律相沖突;3.機器人必須保護自己的生存,條件是那樣做與第一、第二定律沒有沖突。”[5](P1)從理論上講,伊曼紐爾·康德(Immanuel Kant)的道義論、約翰·密爾(John Mill)的功利主義和約翰·羅爾斯(John Rawls)的正義論等都可以成為理論驅動進路的理論備選項。早期機器倫理尤其是符號主義的支持者對理論/規則驅動模式情有獨鐘,但技術瓶頸和可操作性難題使得這種研究進路日漸式微。例如,有限的道德準則如何適應無窮變化的場景在技術上始終是個難題;如何調和不同的價值共同體對于不同的道德機器的需求存在種種現實困境;如何將內置某種道德理論偏向的人工智能產品讓消費者接受也是一個社會難題。[7]近年來,新興起的一種綜合運用貝葉斯推理技術和概率生成模型的研究方法為自上而下式的研究進路帶來曙光。[8]

二是數據驅動進路。這種自下而上的進路要求對智能系統進行一定的道德訓練,使其具備人類的道德推理能力,并利用學習算法將使用者的道德偏好投射到智能機器上。從根本上說,這是一種基于進化邏輯的機器技能習得模式。這種研究進路的支持者普遍持有一種道德發生學視角,主張道德能力是在一般性智能的基礎上演化而來,或將道德能力視為智能的子類而不是高于普通智能的高階能力。因此,他們是運用與人類的道德演化相似的進路展開研究的。如今,以深度學習(deep learning)為代表的數據驅動進路獲得了更多的擁躉。在人工智能道德算法的研究中,道德學習將成為人工智能獲得道德能力的關鍵。有學者提出,人工智能可通過閱讀和理解故事來“學會”故事所要傳達的道德決策模式或價值觀,以此來應對各種復雜的道德場景。[9](P105-112)不過,以深度學習為核心架構的決策算法是基于相關性的概率推理,不是基于因果性的推理,這使得道德推理似乎呈現出一種全新樣態。實際上,道德決策算法并不是獨立運作的,需要和其他算法系統聯合決策。當然,單單依靠學習算法是不夠的,甚至是有嚴重缺陷的。機器的道德學習嚴重依賴于訓練數據樣本和特征值的輸入,不穩定的對抗樣本重復出現可能導致智能機器被誤導,基于虛假的相關性做出道德判斷,從而做出錯誤的道德決策。而且,算法的黑箱特征使得道德算法的決策邏輯缺乏透明性和可解釋性。另外,道德學習還會受到使用者價值偏好和道德場景的影響,做出與使用者理性狀態下相反的道德判斷。例如,人們不自覺的習慣動作往往是在理智上要克服的,而機器學習很難對此做出甄別。從這個意義上說,人工智能既有可能“學好”,也有可能“學壞”。

三是混合式決策進路。自上而下和自下而上的二元劃分過于簡略,難以應對復雜性帶來的種種挑戰?;旌鲜降臎Q策模式試圖綜合兩種研究進路,尋找一種更有前景的人工智能道德推理模式。按照當前學界普遍觀點,混合進路是人工智能道德推理的必然趨勢,但問題是兩者究竟以何種方式結合。我們知道,人類的道德推理能力是先天稟賦和后天學習的共同結果,道德決策是道德推理能力在具體場景中穩定或非穩定的展現。與人類的道德推理不同,人工智能的道德推理能力在很大程度上是人類預制的,但這種能力并不能保證人工智能能夠做出合理的道德決策,因為道德決策與具體場景密切相關,而場景又是極其復雜和多變的。因此,當智能機器遭遇道德規范普適性難題時,到底該如何解決?這不僅是技術專家所面臨的難題,更是對共同體價值如何獲得一致性的考驗。面對具體場景,不同的道德規范可能發生沖突,也可能產生各種道德困境,究竟該以哪種標準優化道德算法,價值參量排序的優先性問題將會變得越來越突出。按照瓦拉赫和艾倫的分析,在眾多的候選理論中,德性理論將有可能成為一種最有前景的開發人工智能道德決策能力的模型。[5](P102-109)德性倫理將人們對后果與責任的關注轉向品質和良習的培養,因為這是好行為的保證,而這種道德良知的獲得被認為恰恰需要混合式進路來完成。

三、人工智能設計倫理

人工智能的設計倫理需要從兩個維度展開:一方面,設計和研發某種人工智能產品和服務之前,設計者或制造商要有明確的價值定位,能夠對其所產生的倫理和社會影響有總體預判;另一方面,人工智能為消費者提供服務的過程中如果出現價值偏差,系統內置的糾偏機制能夠有效地防控危害繼續進行,防止危險的發生。例如,數據挖掘技術可能將隱藏在數據中的偏見或歧視揭示出來并運用到行動決策,但機器自身很難像人類一樣自覺地抵制一些個人偏見或歧視,這要求通過技術手段和社會手段聯合消除偏見或歧視。

那么,如何才能設計出符合人類道德規范的人工智能呢?概言之,面對在智力上日趨接近并超越人類的人工智能,設計者要設法賦予其對人類友善的動機,使其具備特定的道德品質,做出合乎道德的行為。設計人工智能使得它們能夠充分發揮特定的功能,同時又遵從人類道德主體的道德規范和價值體系,不逾越法律和道德的底線。但是,人工智能不可能自我演化出道德感,其工具性特征使得對它的利用可能出現偏差。因此,在設計人工智能產品和服務時,尤其應當努力規避潛在地被誤用或濫用的可能性。如果某些個人或公司出于私利而設計或研發違背人性之善的自主系統,那么公共政策的制定機構有必要提前對這些誤用和濫用采取法律和倫理規制。如果具有高度自主性的系統缺乏倫理約束機制和價值一致性,那么在其尚不成熟階段被開放使用,其后果令人堪憂。因此,為人工智能系統內置良善的價值標準和控制機制是必要手段,這是保證智能系統獲得良知和做出良行的關鍵。

人工智能應該更好地服務于人類,而不是使人類受制于它,這是人工智能設計的總體的價值定位問題。2016年,國際電氣和電子工程師協會(IEEE)發布《以倫理為基礎的設計:在人工智能及自主系統中將人類福祉擺在優先地位的愿景》(第一版),呼吁科研人員在進行人工智能研究時優先考慮倫理問題,技術人員要獲得相應的工程設計倫理培訓。IEEE要求優先將增進人類福祉作為算法時代進步的指標。人工智能設計倫理是解決安全問題的必要措施,旨在保證優先發展造福人類的人工智能,避免設計和制造不符合人類價值和利益的人工智能產品和服務。2017年12月12日,IEEE《人工智能設計的倫理準則》(第二版)在全球同時發布,進一步完善了對于設計者、制造商、使用者和監管者等不同的利益相關方在人工智能的倫理設計方面的總體要求和努力方向。

人工智能產品制造者和服務提供商在設計和制造人工智能系統時,必須使它們與社會的核心價值體系保持一致。在這方面,IEEE《人工智能設計的倫理準則》闡述的人工智能設計“基本原則”為我們提供了很好的啟示:第一,人權原則。算法設置應當遵循基本的倫理原則,尊重和保護人權是第一位的,尤其是生命安全權和隱私權等。第二,福祉原則。設計和使用人工智能技術應當優先考慮是否有助于增進人類福祉作為衡量指標,要避免算法歧視和算法偏見等現象的發生,維護社會公正和良序發展。第三,問責原則。對于設計者和使用者要明確相應的責任,權責分配和追責機制是明晰的,避免相關人員借用技術卸責。第四,透明原則。人工智能系統的運轉尤其是算法部分要以透明性和可解釋性作為基本要求。第五,慎用原則。要將人工智能技術被濫用的風險降到最低,尤其在人工智能技術被全面推向市場的初期,風險防控機制的設置必須到位,以贏得公眾的信任。[10]

人工智能的設計目標是增進人類福祉,使盡可能多的人從中受益,避免造成“數字鴻溝”。智能技術的革命性進展可能會改變當前的一些制度設計,但這種改變不能偏離以人為本的發展結構,應當堅守人道主義的發展底線。技術設計不能逾越對個人和自身合法權益的控制權,制度和政策的設計應當維護個人數據安全及其在信息社會中的身份特質。如果人工智能系統造成社會危害,相應的問責機制應當被有效地調用。實際上,這是要求相關管理部門能夠提前制定規則和追責標準,使得智能系統的決策控制權最終由人類社會共同體掌握。按照阿米塔伊·埃齊奧尼(Amitai Etzioni)和奧倫·埃齊奧尼(Oren Etzioni)的建議,從技術自身的監管角度考慮,應當引入二階的監督系統作為智能系統的監護人程序,以此來防控人工智能技術的潛在風險。[11]對于社會監管而言,人工智能的政府監管機構和相關行業的倫理審查委員會對于智能系統的使用數據和信息具有調取權,并且能夠對系統的安全性和可靠性進行風險評估、測試和審計,公眾也有權知曉智能系統的利益相關方及其倫理立場。

確保人工智能的算法設計合乎倫理,是一個復雜的社會工程,需要整合各個方面的專業資源,進行跨學科的協作研究。為了提高智能機器的環境適應性,在為智能系統嵌入人類價值時,要平衡和分配不同的道德、宗教、政治和民族風俗習慣等因素的權重,使人工智能系統的設計能夠最大限度地符合人類社會的價值標準。人工智能的倫理問題的妥善處理需要多方合作,產業界和學術界應形成聯動機制,共同推進以價值為基礎的倫理文化和設計實踐。為此,下列措施對于實現上述實踐目標是必要的:第一,需要發揮算法工程師的技術專長,提高他們對特殊場景中倫理問題的敏感性和工程倫理素養,確保智能系統促進安全并保護人權;第二,需要人文社科學工作者加強對人類心智運轉機制和人工智能道德決策機制的研究,能夠為人工智能的相關倫理議題提供思考框架和辯護理由,使公眾認識到智能系統的潛在社會影響;第三,需要審查和評估機構嚴格行事,提高人工智能系統與人類道德規范體系的兼容度;第四,需要公眾參與、表達訴求和提供反饋。

四、人工智能社會倫理

隨著人工智能和自主系統逐步嵌入到社會生活的方方面面,人類與機器的關系將變得越來越復雜,由此所引發的社會倫理問題將變得越來越突出。如果人工智能的復雜程度不斷提高,越來越具有人性,那么“恐怖谷”(uncanny valley)現象是否會真實發生?雷·庫茲韋爾(Ray Kurzweil)預言的“奇點”(人工智能超越人類智能的點)是否真的已經臨近?比人類更聰明的人工智能是否對人類“友好”,抑或損害人類福祉,甚至異化為劉易斯·芒福德(Lewis Mumford)所說的統治人類的“巨機器”?如果人工智能進化為超級智能體,是否像科幻電影所描述的那樣反叛人類,奴役人類,甚至最終會消滅人類?在未來社會,人工智能如何造福于人類社會,避免被居心叵測的人類個體或團體操控,危害或奴役他人。人類如何適應和引導新型的人工智能社會,這些都是值得深入探討的問題。這類問題的倫理學探討并不直接著眼于幫助我們建構AMAs,也不能僅僅局限于未來學、科幻作品式的想象和哲學的思想實驗,而應該開展特定的定量分析來研究,完善技術風險評估體系建設,權衡災難發生的可能性,并做好積極的預防措施。

事實上,如何善用和阻止惡用人工智能才是人工智能社會倫理研究的關鍵問題。這個問題的落腳點在于優化人機合作關系,建立一種能夠使人類與智能機器相互適應和信任的機制,使人工智能建設性地輔助人們的生產和生活。在這方面,當前討論最多也最為實際的是人工智能是否會取代人們的工作,引起大規模的技術性失業?人們擔憂,強大的人工智能可能導致很多失業人員完全無法找到合適的工作,進而使得社會結構變得不穩定。牛津大學對美國勞工統計局描述的702種職業所需技能進行定量分析:“美國47%的工作極有可能會被高度自動化的系統所取代,這些職業包括的很多領域的藍領職業和白領職業?!瓱o論你接受與否,高達50%的就業崗位在不遠的未來都有被機器占領的危險?!盵12](P147)回望歷史,每一次技術革命都可能導致失業,很多工作崗位、工種和技能被淘汰掉。與此同時,技術革命也創造出很多新的職業和工作機會。不過,這次智能革命所具有的顛覆性可能不同于以往,它甚至有可能重新定義人們對于勞動的觀念。如果人工智能最終導致大規模的失業潮,如何滿足作為人們基本生活需要的勞動權,社會穩定如何得到維護,社會保障制度如何負擔失業人員的生活?對于這些問題,學術界和政府相關部門從現在開始就需要展開深入研究。

人工智能的深入應用還將涉及更大范圍的公平和正義的問題。歷史證明,新技術可以消除基于舊技術的不平等,但也可能產生新的更大的不平等。不同國家、地區和人群在獲得人工智能的福利方面可能存在不公平和不平等問題,導致“人工智能鴻溝”。如何避免這場技術革命引起新的差距,讓更多的人獲益,避免欠發達地區和弱勢群體在技術福利分配中再次陷入被動地位,彌合“人工智能鴻溝”,是人工智能社會倫理研究的焦點。從技術角度看,在算法時代,人工智能系統對數據的需求幾乎是無限的,這勢必涉及個人信息安全和隱私權等問題。為了應對可能的倫理風險,隱私政策和知情同意條款需要得到相應的更新,商業機構在對信息進行數據挖掘和價值開發時要遵循相應的倫理規范。數據共享方式有待創新,以維護數據安全,保護隱私權和個人信息權將是人工智能社會倫理研究的重點領域。

在一些具體領域,人工智能的深入應用已經產生較為熱烈的倫理討論和媒體關注。在軍事方面,是否應該限制或禁止使用致命性自主武器系統(lethal autonomous weapons systems,簡稱LAWS)的話題備受熱議。LAWS真的能夠做到“只攻擊敵人,不攻擊平民”嗎?它們在不需要人類干預的情況下,能夠像人類戰士一樣遵守道德準則嗎?如果LAWS可以上戰場作戰,那它抉擇目標生死的標準該由誰來制定?2015年7月,一封要求停止研發致命性自主武器系統的公開信獲得了3萬多人簽名,其中包括斯蒂芬·霍金(Stephen Hawking)、埃隆·馬斯克(Elon Musk)及眾多人工智能領域的專家。在他們看來,自主武器系統具有極大的風險,一旦被研發成功并應用,就可能被恐怖組織掌握,這對于無辜平民是巨大的安全威脅,甚至有可能引發第三次世界大戰。[13]在醫療領域,隨著醫療影像診斷的精準度的不斷提高并超越醫生,人工智能技術可能被廣泛應用于疾病診斷,如果出現誤診,責任究竟由誰來承擔?人工智能技術同時也加大了醫療數據泄露的風險,醫療機構保存的病人健康數據和電子病例有可能被不恰當地進行價值開發,如何合法地收集和管理這些數據已經成為近年來學術界研究的熱點話題。近年來,美國某公司制造出性愛機器人的消息曾一度引發輿論熱議,支持和反對之聲不絕于耳。類似的仿真機器人的出現是否會對人類相互之間的情感構成損害,是否對人們的婚姻觀念和社會制度造成沖擊,等等。

近年來,美國和英國等先后發布國家人工智能戰略報告,大力推動人工智能及其相關產業的發展。我國也極其重視人工智能和自主系統的研發和應用,2017年7月8日,國務院發布《新一代人工智能發展規劃》(以下簡稱《規劃》),將人工智能倫理法律研究列為重點任務,要求開展跨學科探索性研究,推動人工智能法律倫理的基礎理論問題研究。《規劃》對人工智能倫理和法律制訂了三步走的戰略目標:到2020年,部分領域的人工智能倫理規范和政策法規初步建立;到2025年,初步建立人工智能法律法規、倫理規范和政策體系;到2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。《規劃》指出,人工智能的迅速發展將深刻改變人類社會生活、改變世界,但人工智能可能帶來改變就業結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰國際關系準則等問題,要求在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。

結 語

我們必將生活在一個人機共生的時代。人類與機器之間勢必將發生各種沖突和矛盾,這些很難僅僅靠法律和制度來完全解決,人工智能倫理研究對于人機合作和信任將是必要之物。雖然我們對倫理學指導人們日常生活的道德決策常存疑慮,但是倫理學理論可以為智能機器的道德決策提供指南將是基本事實?,F階段,有很多人鼓吹我們正處在智能革命過程中,但這場革命并不能被無限制地夸大?!霸谥悄鼙l的前景下,我們人類就像拿著炸彈玩的孩子?!M管我們把炸彈放到耳邊能夠聽到微弱的滴答聲,但是我們也完全不知道爆炸會在何時發生。”[14](P328)類似的未來學家式的擔憂、科技精英的猜想和科幻電影式的描繪雖然能為我們的倫理思考提供素材,但這些可能并不是我們實際上將會真實遭遇的情境。著眼于現實,人工智能倫理研究的目標始終是要給人工智能一顆“良芯(良心)”,使其像人類那樣能夠明辨是非,進而才能“行有德之事,做有德之機”。從這種意義上講,“機器之芯”和“人類之心”的研究是相得益彰的。這些研究能夠使得我們發現人造物與人類更多的相似性和差異性,恰恰是這些將會使我們更加明白“我們到底是誰”和“我們在做什么”。因此,人工智能倫理研究恰恰是對德爾斐神廟門楣上的神諭“認識你自己”的最好詮釋。

猜你喜歡
人工智能人類智能
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 成人国产小视频| a级毛片网| 久久久久夜色精品波多野结衣| 久久91精品牛牛| 国产女人在线观看| 午夜不卡福利| 久久永久免费人妻精品| 亚洲午夜18| 欧美日韩在线亚洲国产人| 国产成人夜色91| 国产在线拍偷自揄拍精品| 国内精品九九久久久精品| 天堂av高清一区二区三区| 欧美成a人片在线观看| a级毛片免费网站| 欧美一级99在线观看国产| 99久久国产综合精品女同 | 国产在线欧美| 青草视频免费在线观看| 狠狠做深爱婷婷综合一区| 国产综合色在线视频播放线视| 欧美成人区| 亚洲一区二区约美女探花| 特级精品毛片免费观看| 99精品这里只有精品高清视频| 久久久久亚洲精品无码网站| 亚洲无码高清一区| 亚洲人成网站日本片| 婷婷色在线视频| 国产成人一区在线播放| 亚洲无码37.| 91久久青青草原精品国产| 亚洲综合香蕉| 亚洲欧美自拍中文| 国产第八页| 在线观看无码av免费不卡网站| 欧美精品aⅴ在线视频| 欧美不卡视频在线| 亚洲精品桃花岛av在线| 久久婷婷五月综合色一区二区| 色噜噜狠狠狠综合曰曰曰| 亚洲天堂视频在线播放| 国产xxxxx免费视频| 91久草视频| 成人国产精品2021| 手机精品福利在线观看| 国产青榴视频在线观看网站| 午夜丁香婷婷| 欧美在线三级| 成人蜜桃网| 国产精品免费p区| 国产黑丝视频在线观看| 国产女人综合久久精品视| 在线观看亚洲人成网站| 国产欧美视频在线观看| 亚洲人成人无码www| 亚洲精品老司机| 欧美日韩一区二区三区在线视频| 伦伦影院精品一区| 亚洲最大情网站在线观看| 日本一区二区三区精品AⅤ| 小说 亚洲 无码 精品| 亚洲色图欧美在线| 欧美一区二区三区欧美日韩亚洲| 婷婷五月在线视频| 爽爽影院十八禁在线观看| 亚洲一区二区约美女探花| 亚洲中文字幕久久无码精品A| 精品久久777| 亚洲欧美在线看片AI| 欧美一级特黄aaaaaa在线看片| 亚洲精品麻豆| 国产精品永久久久久| 欧美性久久久久| 3D动漫精品啪啪一区二区下载| 中文字幕一区二区人妻电影| 久久久久国产精品免费免费不卡| 国产精品白浆在线播放| 无码高清专区| 国产精品福利尤物youwu| 亚洲成在线观看| 女人18毛片一级毛片在线 |