999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工道德智能體的發展路向*
——基于道德判斷問題的分析

2022-06-08 13:36:24
中州學刊 2022年5期
關鍵詞:人工智能人類智能

余 天 放

伴隨人工智能或自主式機器人在我們生活中的愈加介入,關于人工道德智能體(artificial moral agents, AMAs)的構想也得到更多的討論,而這些討論的目的在于回答這樣兩個問題:第一,一種具有自主行動能力的機器人應如何對待人類?第二,一種參與人類生活的機器人應如何有道德地行動?這兩個問題分別針對兩種不同的場景而被提出,前者僅將人工智能體(artificial agents)看作一類人造物,因此它們需要有道德地對待人類,或者至少對于人類而言是無害的;后者則將人工智能體看作一些類人(human-like)的存在物,它們需要像人類那樣擁有道德,既包括與人類的關系,也包括與其他人工智能體的關系。對于第一個問題,學者們經常會考慮應用阿西莫夫的三定律來作為限制機器人行為的規則,即便這些規則被表明為不適當的;對于第二個問題,學者們已提出了諸多在人工智能體中置入人類道德規范的建議,這些建議無疑推動了人工道德智能體的設計與發展,但同時卻并沒有使得人工道德智能體的發展路向問題得到真正的澄清。

據此,有關人工智能體能否有道德的討論中出現了這樣一種分歧:部分學者否定了一種賦予人工智能體以道德的構想,他們相信,由于機器人的道德責任歸屬是不同的,所以不應該期待一種能夠實現人類道德的人工智能體;與之相反,另一些學者則持有更為積極的態度,他們不僅提供了發展人工道德智能體的理由,同時也已經構想了多種實現方案,包括“自上而下的”“自下而上的”以及混合的方案等。針對這一分歧,我們將表明,在構想某種人工道德智能體時我們會被引向對于一種與人類道德能力相一致的智能體的期待,然而這個期待是誤導性的。我們更應該期待一種作為道德實體的人工道德智能體,它們將參與我們的社會活動,但并非真正的道德主體。

一、人工道德智能體的分類

在對人工道德智能體所可能具有的形式進行構想時,學者們會使用一些分類法(taxonomy)來區分不同類別或不同等級的道德智能體,其中最常見的有這樣兩種:一是由莫爾(James. H. Moor)所提出的按照人工智能體實現道德的程度而進行的分類;二是由艾倫(Colin Allen)等人所提出的按照人工道德的設計方案而進行的區分。這兩種分類法并不是相互排斥的,事實上一種綜合了這兩種方法的新方案能夠更加全面地總結現有人工道德智能體的發展。此外,分類法還具有的一個潛在作用則是為人們提供一個未來發展的預期目標,它通過展示一個等級次序而告訴我們應期待怎樣的人工道德智能體。對此,我們指出,莫爾的分類法中對于這個最終目標的設定是有誤的,它將我們錯誤地引向對于一種充分實現了人類道德的智能體的期待,并進而產生有關機器倫理的諸多爭論。

在莫爾的分類法中,他將機器倫理的可能形式區分為“倫理作用智能體”(ethical impact agents)、“隱性的倫理智能體”(implicit ethical agents)、“明確的倫理智能體”(explicit ethical agents)以及“完全的倫理智能體”(full ethical agents),這一區分是根據機器中所實現的倫理等級而做出的。第一等級的“倫理作用智能體”僅能夠被動地產生一些倫理效果,例如,我們應用機器設備取代了一些高風險、大勞動量的工作,從而產生了一些好的倫理效果,此時這些機器即被看作一類“倫理作用智能體”。第二等級的“隱性倫理智能體”在第一等級的基礎上實現了對于人類而言的安全性和可靠性,此時機器被編入了一定的代碼,從而保證它在與人類的互動中遵守既定的規則。莫爾舉例說銀行的自動取款機以及飛機的自動巡航模式即扮演了這樣的角色,它們將按照既定程序很好地完成自己的任務,從而避免發生與安全性相關的倫理問題。第三等級的“明確的倫理智能體”則能夠更為清晰地展現一些倫理范疇,并且能夠按照某種道德要求去進行決策或行動。在當前有關機器倫理的研發中,諸多計算模型或系統已朝向這一目標在進行設計,例如,MoralDM,Jeremy以及W. D. 等多個決策模型都被視為“明確的倫理智能體”,它們能夠根據被植入的道德算法而處理特定場景下的道德困境。最后是第四等級的“完全的倫理智能體”,它們實現了與人類的平均水平相似的道德判斷(moral judgment)能力,同時也被要求具有意識、意向性以及自由意志等,從而成為一類完全意義上的道德主體(moral agents)。很明顯的是,這類“完全的倫理智能體”目前只是一種可設想的方案,它的出現將依賴于我們在多久的未來能夠實現通用的人工智能。

此外,在艾倫等人的分類法中,人工道德智能體則按照在其中實現倫理價值的方式而被區分為“自上而下的”(top-down)、“自下而上的”(bottom-up)以及“混合的”(hybrid)三種類型。“自上而下的”方式要求將一種或多種道德理論和原則作為機器人進行決策時所遵循的規則,此時它們只需要考慮如何最大化某種道德價值(義務論方案)或者計算如何使得最終結果最優(后果主義方案)即可。與之相對的是,“自下而上的”方式則并不要求在機器中預先植入某些道德理論和原則,而是提供讓機器人在其中獲得獎懲的環境,從而使得它們能夠自主地產生對于道德價值的敏感性?!白陨隙碌摹狈绞讲糠值啬M了我們人類的道德教育,即將那些已得到普遍同意的道德法則以知識的形式植入另一個主體當中。然而這一方法所面對的挑戰是,不同的道德理論和原則之間可能存在沖突或者矛盾,以至于我們無法決定應選擇哪種道德原則去遵守,此時就出現了某種道德困境或者道德不確定的情況。此外,對于機器人來說,“自上而下的”方式還可能存在運行上耗時過長的問題,因為在處理任何一個行動決策的問題時都需要進行大量的計算,而這在面對一些瞬間的特殊情況時被認為是不可能的。因此,為避免這些問題,“自下而上的”方案要求我們模擬人類進化過程中道德價值的產生方式,通過設計一些場景或平臺而使得機器人可以自主地學習如何有道德地行動。然而這一方案也存在一些特定的困難,例如,讓機器自主學習將無法保證它們的道德行為是必然的,以至于可能出現我們無法預測的非道德行為。并且這種“自下而上的”設計所需經歷的時間是不可估的,最終的效果也是不確定的。據此,一種結合了“自上而下的”和“自下而上的”混合方案得到了部分設計者的青睞,例如,在一種名為LIDA(Learning Intelligent Distribution Agent)的認知結構中就同時使用了以上兩種設計方案,它通過區分反應層和元認知層來實現這一點。在反應層,機器人將通過監測情緒反應而限制機器人可能存在的一些傷害行為;同時,在元認知層,又植入了一些類似康德式絕對命令的規則來保證機器人的基本行為。

二、對發展人工道德智能體的批評

莫爾的分類法反映了直覺上人們對于發展人工道德智能體所擁有的這樣一種想法:我們應該讓機器也可以像人那樣有道德地行動。然而這一想法也許在觀念上有自相矛盾之處,就如同我們無法訓練一只獵犬既能夠自主地行動同時又符合人類的道德要求一般。因為對于獵犬這樣的自然物而言,自主性和有道德似乎是很難共存的。關于這一看法,學者們對人工道德智能體的發展提出了諸多詰難,而這些詰難總體上可以被區分為這樣兩種態度:一是設計人工道德智能體時所需面對的技術挑戰是無法克服的;二是讓人工智能體擁有道德的觀念是不適當的。

第一,如果一個機器可以擁有道德,那么我們需要考慮倫理規范如何從它的程序中產生出來,而這種方式已被艾倫等人歸納為上面的三種:“自上而下的”“自下而上的”以及“混合的”。然而這三種方式各自所面對的困難也是顯著的,并且這些困難反映了一個更加基礎的元倫理學問題:如何通過算法解決道德問題?也就是說,如果我們把人類道德構想為一系列的指令或代碼,那么此時會存在一個倫理規范向道德命題還原的問題,以至于部分的倫理學家可能會反對這樣一種結合了道德實在論和道德認知主義的觀點,而傾向于支持非實在論或者非認知主義的立場。或者他們至少質疑說,在人類中間沒有形成關于什么是“善”的一致性看法之前,如何讓機器人按照“善”去行動?此時,那種“自下而上的”方法似乎也無法繞開這一障礙,因為即便我們可以構造一種基于刺激—反應模式而行動的道德智能體,但我們依然很難說它就是一個真正意義上的道德主體,因為它可能并不明白自己為什么這么做,并且這樣做與“善”有怎樣的關系。此外,發展人工道德智能體還將面臨的一個技術性挑戰是,我們如何讓機器人理解并識別某一道德場景,從而可以準確、迅速地調動特定的算法來處理當前問題?對于人類來說,這一能力似乎已發展為一種道德直覺,以至于我們在面對一些典型狀況時會產生相應的道德情感來提示我們其中可能存在的道德價值。但對于機器人來說,我們又該如何通過設計而產生這種道德直覺,并且讓它敏感于特定的價值呢?再退一步來說,即使以上的問題都得到了解決,但任何一個實現了人類道德推理(moral reasoning)能力的機器人在某個場景下所進行的運算都是巨大的,我們似乎很難要求這個智能體能夠在極短的時間內完成對當下諸多可能性的運算,更不用說這些可能性能否完全體現預期的結果。因此,如果要實現機器倫理,我們至少需要克服這樣幾個技術上的困難:(1)在機器中實現的道德反映了人類的真實道德狀況,而不是部分人的道德,或者部分理論所支持的道德;(2)機器人能夠自主地做出道德判斷,具有價值敏感性;(3)進行道德推理時,所需要的運行時間是受限的。

第二,發展人工道德智能體可能在觀念上就是不可行的,因為這將有悖于它們只是一些機器的看法。與這一觀點相一致的批評是多樣的,例如,范·韋恩斯伯格(Aimee van Wynsberghe)等人指出,我們需要區分一個道德上可指責的情境和對一個道德角色的代表。當動物被人類訓練而用于一些治療的場景時,這些動物對于人類安全的保證只是處于一個道德上可指責的情境當中,而不是真正代表了一個道德角色,就像一個成年人所具有的那樣。因此,無論人工智能體未來的發展是怎樣的,我們都只可能把它們作為一類達到某種目的的工具或手段,而不可能被作為目的本身。與之相類似,通肯斯(Ryan Tonkens)提出了在發展機器倫理時所難以避免的“倫理上不一致”的問題,這就是說,機器所被植入的倫理法則將無法與創造它們時所需遵守的倫理法則一致。例如,在建造一個其行為符合康德式義務論的倫理機器人時,我們卻不能夠將它僅作為目的而不作為手段;或者在建造一個符合功利主義原則的機器人時,研發過程中所消耗的各種資源也明顯地破壞了“滿足最大多數人的最大幸?!痹瓌t。據此,從觀念上而言,對機器倫理的發展至少需要解釋這樣兩個問題:(1)我們應如何對人工智能體進行道德責任的歸屬,是歸屬于創造者還是歸屬于智能體本身?(2)在同一個倫理框架內如何實現創造人工智能體所遵循的道德規范與它們自身被植入的道德規范一致?

三、發展人工道德智能體的更多理由

盡管存在以上諸多反對發展人工道德智能體的理由,然而這些理由似乎并沒有對將道德規范植入人工智能體的現實計劃產生明顯的阻礙,特別是近年來在自動駕駛、醫療保健、增強現實技術等領域中對智能體的應用,人們更加期待一種具有較高道德水平的智能體的出現。因此,針對這樣一個現象我們需要考慮,仍然有哪些理由支持著我們發展人工道德智能體?這些理由是對于機器倫理的誤解還是對以上挑戰的回應?

福摩沙和瑞恩雖然給出了一個有關人工智能體之責任歸屬問題的解決方案,但他們并沒有真正回應批評者所隱含的這一質疑:為什么必須要讓機器人具有道德?因為一種明顯的可能是,我們可以始終讓人類扮演那個最終道德責任承載者的角色,即便當機器人需要在瞬間做出決定時,我們也可以通過對責任偏好的預先設定來解決這一問題,例如,讓智能體的使用者在利己偏好和利他偏好之間在先地進行程度選擇。因此,一種能夠為發展人工道德智能體進行更強辯護的觀點需要對我們的直覺進行解釋,即說明為什么我們會期待機器像人一樣有道德。這種直覺同樣也體現在莫爾的分類法中,他通過區分“明確的倫理智能體”和“完全的倫理智能體”來表明,我們似乎可以期待一種完全地實現了人類道德能力的人工智能體,只不過同時也需要實現我們對于人工智能體所期待的其他困難目標,例如意識、意向性、自由意志等。因此,讓機器人具有道德的直覺性要求很大程度上來自我們對于通用人工智能的期待,我們似乎無法接受一個高度類似于人的智能體卻是對道德無感知的。

四、人類道德判斷的方式與特征

在此,我們將給出一個關于人類道德判斷的一般性描述,這一描述的目的并不在于形成一個在解釋上具有較大前景的理論模型,而僅僅是通過對相關因素的考察來表明人類在做出某一道德決策時所可能受到的影響是怎樣的,并且我們將在較大程度上依賴于近年來的一些經驗性研究。

第二,道德原則。與機器倫理中的“自上而下的”方式相類似,人類道德的產生也存在這種“自上而下的”理解,即認為我們可以通過一系列道德原則的約束而產生做某事的動機或欲望。這一模式與道德認知主義者關于道德本質的看法相一致,他們相信,道德判斷以一種認知的方式起作用,我們通過將一些具有普遍意義的道德原則應用于特定情境即可獲知此時應怎樣行動。而這些道德原則能夠以命題的形式表達為一些具有真值的道德知識,同時具體的道德原則將由某個規范倫理學理論來確定,例如康德式的義務論或者密爾式的功利主義。因此,在道德推理時我們似乎進行了雙層的操作,第一層決定選擇哪條道德原則應用于此情境,第二層則在先地決定選擇哪個規范性理論。需要指出的是,第二層的決定可能是隱秘的,或者是模糊的,因此我們并不總是意識到它。雖然這一考慮道德動機產生方式的觀點近年遭到了道德非認知主義者的批評,然而,我們依然可以為一種弱化的立場辯護說,我們所具的道德動機和意向至少部分是來自道德原則的,否則道德教育就是不可能的。

綜上所述,人類的道德判斷涉及道德推理與道德直覺兩種能力,其中道德推理相關于某人所具有的信念、意向性以及道德原則等內容,而道德直覺則相關于某人的情感、情緒以及對于道德情境的識別等。并且海特、格林等人相信,在一般的道德場景中,我們只是使用我們的道德直覺處理相關道德問題,并且主要依賴我們的情感反應;而在一些復雜場景中,當我們的道德直覺無法準確給出相關道德判斷時,則會訴諸另一種基于理由的道德推理模式。據此,上文所引入的莫爾分類法中,“明確的倫理智能體”和“完全的倫理智能體”之間存在著設計上的本質區別,前者無論是采用“自上而下的”還是“自下而上的”設計方案,它們都只能在最大程度上實現道德推理的模式,而非另一種以情感為基礎的道德直覺模式。同理,當一些學者試圖通過在機器中植入人類道德原則的方式而實現人類道德時,即便我們接受此時在機器內部也許會產生一些具有內容的意向狀態,但這一模式仍然可能是非人類的,它只是實現了人類的道德推理能力,而非另一種依賴于情感、情緒的道德直覺模式。

五、從道德主體到道德實體

由于一種以推理規則為基礎的道德實現方案并不同于人類真正的道德判斷模式,因此莫爾的分類法事實上將我們引向了這樣一種誤區:“完全的倫理智能體”似乎是“明確的倫理智能體”的更高實現,前者是在后者的基礎上伴隨有意識、自由意志、意向性等。然而,根據我們在上文中所提供的理由,這兩種智能體之間存在著根本的區別?!巴耆膫惱碇悄荏w”被構想為對人類道德的完全復制,因此它至少需要同時實現道德直覺與道德推理兩種能力;并且更為重要的是,當我們能夠突破“機器意識”這一困難問題而實現了機器人自主的情感反應時,道德推理能力也將順利地被實現。相反,“明確的倫理智能體”更大程度上依賴于將人類道德規則編入機器算法中,而這就使得機器人不需要那種為人類所具有的“雙加工”模式,在面對任何道德情境時都只需要機器人按照既定規則運行即可。因此,從對于道德規則的遵守而言,“明確的倫理智能體”才是“完全的倫理智能體”的更高實現,后者將由于道德情感的存在而出現諸多道德直覺與道德推理不相一致的情況,此時一個近似于人的道德智能體也許會選擇根據道德直覺來行動,從而產生一些非道德行為。

基于這些批判性的主張,我們又應該對于人工道德智能體有怎樣的期待呢?事實上,這一問題首先是一個規范性問題,而不是關于我們在技術上能夠發展出怎樣的人工智能體的事實性問題?;蛘哒f,由于人工智能體并不是某種先于人類或者獨立于人類而存在的自然實體(natural entities),而是一類人造物(artifacts),因此我們需要提供一些發展它們的規范性標準,而非一個對它們未來之可能性的客觀觀察。而這些標準的提出和我們應在機器中植入怎樣的道德規范是兩個界限清晰的問題,前者相關于我們設計任何一種工具時所包含的道德責任,即使是一個“傻傻的吐司機”,我們也需要考慮它傷害到人類的潛在風險,只不過它的自主行動能力遠遠低于人工智能體而已;相反,在機器中植入道德規范卻是一種試圖實現真正道德主體的打算,在此過程中我們的目標是讓機器成為人類社會中的一員,而非一個工具。

在此區分下,人工道德智能體的發展路向得以明確:我們應期待某種具有較高自主行動能力的道德實體,而非某種道德主體。莫爾的分類法卻模糊了這一區分,由于他將“完全的倫理智能體”看作“明確的倫理智能體”的更高實現,因此將我們引向了對一種與人類相等同的道德智能體的追求。然而,在上文中我們已表明,在機器中所可能實現的道德判斷方式并不同于真正人類的道德判斷方式,因此我們并不應該期待“明確的倫理智能體”在未來能夠發展成為一種“完全的倫理智能體”,后者的實現更加依賴于對“機器意識”這些困難問題的解決,而非在機器中植入道德。事實上,這兩種道德智能體之間的差別正如飛機和一個“仿鳥”(bird-like)飛行器之間的差別。當我們試圖設計一架飛機時,我們并不必須完全地模擬鳥類的各方面能力,包括它們的飛行動作、對方向的感知,甚至它們的意識方式等,而僅需要部分地實現飛行的目標。相反,當我們需要設計一個能夠完全地模擬鳥類飛行方式的飛行器時,僅滿足空氣動力學的要求則是明顯不夠的,我們需要在先地實現對于鳥類意識的模擬,而這被看作是與空氣動力學的研究完全不相關的。

六、結論

通過對發展人工道德智能體的支持和反對意見的討論,我們指出,盡管在機器中實現道德的嘗試面對著諸多質疑,我們卻始終持有這樣一個強烈的直覺:機器應該像人一樣有道德地行動。這一直覺反映在莫爾有關道德智能體的重要分類當中,當他將“完全的倫理智能體”看作“明確的倫理智能體”的一種更高的實現時,就暗示了我們在設計人工道德智能體時應朝向某種“類人”的智能體,因為只有后者才是對于我們人類道德能力的充分實現。然而當代有關道德判斷的一些經驗性研究卻表明,人類在處理道德問題時依賴于一種“雙加工”模式,其中道德直覺和道德推理都是道德判斷所需要的,因此機器中根據規則而實現的道德判斷能力并不同于人類,從而一種“明確的道德智能體”也不能夠由于設計上復雜度的增加而達到“完全的倫理智能體”,后者更大程度上依賴于“機器意識”問題的解決。據此,莫爾的分類法事實上給我們帶來了一些對于人工道德智能體的誤解,他將我們引向對于“類人”智能體的期待,卻忽視了這兩類智能體在設計上的本質差別。

猜你喜歡
人工智能人類智能
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 中文字幕无码电影| 成人毛片免费在线观看| 日本手机在线视频| 国产成人亚洲无码淙合青草| 日韩毛片免费观看| 亚洲熟妇AV日韩熟妇在线| 2018日日摸夜夜添狠狠躁| 亚洲色图欧美在线| 亚洲国产精品成人久久综合影院| 日韩欧美中文字幕在线精品| 69国产精品视频免费| 午夜视频www| 18禁色诱爆乳网站| 日本黄色不卡视频| 欧美综合一区二区三区| 亚洲一道AV无码午夜福利| 国产幂在线无码精品| 国内a级毛片| 免费无码一区二区| 国产精品无码制服丝袜| 人妻丰满熟妇AV无码区| 日韩AV无码一区| 国产日韩久久久久无码精品| 成人福利在线免费观看| 三级国产在线观看| 午夜a视频| 日韩在线成年视频人网站观看| 免费一级毛片在线观看| 国产精品无码AⅤ在线观看播放| 91九色国产porny| 亚洲中文字幕国产av| 午夜毛片免费观看视频 | 99久久成人国产精品免费| 18禁黄无遮挡免费动漫网站| 国产中文在线亚洲精品官网| 久久午夜夜伦鲁鲁片不卡| 久草中文网| 四虎影视8848永久精品| 特级做a爰片毛片免费69| 国产国产人成免费视频77777| 欧美精品xx| 99精品视频播放| 十八禁美女裸体网站| 久久这里只有精品免费| 亚洲精品自在线拍| 广东一级毛片| 青青草国产在线视频| 国产丝袜无码一区二区视频| 色综合色国产热无码一| 国产91九色在线播放| 九九免费观看全部免费视频| 亚洲品质国产精品无码| 国产永久在线观看| 无码不卡的中文字幕视频| 亚洲有码在线播放| 国产乱子伦手机在线| 国产丝袜91| 在线无码九区| 成人亚洲视频| 国产精品高清国产三级囯产AV| 91综合色区亚洲熟妇p| 91精品专区国产盗摄| 国产一区三区二区中文在线| 69av在线| av在线手机播放| 国产欧美高清| 成人中文字幕在线| 精品午夜国产福利观看| 亚洲人成网线在线播放va| 尤物成AV人片在线观看| 丁香五月亚洲综合在线| 日韩AV手机在线观看蜜芽| 成人在线综合| 一级高清毛片免费a级高清毛片| 亚洲色图另类| www亚洲精品| 九色视频线上播放| 色网在线视频| h视频在线观看网站| 在线国产你懂的| 曰AV在线无码| 国产成人AV综合久久|