潘宇翔
2017年12月24日,第四屆全國賽博倫理學暨人工智能倫理學研討會在湖南長沙召開。本次會議由中國自然辯證法研究會科學技術與工程倫理專業委員會、國家社科基金重大項目“大數據環境下信息價值開發的倫理約束機制研究”課題組、湖南師范大學公共管理學院、湖南師范大學人工智能道德決策研究所、教育部人文社科重點研究基地湖南師范大學道德文化研究中心和《倫理學研究》雜志社聯合舉辦。來自中國科學院、上海交通大學、國防科技大學、華東師范大學、華南理工大學、中南大學、湖南師范大學、杭州涂子沛數據科技咨詢有限公司和紅網等高校、企業和媒體五十多名代表參加了會議。大會圍繞“大數據時代的信息倫理與人工智能倫理”這一主題,探討人工智能的道德哲學、道德算法、設計倫理和社會倫理等問題。
國家社科基金重大項目“大數據環境下信息價值開發的倫理約束機制研究”課題組首席專家、湖南師范大學人工智能道德決策研究所所長李倫教授簡要介紹了該所的發展歷程、宗旨和任務、研究團隊和在研項目、學科和研發平臺等,并做了題為“人工智能倫理研究的四大板塊”的報告。他根據人工智能的特征及其與社會的關聯,以及目前全球人工智能倫理研究的狀況和趨勢,認為人工智能倫理研究可概括為四大板塊:人工智能道德哲學、人工智能道德算法、人工智能設計倫理和人工智能社會倫理。這些板塊相互關聯,又擁有相對獨立的討論域。人工智能道德哲學主要探討傳統道德哲學如何面對人工智能的挑戰以及人工智能如何促進道德哲學的發展;人工智能道德算法主要研究如何開發道德算法并將其植入人工智能,使人工智能能夠做出合乎道德的決策;人工智能設計倫理主要關注人工智能設計和制造的倫理準則,使人工智能的設計與人類價值保持一致;人工智能社會倫理主要探討人工智能應用的社會后果,探討如何善用和阻止惡用人工智能,使人工智能造福于人類。
顏青山認為,人工智能的道德地位問題是一個真正新的道德難題,它可表述為“我們如何確定人工智能是或不是一個人格實體?”解決這個難題涉及“他心難題”及其變種“機心難題”。解決他心難題的方案對人工智能都可能是失效的。機心難題本質上是一個元倫理學或道德形而上學問題,但這個在元倫理學層次無法解決的問題可以在規范倫理學的層次上得到解決。他根據人格倫理學和手段倫理學的規則提出對待人工智能的原則——“選言命令式”:一個實體及其運行,要么冒犯了人,要么尊重了人。應該將一個冒犯人的實體看作既非目的也非手段的實體:當它是心靈實體時,限制其自由;當它是非心靈實體時中止其運行。應當尊重一個尊重你的實體的運行規則:當它是心靈實體時,尊重其本身;當它是一個非心靈實體時,尊重制造它的人。
盧卡斯-彭羅斯論證是指“利用哥德爾不完全性定理可以得出人心勝過機器(圖靈機),心靈是不可計算的。”費弗曼指出彭羅斯論證的疏忽,試圖調和機械論和反機械論的完全對立,并提出開放模式的公理系統表示心靈的數學能力。劉大為認為,盧卡斯-彭羅斯論證需要加上一些理想化的假設,尤其應該對彭羅斯論證中“F是健全的”這一斷言予以澄清和補充,并在借鑒盧卡斯-彭羅斯論證和費弗曼論證的基礎上,考慮數學理解力和環境的重要性,嘗試提出基于完全開放的數學形式系統的心靈模型。
李熙通過“無免費午餐定理”說明機器學習為了獲得通用性為什么必須訴諸形而上的“善”,但僅有形而上的基本“善”遠不能保證智能體的行為符合人類的主流價值觀,為確保人類利益,還需要為機器賦予人類的價值觀,最直接的方式是為機器賦予符合人類利益的效用函數,但智能體在計算期望效用最大化、以追逐功利主義的“善”的過程中,不可避免地會侵占人類的資源。為了讓機器符合人類利益,保留關機中斷權,把風險降到最低限度,需要巧妙融合形而上的“善”與功利主義的“善”,進行“先驗”與“效用”的轉化,并靈活運用逆強化學習或價值強化學習。
張含認為,延展心智論題近年來在認知科學與心智哲學領域獲得了廣泛的關注與討論。按照延展心智論題,作為心智重要組成部分的信念、欲求等心理狀態并非局限于人類生理系統的界限之內,在某些情況下它們還可以由外部物理載體所實現。延展心智論題一經提出就挑起了一場曠日持久的“心智邊界之爭”。哲學家、認知科學家理查德·赫斯明克將“心智邊界之爭”推進至“自我邊界之爭”,主張顱骨體膚并非自我與世界的固定邊界,自我與心智同樣可以延展于世界之中。張含對所謂“延展自我”進行批判性分析,捍衛自我的傳統邊界。
孫保學認為,人工智能算法倫理研究的內涵即為算法在道德上的可接受性問題。這種可接受性的價值導向會使研究者的興趣和關注點主要聚焦于以下兩類算法:人類很難預測其行為后果的算法,以及算法造成的事實背后的決策邏輯難以解釋的算法。算法所引起的倫理問題與其他技術引起的倫理問題具有明顯的不同。算法倫理的問題域需要從算法的自主性特征、應用性場景和歸責性困境三個方面來劃定,并以此為基礎對算法的倫理風險進行分析。
張衛認為,隨著自動駕駛汽車的出現,“電車難題”呈現出新的特點。傳統“電車難題”中的道德決策者是人,而自動駕駛情景中的道德決策者是安裝在汽車之中的人工智能系統。傳統“電車難題”中的決策者自身不是決策結果的直接利益相關者,而在自動駕駛情景中,購買和使用自動駕駛汽車的車主既是事件的決策者,也是事件的直接利益相關者。
余露以羅爾斯式算法為例討論自動駕駛汽車的倫理算法及其限度。她認為羅爾斯式的算法在自動駕駛汽車應用中可能面臨三個方面的異議:一是生存與生存價值何者更為重要;二是會帶來反向不公,安全系數較高的自動駕駛汽車將成為“目標”;三是這是反直覺的。因此,我們需要重新認識羅爾斯“最大化最小規則”。最大化最小規則并非不確定性選擇的可靠指導,它僅在某些境況下有效,而且它還有一些限制條件,如正義的主題是社會的基本結構,自由具有優先性,公平的機會優先于差別原則。
李楊從實驗倫理的角度談論了自動駕駛汽車,并對人工智能道德決策提出了建議。他調研的結果顯示:第一,人們對人工智能抱有高度期望。第二,人們將道德責任轉向其他不在場的人而非人工智能。第三,在人工智能的倫理研究中采用實驗和調查的方法能夠為我們提供充分的數據資源,可以根據人們對待人工智能的態度構建人工智能的道德體系,使其做出符合公眾期望的道德決策,由此謀劃出一套適應于公眾道德意識的人工智能的道德規范和道德決策程序。
王淑慶認為,要使人工智能體的行動符合相關倫理規范,最好使其具有道德決策的能力,可設想的必要工作之一是把倫理原則或規則形式化。盡管形式倫理學的初衷并不是面向人工智能,但其做法卻適用于人工智能。倫理規范的形式表達必須基于某種邏輯語言及其推理規則,而經典邏輯是不夠的,所以有必要發展與行動、道德相關的邏輯來適應形式倫理學的需求。從單主體的角度看,能動性邏輯是形式倫理表達最為合適的邏輯。人工智能體之間或人機之間要實現協作行動,目前最為可行的邏輯基礎是多語境系統。
閆坤如從如下方面討論了智能機器人的設計倫理。第一,從機器人設計目的上明確機器人用途,使智能機器人的種類高度專業化,減少“萬事通”型機器人,做到專機專用。第二,機器人設計應以安全性為目標,不得利用機器人的法律真空做出逾越法律的事情。第三,機器人的設計者要對可能出現的倫理問題做出足夠的論證,使機器人的設計有益于人類。第四,機器人的設計要關注公平和正義,避免擴大主體間權力、地位上的差距。
文賢慶認為,人工智能作為一種技術必然帶有價值偏好。首先,技術出現其中的社會體制、實踐和態度已經預先存在社會價值;其次,技術本身是有條件的;最后,技術使用環境中總會出現突發情形。也就是說,人工智能的設計不可能是價值中立的,它總是受到個人主觀意圖和社會價值的左右。如果說設計倫理還只是揭示了人工智能作為技術不可避免地帶有價值偏好,必然導致倫理問題,那么人工智能帶來的應用倫理問題將會把這些具體問題進一步展開。
董軍以關注隱性知識的心血管疾病分析為實例,認為人工智能經過六十多年的成長,基本觀念似已“飛入尋常百姓家”,而其進步依然有待宏觀的方法論指導和微觀的認知神經科學結論的支撐。從智能模擬的核心是思維模擬出發,問題之一是長期積累的經驗中的難以言表的隱性知識的挖掘與刻畫,包括對象特征識別、推理規則精化等,需要機器學習和邏輯推理的融合。
陳自富針對歷史上人工智能研究綱領若干經典的沖突,從科學研究綱領方法論的問題轉換角度指出,作為技術科學的人工智能理論的多元化競爭格局將長期存在,科學和技術實踐對經驗上的反常具有較強的解釋能力和容忍度,很難從個別的判決性實驗出發實現研究綱領退化的問題轉換。我們應基于這些特點,對人工智能理論的未來發展做出更加全面的預測或判斷。
孫偉平認為,人工智能具有積極的社會效應,但由于人們思想觀念滯后,政策取向不清晰,倫理規制缺失,法律法規不健全,人工智能使人類面臨巨大的不確定性和風險,造成諸多社會價值沖突和倫理困境,如挑戰人的本質和人類的道德權威,沖擊傳統的倫理關系,造成數字鴻溝,解構社會。我們必須對人工智能及其應用后果進行全方位的價值反思,制定智能社會的價值原則與綜合對策,立足“可能性”審慎地決定“應該”怎么辦,確立不容逾越的基本價值原則,啟動“興利除弊”的社會系統工程,將人工智能納入健康發展的軌道。
童光政指出,大數據時代的信息倫理與人工智能倫理問題是不可回避的重大問題。人工智能對個人隱私、經濟安全、就業結構和社會穩定具有多重影響,對現行法律和社會倫理構成挑戰。面對這些新問題和新挑戰,我們必須深入討論并提出一套具有技術操控性和價值合理性的規范體系,如秩序、安全、平等、正義、高效等價值,在此基礎上提出人工智能在各領域應用中的具體規范,確保人工智能安全、可靠、可控的發展。
杜嚴勇認為,無論人工智能是否會超越人類智能,人工智能的安全問題都是人工智能社會倫理的核心問題。他認為解決安全問題至少有內部、外部兩種進路。從內部進路來看,需要對人工智能產品進行倫理設計,對一些發展尚不成熟、容易引起安全問題與社會爭議的技術的應用范圍進行限定,限制人工智能的自主程度和智能水平,建立人工智能安全標準與規范。從外部進路來看,要增強科學家的社會責任意識,調整公眾的接納度和觀念,加強人工智能安全評估與管理。
石海明認為,在人工智能社會,軍事的時代意蘊將發生重大變革。從自然觀與戰爭觀來看科技正在顛覆思想,人工智能是導向后人類戰爭的橋梁,后人類戰爭正在崛起,后人類時代再次開啟了人類進化之路。我們必須對這些變革保持敏感,并做出及時的反應。
張煌認為,隨著無人機系統智能化水平和自治能力的不斷提高,原來作為純粹作戰手段的武器逐漸成為戰爭主體。無人作戰條件下人機集成共同扮演主體角色,沖擊正義戰爭理論關于責任主體與責任分配的固有認識,導致無人機的責任分配困境和責任轉嫁等問題。具有智能化特征的無人機成為戰爭責任的主體,還可能削弱定義軍人職責的道德根基。
涂子沛回顧了人工智能發展的三個階段,認為每一次發展的背后都是計算能力和數據容量的突破,計算能力和數據容量的突破就有深刻倫理意蘊。在第一階段,人工智能是在人賦予其知識之后來執行推理和分析的任務;人工智能發展到第二階段后,人類賦予人工智能知識;第三階段是機器學習。他對圖像人臉識別、語音識別等迅速發展的技術進行了討論,認為人與技術之間的關系呈現出一種異化,人越來越像機器,機器愈發具有自主性,這些問題需要社會各界進行深入討論。
(潘宇翔,湖南師范大學人工智能道德決策研究所研究生)