崔志根
摘 要:人工智能的研發與應用是為了給人類與人類社會帶來福利,促進人的自由全面發展的同時,也給個人、社會乃至國家層面帶來已經顯現或隱性的倫理困境,筆者將從人權困境、安全困境、責任困境三個方面對困境分別進行梳理和闡述,為探尋困境的根源和解決方案提供前提,以避免技術鴻溝,共享技術紅利,實現包容、普惠和可持續發展。
關鍵詞:人工智能;人權困境;安全困境;責任困境
分類號:B82-057;TP18
一、人權困境
人權這一問題是在近代才提出來,其普遍意義的概念得以確認也是在聯合國成立之后的事情。《聯合國憲章》和《世界人權宣言》等國際文書的通過,標志著人權觀念成為世界公認的意識形態。對人權的解釋也有法理學、政治學、哲學等多個維度,在哲學層面可理解為人之為人的權利,強調的人區別于動物的尊嚴與價值。人是有思想的人,與動物的不同,追求自我價值實現,人的最高級需求便是自我實現,成為一個完善人格、全面發展具有價值的人。
1.個人自由全面發展與片面化發展之間的矛盾
人工智能技術在兩者之間的矛盾體現在生產和生活兩方面。生產方面人工智能替代人類勞動可能導致人類身體機能與智力的蛻化。首先,科學技術發展導致人的被剝削程度加重;其次,社會分工的細化、行業門檻的提高導致的人的日常工作、學習更加專注于某一方面的提升,缺失了全面發展的條件與意愿,甚至喪失了基本自理能力;最后,科學技術的精細分工,專業化程度加深,對現代人造成強大的工作壓力和精神壓力造成大面積的生存焦慮,也正是科學技術發展對人的異化體現。
生活方面造成精神的膚淺與思想的匱乏。科學技術發展導致人的消費和需要畸形,人們的消費觀念被消費主義思想占據,科技產品引發人的符號消費與攀比消費,求新、求異的消費觀念被喧囂塵上的產品所引導、控制,使人失去自我,失去自主選擇權。人失去了對日常生活的正確認識并被裹挾其中而不自知,喪失了合理批判社會現實的能力,失去了自由、創造力和超越性,成為馬爾庫塞筆下“單向度的人”。
2.主體性問題
所謂的主體性只是近代歷史和近代哲學發展的產物,由于科學技術的發展,人類得以從自然、愚昧中解放出來,成為獨立、自主、有意識的能動性的人。獨立性、自主性、能動性和創造性作為主體性的四個基本表征,是人在具體實踐中所展現出來的:人的自我意識、自我決策、自我認同、自我超越,通過改造客觀世界與主觀世界實現自我的價值與尊嚴,實現人的主體性存在。但是,人工智能在生產、生活中的普及,會削弱人在自然界、人類社會中的主體地位,出現主體性危機。
一方面,人類喪失決策權力使我們的主體地位受到前所未有的挑戰。人工智能所具有的高效信息收集、分析、推理、決策能力是人類所難以企及的,通過人工智能對數據進行分析,得出“最優解”是專家系統、金融投資分析等人工智能產品的目的,人們利用“最優解”來做出決策,便是喪失了完全的自主決策權的先驗條件。另一方面,人工智能滲透的生產、生活的方方面面,而其技術準入門檻高,創新難度大,而日常被人工智能輔助下的大部分人類喪失能動性與創造性而成為無用的階層,正如尤瓦爾·赫拉利在《人類簡史》中提到的“人工智能技術的快速發展必然導致無用的階層的興起”。
3.人際關系的擴大化與人際孤島之間的矛盾
人工智能技術實現了人際關系的擴大化,互聯網把世界連起來,即使身在大洋彼岸也可以通過郵箱、聊天軟件接收到對方的文字、聲音、圖像。與此同時,人際孤島的問題也逐漸顯現:越來越多的人信奉“孤獨是人生的歸宿”,選擇獨身、獨居,甚至與虛擬人物結婚,“宅文化”盛行,個體與外界的隔離、小圈子與外界隔離,人活成一個孤島。
首先,人際關系擴大化分散了與身邊人建立親密關系的精力。人工智能時代下萬物互聯,新媒體的運用使人際網絡廣度拓展,社交范圍的擴大,人們更容易跨越距離,找到與自己志趣相投的群體,然而由此造成的信息繭房、自我封閉,同質化強化也伴隨著風險:走向狹隘與偏激,甚至影響人的思維模式、扭曲認知。其次,虛擬社群降低了人際交往的欲望,反而更愿意接受機器。人工智能機器人的設計充分利用大數據的算法推薦及深度學習,能夠比人更加“善解人意”,從而更好的滿足人的需求,繼而降低現實人際交往的欲望和必要性。最后,遠程虛擬溝通技術會進一步拉大了人與人交往的鴻溝,強化人際孤島效應。虛擬現實和遠程交往技術的發展使交往行為的真實性、正確性蒙上了迷霧,真誠性也難以得到確證,而面對面交流可能趨于日漸式微。人與人之間的信任被消磨,建立親密關系的難度增大,進一步強化人際孤島。
二、安全困境
人工智能的安全問題是業界最關注的問題之一,安全是人類最基本的生理需求,只有在保證人身、心理安全的前提下,一切便利、效率才有意義。本章將從個人安全、社會穩定、國家安全三個層面就隱私安全、分配公平、軍事運用為切入點展開,對人工智能可能帶來的安全隱患進行分析與探討。
1.大數據信息收集與個人隱私泄露之間的矛盾
人工智能的應用與推廣需要海量的個人信息數據作為前提與支撐。可以說,正是由于近幾年互聯網、大數據的迅速發展,才促成了人工智能技術第三次浪潮的興起。大數據的使用、算力的提高和算法的突破,可謂是驅動人工智能技術發展的“三駕馬車”,人工智能才得以快速發展、廣泛應用,并呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等新特征。人工智能越是“智能”,就越需要獲取、存儲、分析更多的信息數據,進而通過學習、模擬以提高自身在某個領域的能力。大數據要求對相關數據進行收集,醫療護理需要被服務對象的醫療數據,教育需要教育數據,必然會對個人的隱私造成侵犯,而獲取和處理海量的個人信息數據,不可避免會涉及個人隱私保護這一重要倫理問題。
2.科技成果創造與公平合理共享之間的矛盾
公正作為一種評價社會制度的道德標準, 始終有著不容忽視的重要價值。對于公平,羅爾斯強調機會公平,應該給予弱勢群體足夠的重視與幫助。習近平總書記強調讓發展紅利惠及人民群眾,共享發展成果。但由于市場機制的作用,社會資源分配存在馬太效應,從而導致了社會不平等現象的加劇。
可能導致人工智能成果公平惠及人類的影響因素貫穿了AI產品從研發設計到運營的全過程,每個環節都有偏離公平的杠桿,“失之毫厘,差之千里”,對技術紅利的公平分配和使用產生負面影響。如設計與應用過程中的算法偏見問題:性別歧視、種族歧視、行業歧視等等,AI產品與服務設計階段、分配過程中將受眾標簽化、圈層化;分配結果上貧富差距拉大成難以逾越的鴻溝,如擁有財富和權利的階層利用人機融合、芯片植入等技術實現體能強化、智力增強,而社會底層的普通人別無選擇反而被人工智能替代成為“無用的階層”。
3.人工智能軍事方面的運用導致國家間的安全困境
人工智能時代下,智能科技的快速發展加快了新一輪軍事革命的進程,新時代的國防和軍隊建設,面臨全方位深層次的改革創新與重塑。軍事領域的競爭正加速走向智權時代,戰爭的制勝機理將完全改變,戰爭形態、作戰方式、作戰能力等都會發生巨大變革。中國兵器科學研究院科技委副主任吳明曦預見:“未來,雖然大型有人作戰平臺會一直存在,但大多處于后臺和防區外,而在作戰前沿,戰場上有生力量的直接對抗將顯著減少,精確制導彈藥、蜂群武器、仿生機器人、機器人部隊作戰,將成為常態。”[1]
機器人作戰在大大降低傷亡率的同時,倫理問題也成為深思的話題。智能化降低傷亡成本的同時是否會增加軍備競賽的風險?自動化武器或自主武器是否有權利決定殺死誰?如何確保不會殺死平民、傷及無辜?機器如何正確判斷士兵投降還是詐降?如何解決程序算法的潛在安全風險?給用來殺戮的武器限定人道主義原則,本身就是對程度進行把控的難題。因此對于軍事領域人工智能化的變革應該慎之又慎,以維護國際安全與長治久安。
三、責任困境
由于人工智能本身具有安全風險,當其出現事故、對人造成傷害時,其具有的自主性、不可預測性等特征可能給責任承擔提出挑戰,使得受害人的損害無法獲得彌補。該如何定責也人工智能倫理研究的重要議題,歐盟、英國等開始考慮出臺新的責任規則,如通過保險、賠償基金等方式來分擔事故的損害,但對于責任困境的解決任重道遠。
1.責任主體地位的探討與確定
關于人工智能地位各方學者、專家眾說紛紜、各持己見:新工具主義者的代表人物布賴森(J.J.Bryson)認為其不具備承擔責任的能力,應該將機器人設計成奴隸,人類避免同情心泛濫,浪費不必要的人力、時間、資源成本,不具有主體地位;而持有機器倫理觀點的代表人物瓦拉赫和艾倫在其合著的《道德機器》一書中主張將倫理規則植入到機器之中,設計生產有倫理道德觀念的智能體。甘克爾也認同,如果智能機器人達到布魯克斯所形容的狀態,卻仍然把它們當做機器看待就是不道德的表現。
在探討是否認同賦予人工智能主體地位方面,首先要將人工智能體的設計為人類所接受,人具有排他性,在倫理道德方面對其他物種更明顯,如機器人的“人形化”是機器人外形設計的必然趨勢,尤其是以與人溝通交流為目的的具有人格的機器人,他們不僅需要與人類有肢體交流還需要面部表情的交流。其次,人之所以是人,能作為一個道德主體被對待,正是因為人具有自我意識、欲望、情感,而之所以能有這些情感,與人產生共情心理,能夠體會到客體的情緒;如果說情感是心靈的表達,那么理性就是大腦的外部展現。人工智能體應該具備倫理決策與理性思維,需要其行為表現符合倫理道德規范,在遇到倫理問題時能夠做出合理的判斷。這需要在提高智能機器人思維能力的同時,完善其所遵循的倫理算法。
2.法律責任問題
2017年國務院發布的《新一代人工智能發展規劃》中要求“要建立保障人工智能健康發展的法律法規,開展與人工智能應用相關的法律問題研究,明確人工智能法律主體以及相關權利、義務和責任等,為新技術的快速應用奠定基礎。”因此,首先對人工智能法律主體地位進行界定成為學界的重點研究課題。
從法律的進化變遷方面來看,法律文本與規定是隨著社會現實不斷變化和修正的,具備自主意識的強人工智能擔任一定社會角色融入人類生產尤其是日常生活中時,法律應當與時俱進,保持開放、靈活的態度,接納人工智能,在不同的場域對人工智能施行不同的法律規范,優化對人工智能時代下的人工智能體運用與人機關系,不僅利于促進人工智能產業健康發展,更有利于保障人類社會的平穩運行,增加便利性,提高人類的生活質量和水平。
3.道德責任問題
關于道德責任問題,亞里士多德在《尼各馬可倫理學》第三卷中,至少提出了以下幾個論點:(1)承擔責任的行為必須在我們的能力范圍之內;(2)該行為必須出于行為者本身的意愿,而不能是被迫的;(3)承擔責任行為的起始因不能是出于無知。[2]從這三個責任主體應當承擔責任的條件來對人工智能體能否承擔責任進行分析,人工智能體即使在被承認道德主體的前提下仍舊不能確定能否承擔道德責任。
所謂承擔道德責任更多是對道德主體主觀內心上的懲罰,有來自內在的羞愧之感,也有來自外界的道德審判。道德高尚的人往往以嚴格的道德準則要求自己,如果做了自己認為不道德的事情,會有自責、羞愧等情緒,無法原諒自己的行為,也就是內在的自我懲罰。而外在道德審判是通過謾罵譴責、甚至侮辱等方式,對其造成心理、精神方面的懲罰;或刺激喚醒其羞恥心,使其形成愧疚、自責等情感反饋。無論是內在還是外在,都需要以具有情感、良知、良善為前提。因此人工智能能否“通情理”對于人的處境“感同身受”具有了情感,是其承擔道德責任的前提要件。
參考文獻
[1]吳明曦.現代戰爭正在加速從信息化向智能化時代邁進[J].科技中國,2020(05):9-14.
[2][古希臘]亞里士多德.尼各馬可倫理學[M].廖申白,譯注.北京:商務印書館,2009:71-77.
(北京郵電大學 馬克思主義學院 北京 100876)