(蘇州科技大學,江蘇 蘇州 215001)
隨著現代社會飛速發展,高新科技在社會科技研發投入中的比重日益增大。技術的發展必然導致社會體系部分剝落重整,社會文化自然與倫理意識產生沖擊摩擦。
我們從來都沒有把倫理學認為是不可撼動的巨石。倫理學不是一成不變的頑固死規矩,隨著我們社會發展和科技進步,倫理學也會隨之被逐漸修正完善。我們不能打破的是倫理道德的基本底線而非被禁錮的倫理學本身,一味地追求維護先前的適用倫理學不做任何修正只會使整個社會的科技水平固步自封。當前倫理學要研究的不是如何守好倫理學,而是怎么在科學發展與倫理發展之間找到平衡的支點。
AI技術在人類文明史上大致有三個階段,1943年,兩位科學家沃倫·麥卡洛克和沃爾特·皮茨發表了論文 《神經活動中內在思想的邏輯演算》。這篇論文講述了計算機也可以進行深度學習,描述了如何讓人造神經元網絡實現邏輯功能,AI的大門正式打開。1956年達特茅斯會議提出人工智能的概念,并指出要用“人工智能”替代“人智能”。第二階段AI技術發展開始于20世紀七十年代,神經網絡算法備受追捧,掀起了一股研究AI技術的熱潮。現代AI技術自2006年多倫多大學杰弗里教授發表了三篇關于人工智能領域深度學習的論文,并提出了深度信念網絡的概念,基于大數據互聯網的全面普及,當代社會又進入了AI技術第三階段。現階段的AI技術已在云計算、健康醫療、政務國防、隱私保護、數據匿名化、衛星數據處理、網絡安全、工農自動化、自動駕駛、金融分析、材料科學等諸多方面有了廣泛發展。
AI技術仍有深遠的發展前景。許多學者一致認為,世界即將邁進“AI新時代”。于此同時,在陸續出現的云計算、手機語音人工智能、具有“行為主義”學習的AI程序、無人駕駛技術等創新性的AI技術逐漸走入人們生活的同時,AI換臉技術、腦機接口技術等直接依托于人應用的AI技術產生的倫理問題接踵而至,引發了全社會對AI技術安全倫理性的質疑,各國緊急叫停多個AI研究室并逐漸形成了基本的AI技術發展倫理制約規定。但即便如此,各項新興AI技術的面世仍伴隨著社會各界的質疑。
2017年IEEE新版人工智能與倫理報告中提出了:重視人工智能的邊界問題,提出了“鼓勵、限制、禁止”三種發展人工智能的政策。預告成立中科院“人工智能技術、倫理與法律聯盟”的合作平臺。可以見得,在目前世界范圍內,倫理關系已然成為制約AI技術發展的先決條件。不受倫理制約的AI技術發展也將打破人類生活的正常秩序,極大程度改變目前以人為主導的社會體系。
我國在語音識別、視覺識別、機器翻譯、中文信息處理等AI技術方面處于世界領先地位。依托《關于積極推進“互聯網+”行動的指導意見》、《“十三五”國家科技創新規劃》等國家扶持政策,我國至未來幾十年間都將把AI技術置于高新技術發展的重要地位。我國擅長的AI技術領域涉及較少的倫理問題,主要的發展風險來自于用戶個人數據泄露。
目前提出的用戶數據保護原則:第一,收集信息必須在用戶有感知的情況下;第二,要主動體現采集來的信息如何投入實際應用;第三,使用戶可以動態控制自身信息的應用場景。隨著我國AI科技的不斷發展,數據保護政策也在逐步完善。
全球范圍內的AI技術不僅局限于基礎人工智能發展,他們更多的不是縱向深入研究人工智能機器人、數據分析AI等。美國應用其目前擁有較為先進的AI科研技術,橫向探索類似AI換臉技術、基因重組AI模擬、各類對比檢測AI技術。據科研調查顯示年輕人、兼職、西班牙人和美國低收入人群反映受到AI技術進步影響最大,青中年男性對AI技術發展的關注度十分顯著。這也是為什么國外數據聯想產生的AI換臉技術多針對男性用戶研發。
隨著AI技術越發成熟,世界各國家、組織都制訂了國家級AI發展戰略,但是AI技術在全球的統一倫理標準尚不完善,還有待各國的溝通協商。
1.1 現代AI技術涉及的經濟倫理學
現代AI技術涉及經濟倫理學,狹義上與AI相關的企業經營倫理學。廣義上則包含組織和個人全部的經濟決策、經濟行為、經濟制度的倫理規范合理性。
經濟倫理學顧名思義,是研究倫理學與經濟學之間的現實聯系,主要任務是遵循兩學派間的基本原則解決實際生活中的沖突矛盾。經濟倫理學的學科本質在于使人們在通過發展AI科技獲取經濟利益的同時完善道德價值取向,通過協調利益關系規范科研過程,使AI技術的發展具有原則性,有確實的善惡取向,不盲目追求利益。
1.2 現代AI科技涉及的商業倫理學
科技最終的目的是流于商業,促進經濟。商業倫理學一向應用范圍較窄,在過去的長久發展中,商業的最終目的都被設定為獲取利益。如何搶占更多的市場,如何降低成本發展更多受人追捧的產品是每一個企業商人的追求。在獲取利益的道路上,很多人選擇了讓倫理妥協,這是商業社會中牢固的觀念。現代西方經濟學與此種理論相依相存,形成了一種牢固的商業體系,對全球商業模式也產生了深遠影響。
現階段AI科技如果遵循此種商業體系,追尋利益,亟待開發的就是關于讀取個人信息、操控個人意識、育成合成人胚胎等技術。部分商界巨富愿意拿出大筆資金資助研究室開發類似科技,他們認為這類AI科技的投入使用會產生翻天覆地的經濟動蕩,他們可以借此東風獲得機遇,賺取常人難以想象的利益。這些巨富和研究者各懷目的,以利益為發展目的,自然根本不會去考慮商業倫理,甚至任何擋在他們研發道路上的問題都會被認定為他們牟利的絆腳石。
商業倫理學在近代極速發展,因為人們終于看到了長期以來頻繁發生的企業失德行為,一次次破壞了商業秩序,極大程度阻礙了社會經濟發展。于是商業各界開始正視商業倫理學的重要性,并依次標準重新評判一個企業的價值發展前景。無秩序尋利的AI科技值此發展洪流將如逆水行舟,作為新興科技產業,研發標準尚不明確。我們也應該給予現代AI科技發展更加嚴格的商業倫理標準和企業管控。
1.3 現代AI科技涉及的人文倫理學
人文倫理學的核心在于個人本身。人文倫理中有一項重要的原則為:個人自治。即個人有生存、思考、探索、決定的權利,在不影響他人的情況下,任何人都有為自己的人生做出任何決定的權利。任何人意識形態的產生都該被尊重,這與現代AI科技探索人類思維網絡的過程產生了巨大的沖突。
人文倫理學所倡導的個人自治并不拋棄責任。其學科主張自由社會與責任共存,生活在社會中的每個人都有責任承擔起自身的義務。除此之外,社會對個人自由的形成才能予以庇護。這項原則即現代AI技術的發展成果不能僅基于小部分人的利益,AI技術的研發和應用必須基于整個社會的發展。
2.1 現代AI技術在科研中產生的倫理沖突
現代AI技術中僅在科研階段就被叫停或者多方限制的多為醫療技術,比如計算機編輯基因技術、腦機接口技術等。
直接作用在人身體上的神經科學和AI可能帶來比AI在其他領域的應用更深遠的倫理影響。腦機接口AI技術已初步實現了控制猴腦神經元活動,這一研究一經發布引發了世界各國的廣泛關注。部分醫學家認為依靠此技術在未來可以通過構建某種AI模型達到訓練、控制病人的大腦,治愈多種因大腦皮層功能異常產生的神經性疾病,例如人格分裂、癲癇、抑郁等。另一部分專家學者則認為無法保證全部醫者在醫治過程中不會窺探患者隱私,乃至暗示、控制病人的大腦。另一方面,掌握此項科技的科學家可以通過不法手段設計AI程序,違背他人意愿,達到操控他人的目的。即使先摒棄未來可能產生的倫理問題,現實的案例也已經表明,智能機器和腦機接口設備的運作能使一個人開始懷疑自己的身份,懷疑自己的行為是否受自己控制,再拔除腦機后使用者仍有被操控感,無法輕易從被操控狀態脫離,產生嚴重的身份認同危機。
這極大程度違背了:人工智能不應用來收集或使用信息,以監視人和控制人的基本倫理原則。
2.2 現代AI技術在實踐中產生的倫理沖突
目前新興爭議較大的AI技術大致可以分為:基于信息識別對比大數據庫模擬數據得出某項檢測結果或產出衍生品的AI分析技術、基于計算機編寫基因代碼技術、各類將人腦與計算機上AI模型相連的腦機接口技術三個方面。
AI分析技術有多種形式,比如:2018年7月來自墨爾本大學的研究員設計出的一種AI生物識別鏡,此項技術可以檢測一個人對AI的理解以及對其獨有特征的相關信息的反應。系統會在幾秒鐘內檢測出用戶的一系列面部特征。然后將數據與內部存儲的面部照片數據進行比較,進而產生包括性別、年齡、種族,以及魅力、性格古怪之處和情緒穩定度等。①通過此種技術,生物識別鏡投放者可通過暗中安裝識別鏡掃描他人的臉部,檢測就外貌分析出的所有結果。更可怕的是,這類檢測結果并不完全準確,卻可能為被檢測人蓋棺定論。換而言之,任何人都有可能因為天生的外貌而被斷言具有犯罪傾向或被認定沒有任何提升潛力。
2012年基因編輯技術CRISPR/Cas9問世,雖然在識別提取具體基因序列和打印單序列基因方面技術還較為粗糙。但此項技術已經構建出人類社會未來可通過打印目標基因植入某個物種的基因序列中,從而改變生物的性質甚至創造全新的物種。從倫理學角度來講,這類創造出的物種介于自然物種和假象生物之間,違背了自然規律。制造出的物種如果不符合實驗初始目的,必定會被立刻終止生命,無論是立即毀滅還是用于科研都有悖于人文倫理。
現階段AI技術對人類的威脅大多集中在搶奪一部分體力工作者的崗位等方面,還沒有引發全社會直接關注,但是我們必須預先了解和設想到不加管控的AI技術發展可能帶來的嚴重后果。
新興AI分析技術可能使人類繼種族歧視、性別歧視、宗教壓迫等后產生“AI數據檢測”歧視。僅僅基于理論數據即對被檢測人進行分類、推斷。或許AI分析技術最后會演化成一個人從嬰兒出生起就會經歷各種檢測,以決定他將來被劃分為哪一類人群,從事何種工作,以什么樣的方式度過一生。
AI換臉技術雖然使用戶能夠 “一鍵換臉明星”,但這項技術也經常用于被人惡意剪輯不良圖片、視頻,給諸多明星、政府工作人員造成了名譽和心理的雙重損害。
現實的擔憂就是隨著人工智能在各行各業的普及,會導致大量勞動力失業,國家失業率上升必定導致一系列社會問題。這些都是我們在發展AI技術的同時應該考慮到的隱患。
要保證AI技術在發展和使用中的安全,首先必須在研發過程中進行嚴格的監管。AI技術的發展是達摩克利斯之劍,它既可能給我們帶來龐大的利益、醫學史的突飛猛進、生活上的種種便利,但稍加不慎,人類的文明歷史將受到破滅性打擊。所以不基于基本倫理的AI研究都違背了科學發展的基本準則,即:以人為本。
無視其背后潛藏的巨大風險執意展開缺少倫理制約的技術研究,大多都是為了少部分人的短期利益絕非所謂“為了社會的發展”。除了在研究、實踐AI技術的過程中堅持遵循“第一,以人為本;第二,完全可控;第三,以全社會的價值取向為發展方向”的基本倫理原則外;如果現代社會對現階段某種AI技術發展可能產生的負面印象無力抵抗,我們應該適當延緩其發展,而不是對未知的領域盲目探究。
注釋:
①《世界首款AI魔鏡:一照識別你的性格》,中國大數據,2018 年,據 http://chuansong.me/.