(山東師范大學 山東 濟南 250300)
智能化與自動化越來越成為新時代的代名詞,從最初的指紋識別到臉部識別再到虹膜識別,從無人駕駛汽車到無人機,從簡單的勞動替代逐步延伸到簡單邏輯推理替代,人工智能已經深入到我們生活中的方方面面。從行業方面來說,制造業是人工智能應用的首要領域,后又逐漸滲入醫療領域、教育行業、金融投資領域等。人工智能從正式提出至今有61年,阿爾法狗打敗圍棋高手只用了兩年,智醫助理僅用十幾秒就可以完成幾十個醫學專家一天也未必能完成的案例查詢并及時用于治療。在一次次的感嘆中我們不禁感到深深的威脅,是否會有一天會演變成機器人時代而人類卻淪落成“寵物”級別而無能為力?這一問題在社會引起了極其熱烈的討論。
自從進入文明社會,我們就一直不遺余力地探求自由解放之路,一步步從自然力的約束中解脫出來。從徒手摘果子裹腹逐步進化到互聯網時代、人工智能時代,每一次人類社會的進步都伴隨著技術的革新。技術的革新是人類社會邁向新階梯的刮骨療傷,其中必然免不了陣痛。在這里我們不妨可以借鑒北京郵電大學鐘義信在《人工智能——“熱鬧”背后的“門道”》中對人類智慧的解釋。人類智慧就是為了更好地生存而不斷地發現問題、定義問題和解決問題的螺旋式上升過程。其中,發現問題和定義問題被稱為隱性智慧,因為它很難被衡量和表達出來。解決問題則是一個將“知道的不知道”變為“知道的知道”的過程,被稱為顯性智慧,即人類智能。對人類智能工作原理的分析、探索、模仿和延伸則被稱為人工智能。所以說,人工智能是對人類智慧中顯性的一部分模仿生成的,按照一定的規則進行推理、總結、論證,從而達到人類所賦予它的某種使命。
當然,由于人類進化的限制性,人工智能在某些領域已經超越人類極限,而我們則可以借此從體力機械勞動中解放出來,將更多的時間用于隱性智慧的挖掘,如創造性、體驗性、發現性、綜合性等。在社會發展中最直接的表現就是由“體力密集型崗位”向“智力密集型崗位”轉移。
首先,我們必須得承認,人工智能確實在某些領域擁有超越我們人類極限的力量。如,數據的搜索與處理,機器的工作時間、工作精確度與工作效率等。就像我們永遠無法趕超拖拉機的力量,永遠無法像機器一樣可以不分晝夜的24小時工作。但是,如果你只是因為這樣就認為人工智能就有了與人類相比較的資本,甚至會威脅到人類的生存就大錯特錯了。我們可以從以下幾個方面進行分析:
1.人工智能的單領域性。一個人工智能除了該領域的特殊技能外在別的領域沒有任何其他技能,正是這種單領域性證明人工智能本身并不能就行更為復雜的行動,這就限制了人工智能的取代能力,這也決定了它永遠也無法取代人類智慧。如:如阿爾法狗就是專門用來研究圍棋技術的、智能醫助就是專門用來根據已有的病例給出相應的醫療方案的。
2.人工智能的程序性。程序性就是算法,就是邏輯推理能力。人類通過編寫代碼實施某種運算,使得機器能夠按照我們預設的路線進行判斷或行動,但主動權在我們人類手中。可以這樣說,算法、大數據、行業專家是人工智能的三大要素,缺一不可。
3.人工智能的確定性。前面我們提到人工智能是根據某種算法設計的一種程序,而程序可以設計的前提是它必須有確定性。對于不確定的事情無法用程序進行設定,也就是說人工智能對于不確定定性毫無招架之力。建立在大數據基礎上的人工智能面對從未發生過的新情況往往無法應對,這是人工智能的固病。相比之下,我們人類處理起這種情況更為得心應手。
最后,我們也不得不談談人工智能時代的惡意指令。惡意指令是指某些人憑借自己或團體的專業知識給人工智能以威脅人類安全、隱私等程序設定,從而引起不可彌補的世紀性災難。我們要做的并不是因為恐慌就回避人工智能、回避科技發展,而是要想著怎么去更好地解決科技發展帶來的問題,怎么去完善人類社會人工智能倫理機制。同樣,我們也要正視人工智能的發展,不斷地完善配套機制,使之能夠切實地解放人類,促進人類社會的發展。
現代社會發展迅速,信息迭代越來越快,我們處理問題所需要掌握的知識也爆炸性地增長,如何以最短、最有效率的方式掌握已有的知識從而將更多的時間留給創新與進步是我們現階段面臨的一個重大問題。人工智能便是為解決這一問題而存在的,同時,人工智能是一把雙刃劍,既可以造福人類、解放人類,亦可以威脅人類的生存。一味地逃避或推崇絕不是正確看待事物的方式,我們要不斷發掘人工智能的可用之處,完善相應的配套措施,盡可能地減少人工智能帶來的傷害,最大程度地促進人類社會的發展。
1.嚴格相關配套的法律規章制度。法律是人們行為規范的最低底線,任何人都不可僭越。在人工智能時代,更要嚴守法律底線,以全人類有秩序、可持續地幸福生活為目標,將所有嚴重威脅該目標實現的行為都要納入法律規章范圍,使人工智能必須在法律允許的范圍之內自由、健康發展。擴大機密信息范圍,增強對黑客行為的約束機制,對威脅人類生存的科技行為加以明確界限,對于核心信息擴散范圍嚴格控制,確保人工智能的發展在可控范圍之內。
2.創新責任分擔機制與預警機制。人工智能時代是一個大數據的時代,更是一個合作的時代。在合作中更要明確責任,尤其是人工智能制造者與銷售者、使用者的相關責任,確保權責相一致,避免相互推諉或責任混淆而引發的潛在威脅和僥幸心理。
3.增強信息透明度,保障知情權。信息的暗箱操作是責任機制實施的一大障礙,也是對立雙方溝通、交流與理解的障礙。為了促進人工智能的健康發展,我們有必要提高信息透明度,減少暗箱操作,讓權利在陽光下行使。增強信息透明度就要健全信息收集制度、加強信息監管,完善信息輸入輸出平臺和系統建設,使信息能夠高效、準確地傳達到相應的信息需求者手中。在人權與自由權越來越備受關注的時代,促進相關人員知情權的切實執行有著重大的意義。由相關者自主選擇是否加入某體系是對人權與自由權的基本尊重,更是促進人際和諧與社會穩定的保障。
4.重視綜合性、思想性教育。教育是人類間接獲取經驗、快速成長的通道,也是人生觀、價值觀形成的重要階段,是人生啟航的關鍵階段。我們不能簡單的把教育歸結為傳授知識、掌握知識與知識評價,而應該貫徹素質教育,以提高學生的學習能力、實踐能力與價值判斷為目標,促進學生對新時代的適應能力、綜合處理問題能力、對時代趨勢把握能力的提高,重點是保證學生正確價值觀、世界觀與人生觀的養成。未來的時代是飛速發展的時代,更是加速淘汰的時代,唯有不斷保持創造性、具有綜合素質與能力才能永久保持不敗之地。
[1]李德毅.AI-人類社會發展的加速器.[J].智能系統學報,2017,12(5):46-54.
[2]鐘義信.人工智能-熱鬧背后的門道.[J].科技導報.,2016,34(7):14-19.
[3]錢鐵云.人工智能是否可以超越人類智能.[J].科學技術與辯證法,2004,21(5):44-47.
[4]何哲.通向人工智能時代.[J].前沿研究.2016,12:2-10.