楊成義
廣東理工學院
關于人工智能的發展和挑戰的思考
楊成義
廣東理工學院
人工智能是用電子計算機模擬和延伸人的智力活動的一門新的技術科學,文章在概念界定的角度上就人工智能與人類智能的區別說明自己的理解,并闡述人工智能現在或者未來可能對人類社會造成的影響和威脅。由此提出人類面臨技術失控應采取的風險控制和應對措施。
人工智能 人類智能 技術失控 風險控制
人工智能的英文含義是“Artificial Intelligence”。對其進行的解釋的核心要點,就是用人為的方式在機械上實現人類所特有的生物智能行為:感知、學習、推理、決策。人工智能除了與計算機科學緊密聯系外,還涉及生物學、心理學、信息論、數理邏輯、控制論和哲學等多門學科;其作為技術,它運用于各行各業,減輕了人們體力和腦力的勞動。哲學家們認為:人工智能不僅僅作為一種手段,它的發展逐漸沿著將肢體、器官的延長,直到大腦的延伸的目標軌道行進著。
人工智能從形式上分為Weak AI和Strong AI。其中,弱人工智能旨在研究和發展生物智能的理論,并通過模擬程序來進行測試。而強人工智能是人工智能的高級階段,它的目標是創造出能夠進行思考、擁有自我意識和人格感情的機器。
要弄清楚人工智能與人類智能的區別,可以從哲學的角度上進行分析。哲學上認為,語言的界限即為人的可感識世界的界限。無法用語言表達的對象是不可能進入人的意識的,其是不可思維的。同理,凡是不能被形式化的任務,都無法轉化為機器的動作,因而是不能實現能動的。由此可見,形式化圈定了可能存在的人工智能范圍。語義的形式化是不能由機器自身完成的,所以機器無法擺脫對人的依賴而超過人類。科學家為人工智能提供了一個恒久適用的標準:“機器智能總可以無限逼近人類,但它永遠不可能超過人類智能。
在現階段,人工智能的發展普遍處于Weak AI的情況下,它和人類智能的區別主要體現在以下三個方面:
2.1 物質載體和運動過程不同
人腦中上千億個神經突觸之間存在著層次化、網絡化的復雜連接,具有高度的協調性和自組織性。神經細胞之間依靠化學物質和生物電釋放來傳遞信息,從而形成一個相對孤立的、能動的、完善的反映外部世界的精神功能世界。而人工智能則是依靠電子元器件、機械裝置和連接線路組成的物理硬件,用預設的軟件來控制和主導硬件的運行,再進行人的思維活動的模擬。
2.2 進化途徑和本質屬性不同
人腦除了進行生物進化,還經歷了幾百萬年的社會進化,其同時受制于自然規律和社會規律的雙重影響。人的本質屬性是社會性,在人的意識中,蘊含著全部人類歷史發展的邏輯結果。而人工智能只是技術和機器進化的結果,其本質屬性是自然性。機器在執行具體指令時,并不探求選擇和行動本身的社會意義,更不會評估結果的社會影響。
2.3 思維方式和實現機制上不同
人的思維方式包括經驗邏輯推理、形象表象化、直覺或靈感判斷等,具有連續性、辯證性、模糊性、和目的性等特征。而人工智能的機器思維方式卻是離散的、機械的、精確的、和隨機的;人的意識能夠支配自我選擇,明確行動的目的,理解任務的性質、意義和后果。而人工智能的機械性表現在實際問題描述的符號化、求解問題方式的程序化、解決問題過程的自動化,因而不可能具有人類那樣的豐富想象力、能動創造力。
隨著科技的進步,人類在享受人工智能帶來的便捷的同時,也面臨著嚴峻的挑戰。人工智能除了能夠代替人類進行各種體力勞動,越來越多的腦力勞動者也感受到了來自于人工智能的競爭。然而,最引起哲學家和科學家擔心的是技術失控的危險。任何新技術最大危險莫過于人類對它失去了控制,或者是它落入那些企圖利用新技術進行反人類活動的危險分子手中。有人擔心機器人威脅人類的安全。機器人能自動搜索網絡,尋找需要的信息;電腦病毒能自我避險,無人制止;無人駕駛飛機,可以脫離人類的遙控,有自己的行動。智能體學習的進度令人震驚,可以承擔從同交易方談判到發動戰爭的各種社會工作,在未來有可能引起深刻的社會震蕩。
最新研制的Asimo系列智能機器人,已經能夠探測腦電波并繪制人腦的活動圖,實驗者在看到某張圖片后,并想象某個動作,Asimo可以將偵測得到的數據進行分析,從而解讀出你的想法,并隨之做出相同的反應。這項研究可以看成是利用意念控制機器,也可以認為機器已經讀懂人類的想法。那么人類還有所謂的秘密嗎?萬一類似的技術落入不法分子手中,人類社會毫無保密和隱私可言。
現有的例子包括從能夠同病人進行交流的醫療系統、模擬人的情感的機器人,已經智能的機械“蟑螂”等。大眾普遍認為我們距離科幻電影中完全智能體還有很長的距離,但科技進步正在打破平衡,未來,我們也許終將信任機器,即便我們完全無法理解它。
人類可以完全控制自己的創造物嗎?相信每個人的答案都不同。人工智能的身影不處不在,給社會帶來了深刻的革命變化。同時,人類自身也無法離開機器而單獨存在。在人工智能崛起的過程中,必然存在著技術失控的風險,這是一個不可回避的問題。因此,人類應正視問題,并保持高度警惕,防止智能技術被用于反對人類和危害社會的犯罪。
4.1 盡快出臺針對人工智能行為規范的相關法規
對于能夠制造智能機器的學術研究組織和生產機構進行嚴格的管理和監控,從源頭上防止智能犯罪。比如日本就制訂的一個長達60頁的《下一代機器人安全表現指南(草案)》,草案對機器人的行為進行了全面的規范。它指出風險評估包括使用機器人的危險和潛在的危險源。草案建議,制造商須在機器人身上安裝傷人案例的記錄工具;并創建風險事故的中央數據庫,允許制造商和公眾進行查閱。此外,還應組建一個由政府部門、專家學者、律師組成的特別研究小組,實時就機器人的研發提出可行性建議,正確引導人工智能研究方向,以便把技術應用于改善社會,而不是將社會推向技術災難的深淵。
4.2 盡快讓公眾了解真相
政府和相關管理部門應該公開、透明相關信息,給出人工智能發展的相關報告和說明,并就“人類對人工智能失去控制”的可能性做出評估。同時,要讓公眾了解人工智能有關于社會、經濟、法律和道德方面的問題,以及指導公眾采取正確的應對措施。譬如,如何處理人與機器人之間的感情關系。
4.3 任何對未來的描繪都是基于文明積累歷程中的現實邏輯
人與人工智能關系的處理問題,恰恰隱喻了人類社會自身的問題,無論是對異己力量的妖魔化,還是與異己力量的斗爭,都是以自我道德標準作為評判他者的唯一依據,這種以輸出人類價值觀的方式來同化異己文化,反映了以自我為中心,對既有“人一機”關系進行強勢定義和立法。怎樣做到合理地開發和利用人工智能,使其發揮積極的作用,關鍵仍然是要有合理的社會制度,要有人類道德、文化、思想等多方面素質的全面提高,而不能僅僅取決于科技能力的片面增長。
隨著研究的深入和科技的發展,不論是仿生運動方面還是人工智能方面,都會發展到一個新的高度。我們的生活一定會因新型的人工智能形式而有所變化。那個時候,科幻電影將不再科幻,很多我們難以想象的場景將會發生。到時候,人工智能已經不再僅僅在線上陪我們打發時間,或者慫恿我們去買更多的東西,而是能夠在我們意識之前預測我們的行為。我們避不開它們。因此相處的訣竅在于,我們沒辦法知道它們的選擇因何做出,但要正確看待人工智能給出的這些選擇:它們是建議,是數學上的可能性。這些選擇的背后,不存在什么神諭。
當人們夢想著以自身為藍本創造人工智能時,我們期待的是,以一種平等互信的身份,與這些會思考的機器相遇。然而,我們最終得到的人工智能。可能是個無法理解的異類,是一種我們之前不曾料想的智能形式。
[1]李銳鋒.自然辯證法教程新編[M].武漢:湖北人民出版社.2004.349-350
[2]劉西瑞,王漢琦.人工智能與意向性問題[J].自然辯證法研究,2001,17(12)
[3]蔡曙山.哲學家如何理解人工智能[J].自然辯證法研究,2001,17(11):18—22
[4]胡增順.人工智能的倫理學思考[J]. 開封大學學報,1998.3(12)
[5][美]約翰·卡斯蒂,胡運發譯.劍橋五重奏—機器能思考嗎[M].上海:上海科學出版社。2006.124
[6]蘇原.機器人操縱人類?[J].科技潮,2002,(6):12
楊成義(1985-)男,廣東理工學院教師,研究方向為人工智能與群決策支持系統。