近幾年來人工智能日益受到社會各界的格外關注。一方面,人工智能正在為人類帶來一場前所未有的技術革命,即將徹底改變人們的生產和生活方式;另一方面,與以往科技進步帶給社會的積極反應有所不同,人工智能帶來的不僅僅是驚喜與期待,還有一些的擔心,甚至恐懼。
目前,各界對人工智能具有特殊的發展“禁區”已有共識,但有人覺得人工智能的發展還處于初級階段,離所謂的“禁區”還有一段遙不可及的路,這個想法有沒有風險?
2016年8月,聯合國相關組織發布了《機器人倫理初步報告草案》,認為機器人不僅需要尊重人類社會的倫理規范,還需要將特定倫理準則編寫進機器人程序中。對人工智能的擔憂還來自像史蒂芬·霍金、比爾·蓋茨和伊隆·馬斯克這樣的科技大佬。他們都把自己對人工智能的擔憂直言不諱。已故物理學家史蒂芬·霍金曾言:“創造人工智能可能是人類文明史上最偉大的事件,但也可能是最后一個。”伊隆·馬斯克則發文稱人工智能是人類最大的潛在威脅,可能比核武器更危險,并將人工智能的發展比喻成“召喚惡魔”。蓋茨表示認可前二者的判斷:人工智能軟件若變得超級智能,可能會對未來的人類造成一定威脅。歐盟、英國、美國、德國、日本等國家和地區正在積極研究人工智能、無人駕駛等領域的倫理邊界和規則,意在逐步實現行業和國際標準、法律的制定,并在前沿科技領域獲得主動和有利地位。同時,谷歌、Facebook、微軟,以及國內的BAT等互聯網科技公司也紛紛發聲,提出加強人工智能倫理研究和立法準備。
全球經歷的前三次工業革命基本局限于對人類眼耳手腳等能力的替代和延伸,但人工智能將要模擬和復制的卻是人類的大腦與智力。相對弱人工智能,強人工智能抑或復制和超越人腦的功能,技術核心表現在無限制、無監督學習能力,不僅引發嚴重的倫理和法理問題,很可能最終導致不可控風險。如果說前三次工業革命帶來的是人類的助手,那么人工智能帶來的就是人類對自我的一次驚心動魄的挑戰。
繼“互聯網+”之后,今年“智能+”又首次出現在《政府工作報告》對堅持創新引領發展的表述中,足見國家對加快發展人工智能產業的高度重視。同時,還特別提出“加強科研倫理和學風建設”,說明在關鍵核心技術攻關的同時,加強倫理建設的重要性。
無疑,隨著人工智能技術向縱深演進,人類將不得不面對一些“禁區”。科技的進步應該本著為人類提供美好生活的“善意”,人工智能的發展路徑必須在可預見和可控的范圍內才能健康持續地發展。未雨綢繆,防止心存僥幸,提早預設技術和法律紅線,在人工智能迅猛發展的當下已經迫在眉睫。