胡菡菡
百歲基辛格駕鶴西去,留給世界的最后一本著作,是一本破圈之作《人工智能時代與人類未來》。它的扉頁上印著獻給“南希”——基辛格的妻子,內里卻更像急于交付給全人類的讀本,以便我們和南希一樣可以看“透”人工智能,從而看見未來。
寫作本書之前,基辛格也從沒有預想過自己會去寫一本科技著作。寫作本書,對他來說,是偶然的、計劃之外的事。六年前,一位人工智能專家邀請基辛格出席一次人工智能討論會,基辛格本能地覺得這是一場與他無關的技術討論,拗不過邀請者的勸說,時年九十五歲的基辛格躬身入局。不久,又一位人工智能專家聞訊趕到,形成了一個穩定的討論人工智能時代如何影響人類未來的“三人組”。這兩位人工智能專家,一位是谷歌前CEO埃里克·施密特,另一位是麻省理工學院計算機學院院長丹尼爾·胡滕洛赫爾。我們現在看到的這本書,就是基辛格與他們的合著。
這兩位人工智能領域的一流人物為什么要拉上基辛格這樣的人工智能外行?一個合理的猜測與解釋是,他們不僅相信基辛格能看到人工智能專家所看不到的問題,同時也希望借助基辛格的聲望,完成傳遞有關AI 消息的信使的職責。
多年前, 王小波在《讀書》雜志上發表過一篇名作《花剌子模信使問題》。花剌子模,是一個中亞古國的名字。據說,給國王送來好消息的信使會加官晉爵,給國王送來壞消息的信使會被直接喂老虎。套用當下的玩梗文化,我們或許可以說每個人心里都住著一個花剌子模國王,人類需要時時警醒不能讓自己只聽好消息。
盡管基辛格領銜的“三人組”沒有將人工智能說成好消息,也沒有說成壞消息,我們還是能從字里行間感受到“信使”的憂慮。彼時已經體驗過GPT3.0 技術的基辛格們在書中寫道:“這是一場革命,人類現有的哲學概念和社會制度讓我們在面對這場革命時頗有些措手不及。”
其實,基辛格探討人工智能與人類未來的書,早在二0二一年就問世了。但是,該書在當時的美國并沒有激起什么波瀾,在中國更是知之者甚少。如果不是因為ChatGPT 橫空出世震驚全世界,中國出版商也許不會如此急切、如此快捷地翻譯引進這本“舊書”。
ChatGPT 正如一個友情加入“三人組”的巨獸,讓無數的南希們都突然對信使們的憂慮感同身受,甚至開始慌張。那些在大機器時代尚有些沾沾自喜的腦力勞動者都開始相互打趣是不是哪天就會被人工智能取代,比如律師、教師以及醫生。畢竟人類的理性計算能力,在人工智能面前顯得不堪一擊。
十多年前,少數科幻迷用來討論人工智能毀滅人類的末日概率P,一夜間又流行起來。業內人士無論相識與否動輒問對方您的P是多少,就像問廁所在哪兒一樣隨意。研發出ChatGPT 的OpenAI公司首席科學家竟然公開表示,他的P 在5% 至50% 之間。
人們的慌張,來源于看不“透”人工智能將會把我們帶去何方。人工智能樹立起高高的技術屏障,讓不知情的南希們只能靠猜想為自己的未來擔憂。
雖然嚴肅的人工智能科學家都認為,震驚世界的ChatGPT 沒有越過“弱人工智能”的門檻,連通用人工智能都算不上,更別奢談強人工智能了, 雖然各類提供人工智能技術服務的公司,包括OpenAI都聲稱人工智能技術的目的是給人類賦能,而并非盜取人類的飯碗,但這仍然無法說服普通人相信人工智能的權杖真的掌握在自己的手中。人類會毀滅,看起來還是個玩笑;但個體會被隔絕以及拋下,卻是切膚的問題。即便是基辛格的兩位專家伙伴,都坦言:“無論哪個領域的專家,都無法憑借一己之力理解一個機器能夠自主學習和運用邏輯的未來。”看“透”人工智能,成為這個世紀剛開頭的時候人們最急迫的任務之一。
二0二三年春天,馬斯克對自己參與孵化的ChatGPT 的問世不但沒有表示任何喜悅之情,反而公開譴責ChatGPT 背離初心、“科技向錢”。這個初心,就是OpenAI 中的Open 一詞,敞開的、能夠讓人看“透”的人工智能。OpenAI 這幾年并沒有完全兌現公開所有研究成果、增進全人類福祉的承諾,開源方面早在二0一九年就不太open 了。如果不是被群嘲OpenAI 應該更名Closed-AI,本已決定不再開源的GPT-2 模型,就可能徹底對公眾掩上了面紗。
“輸入輸出不由人類控制,算法是個黑匣子”的傳說,在人工智能發展的初期不斷傳播。谷歌這樣的巨頭因此得以使用“商業秘密”這樣的話語來為不透明的人工智能開發提供合法性。時至今日,透明性悖論,仍然是科技巨頭們常常討論的議題。比如,模型運行的重要細節可能被竊取,可能遭到外部實體的網絡攻擊等等。當然, 激烈競爭的市場下,這樣的議程無可厚非。可是當我們明確感受到偏見、歧視、操縱、隱私泄露……我們便明白,更為重要的事是去揭開人類智能,而非人工智能為數據貼上的一個個小標簽,繼續追求透明,而非在透明悖論中打轉。
基辛格生前嘆息地表示過,人工智能是一場迥異于汽車取代馬車的劃時代變革。在這場變革中,我們并不知道我們要扮演何種角色,我們是被動的,不是積極主動地共襄盛舉,而是身不由己地裹挾其中。誠如“計算機之父”圖靈所言——“我們只能看到前方很短的距離”,我們模模糊糊地感覺到人工智能似乎造成了什么影響,但我們并不知道未來。
未來,就像一個盲盒,如果透明性原則不能得到企業和國家的徹底認同,人類打開的就可能是一個潘多拉魔盒。
對不透明的擔憂,加速了美國、歐盟人工智能立法進程。有趣的是,真正引發歐美政治家警覺的,是ChatGPT 的橫空出世,而非基辛格一廂情愿的呼吁。早在二0二一年,歐盟就有出臺人工智能監管法案的計劃,但是喋喋不休推進緩慢。當ChatGPT 把輿論操縱之類的現實風險擺放到立法者面前時,歐洲人才發現監管立法已迫在眉睫,不能再拖了。二0二三年即將結束的時候,歐盟各成員國和歐洲議會歷時三天的唇槍舌劍,推出一個史無前例的突破性的吃螃蟹的人工智能監管法案。
歐洲人工智能監管法案中,透明性原則成了不容置疑的立法原則。法案矛頭直指ChatGPT和谷歌等人工智能巨頭, 要求ChatGPT 等基礎模型在投放市場前必須履行透明度義務,以詳細摘要的方式披露技術文件之類的細節。對于某些特定的人工智能系統,法案也要求其在使用聊天機器人或“ 深度偽造技術”時,履行最低限度的透明度義務,明白無誤地提醒人類用戶,和你聊天的是機器而不是人。
綜觀聯合國教科文組織、部分歐美國家,以及我們中國的“軟法”“硬法”,“透明性倫理原則”是壓倒一切的倫理原則。雖然措辭不盡相同,觀點并無二致,都希望人工智能成為可控、可靠、可用、可信的人類的工具。
透明,特別是算法透明,是人工智能其他倫理原則得以保障的必要先決條件。我國《互聯網信息服務算法推薦管理規定》等規定強調算法備案,針對的也是人工智能技術開發和應用中可能存在的不透明問題。如果我們不能通過透明性原則增強人工智能的可審計性、可追溯性、可解釋性和可依賴性,聯合國教科文組織幾年前發布的“人工智能十大倫理原則建議”中的其他九個倫理原則,都是鏡花水月可望而不可即。試想,沒有透明度,人們如何對微軟、谷歌等科技巨頭的人工智能技術是否有益于社會提出有效質疑?
作為一個有全球影響力的外交家,基辛格對透明性原則的關注, 在于國家, 而非企業巨頭。基辛格的視角確實不同于一般科學家,他擔憂的,不僅僅是“如果機器會思考,我們人類又是什么”這樣的哲學家式的擔憂,更有對國家之間人工智能競賽的擔憂。基辛格呼吁大國更加透明,讓世界了解其在人工智能方面的目標與進展,以免其他國家迷茫恐懼,兩敗俱傷。
希望所有國家都能在人工智能領域保持透明的主張,或許有點兒烏托邦,但肯定是正確的。因為,沒有任何一個國家可以憑一己之力獨自控制人工智能帶給人類的風險。作為人類命運共同體的一員,我們天然享有知曉潛在風險的權利、預先獲得提醒的權利。然而,沒有人工智能企業巨頭的透明,沒有人工智能研發大國的透明,我們的權利就只能停留在紙上,我們無從知曉潛在風險,也無法預先獲得提醒。僅憑這一點,我們就還是向“中國人民的老朋友”基辛格致謝,感謝他未必正確的觀點中流淌的“信使”之思。
(《人工智能時代與人類未來》,[ 美]亨利·基辛格、埃里克·施密特、丹尼爾·胡滕洛赫爾著,胡利平、風君譯,中信出版社二0二三年版)