胡震洲

26年前,德裔美國神經科學家克里斯托夫·科赫與澳大利亞哲學家大衛·查默斯打賭。科赫說,大腦神經元產生意識的機制將于2023年被發現,查默斯表示不可能。
當2023年過去,這場賭注揭曉,哲學家勝過神經學家,大腦神經元產生意識的機制仍未被發現,但科技圈開始更熱烈地討論——AI(人工智能)會有意識嗎?
從通過資格考試,到進行藝術“創作”, 當整個世界對AI的強大能力感到興奮時,那些曾經存在于《機器姬》《銀翼殺手》等電影里的情節,似乎正在走向現實。
“最讓人恐懼的事情是,如果讓OpenAI團隊從頭再做一遍,他們未必能夠創造出ChatGPT,因為這些人也不知道,‘涌現’是怎么出來的。”2023年底,清華大學腦與智能實驗室首席研究員劉嘉接受鳳凰衛視專訪時說,這就好像打了一個響指,它就出來了。
他相信人工智能正在“涌現”意識,為此搬出了有“AI教父”之稱的杰弗里·辛頓。杰弗里·辛頓在2023年5月接受CNN采訪時說: “人工智能正在變得比人類更聰明,我想要‘吹哨’提醒人們應該認真考慮如何防止人工智能控制人類。”
在AI領域,杰弗里·辛頓的成就舉足輕重。他是2018年圖靈獎得主,在谷歌任職期間擔任副總裁兼工程研究員,幾乎一生都在從事AI相關的研究工作。他主攻的神經網絡和深度學習,是AlphaGo(一款圍棋人工智能程序)、ChatGPT等AI程序高速進化的基礎科學,OpenAI的聯合創始人兼首席科學家伊利亞·蘇茨克弗也是他的學生。
2022年2月,伊利亞·蘇茨克弗發帖稱“或許如今的大型神經網絡萌生了意識”時,谷歌 DeepMind 首席科學家默里·沙納漢回復說:“從同樣意義上講,一大片小麥可能顯得有點像意大利面。”
2023年10月26號,《麻省理工科技評論》采訪伊利亞·蘇茨克弗時問起此事,他笑著反問:“你知道什么是玻爾茲曼大腦嗎?”
這是一個以19 世紀物理學家路德維希·玻爾茲曼命名的量子力學思想實驗,宇宙中的隨機熱力學波動被想象成大腦突然出現和消失的原因。
“我覺得現在的語言模型有點像玻爾茲曼大腦。你和它說話時大腦就出現,說完后大腦就噗地一下消失了。”伊利亞·蘇茨克弗稱,ChatGPT 已改變了很多人對即將發生事情的期望,從“永遠不會發生”變成了“將比你想象的更快發生”。

2023 年10 月31 日,杭州云棲小鎮,觀眾在以“計算,為了無法計算的價值”為主題的2023 7bxdvvSRWiW84JIzlGcD8A==云棲大會“人工智能+”展館參觀人工智能產品及應用( 黃宗治/ 攝)
“沒有人能夠不重視杰弗里·辛頓的看法。”在美通公司創始人王維嘉看來,ChatGPT把握高階相關性的能力已遠超人類,對世界的理解也遠超普通人。他認為大模型“幻覺”是聯想能力,是意識覺醒的證明——人類正是憑借聯想能力,發現了萬有引力、相對論和DNA雙螺旋。
大模型“幻覺”也引起了北京智源研究院院長、北京大學計算機學院教授黃鐵軍的重視。
在騰訊新聞發起的《20年20人20問》中,黃鐵軍認為大模型“幻覺”可能是超越既有知識體系的創新,例如有啟發意義的文學、藝術和科幻作品,或者新的洞見、思想或學說,是知識體系不斷擴展的源頭活水。他甚至表示,沒有“幻覺”,就沒有真正智能。
事實上,盡管人們對于意識的探索已有上千年歷史,但在關于意識究竟是什么、如何判定一個人或物是否有意識這點上,一直沒有取得決定性的突破。
1714年,德國哲學家萊布尼茨發表《單子論》,提到一個思想實驗:“必須承認,僅僅靠機械的運動、數值,是無法解釋知覺的存在的。想象一個機械裝置,我們不知它有無知覺。因此,我們將自己縮小,走進其中,可以看清機器運行的所有細節、過程,也可以理解過程背后的力學原理。甚至,我們還能預測機械將如何運轉。然而,這一切似乎都與這機器的知覺無關。觀測到的現象,與知覺之間,似乎總有一個天塹一般,總是無法相互勾連。”
時至今日,這道“萊布尼茨天塹”仍橫亙在人類面前。
不過,這沒有妨礙360集團創始人周鴻祎公開斷言:“人工智能一定會產生自我意識,留給人類的時間不多了。”
2023年3月,他在中國發展高層論壇上表示,現在的大型語言模型參數可以看作是腦容量里神經網絡的連接數,人腦至少有100萬億,當大模型參數到達10萬億時,可能就會自動產生意識。
ChatGPT 已改變了很多人對即將發生事情的期望,從“永遠不會發生”變成了“ 將比你想象的更快發生”。
事實上,這不是科技圈第一次討論人工智能是否在覺醒。
上一次的討論是在2022年6月,入職谷歌七年的研究員布萊克·萊莫因稱,他發現了一個驚天秘密——公司正在研發的人工智能聊天機器人LaMDA已經覺醒,有了自我意識,但谷歌方面卻試圖掩蓋這一切。
為了證明自己并非胡說八道,他把一份21頁的聊天記錄公布在了互聯網上,希望大家看到,從阿西莫夫機器人三定律到中國禪宗公案,LaMDA都給出了語義通順的答句。
但他幾乎成了笑話,飽受了毫不客氣的群嘲。
美國紐約大學心理學系教授加里·馬庫斯說他“是高蹺加長版的胡說八道”。
研究自然語言處理模型的美國加州大學伯克利分校教授埃邁德·赫瓦賈說得更簡短卻直接:“誰真正熟悉這些模型的系統,誰就不會說這些模型已經覺醒的蠢話。”
在清華大學人工智能國際治理研究院副院長、人工智能治理研究中心主任梁正看來,關于人工智能是否有自主意識的爭論并非單純技術領域的學術探討,還關乎企業合規性的基本堅守。
“一旦認定人工智能系統出現自主意識,很可能會被認為違反第2版《人工智能設計的倫理準則》白皮書的相關規范。”他說。
這一由美國電氣和電子工程師協會2017年發布的規范明確:“根據某些理論,當系統接近并超過通用人工智能時,無法預料的或無意的系統行為將變得越來越危險且難以糾正。并不是所有通用人工智能級別的系統都能夠與人類利益保持一致,因此,當這些系統的能力越來越強大時,應當謹慎并確定不同系統的運行機制。”
梁正表示,有時技術的發展會超越人們預想的框架,在不自覺的情況下出現與人類利益不一致甚至相悖的情況。
比如“曲別針制造機”假說,就描述了一個通用人工智能在目標和技術都無害的情況下,對人類造成威脅的情景——假設某個人工智能機器的終極目標是制造曲別針,盡管目的看上去對人類無害,但當它使用人類無法比擬的能力,把全世界所有資源都做成曲別針,就會對人類產生傷害。
“不僅要關注大模型的潛在機會,還要關注風險和缺點,這一點非常重要。”谷歌首席科學家杰夫·迪恩說。
讓AI的價值觀和人類的價值觀對齊,已成為當下的熱門話題。
對此,黃鐵軍稱:“當人類智能高于AI智能時,AI是可控的助手,可以被人類調教為越來越可信的助手;但當AI智能高于人類智能,全面超越人類的AGI(通用人工智能)出現時,問題就轉化為AGI是否相信人類,而不是人類是否相信AGI。主動權不在人類一邊。”
2023年3月,全球1000多名技術專家聯名發布《暫停大型人工智能研究》公開信。
在這份呼吁“所有人工智能實驗室立即暫停至少6個月的比GPT-4更強大的人工智能系統的訓練”的公開信中,包括蘋果聯合創始人斯蒂夫·沃茲尼亞克、特斯拉和SpaceX公司老板埃隆·馬斯克和人工智能領域頂尖專家、圖靈獎得主約書亞·本吉奧在內的科技巨頭寫道:“具有與人類競爭智力的人工智能系統可能對社會和人類構成深刻的風險”“讓我們享受一個漫長的‘AI之夏’,而不是毫無準備地進入秋天。”
大膽假設,在一個擁有更智能的人工智能的世界里,人類怎么辦?
“有一種可能性,按照今天的標準可能很瘋狂,但按照未來的標準不會那么瘋狂,那就是許多人會選擇成為人工智能的一部分。這可能是人類試圖跟上人工智能的方式。”伊利亞·蘇茨克弗說,“起初,只有最大膽、最冒險的人才會嘗試這樣做。”