朱之林

3月份,ChatGPT引發的浪潮沖擊世界,風頭無兩,已經不需贅言。
英偉達CEO黃仁勛贊嘆說,ChatGPT的出現,是AI界的“iPhone時刻”,勢必改變我們的現實生活。這一次變革中,獲益最多的無疑是開發公司OpenAI,以及聯手OpenAI的微軟。
3月24日,OpenAI CEO奧特曼還在“深情”發推,“祝GPT-4十天生日快樂!”像對自己的孩子似的,甚至等不到“滿月”慶祝。
但他當時不會想到,在“這個孩子”出生當月,就會遭遇禁令。
當地時間3月31日,意大利個人數據保護局宣布,將暫時封鎖意大利境內訪問ChatGPT的途徑,同時,審查OpenAI在最近一次網絡安全事件中收集的個人信息等問題。
突如其來的監管動作,讓意大利成為全球第一個因隱私考慮,禁用ChatGPT的國家。
幾小時后,奧特曼委屈巴巴地回應:“我們當然遵從意大利政府,并已停止在意大利使用ChatGPT。盡管我們認為遵守了所有的隱私法。”
人工智能與“人的智能”,終于狹路相逢了。
在這全球第一張對ChatGPT的禁令中,意大利個人數據保護局列出了3項指控。
一是3月20日ChatGPT平臺出現了用戶對話數據和付款服務支付信息丟失。
二是平臺沒有就收集處理用戶信息進行告知。
三是由于無法驗證用戶的年齡,ChatGPT“讓未成年人接觸到與發育程度和意識相比,絕對不合適的答案”。
北京師范大學互聯網發展研究院法學教授吳沈括告訴南風窗,第一個情況,通俗來講便是發生了數據泄露。
“而數據泄露,是意大利個人信息保護法等法律法規中非常重要的非法場景。”即使科技公司事后對此解釋說明,也不見得能產生抗辯效力。
“因為它沒有及時在數據泄露時對外通告。”吳沈括說。
當時,OpenAI的通告晚了5天。3月25日,該公司發布道歉聲明,稱3月20日ChatGPT出現漏洞,臨時下線。約有1.2%的ChatGPT Plus用戶數據被泄露。
“在ChatGPT下線前的幾個小時,一些用戶有可能看到另一在線用戶的姓名、郵箱地址、付款地址、信用卡號后4位等。完整的信用卡號碼在任何時候都沒暴露。” OpenAI對外表示,公司隨后修復了這一漏洞。
僅僅以一次漏洞為契機,就禁用全球流行的AI工具,意大利是不是太過責難?
吳沈括介紹,發出禁令的意大利個人數據保護局,并不隸屬政府機關,“這是一個獨立的數據保護機關,由議會任命”。
而對于個人數據保護,意大利向來嚴格,“它有一個比較嚴格的傳統,而且敢于執法。”比如,只有在意大利,谷歌的高管受過刑事處罰,“在其他國家都沒有碰到過這一級別的處罰”。
不過,全球首張“禁令”并非沒有回旋余地。意大利個人數據保護局給了OpenAI 20天時間,要求說明它將如何解決上述隱患。
否則,意大利將對OpenAI處以 2000 萬歐元(2170 萬美元)或高達年收入4% 的罰款。
吳沈括解釋,這一處罰辦法依據歐洲議會2016年通過的《一般數據保護條例》的明文規定。“特別是4%年營業額這一條處罰。邏輯就是公司沒有遵守、貫徹、實現監管的要求。”

需要注意的是,意大利的這次出手,只是一個首發信號。
“意大利在歐洲的數據保護環境當中,具有非常大的權重。無論是它的監管機制、監管政策,還是重要人物,意大利都(在歐洲)占據非常高的比重,包括在歐盟決策層,有非常多的意大利的權威人士和高層官員存在。”吳沈括表示。
這意味著,對ChatGPT一類工具的高密度、高強度監管措施,可能正在路上。
近一周,已有多個第三方機構在呼吁,禁用ChatGPT。歐洲消費者權益聯盟(BEUC)呼吁,歐盟和其他政府機構要徹查ChatGPT和類似的聊天機器人。
從數據保護角度而言,ChatGPT的底層技術天然與其存在矛盾。
GPT背后是大語言模型。OpenAI 官方曾披露,GPT-3有1750億參數,該大模型使用的是互聯網的文本數據庫。
這其中,共計有高達 570GB 的數據,來源包括書籍、網絡文本、維基百科、個人問答等。更精確地說,系統輸入了 3000 億個單詞,訓練這一人工智能模型。
放在強調個人數據保護和“被遺忘權”的歐洲,數據量驚人的GPT模型是一種天然僭越。
吳沈括分析:“GhatGPT的運行邏輯,在本質上跟《通用數據保護條例》(General Data Protection Regulation,簡稱GDPR)的以當事人知情同意控制權為核心的數據保護思路,很不一樣。”
一個在社交媒體流行的觀點是,OpenAI根本沒想過為從互聯網上抓取的數據付費。掌握數據的個人、網站所有者和公司沒有獲得收入,也不知道數據被采用了。但OpenAI利用這些數據,成長為比2021年估值高一倍多的巨頭。

全球監管層面臨的矛盾十分相似:ChatGPT橫空出世,帶動AI大模型的發展,而人類的各項政策法規都無法跟上。
即使走在數據保護全球最前沿的歐洲,歐盟也還在制定世界上第一部人工智能的法規,距離法案生效還需要數年。
一個在社交媒體流行的觀點是,OpenAI根本沒想過為從互聯網上抓取的數據付費。掌握數據的個人、網站所有者和公司沒有獲得收入,也不知道數據被采用了。
技術發展與政府監管之間,“相愛相殺”的關系并不奇怪。
對于ChatGPT的討論中,反常的一幕是,對ChatGPT前所未有的抵制竟同時出現在科技圈。
4月初,一封多位知名人物簽署的聯名信備受矚目。

在曝光但尚未證實的名單中,包括馬斯克、圖靈獎得主Yoshua Bengio、Stability AI首席執行官Emad Mostaque、紐約大學教授馬庫斯,以及《人類簡史》作者Yuval Noah Harari。
他們表示,目前具有和人類競爭智能的AI系統,可能對社會和人類構成深遠的風險。因此,“應停用6個月,停止再發展出GPT-5的大模型”。
在他們看來,GPT-4展現出的能力表明,當下的AI不再風險可控了。比起各大巨頭相繼押注大模型,科技公司現階段更該聯合政府,開發強大的AI管理系統。
“系統至少應該包括:專門負責監管AI的機構;出處和水印系統,從而幫助區分真實與生成的內容,跟蹤數據泄露;強大的認證系統;在AI造成傷害后,明確誰該承擔責任……”
暫停開發GPT-4之后的AI,這聽上去是無稽之談,卻成為科技圈對AI爆炸性發展真切的焦慮。技術的潘多拉魔盒一旦掀開,現在的人們開始擔心再也無法合起來。
“我們必須捫心自問,”聯名信上寫道,“是否應該讓機器用宣傳和謊言充斥我們的信息渠道?是否應該讓所有工作都變得自動化?是否應該發展可能某一天會超越我們、淘汰我們、取代我們的人工智能?是否應該冒險失去對人類文明的控制?”
回到意大利禁用ChatGPT的事件中,曾在意大利生活8年的吳沈括表示,根據他對當地人信念的了解,出現這張禁令毫不奇怪。
“意大利有一句很流行的話,是說,以消滅人類為目標的人工智能,不應該被研發出來。”吳沈括分析說,在意大利人的判斷當中,這個問題具有最高度的嚴重性,需要有強力的介入、強力的監管態度。
因此,意大利監管部門的做法,不能簡單歸結為“因噎廢食”。
“當一個高強度的監管禁令提出之后,后續自然就伴隨著一個高密度的游說過程。”吳沈括解釋說,在這個游說過程中,監管意圖將得到更多的實現,它會形成一個博弈的過程。最終,建構一個可持續的、各方受益的良性循環的生態。
◎ 來源|南風窗