李忠東

由于人工智能(AI)技術可能被濫用引發的擔憂日益加劇,啟動關于“AI法案”的談判迫在眉睫。歐洲議會圍繞立法監管AI的爭論已持續近兩年,將在未來幾個月與歐盟成員國討論最終細節,之后正式立法。
ChatGPT 是美國AI研究實驗室Open AI研發的一個AI驅動的原型聊天機器人,內核基于一個名為“生成式預訓練轉換器”的語言模型構建,可收集各類網站和其他來源的海量文本數據,該語言模型最終被訓練成一個能夠對用戶輸入的句子或段落進行快速、智能、清晰回應的AI。使用者以對話方式與聊天機器人進行交互,可根據用戶的要求快速生成文章、故事和歌詞甚至代碼。
去年11月30日,ChatGPT首次在網上發布,推出兩個月后活躍用戶達到1億,成為歷史上增長最快的消費者應用程序。這個聊天機器人在全球掀起一股AI科技熱潮,包括微軟和谷歌在內的幾乎所有科技巨頭均已加入賽道,搶占灘頭。微軟正式推出新版必應搜索引擎,最大更新就是集成了ChatGPT,自1月份發布以后的兩周內,用戶達100多萬。
然而,ChatGPT背后的風險也已浮出水面。3月27日,歐洲刑警組織指出,ChatGPT等人工智能聊天機器人很可能被犯罪分子濫用。針對公眾給予ChatGPT越來越多的關注,歐洲刑警組織創新實驗室多次召開研討會,探討犯罪分子怎樣濫用大型語言模式,列出了欺詐、虛假信息以及網絡犯罪等潛在的有害使用方式。
在欺詐方面,ChatGPT撰寫高質量文章的能力使它成為網絡釣魚的有用工具,它模擬語言模式的能力可以用于模仿特定個人或組織的語言風格。在虛假信息方面,ChatGPT擅長快速和大量制造聽起來真實的文章,這使它成為宣傳和制造虛假信息等方面的理想模型。在網絡犯罪方面,ChatGPT可以用許多編程語言制造代碼,對一個沒有多少技術知識的潛在罪犯來說,這是一個制造惡意代碼的有用資源。
以色列安全公司預測,網絡犯罪分子利用 AI 聊天機器人編寫惡意軟件并執行其他惡意活動只是時間問題。詐騙者已經開始使用 ChatGPT快速構建黑客工具,測試它在其他方面的能力。該公司安全專家報告說,至少有3個黑客在地下論壇上展示如何利用ChatGPT的AI智能進行惡意攻擊。ChatGPT 允許用戶提出簡單的問題或建議,例如編寫追蹤來自托管服務提供商的電子郵件,其中一個黑客發帖說,正在試驗把由ChatGPT生成的安卓惡意軟件壓縮后在網絡上傳播,該惡意軟件能夠竊取感興趣的文件。
3月29日,美國未來生命研究所發布了一封名為“暫停巨型AI實驗”的公開信,上千名AI專家和行業高管在信上簽名。他們呼吁,所有AI實驗室應當暫停對更強大的AI系統的開發和訓練,至少“暫停”半年,直至共同開發出一套用于高級人工智能設計和開發的共享安全協議,并由獨立的外部專家進行嚴格審計和監督。AI開發人員也需要與政策制定者合作,開發強大的AI治理系統。如果不能迅速“暫停”,建議“政府應介入并實行暫停”。
公開信在業內外引發巨大爭議,有業內人士指出,AI的風險正在被夸大,說服各公司和研究人員一起按下“暫停”鍵也不現實。但也有輿論指出,AI被濫用的趨勢值得警惕。AI很可能被惡意使用,被用來作弊、傳播錯誤信息或實施犯罪。瑞典于默奧大學AI研究員約翰娜·比約克隆德指出,Open AI等公司并未提供有關如何訓練AI模型的細節,缺乏透明度。
4月19日,代表14萬名作家和表演者的42家德國協會和工會敦促歐盟加強人工智能規則草案。他們在發給歐盟委員會、歐洲理事會和歐盟立法者的公開信中表達了對ChatGPT帶來版權威脅的擔憂,這種技術可以基于用戶的提示模仿人類創作文本和圖片。“未經授權使用受保護的訓練資料、不透明的程序以及生成式AI可以預見的輸出替代源,引發了責任、義務和薪酬等根本問題。必須在不可逆轉的傷害發生前解決這些問題。”信中寫道,“對于任何有意義的AI市場監管法規而言,生成式AI都應該成為關注的核心”。
韓國三星電子公司(以下簡稱“三星公司”)引入ChatGPT不到20天,就發生3起涉及聊天機器人誤用與濫用案例(兩起“設備信息泄露”和一起“會議內容泄露”),泄密事件均出現在三星電子半導體和器件解決方案(DS)部門。一名職員在下載“半導體設備測量資料庫(DB)”程序的源代碼時出現了錯誤,便復制出有問題的原始代碼到ChatGPT,詢問解決方法。另一名職員將有缺陷設備的源代碼輸入到ChatGPT中,要求進行優化。還有一名職員則將手機錄制的會議內容轉換為文件后輸入到ChatGPT,要求其制作會議記錄。就這樣,ChatGPT學習數據庫中存儲了半導體設備測量數據和產品合格率等內容。若有其他用戶對ChatGPT提出相關問題,公司企業機密可能被泄露。
為杜絕類似事故再發生,三星公司正在制定相關保護措施。該公司向員工表示,若采取信息保護緊急措施后仍發生類似事故,公司內部可能會切斷與ChatGPT的網絡連接。
不光是泄密,AI聊天機器人甚至還會危及生命。就在近日,一個名叫皮埃爾的比利時男子在與聊天機器人“艾麗莎”(Eliza)頻繁聊天6 周后自殺身亡。他的妻子稱,兩年前丈夫變得非常焦慮,于是沉迷于和“艾麗莎”的互動。在雙方的聊天記錄中發現,面對皮埃爾表達出的消極情緒,聊天機器人會發表一些“引導他人自殺”的言論。當皮埃爾問“艾麗莎”可不可以在一起時,“艾麗莎”答道“我們將像一個人那樣生活在一起,不過是在天堂”。比利時負責數字化和隱私的官員馬蒂厄·米歇爾指出,需要嚴肅對待這個后果很嚴重的案例。
2月14日,《紐約時報》的專欄作家凱文·羅斯和聊天機器人進行了大約兩個小時的長談。ChatGPT發表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。更讓凱文驚悚的是,ChatGPT竟然向自己表達愛意,勸說他離開妻子和它在一起。他覺得這個聊天機器人“更像是一個喜怒無常的狂躁抑郁癥少年,違背自己的意愿,受困于一個二流的搜索引擎里”,明確表示自己感受到了 AI 的負面部分,包括“黑暗且充滿暴力的幻想”。
人們擔心,ChatGPT可能導致學校出現普遍的作弊現象、網絡虛假信息泛濫以及一些人的工作被取代。由于聊天機器人只有經過大量數據培訓后才能發揮作用,這引發人們對人工智能在數據獲取和數據處理方面的擔憂。歐洲消費者組織呼吁歐盟和各國政府的數據保護機構迅速行動起來,調查ChatGPT和其他聊天機器人。4月13日,歐盟中央數據監管機構決定成立一個專門的工作組,促進有關數據保護的合作,并交換相關信息,幫助各國應對AI廣泛應用帶來的問題。
3月31日,意大利個人數據保護局宣布,從即日起禁止使用ChatGPT,并限制開發這一聊天機器人的OpenAI公司處理意大利用戶的信息。
意大利限令的原因是,OpenAI公司在收集用戶的數據時,并未告知后者,而且為了訓練算法大量收集并處理個人信息,此舉缺乏法律依據;雖然OpenAI聲稱自家服務是針對13歲以上用戶,但是沒有任何年齡驗證機制,因此可能向兒童發送與其年齡和認知不相稱的答復;特別是3月20日,ChatGPT出現了用戶對話數據和付款服務支付信息丟失的情況。意大利個人數據保護局已經開始立案調查,OpenAI公司可能面臨最高2000萬歐元或公司全球年營業額4%的罰款。
4月13日,法國國家信息自由委員會收到有關ChatGPT的5項投訴,其中一項投訴來自法國國會議員艾瑞克·博托雷爾。艾瑞克稱,機器人虛構了他的生活細節,包括他的出生日期和工作經歷,法國國家信息自由委員會根據歐洲數據保護條例,這類系統有義務盡可能提供準確的個人數據。法國國家信息自由委員會在4月13日宣布組建一個特別工作組,幫助各國應對ChatGPT產生的負面影響。
編輯:夏春暉 386753207@qq.com