《法人》特約撰稿 張逸瑞 張津豪 張一凡 周彤
編者按:
7月31日,蘋果APP Store 宣布對中國大陸提供Chat GPT 類服務的應用集中下架。在面向應用開發者給出的回復中,蘋果官方表示,相關應用未依據中國大陸地區法律要求取得許可證,故“需下架整改,整改完畢上架”。某種角度而言,該情況可以理解為《生成式人工智能服務管理暫行辦法》(下稱《AIGC 暫行辦法》)施行在即引發的“連鎖反應”。
8月15日施行的《AIGC 暫行辦法》是中國亦是全球針對生成式人工智能服務領域制定的首部法規,其中提出了對生成式人工智能服務的分類分級監管要求,明確了提供和使用生成式人工智能服務總體要求。一定程度上,其標志著中國生成式人工智能服務領域進入強監管和高合規標準的新階段。
中國對生成式人工智能服務的合規監管強化早已有跡可循。早在今年年初,國家互聯網信息辦公室、工業和信息化部、公安部針對深度合成服務制定的《互聯網信息服務深度合成管理規定》(下稱《深度合成管理規定》)順利施行,明確了深度合成服務相關方的義務與主體責任,強化了對互聯網信息服務深度合成領域的管理?!禔IGC 暫行辦法》將與《深度合成管理規定》一并為中國大模型領域構建更為完善的治理和監管框架。
本文對中國監管體系項下的大模型領域合規要素予以梳理,并重點關注現實環境下落地應用的大模型主要合規義務。
大模型即Foundation Models,通常指具有大量參數和復雜結構的深度學習模型。其內含大量參數,需要數十億甚至上百億個參數,相較于傳統的較小規模模型,大模型具有更高容量和表達能力。大模型可以通過訓練大規模數據集,實現更準確預測和更高性能,并依據相關指令,完成各種目標任務。熟知的OpenAI 的ChatGPT 與Google 的Alpha Go 就是典型的語言類大模型:ChatGPT 以Transformer 模型為基礎,具有1750 億個參數;而Alpha Go 具有超過1億個參數。
根據百度、華為等企業近期密集發聲的情況來看,目前企業應用大模型主要體現為以下三種模式:一是自主構建基礎大模型,但考慮到訓練大模型的成本和技術壁壘非常高,只有少數企業自建大模型;二是建立行業大模型,通常是了解行業know-how 的企業,結合自身掌握的行業數據,用基礎大模型精調出更貼合實際場景的垂類行業大模型;三是在基礎大模型和行業大模型之上開發AI 應用,這也是目前大多數企業采取的模式。
以大模型為技術基石的生成式人工智能,是以大模型為技術基石,繼專業生產內容(Professionally-Generated Content,PGC)、用戶生成內容(User-Generated Content,UGC)之后的新型內容創作方式。在大模型支撐下,早期生成式人工智能在文本生成領域以內容創作為主,后逐漸向音頻生成、圖像生成等領域推廣,逐步在企業端和消費者端變現,并完成在消費、產業、學術等諸多場景的落地和應用。
目前,微軟已將ChatGPT 嵌入微軟各大系列產品,包括將GPT-4 接入搜索引擎New Bing 和Edge 瀏覽器、推出集成New Bing 和其他插件的AI 助手平臺Copilot 以應用于Office、協作軟件Teams 以及其他商業應用。同時,OpenAI 正著手打造基于語言類大模型的應用商店,打通所有接入ChatGPT 的應用體系。
總體而言,大模型在自然語言處理、圖像識別、語音識別等領域取得了顯著成果,帶來更精準和高效的機器學習和人工智能應用。但大模型迅速推廣應用引發一系列隱患,如大模型服務被惡意利用開展違法犯罪活動、協助罪犯進行AI 詐騙。又如部分高校師生利用大模型大量生成文章或研究內容,在學術造假、學術不端的同時,不知不覺侵犯了潛在權利人的知識產權。此外,還引發了虛假信息傳播、數據和隱私信息泄露、偏見歧視等諸多問題。因此,大模型的推廣應用,勢必伴隨著系統規范建立大模型合規監管體系。
在中國當前監管體系下,大模型合規要素主要涉及范疇包括平臺運營合規、內容合規、平臺管理合規、網絡安全與數據合規、算法技術合規、國際聯網合規等方面。
對上述合規要素提及的“生成式人工智能技術”“深度合成技術”“算法推薦技術”“具有輿論屬性或社會動員能力的互聯網信息服務”等大模型合規重要概念,需要說明的是,大模型的核心概念其實是“深度學習+自動生成”,而生成式人工智能技術、深度合成技術和算法推薦技術并非相互獨立,三者相互配合運作才形成完整的大模型結構。同時,在滿足一定條件情況下,基于生成式人工智能技術、深度合成技術和算法推薦技術所提供的服務會成為具有輿論屬性或社會動員能力的互聯網信息服務,而該等服務需要滿足特殊的合規要求。
大模型服務提供者,即利用大模型技術提供服務的組織、個人。具體來講,大模型服務提供者分為以下兩類:平臺運營方和技術支持方。
平臺運營方指負責大模型的商業性開發,依據相關規定取得相應資質證照,承擔相應義務與責任,提供大模型技術應用服務的組織、個人。在大部分情形下,平臺運營方針對的是面向終端消費者的大模型應用場景,比如百度文心一格網站、抖音快手的一些AI 特效功能。
技術支持方指負責大模型的技術性開發的組織、個人。技術支持方是大模型的設計者、開發者和完成者,掌握著大模型背后的核心算法和運行規則,負責處理數據訓練、生成內容標記、模型優化等技術性事項。在大部分情形下,技術支持方針對的是面向企業的大模型應用場景,通常以API 形式為企業等提供大模型技術支持。
在《深度合成管理規定》中,合規主體分為“深度合成服務提供者”和“深度合成服務技術支持者”,分別對應上述“平臺運營方”和“技術支持方”;而 《AIGC暫行辦法》《算法推薦管理規定》等相關法律法規,均未對“生成式人工智能服務提供者”“算法推薦服務提供者”進行進一步區分。盡管如此,根據該等規定項下“人工智能服務提供者”“算法推薦服務提供者”責任和義務相關的具體規定,“平臺運營方”和“技術支持方”同樣需要依據其提供的服務內容及類型承擔不同責任和義務。例如,負責模型訓練的技術支持方,應當確保訓練數據的來源合法合規,而不參與模型訓練、不涉及訓練數據處理活動的平臺運營方應當對技術支持方提供的模型進行必要合規審查,要求技術支持方對訓練數據來源的合法合規性進行陳述保證等。

CFP
根據《AIGC 暫行辦法》,行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等研發、應用生成式人工智能技術,未向境內公眾提供生成式人工智能服務的,不適用本辦法的規定(第二條)。需要遵守相關大模型合規義務的主體,指向境內公眾提供服務的大模型服務提供者。若上述主體未向境內公眾提供服務的,則不適用大模型相關合規規定。
基于前述規定,實踐中出現了僅面向企業端提供大模型應用服務的大模型服務提供者是否可適用前述規定、豁免相關合規義務的討論。從該條款目的來看,加強大模型的合規與監管要求旨在規范公共層面的數據流通、傳播,避免重要、敏感信息泄露以及防止違法、虛假信息和內容在社會層面廣泛傳播。因此,如果大模型服務提供者僅面向特定企業提供服務,且該企業僅在企業內部使用大模型服務,不會導致大模型服務成果向公眾流通,則有可能并不適用相關合規義務。
然而,若大模型服務提供者(“A 主體”)作為技術支持方自研大模型,向中國境內的另一作為平臺運營方的大模型服務提供者(“B 主體”)提供大模型技術接口并收取技術服務費,接入大模型技術接口的B主體進而面向中國境內的消費者提供大模型應用服務,對此,筆者傾向于認為,A 主體與B 主體均需要履行相關合規義務。