劉曉春
人工智能技術的快速發展,除了在基礎模型和技術層面的日新月異、突飛猛進外,在應用層面的拓展也是令人矚目。消費電子領域人工智能與硬件的結合,催生出一批舉著AI旗幟的新產品、新模式、新生態,特別在電腦、手機、家居、汽車、可穿戴設備等領域,充滿想象空間。人工智能技術以不同形態深度整合到消費電子領域,激發產業活力和想象空間的同時,也為產業鏈各環節各主體的合規和法律責任分配帶來挑戰。
消費電子領域人工智能的技術應用,整體上屬于人工智能產業規制的領域,同時又與數據、算法等領域的合規存在較為密切的關聯。對于人工智能產業發展的規制,目前全球范圍內只有歐盟通過了正式的《人工智能法》,美、中等人工智能產業快速發展的國家都還沒有出臺統一的法律。就歐盟的立法而言,對人工智能按照風險高低進行分類規制,分為不可接受風險、高風險、有限風險和極小或無風險,并針對通用AI模型增加了額外的義務。
這種以風險為導向的監管思路,也有可能在美國和中國有所體現。具體到消費電子領域,由于主要集中在應用層面,涉及到國家或者公共安全方面的風險概率較低,但是由于行業方興未艾,消費電子又緊密嵌入消費者的日常生活工作,與消費者隱私、個人信息、人身財產安全相關的風險浮現還有待觀察,一旦出現較為明顯的風險隱患,可能會引起較高的監管關注,因此,在推出新型產品之前做好周全的安全測試和風險預判,是對于行業拓展十分關鍵的合規舉措。
除了針對人工智能的專門監管之外,數據、算法等問題的合規依然是人工智能消費電子領域的關注重點。硬件產品在收集和處理用戶數據過程中的合規具有特殊性,特別是在用戶知情同意的保障、數據收集范圍的限定、數據共享和處理的過程、用戶數據用于人工智能訓練的設定等環節,存在不同于以往移動APP個人信息合規的特點,再加上諸如智能家居、可穿戴設備等硬件所收集數據很大程度上都具有較高的敏感性,涉及用戶家庭空間、個人軌跡等隱私屬性較強的信息,如何在不會對用戶造成頻繁打擾的前提下確保數據合規,是需要進行周全和精細設計的重點領域。

人工智能與消費電子結合過程中也涉及大量算法應用,算法領域的合規也需要全面落實,通過算法備案、評估等機制,對于算法自動化決策、生成合成內容等過程進行風險識別,對相關信息進行有效披露,為用戶提供自由選擇的選項等,避免相關權益侵害的發生,也是合規的重要節點。
就目前的產業態勢看,行業巨頭針對人工智能消費電子的布局具有全球性,國內外重要企業都在紛紛入局,建設自己的競爭優勢和產業生態。在這個過程中,消費電子產品在各國的上市,有可能存在所收集數據跨境運行帶來的安全風險問題,亦即需要匹配數據跨境方面的合規舉措,另一方面,在快速形成新一代人工智能生態系統的過程中,也可能出現排除、限制競爭,封閉生態圈,阻止競爭對手獲取生產要素的競爭行為,引發壟斷、不正當競爭等競爭法關切。
人工智能整體產業還在快速發展和分化之中,從基礎模型、通用模型到垂直領域的模型,經過產業鏈上各方主體的參與,最后到達消費者的直接應用層面,存在不同功能的產業參與主體,在產業分工趨于成熟和穩定之前,各方主體之間的分工和對應的責任分配,決定著各方的合規安排甚至產業形態。
在消費電子領域,人工智能技術與硬件結合,作為一個整體提供給消費者,例如整合了人工智能硬件和軟件的電腦、手機,通過人工智能技術分析用戶健康數據并給出相應建議的可穿戴設備,自動調節家庭環境的智能家居等,因此很大程度上,消費電子產品的生產者可以被認定為是人工智能服務的直接提供者,并承擔由此可能引發的相關產品和服務責任。但是另一方面,的確可能存在硬件廠商使用的是其他人工智能基礎服務提供者的服務能力,亦即在人工智能技術服務能力上存在“外包”的情況,硬件廠商在選擇了特定的人工智能服務提供商之后,對其服務后果、質量等缺乏足夠的控制能力。在這種情況下,經營者需要事先做好妥善的責任分配的合同安排,并對消費者事先充分告知真實服務主體、責任承擔主體等核心事項,并在出現問題的時候積極配合協助問題解決。
長遠來看,對于產業鏈分工和責任分配,需要在總結行業實踐經驗的基礎上,形成合理的法律規則,對風險和責任進行法定的分配,建立各方的有效預期。這一點上,近期推出的中國《人工智能法(學者建議稿)》也秉承了這一思路,對產業鏈上人工智能不同經營者提出了分類規制的方案。
近兩年人工智能領域的突破性進展是從生成式人工智能而來,消費電子領域的人工智能技術應用固然不限于此,但也可以想見大量的人工智能應用亮點是體現在內容生成領域。人工智能通過理解生成文本、圖片、視頻的功能,除了用于直接創作之外,也可以在輔助人們決策的各個方面大顯神通。生成式人工智能的專項合規,在中國具有關鍵意義。中國關于生成式人工智能的專門規定,要求在內容安全、數據訓練、權益保護等各個領域進行專門合規,接受政府監管,保持相應的透明度要求。
生成式人工智能在生成合成圖片、音頻、視頻的過程中,還需要充分評估可能帶來的深度偽造乃至電信詐騙等受到公眾高度關注的風險內容,并有效履行標識義務。對于可能造成混淆、誤認的情形應當保證用戶標識為顯性標識,即類似“本內容為AI生成”等明顯標識,并根據相關規定的要求針對生成內容添加可追溯的隱性標識。消費電子產品自帶的人工智能功能,如能應用于涉及存在倫理爭議的領域,例如復活死者的“數字人”,則需要更加關注潛在倫理和道德風險,進行相應的功能和權限設置,防止不可控的風險出現并蔓延。
生成式人工智能面臨的著作權侵權挑戰,也是合規重點之一。針對生成式人工智能在數據訓練階段使用版權內容,目前法律上對其行為屬性尚無定論。但對于生成存在著作權侵權問題的內容,承擔責任的可能性較大,在這種情況下,生成式人工智能的提供者有必要采取相應的防范措施,包括為著作權人提供提交侵權通知的渠道,在收到通知之后采取必要的侵權防范措施。在這個領域,著作權法上的規則也還在演進和探討過程之中,存在不確定性。在這個意義上,法律上的確也有必要盡快形成有利于產業健康有序發展的確定規則,減少不確定性給產業帶來的合規困擾。
人工智能在消費電子領域應用的一個亮點是可穿戴設備及其相關的健康管理服務,通過收集和監測人體的相關數據,進行智能化分析,為消費者的日常生活起居、作息、運動、疾病隱患等給出比較專業和精準的建議,這不僅具有重要的商業價值,對于消費者而言也切實提高了生活質量,具有巨大的想象空間。
但是健康管理服務也面臨較為明顯的數據合規和安全挑戰。健康數據通常被認為是十分敏感的個人隱私數據,從收集、處理到共享都需要進行較為嚴格的數據合規設計,并且,如果將收集而來的用戶健康數據,用于人工智能的訓練,需要獲取用戶明確的單獨同意。對于健康數據的智能化處理還需要保持一定的透明度,用戶有權進行選擇和設置,并可以要求了解處理和決策的核心過程,這些都對產品和服務設計提出一定的挑戰。
最后,健康管理涉及用戶的身心利益,服務和建議如果質量存疑,甚至出錯,有可能會導致比較嚴重的用戶損害后果,相關的責任如何來承擔,在何種程度上可以豁免,使用服務的風險程度如何,都是需要事先充分評估并如實告知用戶的。尤其是對于未成年人、老年人等特殊群體,需要采取更加針對性的保護措施。除了身體健康管理之外,情緒管理、精神陪伴等方面的服務則需要匹配更加周全的倫理審核,在必要的時候提供建議就醫等提醒和警示措施。
(作者為中國社會科學院大學互聯網法治研究中心主任)
本文為中國社會科學院“數字化決策與國家治理”綜合實驗室(編號:2024SYZH010)項目的階段性成果。