
今年2月,歐盟27國代表一致支持《人工智能法案》文本,標志歐盟向立法監(jiān)管人工智能邁出重要一步。與此同時,計算機和通信業(yè)協(xié)會批評說,許多新的人工智能管理規(guī)定尚不明確,可能會減緩創(chuàng)新的人工智能應用在歐洲的開發(fā)和引進。
早在2021年4月,歐盟委員會就提出了《人工智能法案》提案,意在構建世界范圍內第一部人工智能法律,2023年5月,回應ChatGPT的挑戰(zhàn),歐盟又通過了《人工智能法案》的談判授權草案。這項新技術立法經歷了馬拉松式的談判,直到投票前不久,歐盟還不確定德國是否會投贊成票。可見在人工智能上監(jiān)管跟進與倫理評估的復雜性。
加速是以人工智能為代表的新型技術的內在特征,本質上也是資本的內在特征,其穩(wěn)定可靠是建立在加速基礎上的,因此不可能理想性“暫停”一段時間來靜待應用倫理的構建。意在強化倫理約束的歐盟可信人工智能指南反而強調技術的“健壯性”原則。這意味著,我們必須伴隨技術思考倫理應對,使倫理約束至少在技術手段上與約束的對象同步。
對算法影響進行評估、對產業(yè)鏈上下游不同角色進行責任認定、建立監(jiān)管沙盒等等,都需要以技術本身作為防御工具,更需要立法和監(jiān)管以動態(tài)方式跟進觀察技術前沿,抓取技術工具。ChatGPT帶來的全球性討論中,業(yè)界學界很多人也同樣反對“AI末日論”“AI恐怖主義”,強調技術本身的反向運用能力。
與之一體兩面的問題是,監(jiān)管方應警惕技術滯后,或者因為立足于落后技術思維而導致自身成為問題制造者。良好的監(jiān)管將有效增強技術的安全感和控制力,減少新的風險,但低效監(jiān)管和低能監(jiān)管則肯定會使人工智能的倫理風險更為復雜化。因此需盡可能前置技術評估時間、形成監(jiān)管主體對技術的敏銳性反應。《人工智能法案》確定了人工智能系統(tǒng)的明確定義,區(qū)分于一般軟件系統(tǒng)、編程方法,以保證法律的確定性和廣泛接受性;定義了人工智能的四個風險級別,分級對人工智能提供者規(guī)定義務;此外作為主動性技術防御措施,法案還要求歐盟各成員共建一個高風險人工智能系統(tǒng)數據庫,供應商應按照相應要求將規(guī)定的數據輸入該庫中,可向公眾免費提供,面向算法透明,在公眾知情權和商業(yè)秘密之間達成一個技術性平衡。法案所體現出的技術伴隨意圖和較高的技術主動,值得關注。
將人工智能相關技術置于媒介環(huán)境中考慮,就會發(fā)現技術主動原則是一種必須建立的底層邏輯。今天我們面對的媒介可以理解為資本、技術、媒體三位一體的大型架構,在理解和定義重大社會趨勢、選擇時,媒體被認為有合法性,很容易將資本及技術的原始沖動合理化。上述歐盟草案所列的風險級別中,大型網絡平臺的社交媒體平臺(用戶超過4500萬)所使用的算法推薦系統(tǒng),被列入了高風險人工智能,正因為其會對網絡安全、公眾輿論等產生強烈效應,對整個社會生活產生“元”影響力。在人工智能的狂飆突進中考慮中國的本土情況,歐盟立法的過程及其“技術主動性”,需要我們引為參考。
來源/光明網