999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能治理:波蘭尼雙重運動理論視角

2023-12-29 00:00:00胡泳馬愛芳
現代出版 2023年3期

內容摘要:在資本的強力加持下,以ChatGPT為代表的人工智能技術正在對人類生產和生活的各個領域產生巨大影響。作為一種通用型技術,人工智能相對其他領域的技術進步更能直接影響社會利益。人工智能對公民的了解遠遠超過公民對人工智能的了解,技術和人在權力方面的不平衡以及當前監管政策的滯后性,是造成技術得以作惡并無須承擔責任的根源,這種不平衡也解釋了人工智能治理的必要性和正義性。匈牙利政治經濟學家卡爾·波蘭尼(Karl Polanyi)在20世紀中葉提出的雙重運動理論富有前瞻性地揭示了自由市場和政府干預的關系。以雙重運動理論為基礎,從社會治理、信息內容治理和法律治理的角度分析人工智能造成的治理困境,并進一步探討雙重運動理論對解釋人工智能治理的適用性問題。

關鍵詞: 人工智能;雙重運動;社會治理;信息內容治理;法律治理

DOI:10.3969/j.issn.2095-0330.2023.03.005

引 言

2022年11月30日,美國技術初創企業OpenAI發布了聊天機器人ChatGPT,短短5天時間,其下載量就達到100萬。 從2022年11月到2023年1月,月活躍用戶飆升到1個億,成為歷史上增長最快的消費應用程序。毫無疑問,TikTok 也是一種數字現象,但它用了9個月的時間才達到了相同水平,而Instagram則花了兩年半。2023年3月14日,Open AI又成功將ChatGPT-3.5 升級到ChatGPT-4.0,其強大的內容生成能力引來用戶和企業的密切關注,生成式人工智能一時風頭無兩,實現了“病毒式傳播”。自問世以來,ChatGPT一直是頭條新聞,因為它有能力回答復雜的問題、寫詩、生成代碼、計劃假期和翻譯語言,而ChatGPT-4.0甚至可以對圖像作出反應,并在律師統考中獲勝。然而, 一周后, 包括埃隆· 馬斯克(Elon Musk)和史蒂夫·沃茲尼亞克(SteveWozniak)在內的超過1 000名科技公司負責人和科學家通過研究機構生命未來研究所(Futureof Life Institute)發布了一封公開信,呼吁在6個月內暫停開發比ChatGPT-4.0更強大的通用型聊天機器人,以留出充足時間評估生成式人工智能的安全風險。此外,有不少機構開始封殺ChatGPT。Stack Overflow是最先被爆出封禁該技術的平臺之一,作為一個用戶可以找到編程問題答案的網站,它給出的解釋是:“雖然ChatGPT產生的答案錯誤率很高,但它們通常看起來可能是正確的,而且答案非常容易產生。”國際機器學習會議ICML(International Conference onMachine Learning)禁止征稿使用大型語言模型(LLM,Large Language Model)生成的文本,除非此類文本是作為論文實驗分析的一部分呈現的。數以千計的科學期刊出版商已經禁止或限制投稿人使用ChatGPT,包括《科學》(Science )與《自然》(Nature ),因為他們擔心這種機器人會讓學術文獻充滿錯誤甚至是捏造的研究。若干學區和大學也因擔心抄襲和錯誤信息而禁止使用ChatGPT。3月31日,意大利數據保護機構Garante發表聲明,禁止在意大利使用ChatGPT,懷疑其違反了歐盟《通用數據保護條例》(GDPR,GeneralData Protection Regulation),非法處理意大利人的數據,包括未成年人的信息。OpenAI對禁令作出了回應,迅速對來自意大利IP地址的訪問進行了地理封鎖。直到OpenAI宣布為ChatGPT提供一套隱私控制措施之后,該服務才再次向意大利用戶開放。據《日經亞洲》(Nikkei Asia )報道,中國監管機構對ChatGPT生成的未經審查的回復感到擔憂,要求國內科技公司不要在其平臺上提供訪問。3月29日,英國政府公布對人工智能行業的建議,概述了對該技術進行監管的全方位方法,以及希望公司遵循的五項原則:安全、安保和穩健;透明和可解釋;公平;問責和治理;可競爭和補救。就連一向對技術監管持審慎態度的美國政府也于2023年4月11日宣布就人工智能系統的潛在問責措施公開征求意見,因為其對國家安全和教育的影響隱約可見。各國政府對人工智能的積極干預和它們在互聯網出現伊始普遍采取的放任態度形成鮮明對比。

互聯網普及以來,政府最初治理互聯網的努力遭到公民社會的強烈抵制,以電子邊疆基金會(EFF,Electronic Frontier Foundation)創始人之一約翰·佩里·巴婁(John Perry Barlow)1996年發表的《賽博空間獨立宣言》為標志,包括知名科學家在內的公民社會認為網絡空間完全可以通過自我規制確保秩序井然,政府對互聯網的干預除了體現政府想要將自己的權力從現實世界擴展到網絡世界的控制欲,對于確保網絡空間的良好運行并無助益。然而到了今天,各國政府對AI的干預表現得更為積極,并且這種干預在很大程度上獲得了公民社會的支持。

歐盟擬議當中的《人工智能法案》(ArtificialIntelligence Act)是目前世界上關于人工智能治理的第一部法律。 歐盟理事會已經通過了關于該法案的共同立場,其目的是確保投放到歐盟市場、在歐盟使用的人工智能系統是安全的,并尊重有關基本權利和歐盟價值觀的現有法律。這與公民社會的立場是一致的。例如,2021年11月30日歐盟數字權利組織(EDRi,European Digital Rights)和其他119個公民社會組織發起集體倡議,要求歐盟的《人工智能法案》將保護人類基本權利放在該法律的顯著位置。可以說,數字技術一路高歌猛進為人類帶來便利的同時,以劍橋分析丑聞和人工智能武器化等為代表的負面事件逐漸粉碎了人類關于技術帶來自由的幻想。和20世紀90年代對互聯網滿懷憧憬的網民相比,當下,網民愈發關注數字技術造成的法律風險、倫理風險、道德風險等問題,對政府監管數字技術的排斥大大下降。甚至以抵制監管著稱的超大型平臺也主動呼吁加強政府監管,以分擔平臺自我治理的成本:Facebook首席執行官馬克·扎克伯格(Mark Zuckerberg)表示,社交媒體公司需要政府提供更多監管,以解決日益嚴重的有害在線內容問題;谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)在《金融時報》發表文章,稱人工智能太重要了,不能不進行監管,只是需要采取“合理的方法”;微軟總裁布拉德·史密斯(Brad Smith)也說,世界“不應等待技術成熟”才對人工智能進行監管。面對ChatGPT引發的熱潮,皮查伊甚至呼吁建立類似于核條約的全球監管框架,以應對人工智能帶來的安全問題。本文認為AI治理在各國獲得的廣泛民意支持,體現了數字技術的高速發展激發了公民愈發強烈的自我保護意識。本文將從卡爾·波蘭尼雙重運動理論出發,試圖分析人工智能治理的內在機制及其引發的治理困境和解決之道。人工智能在過去二十多年的發展未受或較少受到政府監管,基本上處于野蠻生長狀態。在資本加持下,人工智能“在對權利的保障與補充上實現的增幅遠遠無法達到在權力擴張上實現的增幅”,以算法為代表的人工智能成為大型科技公司對用戶形成巨大影響力的奠基性力量。正如哈佛商學院教授肖珊娜·祖博夫(Shoshana Zuboff)所言,以科技巨頭為代表的監控資本家把用戶在互聯網平臺上持續生產的數據轉化成資本增殖的生產資料的一部分, 造成了波蘭尼所說的不受監管的市場對公共利益的吞噬作用。政府治理人工智能的努力以及這些努力獲得的廣泛支持體現了波蘭尼雙重運動理論中的反向運動,即公民出于自我保護的需求自發形成抵制資本侵蝕的運動。

一、人工智能治理的內在機制

人工智能代表著當前技術進步的最高水平,其對生產和生活方式的變革作用也必將史無前例。

人工智能在大眾想象中已然成了“技術”的同義詞,數字技術的發展使人類對技術的定義大大縮小。然而,技術從來不是一個中性詞,它是權力的支撐,是政治和文化的工具。人工智能經過精心的工程設計,出廠就預裝價值觀、常識和對世界的深度理解。不受監管或受到不當監管的技術會造成權力在社會內部的不公平分配,成為服務資本增殖的工具。人工智能的開發成本非常高,只有大科技公司才有資源和規模來實現它,這就意味著,人工智能的崛起只會讓大科技公司在一些行業中更加強大和穩固,因此,對其潛在的壟斷行為的擔憂甚至達到頂峰。

政府治理人工智能的必要性源于不受監管的技術會侵蝕社會利益。匈牙利著名政治經濟學家波蘭尼的雙重運動理論對市場和社會的關系做了犀利的分析。雙重運動理論包含兩個核心要素:市場試圖吞噬社會利益的運動和社會利益反對被吞噬的運動。雙重運動理論是關于市場和社會的關系,與技術并無直接關系。然而,如果把對雙重運動理論的理解往前推進一步,把技術看作是經濟主體用來積累競爭優勢、擴大市場份額的手段,那么雙重運動理論與技術之間可以建立更加直接的關系。

(一)第一重運動:自由放任的市場吞噬社會

在第一重運動中,不受規制的市場和資本按其本性自由擴張,在這一過程中市場實現了對社會的統攝,把自然和人當成物品且其價格完全由市場決定。“這種想法褻瀆了數百年來統治著社會的那些原則:自然與人的生命幾乎一直都被認為有其神圣的一面。這一神圣的維度與將勞動力與自然從屬于市場這種做法之間是不可調和的。”在沒有政府干預的條件下,市場對社會的吞噬十分野蠻,一切妨礙資本增殖的障礙都被馴服或消滅,資本增殖而不是人的發展成為社會追求的終極目標。用波蘭尼的話來說,在自由市場中,“對市場的形成構成阻礙的任何事物都必須被嚴格禁止……由此,不僅必須存在關于所有工業生產要素的市場,而且將會影響這些市場運作的任何措施或政策都必須被否定……只有這樣一些政策和措施才是適宜的:通過創造有助于市場成為經濟領域唯一的組織力量的各種條件,保證市場的自發調節”。

由于政府規制——無論是對價格的規制,對勞動條件的規制,還是對交易條件的規制——阻礙市場自發調節作用的發揮,政府規制成為被詬病的對象,弱勢群體在市場叢林法則下任由資本和市場剝削。

在自由市場條件下,社會利益與資本的關系徹底倒置:即本應服務于社會利益的資本反而成為目標,社會利益則是服務于資本增殖的手段之一,社會利益本身不再是目標,它成為資本的附庸。

盡管第一重運動是關于市場和社會,而非關于技術和社會,但需要指出的是技術是不受監管的市場形成吞噬公共利益能力的奠基性力量。科技公司集資本與技術于一身,資本和技術互為加持,通過資本優勢加快技術研發,又通過技術優勢吸引更多投資,技術和資本互相反哺是助力科技公司實現資本增殖的優勢條件,也是科技公司比其他行業的企業有更強的吞噬社會利益潛力的原因。祖博夫曾犀利地抨擊以谷歌和亞馬遜為代表的硅谷巨頭野蠻掠奪用戶數據,以提高算法精準程度的做法。她指出,算法是科技公司在數字經濟競爭中獲勝的重要條件,算法性能的提升意味著科技公司必須獲取比競爭對手更大體量的訓練數據。作為數據生產者,用戶成為科技公司持續監視、剝削和掠奪的對象。

科技公司開發新服務、提供跨界服務或者收購有可能形成競爭對手的小平臺,從本質上說都是為了擴大數據收集的來源。科技公司對用戶數據貪婪成性,不惜通過違背倫理道德的方法無休止地收集數據。例如,祖博夫揭示道,盡管用戶在隱私協議上勾選“拒絕一切cookies”的選項,科技公司仍會跟蹤記錄用戶的瀏覽數據,用來投喂算法,產生更大的行為剩余價值(behavioral surplus)。她毫不留情地揭露了平臺虛偽的一面,即平臺以捍衛用戶言論自由為由抵制政府監管的做法實際上并非真正為了保護用戶,而是害怕政府干預會損害平臺收集用戶數據。

更為嚴重的是,平臺為了提高點擊率,故意放寬內容審核標準,不刪除那些有害但是能夠提高網站瀏覽量的內容。祖博夫所揭露的科技公司公然違背倫理規范竊取用戶數據、破壞用戶隱私、把用戶作為服務其資本增殖的工具的做法,非常鮮活地體現了第一重運動在人工智能領域的運用。

波蘭尼當年抨擊市場把自然和人當成物品并定價,但令他始料未及的是,人的經驗乃至人性在人工智能的驅動下也可以被商品化。就像20世紀的通用汽車和福特等公司發明了大規模生產和管理資本主義一樣,谷歌和Facebook想出了如何通過跟蹤人們(而不僅僅是它們的用戶)在網上(也越來越多地在網下)的行為,對他們未來可能的行為進行預測,從而設計出影響從購物到投票等活動的辦法,并將這種辦法賣給愿意付錢的人。“現實”本身因之被商品化。

卡內基梅隆大學CyLab安全和隱私研究所的蒂姆·利伯特(Tim Libert)說,在線跟蹤已無處不在。“在前100萬個網站中,你將在91%的網站上被追蹤。我做這些類型的掃描已經很多年了,結果總是一樣的:你不可能在不被追蹤的情況下瀏覽網絡,就是這樣。當你訪問醫療網站、色情網站、律師網站、政治網站、報紙網站時,公司會追蹤你,應用程序也是如此。人們使用電腦尋找或分享的幾乎所有東西都被追蹤,一直被你在新聞中看到的價值數十億美元的巨頭以及數百家你從未聽說過的公司所追蹤。”這就是人工智能和機器學習對這些公司的意義:更好地猜測向你展示什么廣告。由此產生的廣告技術即“行為廣告”(behav i o r a ladvertising)。祖博夫警告說,挖掘用戶數據并將其貨幣化的做法已經轉移到保險、金融、零售、醫療保健、娛樂、教育甚至汽車等行業,廣告公司現在比以往任何時候都更了解消費者。它們積累了大量的消費者數據,而由此投放的定向廣告正在摧毀互聯網并破壞世界。祖博夫預測,如果不加以控制,監視資本主義(surveillance capitalism)將像以前的資本主義變種那樣具有破壞性,盡管是以一種全新的方式。

工業資本主義將大自然據為己有,直到數代以后我們才不得不面對如此做法的后果。在資本主義發展的新階段,如果監視資本主義將人性作為產品開發和市場交換的原材料,那么必然產生知識的極端不對稱,以及從這些知識中所獲取的權力的巨大不平等。

(二)第二重運動:政府規制和社會自我保護

古典經濟學家強調市場自發調節,是因為他們認為經濟和社會是兩個互相獨立的空間。正如波蘭尼指出的,“一個自發調節的市場必須把社會制度性地分離為經濟和政治兩個領域。實際上,這樣一種二分法不過是從社會整體的角度重申了一個自發調節市場的存在。也許有人會提出,這兩個領域的分離存在于所有時代的任何社會。然而,這是一個沒有根據的論斷……通常而言,經濟秩序不過是社會秩序的一種功能,前者寓于后者之中”。也就是說,經濟利益嵌入社會利益之中,前者從屬于后者。

為闡明二者關系,波蘭尼以部落社會中的物品交換作為例子。他指出,和古典經濟學的闡釋相反,逐利性并不是人類社會交換行為的本質,相反,融入社群、獲得社群認同和尊重等非物質性需要才是人類社會交換的主要目的。波蘭尼批評以亞當·斯密(Adam Smith)和大衛·李嘉圖(DavidRicardo)為代表的古典經濟學家對早期人類交換活動的動機作出的嚴重誤判。波蘭尼指出,“經濟體系都是依靠非經濟動機得以運轉的”,社會聯結的維系比個人利益的保護更加命運攸關:“首先,如果個體不遵守關于榮譽或者慷慨的既定行為規范,那他就是自絕于共同體,并成為一個棄兒;其次,因為從長遠來看,所有的社會義務都是互惠的,從而履行社會義務也最符合個體禮尚往來(give-and-take)的利益。這樣一種情勢必然會對個體產生持續不斷的壓力,迫使他們從自己的意識當中消除經濟自利,以至于在很多情況下(但不是所有)他們根本無法從自利角度去理解自己行為的意義。”以上引用表明在經濟自利和社會眾利之間,后者的重要性遠超前者,因為以犧牲后者為前提一味追求前者的社會成員會被共同體拋棄,導致其同時喪失追求前者的條件。這是對經濟利益從屬社會利益,且嵌入社會利益的最好詮釋。波蘭尼認為,自由放任的市場勢必損害社會共同體的利益,因為后者是橫亙在市場擴張征途上的絆腳石。波蘭尼提出的所謂“大轉型”的過程即是指,嵌入式經濟(基于傳統、再分配或互惠)正被由收益邏輯驅動的非嵌入式經濟所取代。

然而,社會共同體不會任由市場吞沒,而是自發發起自我保護的反向運動。這種自發性促使波蘭尼斷言,從來就不存在完全自由放任的市場,相反,“管制與市場是一起成長的”,管制就是社會自我保護反向運動的一種實現形式,以抵抗市場野蠻擴張對社會的破壞性。波蘭尼斷言,“各種措施和政策所織成的網絡與各種強有力的制度配合,目的是抑制與勞動力、土地和貨幣相關的市場行為……在自發調節的市場體系所固有的威脅面前,社會奮起保護自己——這就是這個時代歷史的綜合性特征”。

20世紀以來,雙重運動的基本邏輯在很大程度上仍然可行,且在理論上也適用:政治行為者的目的是構造經濟行為者的活動,而經濟行為者則一心想著商品化。然而,不得不說,進入21世紀的數字經濟之后,雙重運動已部分失靈。在前數字經濟中,為了運作,市場需要民族國家提供的制度秩序,因為它有助于產生和維持經濟活動的關鍵組成部分,如自然(以土地為縮影)、人(提供勞動力)和交換規范(可以以貨幣形式實現)。然而,這并不能阻止市場無情地將土地、人和金錢商品化。結果,它們被變成了“虛構的商品”,這些商品不是為銷售而生產的,但還是被買賣。到了數字經濟時代,從智能手機到智能閉路電視監控,私人和公共空間的數字設備的飽和,正在推動幾乎所有社會活動的數據化。由聯網用戶和聯網機器不斷產生的數十億個數據點被科技公司收集起來進行銷售,然后用于預測、產品與服務的個性化以及優化整個價值鏈的生產和銷售。通過這種“數據凝視”,公司可以直接接觸到消費者生活中最隱秘的方面。甚至可以說,數據——作為社會、經濟和政治的元表征——正在成為一種波蘭尼式的新的虛構的商品,因為它不是為銷售而生產的,卻可以被出售。此外,在被稱為數字經濟的知識經濟的新迭代中,其他虛構的商品,特別是勞動力和貨幣,正在被徹底數據化,即它們通過數據化的過程進入市場。

數據化的勞動力通過數字平臺進行交易,數據化的貨幣(例如比特幣)在全球范圍內增加了流動性金融化。通過數字設備的交流整合了不同的商品化過程,創造了一個單一的全球化市場過程。在數字經濟中,商品化既深入又廣泛。

與此同時,民族國家在使日益全球化的市場屈服于本地規則方面面臨著越來越多的困難。這是因為,數字化的市場比傳統的市場更不固定。平臺特別強調,它們的業務可以歸結為虛擬的中介和市場各方的聯系,自然它們不對任何負面結果負責。換句話說,它們的商業活動缺乏一個“物質核心”,可以屈從于民族國家的本土化規則:數字平臺顯然是對法律的挑戰,這也是它們運作的一個主要特點和結果。它們喜歡展示法律是如何與新經濟脫節的,甚至顯得與法律格格不入。事實上,它們傾向于否定(國家)法律的地域性。受制于適用于國家領土的規則,對于具有全球視野和外延范圍的平臺來說,似乎是一種不合時宜的做法。

數字市場由此“脫嵌”了,力圖逃逸現有的監管框架。 在勞動力市場上運營的平臺(例如雇用數字勞工的零工經濟)和那些提供中介服務的平臺(如Uber和Airbnb)巧妙地實施了規范性脫嵌,令工人被嚴重異化,也對當地市場造成多方位的附帶損害。數據化過程充斥著結構性歧視,這些歧視被硬塞進數據庫的內容和算法的構建中,個人,無論是作為公民還是消費者,都無法控制數據化的過程。事實上,他們甚至常常未能意識到這一點,或者他們不情愿地用他們的數據為使用數字服務的方便性和舒適性“付費”。

國家的力量正變得越來越不足以應對強大的數字公司的挑戰。由于作為新興的第四次工業革命的一部分而發生的累積性技術創新的驚人速度,以及大科技公司的積極努力,政治行為者正在遭受“文化滯后”,這意味著文化和制度規范無法跟上技術變革的步伐,而監管似乎總是在追趕。

二、人工智能的社會、信息內容與法律治理

目前關于人工智能治理的文獻在極大程度上佐證了波蘭尼雙重運動理論的前瞻性,即政府對AI的治理本質上是社會自我保護的體現,以遏制無限擴張的技術助益資本作惡,吞噬社會利益。

不受監管或監管失當的AI可以通過多種方式吞噬社會利益。鑒于篇幅限制,本文選取具有代表性的三個治理領域展開論述:第一,社會治理:AI在較大范圍內取代人類工作,造成藍領和白領工人的失業潮,使其喪失收入來源,并喪失通過職業生活獲得的個人滿足和價值實現。第二,信息內容治理:人工智能的廣泛應用使生產和散播假新聞變得更容易,使識別虛假信息變得更困難,扭曲公民的現實感。第三,法律治理:隨著人工智能的快速發展,它在任務執行過程中獲得了較大自主性,成為法律意義上具有行為能力的法律主體。然而,由于AI不具有承擔法律責任的能力,其不當行為所引發的法律后果由誰承擔,成為需要回答的重要問題。本文該部分從這三個角度討論AI引發的治理困境,并提出解決方法。

(一) 社會治理

AI對社會治理的挑戰與其特殊性密不可分。

賈開和蔣余浩指出,AI與傳統技術的不同之處有兩點:第一,它是一種通用型技術,產生的影響無遠弗屆,所以對人工智能的治理也應當采取綜合視角。

第二,AI技術開發具有開放性,人工智能公司將其平臺以開源的形式公布出來,以吸收更多高質量數據,這一特點導致AI技術開發充滿不確定性。人工智能“具有廣泛的社會溢出效應”,需要政府通過監管對負面效應進行有效控制。對人工智能的治理,“我們不僅應該關注產業和經濟政策,同時也應該關注社會政策,因為只有后者的完善才能夠控制工人或企業家所承擔的風險”。

人工智能可以以多種方式損害社會利益,其對就業的沖擊近年來備受關注。人工智能目前已被廣泛用于簡歷甄選,使求職者普遍生活在算法的規訓之下。算法并非不偏不倚,“而是將偏見和歧視內嵌到決策系統當中,以悄無聲息的方式侵蝕著社會公平正義”。算法自動化決策不可避免地造成求職者機會不平等,特別是造成處于社會底層的勞動者受到歧視,他們被淘汰的原因并不是由于個人能力不足,而是由于算法決策中內嵌的社會底層邏輯、數據謊言或者偽相關性造成的。

減少算法歧視的措施之一就是政府推動人工智能企業提高算法的可解釋性(explicability),從而使公眾對算法輸出結果有更好的理解。 算法輸出結果的可靠性與算法訓練數據的質量密不可分,所以減少算法歧視的措施之一在于保證用于投喂算法的數據具有人口學上的代表性。例如,王亞慧研究了算法自動化決策中女性在就業市場受到的歧視,她認為減少性別歧視的做法之一在于實現從大數據向高質量數據的轉變,強化對訓練數據的性別平等性檢驗,確保算法具有平等完善的性別倫理觀。當前,人工智能越來越顯現出大范圍取代人類工作的可能性,這比算法歧視更有可能對社會利益造成根本性沖擊。人們今天對人工智能取代人類工作的擔憂和19世紀人們對工業革命取代工人工作的討論不謀而合。工業革命席卷英國的時候,用當時的話來說,人們認為“機器問題”(machinery question)代表著技術進步對整個經濟和社會的影響問題。

1821年經濟學家李嘉圖表達了對機器的擔憂,他重點關注“機器對于不同社會階層的利益的影響”,特別是“勞動階級懷有的意見,他們認為使用機器通常會不利于他們的利益”。1839年,社會評論家托馬斯·卡萊爾(Thomas Carlyle)抨擊了當時的“機械巨魔”(huge demon of mechanism),認為它的破壞能力將會擾亂整個工人群體:“工人階級的強烈不滿意味著什么?它從哪里來,往哪里去?最重要的是,它可能會以什么代價、什么條件同意離開我們并安息? ”這些問題在當時被稱為“英國國情問題”(condition-of-England question)。如果說工業革命中人們對技術進步引發工人普遍失業的擔心并未成為現實,當前人工智能對就業市場的影響卻是實實在在的。美國美林銀行預測,2025年以前,人工智能每年產生的創造性破壞影響可能有14到33萬億美元,“其中包括因人工智能實現了知識工作自動化,導致雇用成本減少的9萬億美元,制造業和醫療護理開銷減少的8萬億美元……”。

AI對勞動力市場的沖擊表現在它使許多以前看似不可被替代的工作成為冗余或者可以以更低的成本被完成,大量勞動者被解放出來,然而如果AI不能創造同等數量且技術難度與工人技能相匹配的崗位,那么被取代的工人將在失去收入來源的同時,也喪失了從社會性勞動中獲得的自我價值實現的滿足感。根據麥肯錫全球研究院公布的數據,人工智能造成的社會轉變比工業革命造成的社會轉變“發生的速度快10倍,規模大300倍,影響幾乎大3000倍”。這一轉變的規模預示著人工智能對勞動力市場的沖擊將前所未見。這種迫在眉睫的危機呼喚一種針對“后工作”(post work)時代的新思想,而全民基本收入(UBI,universal basic income),即政府為每位公民提供一筆收入,旨在保證公民維持基本生活,不需要接受經濟狀況調查,這一概念正在激進社會政策圈子里得到熱捧,并已然成為“后工作”政策和相關討論的核心支柱。比如2020年華裔民主黨總統候選人楊安澤(Andrew Yang)提出的“自由紅利”,系所有美國成年人的普遍基本收入,沒有任何附加條件,政府將一套每月1 000美元或每年12 000美元的保證付款,支付給所有18歲以上的美國公民。盡管基本收入制度曾被詬病為培養“懶漢”的制度,然而范·帕瑞杰斯(Van Parijs)的研究表明,該制度很可能反過來促進就業。此種設想背后的邏輯是,既然我們都為人工智能做了貢獻,為什么不可以為此獲得報酬?OpenAI的CEO山姆·阿爾特曼(Sam Altman)就持這種觀點,早在ChatGPT問世之前,他在談論“萬物摩爾定律”(Moore’s Law for Everything)的時候,就提出可以建立一個美國股票基金,每年對超過一定價值的公司征收其市場價值的2.5%的稅,以轉移到基金的股票支付,并按照所有私人持有的土地價值的2.5%征稅,以美元支付。所有18歲以上的公民每年都會得到一筆美元和公司股票的分配,存入他們的賬戶。人們可以以自己需要或想要的方式使用這些錢——享受更好的教育、醫療保健、住房條件,或創辦公司,等等。在硅谷,一些富有遠見的人認為,隨著先進技術消除了我們所知的更多職業,從普通勞工到白領和創造性工作,保證人們不受限制地獲得現金補償的全民基本收入(UBI)將幫助他們生存和發展。這個想法已經獲得了足夠的吸引力,自2020年以來,美國城市已經啟動了幾十個保證收入項目。

(二)信息內容治理

人工智能對社會利益的破壞也體現在它強大的制造和散播假新聞的能力上,嚴重干擾民主參與,影響民主生活的質量。Open AI于2020年5月宣布擁有1 750億個參數的ChatGPT-3.0的誕生,它問世伊始即表現出不俗的內容創作能力。人工智能強大的內容生成能力誠然可以幫助人類提高工作效率,但是利用生成式人工智能生產假新聞和其他不良內容亦對政府網絡治理形成挑戰。2023年2月16日,杭州市某小區一位業主用ChatGPT寫了一篇關于杭州市政府3月1日取消機動車依尾號限行的新聞稿。這篇新聞稿的寫作水平很高,和官方新聞使用的措辭十分相似:“此次取消限行是市政府為方便市民出行、優化城市交通而采取的重要舉措。”這條假新聞在網上瘋傳,杭州市警方介入調查,并證實該消息不實。 該用戶并非別有用心之人,最初只是想“試驗”ChatGPT 的功能。這個試驗“成功”的部分驅動因素是公眾對ChatGPT技術不熟悉,他們也沒有準備好懷疑文本的真實性。

與傳統的傳播虛假信息的方式相比,人工智能具有獨特優勢。在大規模數據訓練的基礎上,訓練有素的人工智能生成的內容十分符合大眾認知習慣,令產生大量的錯誤信息、偽科學、垃圾郵件、網絡釣魚以及濫用法律和政府程序等變得容易,扭曲我們所消費的信息,甚至扭曲我們的現實感。

人工智能系統的運作規模,使今天由人類驅動的虛假信息活動相形之下顯得微不足道。機器人可以非常快速地創建大量材料——文字、圖片、聲音和視頻。問題是,它們完全沒有對真相的承諾。例如,Deepfake(深度偽造)是一種合成媒介,利用機器學習和人工智能的強大技術來操縱或生成更具欺騙性的視覺和聽覺內容。近年來,深度偽造因其可能被用于制造名人色情視頻、色情報復、假新聞、惡作劇、霸凌事件和金融欺詐而獲得廣泛關注。

這些深度偽造制作品在日常文化中變得日益普遍,這意味著人們應該更加注意它們在營銷、廣告和社交媒體中的使用方式。偽造的圖像也被用于更大的惡意目的,如政治宣傳、間諜活動和信息戰等。

心理學研究表明,人們很難區分真實的和計算機生成的面孔,而將人造面孔看作真實的,可能會對我們的社會信任產生影響。一般來說,我們傾向于默認一個假設:他人基本上是真實的和值得信賴的。假資料和其他人造在線內容的增長提出了一個問題:我們會在多大程度上改變這種“真實性默認”狀態,最終對我們的信任水平產生影響。

如果我們經常質疑自己在網上所經歷的事情的真實性,這意味著從處理信息本身到處理信息提供者的身份,我們都不得不重新部署我們的心智和努力。換句話說,高度逼真的、但又是人造的在線內容的廣泛使用,最終可能要求我們以不同的方式思考周圍的世界。

為避免人工智能造假的后果,學者提出了諸多對策,包括構建權威性媒體;平臺辨識清理虛假賬號,對低信源信息降權;多方協同建立事實核查治理體系,提高媒介素養等。技術本身也是打擊造假的有效武器,例如改進檢測人造面孔的算法,并將其嵌入到社交媒體平臺中,以幫助用戶區分真假;通過區塊鏈技術的信任機制,可以顯現出任何數字媒體的來源等。法律當然也扮演不可或缺的角色。

(三)法律治理

2023年1月10日,中國網信部門開始實施一項新的法規《互聯網信息服務深度合成管理規定》(以下簡稱《深度合成管理規定》),對用于生產合成媒介的人工智能系統進行監管,法規中稱其為“深度合成技術”。它是全球首部此類法規,對中國的深度合成服務提供商——包括文本、音頻和視頻服務提供商——如何在網上提供適用技術進行了規定。《深度合成管理規定》也是第一個明確考慮生成性文本的國家人工智能法規實例。此前,2019年11月,國家互聯網信息辦公室、文化和旅游部、國家廣播電視總局聯合發布《網絡音視頻信息服務管理規定》,該規定于2020年1月1日生效,只對使用深度合成技術的音視頻信息服務商進行監管。而《深度合成管理規定》對“深度合成”的定義,除了音頻和視頻之外,還包括對文本的使用,如“智能對話、智能寫作等模擬自然人進行文本的生成或者編輯服務”。監管機構在一份新聞稿中指出,該法對“具體包括篇章生成、文本風格轉換、問答對話等生成或者編輯文本內容的技術”的考慮,意在打擊違法和不良信息。2023年4月11日,ChatGPT-4.0推出不到一個月,國家互聯網信息辦公室發布了《生成式人工智能服務管理辦法征求意見稿》(以下簡稱《辦法》),意見反饋截止到2023年5月10日。《辦法》將生成式人工智能界定為基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。適用范圍包括“面向中華人民共和國境內公眾提供服務”的研發、利用者,表明AIGC(ArtificialIntelligence Generated Content)公司的存在實體無論位于何處,只要其支持中國境內用戶使用,均會被納入監管規定。對AIGC內容安全的監管占據《辦法》過半篇幅:內容合規方面,要求內容應當真實準確,并且要求提供者采取措施防止生成虛假信息。

算法合規方面,要求在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取措施防止出現算法歧視。權益合規方面,第七條規定,生成式人工智能的預訓練數據和優化訓練數據如果涉及個人信息,必須征得個人信息主體同意,且不能含有侵犯知識產權的內容。生成式人工智能的風險之一就是可能會侵犯他人的合法權益,例如AI換臉技術導致的肖像權、名譽權和個人隱私侵權問題。此外,在實踐中企業主要是利用網絡上公開的數據進行算法訓練,因此亦存在侵犯他人知識產權或數據權屬的風險。基于此,《辦法》提出了不得侵犯他人合法性權益的原則性要求。

2022年3月1日起施行的《互聯網信息服務算法推薦管理規定》 (以下簡稱《算法推薦管理規定》)體現出的公民保護原則更加顯著,其第18條至第21條分別對未成年人、老年人、勞動者、消費者保護做出了詳細的制度安排。另外,在責任設置方面,我國人工智能治理框架與互聯網內容治理框架表現出一定的相似性,即算法推薦服務提供者、深度合成服務提供者、生成式人工智能服務提供者代替政府規制用戶,承擔了人工智能治理的重要責任。

在人工智能的法律治理上,中國走在世界前列。以《算法推薦管理規定》為例,它代表了全球最領先的算法監管框架之一。所有本地消費產品和零售服務商、電商公司、短視頻應用和社交媒體平臺都受到這一法規的影響,算法不被允許影響網絡輿論,逃避監督管理,或促成壟斷和不公平競爭。相比之下,歐盟的監管仍在緊鑼密鼓地醞釀之中。2022年9月《歐盟人工智能責任指令》(AILiability Directive)發布,旨在促使AI的開發者、服務提供者和用戶對技術使用擔負起各自的職責,如果用戶或企業能夠證明人工智能確實給他們造成損害,那么可以將人工智能的開發者告上法庭。盡管科技公司抱怨這可能會阻礙創新,但非政府組織認為它走得還不夠遠:指令對用戶規定了十分嚴苛的舉證責任,在實際應用中可能對用戶的保護作用不大。《歐盟人工智能責任指令》是歐盟旨在監管人工智能和其他新興技術的更廣泛的法律改革方案的一部分。一攬子計劃的其他部分包括歐盟人工智能法案和數字服務法案(DSA,Digital ServicesAct),前者希望建立世界上第一個全面的AI監管框架,后者將改變對在線中介的監管。歐盟近年來在數字治理領域頻頻發力,希望通過引領全球數字治理規范,強化自身數字經濟與數字技術的規則制定權和解釋權。

相形之下,美國政府對AI的治理進度比歐盟和中國要慢得多,美國人工智能治理機構尚未制定出比較有代表性的法律法規。2023年4月11日,即中國互聯網信息辦公室就生成式AI服務的管理征求意見的當天,美國商務部就ChatGPT相關問責措施正式公開征求意見,包括新人工智能模型在發布前是否應經過認證程序等。征求意見的期限為60天。隸屬于美國商務部的國家電信和信息管理局(National Telecommunications and InformationA d m i n i s t r a t i o n)局長艾倫·戴維森(A l a nDavidson)聲稱:“看到這些工具即使在相對初級階段也能做到的事情,真是令人驚訝……我們需要設置一些護欄,以確保它們被負責任地使用。”美國政府對AI的治理和對數字經濟其他行業(如反壟斷)的治理顯著不同,假如說美國政府對數字經濟反壟斷治理表現出“放任派”特征,那么它對AI的治理則表現得相對積極。

5月4日,美國總統拜登在與一群人工智能公司的首席執行官會面時說:“你們正在做的事情具有巨大的潛力和巨大的危險。”拜登強調,公司有基本責任確保其產品在部署或公開之前安全可靠。國會的最高領導人也承諾制定人工智能法規。5月16日,阿爾特曼在參議院一個小組委員會成員面前作證,并在很大程度上同意參議員們的觀點,即需要對OpenAI以及谷歌和微軟等其他公司正在創造的日益強大的人工智能技術進行監管。人工智能帶來三重治理挑戰,包括“傳統科層治理結構應對人工智能新的生產模式的滯后性,傳統治理邏輯應對人工智能新主體的不適應性,以及人工智能發展所引發的新議題的治理空白”。第二重治理挑戰清晰地概括了AI對現行法律秩序的沖擊。傳統治理邏輯注重治理造成特定問題的行為主體,即具有行為主體性且能夠承擔責任的自然人或法人。這一治理邏輯難以被應用到AI治理的范疇,因為AI雖然具有主體性,它卻缺乏承擔責任的能力。AI雖然經由人類訓練優化而來,但它不能被簡單地理解為其創造者(即人類)的意志表達。例如,雖然AlphaGo戰勝了韓國圍棋大師李世石,但是AlphaGo的設計者卻并非圍棋大師。人工智能缺乏承擔法律責任的能力是社會利益保護面臨的巨大陷阱,它意味著一旦AI失控,人工智能不僅會作惡,而且不會對自己的惡行承擔后果,更談不上彌補受害者的損失。

人工智能造成法律規制難度的根源在于它具有不透明、不可溯以及不可預測等本質特征,這可能在目標設定、數據讀取以及制度運行等方面引發巨大風險。AI對隱私保護、知識產權保護、民事責任判定形成的沖擊已十分明顯。2023年3月,ChatGPT因為一個漏洞導致一些用戶的聊天記錄被泄露而短暫關閉。在知識產權領域,AI已經多次面臨版權訴訟。美國和英國的多個版權人向StabilityAI(一家圖像類生成式人工智能公司,提供圖像生成工具Stable Diffusion)發起版權侵權訴訟,因為其訓練數據未經授權就使用了受版權保護的美術作品。在AI模型訓練過程中,服務提供者常常未經允許就在網上爬取數據,對知識產權保護形成巨大挑戰。在民事責任判定方面,谷歌公司無人駕駛汽車的“交通權”問題和特斯拉無人駕駛汽車造成的交通事故表明,現有法律對規制AI的民事責任問題有一定滯后性,即人工智能機器人是否可被認定為法律意義上可以承擔民事責任的行為主體。AI造成的法律不確定性猶如潘多拉的魔盒,一旦被打開,技術的“惡”便會恣意散播,社會利益將受到嚴重碾壓。這就是為什么特斯拉創始人馬斯克稱“我越來越傾向于考慮人工智能領域應當建立某種監管……人工智能或許就是我們正在召喚的惡魔”。為了在“技術鎖定效應”形成之前減少AI形成治理風險的可能性,有學者指出應當改善現有法律權利體系,像當初賦予企業組織法人權利那樣,賦予人工智能機器人相關權利,承認其在法律意義上的主體地位。約翰·厄姆拜克(John Umbeck)認為“實力界定權利”,即在原有權利體系遭到沖擊的條件下,不同群體的實力博弈將重新構筑權利體系。張玉潔認為當前機器人的研發速度大大高于人類的進化速度,其社會化程度和應用程度也在不斷提升,這是機器人可以成為新的權利主體的基礎。人工智能機器人可以享有數據資源的共享權利、個體數據的專有權利、基于功能約束的自由權、獲得法律救濟的權利。然而,鑒于人工智能機器人在設計上的利他性以及機器人權利引發的法律不周延性,張玉潔提倡對機器人權利應當設置“法律保留”,包括政治權利、自我復制權利和緊急避險權的法律保留,防止AI成為和人類等同的法律主體,干擾社會和倫理秩序。

結 論

人類歷史上的每一次技術進步在推動生產力巨大飛躍的同時,都會對社會利益分配和社會各階層的權力關系進行重新洗牌。進入20世紀90年代以來,人工智能技術進步一日千里,成為各行業提高效率、節約成本的重要途徑。然而,人類對AI的認知仍不完整,治理手段仍滯后于AI滋生新問題的速度,導致不受治理或受到不當治理的人工智能猶如懸在人類頭頂的一把達摩克利斯劍,稍有不慎,便會導致社會利益遭受不可逆轉的重創。這也解釋了以政府治理為典型代表的社會自我保護的正義性和必要性。

波蘭尼20世紀中葉提出的雙重運動理論有力地解釋了當前人工智能技術進步引發的經濟利益和社會利益的沖突。從根本上看,自由放任的技術和自由放任的市場的作惡能力不相上下,政府對自由放任的市場的規制和對自由放任的技術的規制同樣具有重大意義。中國、美國和歐盟是目前世界上人工智能發展水平最高的國家和地區,盡管政府治理人工智能的努力剛剛起步,三大區域的監管機構均表現出“將人工智能關進制度的籠子里”的意愿。盡管中美歐的政治制度和意識形態各異,但是它們在AI治理領域表現出來的趨同性(如它們均表現出穩健治理的趨勢)表明,雙重運動理論的解釋力具有普遍性,可以適用于不同的治理環境。

雙重運動理論最初闡釋的核心問題是18世紀工業革命以來,以英國為首的歐洲國家由于市場和資本無限擴張而造成的社會利益被忽視的狀況。該理論的誕生根源于波蘭尼對哈耶克(Friedrich Augustvon Hayek)自由市場理論的反駁。雙重運動理論誕生的背景和當前AI時代相比存在不小的差別,這就造成雙重運動理論在解釋當代的經濟-社會關系方面存在一定的局限性。正如美國批判理論家南希·弗雷澤(Nancy Fraser)所指出的,雙重運動理論對市場嵌入社會的描述過于樂觀,對市場脫嵌社會的描述過于悲觀,她指出:“我們的目標應該是構建一種新的準波蘭尼式的資本主義危機觀,不僅避免還原的經濟主義,也避免把‘社會’浪漫化。”具體來說,市場不一定都是壞的,社會保護不一定都是好的。在AI治理方面,市場脫嵌與嵌入的矛盾具體表現為治理者在何種程度上可以在較少慮及社會利益的前提下,允許AI技術創新達到較高水平。當前AI的技術發展水平直接影響到一個國家在地緣政治競爭中的地位,影響到該國是否有能力維護其核心利益,如何平衡技術創新和社會保護之間的關系需要引起政策制定者的重視。

當前AI技術進步引發了人們對經濟利益和社會利益相互關系的再思考,這種再思考的廣度和深度遠遠超過20世紀90年代互聯網逐漸普及時人們對互聯網的社會影響的思考。互聯網普及伊始就自帶光環,公民社會達成的普遍共識就是政府應該減少對網絡空間的干預。在AI時代,這種傾向于支持技術創新的共識已不復存在,取而代之的是公民社會對待技術進步的審慎態度。波蘭尼雙重運動理論對于闡釋AI時代技術進步和社會利益之間的關系表現出了較強的理論解釋力。然而,鑒于時代變遷,雙重運動理論在闡釋二者關系方面并非完美無缺,這需要學者在這一問題上開展更多的調研,從而對雙重運動理論的解釋力得出更加全面的認識。

(作者胡泳系北京大學新聞與傳播學院教授;馬愛芳系北京大學新聞與傳播學院博雅博士后、講師)

主站蜘蛛池模板: 国产a在视频线精品视频下载| 最新精品久久精品| 国产91在线|日本| 22sihu国产精品视频影视资讯| 无码区日韩专区免费系列| 最新精品国偷自产在线| 免费激情网址| 亚洲第一天堂无码专区| 国产香蕉一区二区在线网站| 欧美日韩另类国产| 国产高清在线丝袜精品一区| 手机看片1024久久精品你懂的| a国产精品| 亚洲国产中文在线二区三区免| 亚洲人成在线精品| 久久青草热| 中美日韩在线网免费毛片视频| 制服丝袜一区二区三区在线| 亚洲免费毛片| 免费99精品国产自在现线| 国内视频精品| 国产午夜精品一区二区三区软件| 一级香蕉人体视频| 久久亚洲欧美综合| 播五月综合| 亚洲成a人在线播放www| 99久久国产综合精品女同| 欧美怡红院视频一区二区三区| 精品久久国产综合精麻豆| 国产二级毛片| 99视频在线观看免费| 成人免费午夜视频| 中文字幕欧美成人免费| 国产在线97| 午夜国产大片免费观看| 亚洲综合专区| 亚洲国产看片基地久久1024 | 亚洲中文字幕97久久精品少妇| 日本午夜精品一本在线观看| 波多野结衣久久精品| 国产精品嫩草影院av| 成人亚洲天堂| 天堂岛国av无码免费无禁网站| 亚洲无码91视频| 亚洲色无码专线精品观看| 亚洲色图狠狠干| 高清亚洲欧美在线看| 久久中文字幕不卡一二区| 2020亚洲精品无码| 国产精品亚洲一区二区三区在线观看| 有专无码视频| 欧美日韩北条麻妃一区二区| 高清欧美性猛交XXXX黑人猛交| 久久香蕉欧美精品| 亚洲色图另类| 超碰免费91| 呦女亚洲一区精品| 毛片久久网站小视频| 精品国产免费观看| 一边摸一边做爽的视频17国产| 欧美精品在线看| 先锋资源久久| 久久久久无码精品国产免费| 不卡无码h在线观看| 无码中文字幕乱码免费2| 91一级片| 久久国产成人精品国产成人亚洲| 亚洲精品免费网站| 亚洲午夜福利在线| 精品国产aⅴ一区二区三区| 国产伦精品一区二区三区视频优播 | 亚洲免费福利视频| 亚洲三级电影在线播放| 国产呦视频免费视频在线观看| 波多野结衣一二三| 午夜精品国产自在| 亚洲免费黄色网| 欧美人人干| 国产情精品嫩草影院88av| 日韩一区精品视频一区二区| 亚洲愉拍一区二区精品| 26uuu国产精品视频|