摘 要:智能出版的價(jià)值對(duì)齊面臨的根本性悖論是人類(lèi)價(jià)值體系的開(kāi)放性、情境性等與技術(shù)系統(tǒng)標(biāo)準(zhǔn)化訴求間的沖突。由此,智能出版的人機(jī)價(jià)值對(duì)齊面臨著人文價(jià)值的可算性困境、多元主體的結(jié)構(gòu)性矛盾、文化情境的動(dòng)態(tài)性適配等現(xiàn)實(shí)挑戰(zhàn)。智能出版的價(jià)值對(duì)齊在于人機(jī)雙向?qū)R,重構(gòu)人機(jī)共生關(guān)系,“全景式價(jià)值對(duì)齊”實(shí)踐路徑可以為人機(jī)價(jià)值對(duì)齊提供可能:前置價(jià)值敏感設(shè)計(jì)的出版全流程調(diào)節(jié)、建構(gòu)利益主體協(xié)同的鏈條式價(jià)值審計(jì)、優(yōu)化消費(fèi)終端的多元化情境價(jià)值協(xié)商。對(duì)齊的本質(zhì)不是尋找普適準(zhǔn)則,而是構(gòu)建持續(xù)對(duì)話(huà)的倫理生態(tài),使技術(shù)系統(tǒng)在人類(lèi)情感的引導(dǎo)下,實(shí)現(xiàn)有限但可持續(xù)的價(jià)值兼容。
關(guān)鍵詞:智能出版 價(jià)值對(duì)齊 人機(jī)關(guān)系
AI技術(shù)給出版行業(yè)帶來(lái)了前所未有的機(jī)遇和挑戰(zhàn),生成式人工智能逐步被應(yīng)用并深刻影響著出版流程的各個(gè)環(huán)節(jié)。人機(jī)價(jià)值對(duì)齊不僅是智能出版領(lǐng)域的倫理要求,更是維系出版業(yè)可持續(xù)發(fā)展的核心機(jī)制。調(diào)查顯示,72%的讀者對(duì)AI生成教材內(nèi)容持懷疑態(tài)度,傳統(tǒng)出版的權(quán)威性被技術(shù)解構(gòu),需要通過(guò)透明化價(jià)值對(duì)齊如標(biāo)注AI貢獻(xiàn)度修復(fù)讀者信任契約。AI的無(wú)監(jiān)督生成能力可能突破人類(lèi)預(yù)設(shè)邊界,類(lèi)型同質(zhì)化扼殺創(chuàng)新,需要通過(guò)價(jià)值對(duì)齊建立“倫理防火墻”,設(shè)定“創(chuàng)造性保護(hù)閾值”。訓(xùn)練數(shù)據(jù)的非規(guī)范性,使得傳統(tǒng)“先授權(quán)后使用”原則失效,原有版權(quán)體系崩解,價(jià)值對(duì)齊可重塑數(shù)據(jù)訓(xùn)練規(guī)則,構(gòu)建一種可持續(xù)版權(quán)生態(tài)。所謂價(jià)值觀(guān)對(duì)齊,是指確保AI模型的價(jià)值觀(guān)與人類(lèi)價(jià)值觀(guān)相一致。但智能出版的人機(jī)價(jià)值對(duì)齊面臨著根本性的悖論:人類(lèi)價(jià)值體系的開(kāi)放性、情境性、多元化與技術(shù)系統(tǒng)標(biāo)準(zhǔn)化訴求間存在沖突。智能出版人機(jī)價(jià)值對(duì)齊的困境、向何對(duì)齊、如何對(duì)齊等問(wèn)題都亟待探討。
一、對(duì)齊困境:智能出版人機(jī)價(jià)值對(duì)齊的現(xiàn)實(shí)挑戰(zhàn)
(一)人文價(jià)值的可算性困境
人類(lèi)價(jià)值觀(guān)如“尊嚴(yán)”“寬容”“正義”“誠(chéng)實(shí)”等,以及人類(lèi)的情感如鄉(xiāng)愁、孤獨(dú)、開(kāi)心等難以轉(zhuǎn)化為算法可處理的參數(shù)。AI詩(shī)集《機(jī)械繆斯》中一首關(guān)于“鄉(xiāng)愁”的詩(shī)被批評(píng)為“地理坐標(biāo)與天氣數(shù)據(jù)的堆砌”,如“北緯32°的雨換算成0.7MB的哭泣”,引發(fā)讀者對(duì)文學(xué)靈韻消亡的抗議。還有AI詩(shī)歌生成器將“鄉(xiāng)愁”解構(gòu)為“地理距離+時(shí)間流逝”進(jìn)行機(jī)械拼貼,導(dǎo)致詩(shī)歌喪失文化厚重感,引起作家群體抵制。盡管AI能模仿詩(shī)人的句式,可以模擬詩(shī)意的形式,卻無(wú)法復(fù)現(xiàn)生命經(jīng)驗(yàn)與文本之間的內(nèi)在關(guān)聯(lián),詩(shī)意的靈光、本雅明筆下的“靈韻”,可能仍是人類(lèi)生命的專(zhuān)屬印記。長(zhǎng)期依賴(lài)AI輔助易導(dǎo)致人類(lèi)某些能力退化,如編輯的事實(shí)核查能力。2024年12月,中國(guó)青年報(bào)社社會(huì)調(diào)查中心聯(lián)合問(wèn)卷網(wǎng)(wenjuan.com),對(duì)1342名青年進(jìn)行的一項(xiàng)調(diào)查顯示,76.5%的受訪(fǎng)青年對(duì)數(shù)字技術(shù)感到依賴(lài),當(dāng)無(wú)法使用數(shù)字技術(shù)時(shí),57.6%的受訪(fǎng)青年覺(jué)得信息獲取會(huì)受到影響,51.0%的受訪(fǎng)青年認(rèn)為自己的工作、學(xué)習(xí)和生活會(huì)受阻。
人文價(jià)值的可算性困境更在于情感理解鴻溝,比如AI無(wú)法捕捉文學(xué)中的反諷與隱喻,不能很好地結(jié)合時(shí)代語(yǔ)境去理解作品內(nèi)容。AI通過(guò)海量文本學(xué)習(xí)詞語(yǔ)共現(xiàn)概率,如“玫瑰”常與“愛(ài)情”關(guān)聯(lián),但無(wú)法理解反諷中“表面贊美—實(shí)質(zhì)批判”的語(yǔ)義反轉(zhuǎn),或隱喻中“能指—所指”的多層映射。人類(lèi)對(duì)出版作品的理解依賴(lài)共情,而AI缺乏具身化的情感體驗(yàn),只能模仿情感標(biāo)簽,如標(biāo)記“諷刺”類(lèi)型而無(wú)法高度高效共鳴。20世紀(jì)英國(guó)批判現(xiàn)實(shí)主義文學(xué)的杰出大師喬治·奧威爾的代表作《1984》中主要講述的大洋國(guó)是一個(gè)權(quán)力高度集中的國(guó)家,本質(zhì)特點(diǎn)體現(xiàn)為無(wú)所不能的“老大哥”、高于社會(huì)的組織以及權(quán)力支配一切的制度。“老大哥”不僅是小說(shuō)中的獨(dú)裁者形象,更是冷戰(zhàn)初期人們對(duì)集權(quán)政治的恐懼體現(xiàn),如電話(huà)竊聽(tīng)、思想警察一樣的文學(xué)投射。而AI將其解釋為“一個(gè)嚴(yán)厲但關(guān)心民眾的領(lǐng)導(dǎo)者”。AI訓(xùn)練數(shù)據(jù)缺乏對(duì)20世紀(jì)政治史的背景關(guān)聯(lián),僅從字面理解“兄弟”的親緣含義,剝離了歷史語(yǔ)境的批判性。
(二)多元主體的結(jié)構(gòu)性矛盾
智能出版關(guān)涉多元主體的利益,其中利益相關(guān)方包括作者、用戶(hù)(讀者)、出版機(jī)構(gòu)、平臺(tái)、技術(shù)開(kāi)發(fā)者、監(jiān)管者等。作者的核心價(jià)值訴求是自主創(chuàng)作、版權(quán)保護(hù);用戶(hù)(讀者)的核心價(jià)值訴求為信息真實(shí)、文化價(jià)值,在質(zhì)量期待的同時(shí)存在免費(fèi)訴求等;出版機(jī)構(gòu)的核心價(jià)值訴求為內(nèi)容質(zhì)量、合規(guī)出版、經(jīng)濟(jì)效益與社會(huì)效益統(tǒng)一;平臺(tái)的核心價(jià)值訴求為流量與合規(guī)平衡;技術(shù)開(kāi)發(fā)者的核心價(jià)值訴求為算法效率、商業(yè)回報(bào),數(shù)據(jù)獲取最大化;監(jiān)管者的核心價(jià)值訴求為國(guó)家安全與創(chuàng)新激勵(lì)。多元主體的核心價(jià)值訴求存在差異,主體自身或者主體之間存在潛在沖突點(diǎn),比如技術(shù)標(biāo)準(zhǔn)制定權(quán)的爭(zhēng)奪、數(shù)據(jù)獲取的合法性爭(zhēng)議、數(shù)據(jù)所有權(quán)與收益分配的博弈、公共性與商業(yè)性的對(duì)立、技術(shù)代際權(quán)力斷層與數(shù)字鴻溝、AI輔助寫(xiě)作的署名權(quán)模糊、算法推薦的信息繭房等。這些本身就構(gòu)成了智能出版人機(jī)價(jià)值對(duì)齊的壁壘。
多元主體存在多維責(zé)任。目前,諸多AI生成內(nèi)容的決策路徑不可解釋?zhuān)瑳Q策過(guò)程不透明,技術(shù)開(kāi)發(fā)者、平臺(tái)、用戶(hù)(讀者)等主體責(zé)任邊界模糊,黑箱效應(yīng)導(dǎo)致責(zé)任鏈斷裂、追責(zé)無(wú)門(mén)。當(dāng)AI生成內(nèi)容引發(fā)法律糾紛,技術(shù)開(kāi)發(fā)者、平臺(tái)、用戶(hù)(讀者)的責(zé)任分配缺乏量化標(biāo)準(zhǔn),算法貢獻(xiàn)度的測(cè)算方法難以達(dá)成共識(shí)而難以令人信服。平臺(tái)通過(guò)用戶(hù)協(xié)議將AI錯(cuò)誤歸責(zé)于用戶(hù)(讀者)的情況屢見(jiàn)不鮮,如亞馬遜AI薦書(shū)免責(zé)條款。人機(jī)價(jià)值對(duì)齊的效果評(píng)估本身存在難度,盡管近幾年來(lái)基于RLHF(從人類(lèi)反饋中強(qiáng)化學(xué)習(xí))的對(duì)齊方法取得了較好的效果并且演化出諸多改進(jìn)的變體,但由于A(yíng)I模型自身的隨機(jī)性、道德準(zhǔn)則的模糊性、評(píng)分模型的覆蓋率以及訓(xùn)練數(shù)據(jù)的質(zhì)量和數(shù)量等問(wèn)題,當(dāng)下的對(duì)齊程度與人類(lèi)自身的道德標(biāo)準(zhǔn)仍相差甚遠(yuǎn)。[1]責(zé)任環(huán)節(jié)的增多使得每個(gè)環(huán)節(jié)的主體都能找到借口從整體的責(zé)任中逃脫。
(三)文化情境的動(dòng)態(tài)性適配
智能出版的價(jià)值對(duì)齊,既要跟上價(jià)值觀(guān)念、文化情境的流動(dòng)節(jié)奏,又需守護(hù)那些不可讓渡的人類(lèi)精神內(nèi)核,比如對(duì)真理的追求、對(duì)差異的尊重等。如果作為對(duì)齊目標(biāo)的價(jià)值觀(guān)是具有流動(dòng)性的,那么,價(jià)值觀(guān)對(duì)齊應(yīng)當(dāng)如何選擇、如何判定就失去了永恒不變的標(biāo)準(zhǔn)。這就要求價(jià)值觀(guān)對(duì)齊需要將價(jià)值觀(guān)自身的流動(dòng)變化納入考慮,以確保目標(biāo)價(jià)值能夠反映價(jià)值觀(guān)念的變化,從而實(shí)現(xiàn)AI價(jià)值觀(guān)與人類(lèi)價(jià)值觀(guān)的動(dòng)態(tài)一致。這一目標(biāo)為價(jià)值觀(guān)對(duì)齊提出了更高的技術(shù)和倫理要求。[2]舊模型持續(xù)輸出過(guò)時(shí)價(jià)值觀(guān),將會(huì)導(dǎo)致出版內(nèi)容合規(guī)性風(fēng)險(xiǎn)產(chǎn)生,傳統(tǒng)模型更新往往慢于社會(huì)價(jià)值觀(guān)迭代速度。
另外,文化情境多元化、差異性、動(dòng)態(tài)性也對(duì)智能出版的人機(jī)價(jià)值對(duì)齊提出了挑戰(zhàn)。出版業(yè)作為傳承文化的重要載體,其生態(tài)與重構(gòu)顯得尤為重要。文化符號(hào)的不可通約性呈現(xiàn)地方性知識(shí)壁壘。比如東方語(yǔ)境中,龍象征皇權(quán)與祥瑞;西方語(yǔ)境中,龍代表邪惡力量,同一圖像在海外出版時(shí)可能造成跨文化誤讀,引發(fā)相關(guān)群體抗議。目前,技術(shù)尚存有盲區(qū)。主流AI視覺(jué)模型僅依賴(lài)“dragon”標(biāo)簽關(guān)聯(lián)火焰、翅膀等元素,無(wú)法捕捉文化語(yǔ)義的深層差異。即使在同一地區(qū),代際差異、數(shù)字鴻溝等也對(duì)智能出版的人機(jī)價(jià)值對(duì)齊產(chǎn)生影響,價(jià)值觀(guān)對(duì)齊應(yīng)當(dāng)如何選擇自然成了一道難題。
二、向何對(duì)齊:智能出版人機(jī)價(jià)值對(duì)齊的價(jià)值共生
(一)機(jī)器向人類(lèi)價(jià)值觀(guān)的對(duì)齊
多元主體價(jià)值訴求存在差異。向何對(duì)齊,首先要面臨的是向人的價(jià)值對(duì)齊中“何以為人”的問(wèn)題。人工介入帶來(lái)的問(wèn)題更大:人類(lèi)合同工所撰寫(xiě)的提示工程與“理想回應(yīng)”以及手工做出的比較評(píng)級(jí),本質(zhì)上只可能代表一部分價(jià)值。人工介入實(shí)際上把主觀(guān)的好惡(一部分人的價(jià)值),以“人類(lèi)價(jià)值”名義強(qiáng)行加進(jìn)了一個(gè)原本在統(tǒng)計(jì)學(xué)意義上客觀(guān)反映“世界”的語(yǔ)言模型中。人“控制”輸出結(jié)果,未必比模型“控制”自身的輸出結(jié)果更能反映出“人類(lèi)價(jià)值”的實(shí)際面貌。所以,通過(guò)價(jià)值觀(guān)對(duì)齊,要求算法優(yōu)先推薦具有公共價(jià)值的內(nèi)容,而非僅追逐用戶(hù)即時(shí)偏好,以保障知識(shí)的公共性。在出版?zhèn)惱碇袕?qiáng)調(diào)“向人的價(jià)值對(duì)齊”,本質(zhì)上是對(duì)智能技術(shù)主導(dǎo)的出版生態(tài)進(jìn)行人文糾偏,不是讓人工智能模仿人類(lèi),而是定義技術(shù)時(shí)代的知識(shí)生產(chǎn)倫理,其核心意義在于維護(hù)人類(lèi)在知識(shí)生產(chǎn)與傳播中的主體性地位,防范技術(shù)異化對(duì)文明根基的侵蝕。向人的價(jià)值對(duì)齊絕不是一勞永逸的技術(shù)方案,而是持續(xù)的文化抗?fàn)幣c倫理覺(jué)醒。其終極目標(biāo)不是讓人工智能“更像人”,而是讓人在技術(shù)洪流中始終記得“何以為人”。這需要智能出版中的相關(guān)利益主體如技術(shù)開(kāi)發(fā)者、平臺(tái)、出版商等保持清醒——既善用技術(shù)提升效率,又承擔(dān)相應(yīng)的責(zé)任。機(jī)器向人類(lèi)價(jià)值觀(guān)的對(duì)齊,這里的“人類(lèi)”,絕對(duì)不是以任一單一主體承載的價(jià)值追求為主導(dǎo)。
人機(jī)價(jià)值對(duì)齊實(shí)則是人與人之間的價(jià)值觀(guān)經(jīng)過(guò)大模型這一中介代理后能否保持一致的問(wèn)題。因此,大模型成為人類(lèi)價(jià)值觀(guān)傳播的一個(gè)重要渠道和中介,實(shí)現(xiàn)的是應(yīng)然層面的人類(lèi)價(jià)值觀(guān)和實(shí)然層面的人類(lèi)價(jià)值觀(guān)、全球性的人類(lèi)價(jià)值觀(guān)以及地方性的人類(lèi)價(jià)值觀(guān)之間的對(duì)齊。[3]對(duì)于我國(guó)智能出版的價(jià)值觀(guān)對(duì)齊的目標(biāo)價(jià)值觀(guān),應(yīng)該涵蓋國(guó)家、社會(huì)、個(gè)人三個(gè)層面,是與出版和傳播中華優(yōu)秀傳統(tǒng)文化和人類(lèi)文明優(yōu)秀成果相承接的價(jià)值觀(guān),以符合國(guó)家發(fā)展與人民需要的價(jià)值導(dǎo)向,更好地服務(wù)國(guó)民用戶(hù),切實(shí)保障國(guó)家社會(huì)安全、文化安全、政治安全。[4]同時(shí),智能出版要追求和秉持“全人類(lèi)共同價(jià)值”,即“和平、發(fā)展、公平、正義、民主、自由,是全人類(lèi)的共同價(jià)值,也是聯(lián)合國(guó)的崇高目標(biāo)”。[5]全人類(lèi)共同價(jià)值的內(nèi)核是尋求人類(lèi)價(jià)值與不同民族、國(guó)家之間形成的最大公約數(shù),是一種世界文明向度的發(fā)展觀(guān)和價(jià)值體系,以推動(dòng)構(gòu)建人類(lèi)命運(yùn)共同體為實(shí)踐路徑,超越了意識(shí)形態(tài)的對(duì)立壁壘,為促進(jìn)世界共同發(fā)展和進(jìn)步提供了價(jià)值支撐,契合人類(lèi)共同追求。[6]
(二)人類(lèi)價(jià)值觀(guān)向機(jī)器的適配
技術(shù)不僅僅是人類(lèi)用來(lái)認(rèn)識(shí)和改造世界的工具性、客體性存在,還是人性的一部分。[7]海德格爾(Heidegger)認(rèn)為機(jī)器不再是一個(gè)完全中立的存在,可以讓人類(lèi)利用從而控制外在世界,技術(shù)的本質(zhì)是一種“座架”,是“技術(shù)和圍繞技術(shù)的一系列的制度和文化,構(gòu)成一個(gè)綿延不斷的整體,它在很大程度上已經(jīng)嵌入到了人存在的前提”。[8]人類(lèi)價(jià)值觀(guān)向機(jī)器的適配是指人類(lèi)主動(dòng)調(diào)整自身行為模式、認(rèn)知習(xí)慣甚至價(jià)值判斷標(biāo)準(zhǔn),以適應(yīng)技術(shù)系統(tǒng)的運(yùn)行邏輯與限制條件。比如內(nèi)容生產(chǎn)方面,創(chuàng)作自由受到“算法化規(guī)訓(xùn)”,為增加推薦權(quán)重而遵循AI建議模板;作家從“自由創(chuàng)作”轉(zhuǎn)向“數(shù)據(jù)驅(qū)動(dòng)寫(xiě)作”,甚至使用AI情緒曲線(xiàn)分析工具優(yōu)化章節(jié)節(jié)奏。另外,編輯人工審校呈現(xiàn)技術(shù)化傾向,編輯考核指標(biāo)增加“AI工具使用熟練度”。用戶(hù)(讀者)行為也受到“逆向馴化”,
通過(guò)“讀完率”“翻頁(yè)速度”等數(shù)據(jù)實(shí)時(shí)調(diào)整推薦內(nèi)容,用戶(hù)(讀者)無(wú)意識(shí)中偏好短章節(jié)、高沖突文本,久而久之,用戶(hù)自主搜索行為下降,算法推薦內(nèi)容消費(fèi)占比提升。
由于人工智能是一種機(jī)器,在人與人工智能長(zhǎng)期互動(dòng)的過(guò)程中,人類(lèi)的思維和觀(guān)念有可能被塑造成機(jī)器思維,人類(lèi)的價(jià)值觀(guān)也會(huì)被人工智能的價(jià)值體系所影響。當(dāng)AI越來(lái)越傾向于指導(dǎo)人類(lèi),也越來(lái)越能提供符合人類(lèi)預(yù)期的回答,甚至?xí)龑?dǎo)人類(lèi)提出新的問(wèn)題,這種“主動(dòng)對(duì)齊”對(duì)于人類(lèi)而言是一種潛在意識(shí)威脅。不同于對(duì)生存主體性的脅迫,這是對(duì)人類(lèi)思想主體性的一種削弱。[9]價(jià)值對(duì)齊不僅會(huì)使人工智能更加像人,導(dǎo)致人類(lèi)對(duì)人工智能的依賴(lài)越來(lái)越強(qiáng),甚至在未來(lái)還可能和人類(lèi)產(chǎn)生情感聯(lián)結(jié),帶來(lái)新的風(fēng)險(xiǎn)。長(zhǎng)期依賴(lài)AI輔助寫(xiě)作的作者,自主創(chuàng)新能力會(huì)在一定程度上降低,需要通過(guò)技術(shù)設(shè)計(jì)保留人類(lèi)核心能力,如批判性思維、情感共鳴等。
(三)人機(jī)雙向?qū)R的共生重構(gòu)
傳統(tǒng)價(jià)值對(duì)齊多強(qiáng)調(diào)機(jī)器向人類(lèi)價(jià)值觀(guān)的單向適配,如前所述,智能技術(shù)對(duì)人類(lèi)認(rèn)知、行為的反向塑造已不可忽視。雙向?qū)R不僅必要,且將重構(gòu)人機(jī)關(guān)系的倫理范式。單向?qū)R的傳統(tǒng)觀(guān)念將技術(shù)視為被動(dòng)工具,假設(shè)人類(lèi)價(jià)值觀(guān)具有絕對(duì)主導(dǎo)權(quán)。但AI系統(tǒng)(如算法推薦)已深度介入知識(shí)生產(chǎn)與傳播,其技術(shù)邏輯(如流量?jī)?yōu)先、數(shù)據(jù)驅(qū)動(dòng))正反向形塑人類(lèi)的閱讀習(xí)慣、審美標(biāo)準(zhǔn)甚至倫理判斷。人類(lèi)需與智能出版系統(tǒng)建立雙向適應(yīng)關(guān)系——既要求AI符合人類(lèi)倫理準(zhǔn)則,也需要人類(lèi)理解技術(shù)運(yùn)行邏輯以規(guī)避認(rèn)知沖突,提升人機(jī)協(xié)作效能。比如,學(xué)術(shù)出版中,研究者需適應(yīng)AI文獻(xiàn)分析工具的檢索邏輯(如關(guān)鍵詞策略?xún)?yōu)化),才能高效獲取前沿成果;同時(shí),AI需學(xué)習(xí)學(xué)術(shù)倫理規(guī)范以規(guī)避剽竊風(fēng)險(xiǎn)。雙向?qū)R可降低摩擦成本,緩解技術(shù)倫理沖突。當(dāng)人類(lèi)價(jià)值觀(guān)與技術(shù)可行性沖突時(shí),如“絕對(duì)隱私保護(hù)”與“個(gè)性化推薦必需數(shù)據(jù)收集”,雙向?qū)R通過(guò)協(xié)商達(dá)成妥協(xié)方案,強(qiáng)化用戶(hù)知情權(quán)。
雙向?qū)R主張通過(guò)持續(xù)互動(dòng)實(shí)現(xiàn)動(dòng)態(tài)平衡。在“機(jī)器犯錯(cuò)”事件中(如AI生成虛假內(nèi)容),雙向?qū)R框架要求搭建追溯責(zé)任鏈。在技術(shù)端,開(kāi)發(fā)者是否預(yù)設(shè)足夠倫理約束;出版編輯端的編輯是否盡到審核義務(wù);用戶(hù)(讀者)是否具備信息鑒別能力。人類(lèi)向機(jī)器的有限對(duì)齊(如學(xué)習(xí)AI可解釋性語(yǔ)言),能幫助技術(shù)開(kāi)發(fā)者更精準(zhǔn)地捕捉倫理需求,推動(dòng)AI系統(tǒng)迭代升級(jí)。人機(jī)雙向價(jià)值對(duì)齊絕非要求人類(lèi)屈從于技術(shù)邏輯,而是構(gòu)建批判性共生關(guān)系。它既承認(rèn)技術(shù)對(duì)人的改造不可避免,又堅(jiān)守人類(lèi)價(jià)值觀(guān)的終極裁判權(quán)。在智能出版領(lǐng)域,唯有通過(guò)雙向?qū)R,才能在技術(shù)發(fā)展中守護(hù)知識(shí)的尊嚴(yán)與文明的多樣性。未來(lái)的核心挑戰(zhàn)在于如何劃定人機(jī)共生的倫理紅線(xiàn),并在效率與人性之間找到動(dòng)態(tài)平衡點(diǎn)。
三、如何對(duì)齊:智能出版人機(jī)價(jià)值對(duì)齊的實(shí)踐路徑
(一)前置價(jià)值敏感設(shè)計(jì)的出版全流程調(diào)節(jié)
出版?zhèn)惱韱?wèn)題涉及選題策劃、內(nèi)容生產(chǎn)、審核編輯、傳播分發(fā)、消費(fèi)反饋等多個(gè)環(huán)節(jié),其核心問(wèn)題既包含傳統(tǒng)出版領(lǐng)域的積弊,也因智能技術(shù)的介入衍生出新型倫理挑戰(zhàn)。出版作為價(jià)值傳遞的連續(xù)性社會(huì)實(shí)踐,重構(gòu)智能出版流程,實(shí)現(xiàn)人機(jī)價(jià)值對(duì)齊,需要前置價(jià)值敏感性設(shè)計(jì)。在算法模型構(gòu)建初期,通過(guò)虛擬現(xiàn)實(shí)技術(shù)搭建“道德劇場(chǎng)”,前置性模擬技術(shù)應(yīng)用的各種社會(huì)效應(yīng)。如微軟研究院開(kāi)發(fā)的出版?zhèn)惱砩澈邢到y(tǒng),允許編輯、用戶(hù)(讀者)、文化學(xué)者在虛擬場(chǎng)景中體驗(yàn)不同審核策略的連鎖反應(yīng)。前置多種利益相關(guān)者的道德價(jià)值判斷與選擇,從而及時(shí)調(diào)整技術(shù)的道德調(diào)節(jié)作用,實(shí)現(xiàn)對(duì)技術(shù)意向性的積極建構(gòu)。[10]價(jià)值敏感性設(shè)計(jì)(Value-Sensitive Design)是技術(shù)哲學(xué)中工程創(chuàng)新實(shí)踐的進(jìn)路,主張?jiān)诩夹g(shù)設(shè)計(jì)階段就將抽象的倫理價(jià)值進(jìn)行具象化與可操作化,前置性地、建構(gòu)性地植入人工物系統(tǒng)中,從而實(shí)現(xiàn)“價(jià)值偏差”的最小化。[11]價(jià)值敏感性設(shè)計(jì)可以成為道德物化的前置階段。例如在20世紀(jì)90年代的美國(guó),人們對(duì)網(wǎng)頁(yè)瀏覽侵犯隱私的顧慮極大提升,因此,工程師們便將“用戶(hù)知情并同意”的機(jī)制引入瀏覽器頁(yè)面中。[12]體現(xiàn)價(jià)值敏感性常見(jiàn)的方法有利益相關(guān)者分析、價(jià)值來(lái)源分析、價(jià)值維度的可擴(kuò)展性評(píng)估、價(jià)值敏感性的行為反射模型、在線(xiàn)知情同意模型等。[13]智能出版的前置價(jià)值敏感設(shè)計(jì)可規(guī)避倫理風(fēng)險(xiǎn)和安全風(fēng)險(xiǎn)。
應(yīng)對(duì)出版各環(huán)節(jié)的對(duì)齊沖突,采取針對(duì)性治理和調(diào)節(jié),關(guān)鍵是處理好向何對(duì)齊的問(wèn)題。調(diào)節(jié)(mediation)是維貝克思想中的重要概念,也是技術(shù)道德能動(dòng)性的重要體現(xiàn)。減速帶是維貝克經(jīng)常說(shuō)明的例子——通過(guò)在道路上設(shè)計(jì)減速帶,降低司機(jī)的行駛速度,提高駕駛員出行的安全性,使其更加道德地遵守路上的交通規(guī)則。[14]對(duì)于智能出版而言,針對(duì)選題策劃階段的公共知識(shí)需求與流量算法偏好的沖突與調(diào)節(jié)問(wèn)題,需要開(kāi)發(fā)社會(huì)效益和市場(chǎng)效益兼顧的協(xié)同決策模型。內(nèi)容生產(chǎn)階段,處理好創(chuàng)作自主權(quán)與技術(shù)可行性的關(guān)系,預(yù)防創(chuàng)作類(lèi)型同質(zhì)化、AI依賴(lài)癥等,將創(chuàng)作者價(jià)值觀(guān)嵌入面板。編輯審核階段,兼顧內(nèi)容安全與表達(dá)合理,建立“人機(jī)爭(zhēng)議內(nèi)容仲裁委員會(huì)”。傳播分發(fā)階段,避免算法效率優(yōu)先,保護(hù)好文化多樣性,開(kāi)發(fā)多樣性增強(qiáng)算法。消費(fèi)反饋階段,增設(shè)“價(jià)值觀(guān)選擇器”,比如娛樂(lè)、學(xué)習(xí)、研討等模式的選擇,將用戶(hù)需求偏好與理性認(rèn)知提升結(jié)合起來(lái)。
(二)構(gòu)建利益主體協(xié)同的鏈條式價(jià)值審計(jì)
審計(jì)的主體不僅包括由研究者、技術(shù)專(zhuān)家以及政策制定者在內(nèi)的專(zhuān)業(yè)性的、自上而下的、合作眾包式的審計(jì),也涵蓋了由用戶(hù)發(fā)起的、適用于日常生活場(chǎng)景的集合性審計(jì)。[15]多重利益相關(guān)者的參與,使得算法審計(jì)成為一種內(nèi)外部結(jié)合的有效監(jiān)督方式。算法審計(jì)是指對(duì)算法的運(yùn)行邏輯進(jìn)行直接或間接審查,并從代碼規(guī)則、社會(huì)價(jià)值以及公共秩序等方面進(jìn)行修復(fù),常被用于測(cè)量算法代碼中隱藏的階級(jí)、種族、性別等維度的歧視。[16]算法審計(jì)能對(duì)智能出版意圖、出版內(nèi)容、出版流程、出版的社會(huì)效應(yīng)進(jìn)行有效評(píng)估。
具體在智能出版大模型的技術(shù)語(yǔ)境中,我們需要識(shí)別利益相關(guān)者。利益相關(guān)主體協(xié)同的鏈條式價(jià)值審計(jì),首先需要構(gòu)建利益相關(guān)者圖譜,進(jìn)行主體識(shí)別與分層,構(gòu)建協(xié)同治理系統(tǒng),強(qiáng)調(diào)創(chuàng)作者、出版機(jī)構(gòu)、技術(shù)開(kāi)發(fā)者、用戶(hù)(讀者)與政策制定者的五方責(zé)任共擔(dān),設(shè)計(jì)“出版利益地圖”系統(tǒng),可實(shí)時(shí)追蹤AI生成內(nèi)容的價(jià)值流分配。由算法、數(shù)據(jù)、編輯、用戶(hù)(讀者)等人類(lèi)與非人類(lèi)行動(dòng)者共同構(gòu)建出版?zhèn)惱砭W(wǎng)絡(luò),打造“人機(jī)協(xié)同倫理審查鏈”,至少包括AI初篩、編輯復(fù)核、專(zhuān)家委員會(huì)終審等。其次,還需要強(qiáng)化“價(jià)值對(duì)齊”透明度,實(shí)行倫理審計(jì)公開(kāi),出版機(jī)構(gòu)披露價(jià)值觀(guān)對(duì)齊的具體指標(biāo),如文化多樣性評(píng)分、弱勢(shì)群體內(nèi)容占比等。
(三)優(yōu)化消費(fèi)終端的多元化情境價(jià)值協(xié)商
智能出版消費(fèi)終端的多元化情境價(jià)值協(xié)商和選擇,對(duì)打破信息繭房、將單向閱讀轉(zhuǎn)化成為價(jià)值對(duì)話(huà)場(chǎng)域具有重要意義。消費(fèi)終端的價(jià)值選擇和協(xié)商需要結(jié)合多元化的情境,建設(shè)文化間、代際間、人機(jī)間等多維協(xié)商的平臺(tái)基礎(chǔ),進(jìn)行情境化調(diào)適。智能出版的價(jià)值對(duì)齊需根據(jù)不同文化語(yǔ)境,構(gòu)建動(dòng)態(tài)文化適配知識(shí)庫(kù)以響應(yīng)多元化文化情境需求。建設(shè)動(dòng)態(tài)倫理準(zhǔn)則庫(kù),包括不可逾越的基礎(chǔ)倫理,如反人類(lèi)、種族歧視等;以及包含可調(diào)整的情境規(guī)則的適配層,運(yùn)用文化敏感度動(dòng)態(tài)評(píng)估系統(tǒng)和倫理沖突模擬沙盒,預(yù)演不同對(duì)齊方案的社會(huì)影響,做到有的放矢。為出版AI增設(shè)“價(jià)值觀(guān)調(diào)試面板”,允許用戶(hù)自定義倫理偏好,如選擇“文化多樣性?xún)?yōu)先”“事實(shí)核查優(yōu)先”“認(rèn)知提升模式”等。
要破解智能出版中人機(jī)價(jià)值對(duì)齊的深層矛盾,需將用戶(hù)素養(yǎng)提升置于核心地位,通過(guò)技術(shù)認(rèn)知啟蒙、倫理意識(shí)覺(jué)醒與社會(huì)心理調(diào)適的協(xié)同推進(jìn),構(gòu)建“技術(shù)賦能—價(jià)值協(xié)商—文明共生”的良性生態(tài)。傳統(tǒng)“用戶(hù)教育”多停留于操作指南層面,智能傳播時(shí)代需要培養(yǎng)公眾的技術(shù)批判性思維,針對(duì)不同群體設(shè)計(jì)差異化課程,提升用戶(hù)素養(yǎng),將素養(yǎng)教育轉(zhuǎn)化為公民的“數(shù)字生存技能”。同樣,加強(qiáng)社會(huì)心理韌性建設(shè),實(shí)現(xiàn)用戶(hù)的焦慮緩解到認(rèn)知升維亦是智能出版人機(jī)價(jià)值對(duì)齊的防火墻。
人機(jī)價(jià)值對(duì)齊是大模型走向強(qiáng)人工智能進(jìn)程中所要面臨和解決的重要挑戰(zhàn)。尼爾·波茲曼在《技術(shù)壟斷:文化向技術(shù)投降》中提到“每一種技術(shù)既是包袱也是恩賜,不是非此即彼的結(jié)果,而是利弊同在的產(chǎn)物”。[17]作為承載傳承文化、創(chuàng)新知識(shí)、服務(wù)社會(huì)的出版行業(yè),人工智能時(shí)代,分析智能出版的人機(jī)價(jià)值對(duì)齊的挑戰(zhàn)、對(duì)齊目標(biāo)、對(duì)齊路徑有助于研判人機(jī)關(guān)系的新特征,預(yù)測(cè)與指導(dǎo)出版生態(tài)良性發(fā)展。未來(lái),人工智能還將進(jìn)一步推進(jìn)社會(huì)深度媒介化的進(jìn)程,要想實(shí)現(xiàn)健康的人機(jī)傳播關(guān)系,由人機(jī)對(duì)齊到人機(jī)共生的價(jià)值對(duì)齊模式值得進(jìn)一步探討。
參考文獻(xiàn):
[1]矣曉沅,謝幸.大模型道德價(jià)值觀(guān)對(duì)齊問(wèn)題剖析[J].計(jì)算機(jī)研究與發(fā)展,2023,60(9):1926-1945.
[2][4]郭全中,張金熠.AI向善:AI大模型價(jià)值觀(guān)對(duì)齊的內(nèi)容與實(shí)踐[J].新聞愛(ài)好者,2023(11):19-24.
[3][10]袁雨晴,陳昌鳳.道德物化:大模型人機(jī)價(jià)值對(duì)齊的技術(shù)倫理進(jìn)路[J].南京社會(huì)科學(xué),2024(6):88-97.
[5]習(xí)近平.論堅(jiān)持推動(dòng)構(gòu)建人類(lèi)命運(yùn)共同體[M].北京:中央文獻(xiàn)出版社,2018:254.
[6]王虎學(xué),陳婉馨.全人類(lèi)共同價(jià)值與西方“普世價(jià)值”:界定、甄別與超越[J].治理現(xiàn)代化研究,2023,39(1):72-79.
[7]Verbeek P P. Beyond Interaction:A Short Introduction to Mediation Theory[J].Interactions,2015,22(3):26-31.
[8]蔣曉麗,賈瑞琪.論人工智能時(shí)代技術(shù)與人的互構(gòu)與互馴:基于海德格爾技術(shù)哲學(xué)觀(guān)的考察[J].西南民族大學(xué)學(xué)報(bào)(人文社科版),2018,39(4):130-135.
[9]林愛(ài)珺,常云帆.人工智能大模型價(jià)值對(duì)齊的人文主義思考[J].新聞界,2024(8):24-33.
[11]張浩鵬,夏保華.價(jià)值敏感性設(shè)計(jì)透視:背景、現(xiàn)狀、問(wèn)題與未來(lái)[J].自然辯證法研究,2023,39(4):77-83.
[12]BFriedman,D.H.,Value Sensitive Design:Shaping Technology with Moral Imagination[M].Massachusetts:MIT Press,2019:79.
[13]Friedman,B.,Hendry,D.G.,Borning,A.,A Survey of Value Sensitive Design Methods[J].Foundations and Trends?in Human-Computer Interaction,2017,11(2):63-125.
[14]Verbeek,P.-P.,Moralizing Technology:Understanding
and Designing the Morality of Things[M].Chicago:University of Chicago Press,2011:126.
[15]Shen,H.,DeVos,A.,Eslami,M.,et al..Everyday Algorithm Auditing:Understanding the Power of Everyday Users in Surfacing Harmful Algorithmic Behaviors[J].Proceedings of the ACM on Human-Computer Interaction,2021,5(CSCW2):1-29.
[16]張萌,楊家明.日常算法審計(jì)與計(jì)算基礎(chǔ)設(shè)施修復(fù):基于倒置視角的考察[J].新聞大學(xué),2023(8):88-100,120.
[17]尼爾·波茲曼.技術(shù)壟斷:文化向技術(shù)投降[M].何道寬,譯.北京:中信出版集團(tuán),2019:126.
(作者系:方艷,湖北第二師范學(xué)院傳播倫理研究所所長(zhǎng)、教授;陳瑛,湖北第二師范學(xué)院新聞與傳播學(xué)院院長(zhǎng)、教授)