摘要:ChatGPT對元宇宙的建設而言具有很大的潛力和變革力,在語言交流、用戶體驗、信息處理等方面產生了新的可供性。但ChatGPT并不是一種完全智能化的技術,其在倫理方面也帶來了諸多新的挑戰。另外,在數據隱私保護、知識產權保障、虛擬經濟監管、責任歸屬界定等方面也對未來法治提出了新的要求。在新型空間內,人機協同將是未來長期的社會解決方案,只有對人機關系、倫理問題和法律規制更加全面和深入思考,才能為未來的元宇宙建設提供理論借鑒。
關鍵詞:ChatGPT;元宇宙;人工智能;技術可供性;AIGC;未來法治;
引言
ChatGPT是一種基于GPT-3.5架構的大型語言模型,使用了深度學習和自監督學習技術來學習自然語言的規則和結構。它作為一種嶄新的自然語言處理技術,在元宇宙中的應用有著巨大潛力。技術可供性理論與“技術決定論”之間存在本質分野,其對技術要素的評價更為中立、審慎,強調技術的“可能性”而非“決定性”,這些“可能性”也使得技術的諸種實踐同時兼具積極和消極影響,并非主張絕對意義上的技術主導作用[1]。因此,我們在進行ChatGPT與元宇宙的技術神話想象之外,也要進行祛魅。從可供性視角來看,ChatGPT的應用究竟是打開了一個潘多拉魔盒,還是擦亮了數盞阿拉丁神燈?新的空間內,人機之間的關系和尺度應該如何把握?我們又該如何在吸納技術所帶來的創新的同時,避免陷入技術決定論視角下的社會物理學世界,從而保存法律和倫理的價值向度[2]。
1. 技術神話:ChatGPT賦能元宇宙
1.1 便捷交流的可供性
元宇宙是一個虛擬的、多人在線的空間,人們需要通過虛擬環境進行交流和合作。在這種情況下,語言交流的便捷性對于元宇宙的建設和發展至關重要。而ChatGPT作為一種強大的自然語言處理技術,可以為元宇宙中的語言交流提供便捷性,讓人們可以更加自然地進行交流和互動。首先,ChatGPT可以提供自然語言理解和生成的能力,幫助人們更加自然、準確地表達自己的意圖和想法,同時也可以更好地理解他人的意圖和想法。其次,在元宇宙中,人們需要通過語音進行交流和合作,而ChatGPT可以為語音交流提供語音識別和合成的能力,讓人們可以更加便捷地進行語音交流。最后,ChatGPT可以為跨語言交流提供支持,讓人們可以更加高效地進行跨語言交流,從而推動元宇宙的多元文化和國際化發展。
1.2 用戶體驗的可供性
ChatGPT的應用為元宇宙提供了一種嶄新的交互方式,使得用戶可以像與人類一樣自然地使用語言與元宇宙進行交互。這種交互方式相對于傳統的圖形用戶界面和鍵盤鼠標輸入方式更加方便、自然和智能化,能夠提高用戶的使用體驗。例如,ChatGPT可以實現自然的語言交互和智能問答,讓用戶可以通過自然語言與虛擬人物和智能體進行交互,而不需要通過復雜的指令或者語法規則。這樣可以讓用戶更加便捷且高效地與其他個體進行溝通,提高用戶的參與度和滿意度。對個性化而言,ChatGPT可以根據用戶的需求和興趣,提供相應的服務和建議,讓用戶感到被關注和重視,從而增加用戶的忠誠度和滿意度。此外,在元宇宙中,游戲是重要的應用場景之一,而ChatGPT可以為游戲提供智能化的用戶體驗,包括智能的任務分配、智能的NPC交互、智能的游戲推薦等,讓游戲更加有趣、富有挑戰性、深入人心,進一步提高用戶的沉浸感和參與度。
1.3 信息處理的可供性
元宇宙中涌現出大量的信息和數據,需要進行智能化的處理和分析。ChatGPT可以為元宇宙提供自然語言處理和文本分析的能力,幫助人們更加高效地理解和利用這些信息和數據。在元宇宙中,用戶可以通過語音交互與虛擬環境進行互動。ChatGPT可以通過語音識別技術將用戶的語音轉化為文字,并進行自然語言處理和理解,從而為用戶提供相關的信息和服務。當用戶需要處理大量的信息時,ChatGPT可以通過自然語言理解和處理技術,幫助用戶快速找到自己需要的信息。當用戶遇到各種問題時,ChatGPT可以作為智能客服系統,通過自然語言理解和處理技術,幫助用戶解決問題。另外,值得注意的是,在元宇宙中,用戶的情感體驗是非常重要的。ChatGPT可以分析用戶在虛擬環境中的情感體驗,并根據用戶的情感狀態進行相應的服務,幫助用戶在元宇宙中保持良好的情感狀態。
2. 技術祛魅:ChatGPT的倫理癥候
2.1 智能的局限
ChatGPT并不是一種完全智能化的技術,實際上它是一種基于模式識別和數據訓練的技術,其生成結果受到輸入數據、訓練集、模型參數等因素的影響。雖然ChatGPT是基于海量語料庫進行訓練的,但這些數據通常都是來自互聯網,具有不確定性和不完整性。這意味著ChatGPT在處理特定領域的任務時,可能會受到數據偏差的影響,導致其輸出結果出現錯誤或偏差。因此,在某些場景下,它可能會出現邏輯不嚴謹、產生歧義等問題。在元宇宙中,如果缺乏足夠的數據支持,就可能無法生成有效可靠的語言模型。
其次,ChatGPT的智能化程度也受限于其算法本身的局限性以及計算資源的限制,例如難以理解特定的語言結構或進行抽象思維等。由于ChatGPT的模型規模較大,需要龐大的計算資源來進行訓練和推理,這可能會限制其在某些場景下的應用,例如移動設備上的實時對話系統等。此外,ChatGPT只是元宇宙建設中的一種技術手段,其應用需要與其他技術相互配合,才能形成完整的技術生態。例如,需要區塊鏈技術提供更加安全和可信的數據存儲和交互機制,需要智能合約技術幫助用戶實現更加智能化的交易和合作,以及Web3.0技術為元宇宙提供更加開放、去中心化的網絡環境。ChatGPT與多種可供性相互結合,才能進一步提升元宇宙的智能化水平和用戶體驗。
2.2 真實的消解
信息真實性是ChatGPT在應用過程中所面臨的重要倫理問題。因為ChatGPT是通過學習海量的文本數據來生成新的文本,在一些情況下,ChatGPT可能會生成虛假的信息或不準確的信息。例如,ChatGPT可能會誤解用戶的問題或者根據不完整的信息做出不準確的推斷,或者在進行資料搜集和整理時編造參考文獻等。在某些情況下,ChatGPT也可能會被誤導,從而生成有偏見的信息。即使ChatGPT生成的信息是準確的,也可能會因為來源不可靠而缺乏可信度。例如,當ChatGPT基于某些不可靠的網站或來源進行學習時,可能會在其生成的文本中包含錯誤或者偏見。此外,由于ChatGPT可以自由地生成大量的文本,它也可能會成為不良信息的傳播者,例如虛假信息、誤導性的信息、歧視性的信息等。如果ChatGPT生成的文本被誤傳、誤解,將會對社會、經濟、政治等各方面產生影響。
2.3 算法的歧視
算法偏見是指基于算法的判決或推薦結果,對某個群體或特定個體產生了錯誤、不公平、歧視性的影響。這種偏見主要源于訓練數據集的不完整性、采樣偏差、模型選擇和算法優化等因素。首先,ChatGPT的訓練數據通常是從互聯網等公共數據源中收集的,這些數據源中存在著社會偏見和文化差異等因素。這些偏見和差異可能會被ChatGPT所學習和強化,進而導致它在生成文本時表現出某種程度的歧視和偏見。例如,一些研究表明,ChatGPT在生成關于女性、少數族裔等特定主題的文本時,往往會表現出一定的偏見。
其次,ChatGPT的內部機制非常復雜,導致其生成的文本可能難以解釋。這種情況下,如果ChatGPT生成的文本帶有歧視或偏見,則很難對其進行糾正和改進。這種技術復雜性可能會增加算法歧視和偏見的風險。算法帶來了信息傳播途徑的又一次變革,重構了傳統的知識和內容分發方式。從算法自身來看,技術本身在一定程度上也會加重“下沉的螺旋”,而算法的設計和應用過程也往往會嵌入設計者的理念和意圖,很有可能導致算法偏見和算法歧視的加重[3]。
3. 法律規制:ChatGPT與未來法治
3.1 數據隱私保護
在元宇宙中,ChatGPT的應用需要處理大量的個人信息和用戶數據,如用戶聊天記錄、搜索記錄、個人偏好等。因此,保護用戶的數據隱私是至關重要的。首先,需要確保數據收集和使用符合相關的法律法規和隱私政策,如《通用數據保護條例》和《個人信息保護法》,以保護用戶的隱私權。ChatGPT的開發者需要遵守相關的隱私政策,如透明度、目的明確性、數據最小化原則等,以確保用戶的數據被妥善保護。
其次,ChatGPT應用程序的開發者需要采取合理的措施確保數據安全,例如使用加密技術、身份驗證和訪問控制,以防止未經授權的訪問、使用和披露。同時,需要建立有效的數據共享機制。在元宇宙中,不同的應用程序可能需要共享數據,以提供更好的服務和體驗。為了保護用戶的隱私權,相關的法律規制需要確保數據共享符合適用的隱私政策和法律法規,并限制數據共享的范圍和目的。
最后,需要加強對數據泄露和濫用的監管。一旦發生數據泄露或濫用,相關的法律規制需要迅速采取安全措施,包括通知用戶和相關監管機構、對違規行為進行處罰等,以確保用戶的隱私權和數據安全。
3.2 知識產權保障
ChatGPT是基于人工智能技術的應用,其中涉及的知識產權問題也需要得到保護。保護知識產權是元宇宙發展的重要前提,也是保障知識創造者權益的必要條件。ChatGPT的應用需要遵循相關的知識產權法律法規,如著作權法、商標法等,以保護知識產權。首先,ChatGPT應用程序的開發者需要尊重他人的知識產權,避免侵權行為。同時,需要確保自身的知識產權得到妥善保護,避免被他人侵犯。其次,需要建立有效的知識產權保護機制,如版權聲明、商標注冊等,以保障自身的知識產權。同時,相關的法律法規需要建立知識產權保護的法律框架,加強對知識產權侵權的監管和制裁,一旦發生知識產權侵權行為,相關的法律法規需要迅速采取措施,對侵犯知識產權的行為進行制裁和懲罰,以保護知識創造者的權益。此外,需要建立知識產權的交易和授權機制。在元宇宙中,知識產權交易和授權是常見的商業行為。ChatGPT應用程序需要建立有效的知識產權交易和授權機制,保障知識創造者的權益和商業利益。
3.3 虛擬經濟監管
虛擬經濟是元宇宙中的一個重要組成部分,也是一個涉及眾多利益相關方的復雜系統。ChatGPT的應用涉及虛擬經濟的多個方面,如虛擬貨幣、虛擬商品、虛擬資產等。而虛擬經濟涉及的問題比較復雜,需要建立完善的法律框架,明確各方的權益和責任。相關的法律法規需要明確虛擬貨幣的定義和合法性,規范虛擬商品和虛擬資產的交易行為,加強對虛擬經濟的知識產權保護。此外,需要加強對虛擬經濟中存在的風險和問題的監測和處理,如虛擬貨幣的價格波動、虛擬商品的侵權問題等。還需要加強虛擬經濟的信息公開和透明度。虛擬經濟的信息公開和透明度是保障各方權益的必要條件。監管機構需要加強虛擬經濟的信息公開和透明度,發布有關虛擬經濟的政策、規章制度和風險提示,讓公眾了解虛擬經濟的運行情況和風險狀況。
3.4 責任歸屬界定
在法律層面上,ChatGPT的應用涉及的責任問題也不容忽視。當ChatGPT在某些應用場景中出現錯誤或造成損害時,誰來承擔責任?是ChatGPT的開發者、運營商、還是使用者?如果出現了惡意使用ChatGPT的情況,是否可以對其追究法律責任?這些問題都需要考慮并制定相應的法律規定。首先,ChatGPT的開發者和運營商在應用過程中應該承擔一定的責任。他們需要對ChatGPT的算法和模型進行充分的測試和驗證,確保其可以在合理的范圍內運行,并避免因ChatGPT自身存在的缺陷導致的誤導和損害。此外,開發者和運營商需要對ChatGPT的數據來源、處理方式以及使用范圍等進行明確的規定和限制,確保其不會違反法律法規和社會倫理。同時,ChatGPT的使用者也需要承擔一定的責任。他們需要對ChatGPT輸出的信息進行辨別和評估,以避免出現虛假信息或不良后果。如果使用者惡意利用ChatGPT進行違法活動或者侵害他人權益,也應該承擔相應的法律責任。最后,政府和監管機構也需要對ChatGPT的應用進行監管和規制。應該加強對ChatGPT的技術審查和監管,確保ChatGPT的應用符合法律法規和社會倫理要求,并及時處理ChatGPT的相關問題和糾紛。
結語
隨著ChatGPT技術的不斷升級和元宇宙研究的逐步完善,ChatGPT在元宇宙中的應用前景將愈發廣闊。ChatGPT與元宇宙的結合也將推動人工智能技術和元宇宙技術的融合發展,從而進一步推進數字經濟和虛擬經濟的發展。未來,ChatGPT技術還有望在元宇宙中實現更加智能化的人機交互、更加高效的自然語言處理和更加精準的智能推薦等功能,為用戶創造更好的使用體驗和更高效的服務。
但是,任何技術的社會化落地,其實質都是技術邏輯與社會選擇“互構”的結果,智能算法模型同樣遵循這一邏輯[4],這也要求我們要在未來法治和倫理的框架下去探討技術的可供性。另外,當機器具有了新的“可供性”,人與機器之間的關系也正在發生重大的變化。實際上,當我們凝視人工智能的時候,人工智能也在凝視我們。ChatGPT應用于元宇宙,打破了機器原有的“工具性”視角,而是更多地凸顯人與機器之間的“同構性”[5]。這種新的人機關系的視角,實際上是將人與機器之間的關系從二元對立的角度,轉變為更加全面和客觀的視角。
對于元宇宙這樣的虛擬現實環境來說,ChatGPT的應用可以使得人類和機器之間的交互更加自然和智能化。ChatGPT可以模擬人類語言和思維模式,從而更好地理解人類的需求和意圖,更好地為人類提供服務。但是,這并不意味著機器可以完全取代人類的思考和創造能力,人類的獨立思考和創造能力是機器所不能替代的。因此只有當人類不斷地創新和發展,才能夠與機器建立穩定和平衡的關系。在這種關系中,人類不僅是機器的使用者,更是機器的設計者和控制者,這種平衡關系才能為人類和機器帶來更加可持續和有益的發展,進而塑造一個更加美好的人類未來智能圖景。
參考文獻:
[1]何天平.“觀看”作為再創作:論視聽文化再生產與受眾介入式審美——基于技術可供性的視角[J].現代傳播(中國傳媒大學學報),2022,44(4):125-132.
[2]鄭戈.區塊鏈與未來法治[J].東方法學,2018,(3):75-86.
[3]許向東,王怡溪.智能傳播中算法偏見的成因、影響與對策[J].國際新聞界,2020,42(10):69-85.
[4]喻國明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態——從ChatGPT到全面智能化時代的未來[J].新疆師范大學學報(哲學社會科學版),2023, 44(5):81-90.
[5]彭蘭.人機傳播與交流的未來[J].湖南師范大學社會科學學報,2022,51(5):12-22.
作者簡介:陸貴曦,在讀本科,研究方向:傳媒與法制、新媒體傳播、媒介倫理。
項目基金:國家級大學生創新創業訓練計劃項目“萬意成音——AI多模塊數據語音發聲與語言康復系統 ”(編號:202210032025X)。