宋陽 李慧
[摘要] 隨著第四次工業革命浪潮的到來,云計算、深度學習、大數據等技術不斷普及,人工智能已嵌入人們生活的方方面面,不僅影響科技領域的發展,同時也給政治、經濟、社會、道德倫理等領域帶來了風險與挑戰。由此,應從社會、政府及人類自身三個層面積極探索應對策略,以期形成多方共同參與、相互聯動的有效合力機制,實現對人工智能的合理控制,更好地應對人工智能可能帶來的社會風險。探索人工智能未來的發展方向,推進“技術”與“社會”的良性互動。
[關鍵詞]人工智能;社會風險;高質量發展;技術風險;倫理風險
[中圖分類號]G641[文獻標志碼] A[文章編號]1672-4917(2023)03-0109-07
一、引言
人工智能作為推動人類文明不斷向智能化社會邁進的“催化劑”,深刻影響了社會生產結構和生活方式。作為第四次工業革命的最核心組成部分,人工智能正在成為全球科技競爭的制高點、經濟發展的新引擎和產業變革的核心驅動力[1]。為了快速尋找在第四次工業革命中的出路,我國十分重視人工智能的發展。國務院于2017年發布的《新一代人工智能發展規劃》對人工智能的發展起著建設性的作用,強調“把新一代人工智能作為推動科技跨越發展、產業優化升級、生產力整體躍升的驅動力量,努力實現高質量發展”[2]。近年來,政府工作報告多次提到將加強人工智能的發展規劃作為新的工作重點,從國家宏觀層面來治理引導人工智能的發展。當前我國已成功進入創新型國家行列,聚焦人工智能的創新性發展已成為時代命題。隨著國際國內大環境的變化,人工智能等前沿問題更是充滿復雜性和不確定性,技術風險與社會風險事件時有發生,多方面因素觸發的倫理問題也引發人們的深刻反思,因此,我們應當客觀冷靜地分析人工智能的發展前景,審慎對待人工智能這一先進的技術科學。
黨的十九屆四中全會以來,國家高度重視社會治理工作并創新社會治理模式,提升社會治理智能化水平。《中華人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》明確指出,“堅持科技賦能,推進社會治理現代化”[3]。習近平總書記指出,“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”[4]。然而,人工智能是一種尚處于探索階段的革命性、顛覆性技術,在推動人類社會快速發展的同時,又深刻地改變了人類生產生活方式與社會形態結構,進而衍生出一系列的社會風險[5]。有學者指出,人工智能形成的“智能技術范式”容易侵蝕人的自主權,人或將淪為技術的“附庸”[6]。也有學者認為,人工智能在幫助重塑政府科層組織之間及政府與社會的關系的同時,會對組織的地位和邊界帶來重大挑戰[7]。任劍濤提出人工智能技術失控容易造成社會沖突問題。人工智能時代背景下,探討人工智能應用的社會風險成為亟須深入研究的現實問題[8]。何哲將人工智能給人類社會帶來的核心風險分為隱私泄露、勞動競爭、主體多元、邊界模糊、能力溢出、懲罰無效、倫理沖突、暴力擴張、種群替代和文明異化十個方面,并提出了相應的應對措施[9]。張成崗從技術自主性與人工智能的失控風險、新技術決定論形態中的算法及數據挑戰、人工智能發展中的倫理風險及其規約、人工智能對就業的沖擊及其社會風險、人工智能時代整體圖景缺失的挑戰這五個方面對人工智能社會風險進行討論[10]。周利敏等認為人工智能可能會促進社會風險治理模式創新,但逃脫人類控制的人工智能會造成更大的社會風險[11]。楊凱結合人工智能與社會風險治理的新進展,闡述了基于人工智能的社會風險的治理模型[12]。王泗通則通過對人工智能在垃圾分類領域的應用分析,提出人工智能可能引發居民過度依賴智能化、基層自治空間不斷壓縮以及社會結構可能解組的社會風險[13]。
二、人工智能發展潛在的社會風險
隨著我們進入人工智能時代,社會生產力大幅提高,人們的生活方式也變得更加便利,同時也導致了勞動崗位受到沖擊、數據及隱私泄露及算法歧視等一系列的社會風險。
(一)人工智能沖擊勞動崗位的風險
人工智能在極大地提高生產效率并改變傳統的勞動形式的同時,替代了大量的勞動力,造成失業危機,這不僅給勞動就業市場帶來巨大沖擊,對一些弱勢群體來說更是帶來永久性的不可估量的危害。人工智能對勞動崗位造成的沖擊主要表現在以下兩方面:一方面,人工智能對生產效率要求高的制造業造成了很大的影響;另一方面,人工智能對于重復性的、程序化強的服務性工作和體力勞動沖擊較大。
在制造業中,人工智能的主要作用是使機器能夠“匹配或超過人類技術人員”,提高生產操作的效率,降低成本。首先,在其他條件相同的情況下,高技能的機器在提高生產力方面顯然比傳統勞動力更有優勢;其次,在制造業中,工人的生理和心理存在潛在的威脅,例如,單線操作很容易導致心理疾病,富士康甚至出現了員工跳樓的惡性事件。這些因素導致企業傾向于用機器取代勞動力,這增加了勞動力失業的風險。另一方面,勞動力成本的上升和人工智能的日益成熟,也增加了企業用機器替代勞動力的意愿。
在服務行業,隨著越來越多的人工智能機器的引入,機器正在逐漸取代一系列重復的、程序化強的機械性服務任務。中國建設銀行在2017年引入了“智慧柜員機、外匯兌換機、理財服務機”,隨后裁減了1萬多名員工。據招商銀行工作人員介紹,未來可能只留下一名柜臺人員在銀行網點處理交易,這意味著超過50%的柜臺人員將離開目前的工作崗位[14]。隨著人工智能的發展,無人超市、無人酒店、無人健身房、無人銀行等基于人工智能的新行業逐漸普及,這對傳統行業的人力資本的影響也越來越大。
在教育領域,人工智能的優勢正在慢慢改變傳統的教學模式。與人工智能相比,人類教師有一定的缺陷;人類教師在時間和精力方面處于明顯的劣勢[15],其在知識存儲和分析處理能力方面也遠不如人工智能。此外,人工智能比以往任何時候都更具顛覆性,因此,許多以前認為不太可能被代替的職業,如律師、法官等,也逐漸面臨被取代的風險。制造業和農業的人力資本將不可避免地流向服務業,服務業的工作崗位不足以及被替代行業人力資本的不斷涌入,將進一步加劇就業問題。
人工智能具有自我感知、自我模擬、自我調節等功能,能夠對智能信息進行量化處理,可根據復雜多變的市場需求進行靈活的調整和改進,一切社會生產活動都由機器之間自行交流、自主完成,實現物質生產過程的無人化。深度學習等技術的快速發展給人工智能自我更新升級帶來了新的契機,構建人工智能神經組織,會使勞動生產率出現“指數級”增長,與之相隨的未來社會經濟發展趨勢也會發生巨大變化。深度學習技術的應用使人工智能開始扮演人類的大腦,取代傳統的腦力勞動的工作,甚至對以往并未受到技術影響的職業和崗位也帶來了影響。同時,未來人工智能與人類的關系目前也不清楚,人工智能未來有可能和現在一樣對人類采取友好的態度,也有可能對人類產生敵意,而且超人工智能也有可能有自己的野心,從而反過來奴役人類成為社會的主宰[16]。庫茲韋爾在《奇點臨近》一書中預言,機器的智能將在2045年超過人類智能,而到21世紀末,人機智能將比人類智能強大數倍;并認為如果人工智能繼續發展下去,非生物計算機將取代人類,人工智能主導的人機文明將取代人類文明[17]。
(二)人工智能引發隱私泄露的風險
現代社會是文明程度較高的人類社會形態,人們更加重視和維護自身的尊嚴。然而,隨著信息技術的快速發展,所產生的一系列社會風險也隨之而來,特別是個人隱私與信息共享之間的內在矛盾使人類自身的尊嚴與隱私遭到了時代性的挑戰。大數據的快速發展,在催生個人有效信息收集手段的同時,也使人類個體的私人空間遭到侵犯,這就容易形成保護隱私和信息共享之間的二律背反,對人類個體的隱私造成嚴重的挑戰。
近年來,各種帶有處理器和傳感器的人工智能產品不斷涌現,使人們的學習和生活更加便利,同時也提高了對物理空間的監控,進一步增加了用戶隱私被侵犯的風險。例如,蘋果公司利用Siri軟件,在未經用戶同意的情況下,將用戶與他人之間的對話通過其服務器傳輸給承包商進行分析;陌生人可以利用無人機監視普通公民[18]。在各種人工智能產品面前,普通公民就是一個“透明人”,沒有任何隱私。除了私人領域缺乏隱私外,公共領域的監控攝像機,如街道上的監控攝像機,也可以利用圖像識別技術在人群中自動識別人臉、找到目標,實時監控特定的對象。
人工智能對個人隱私的侵犯越來越顯著。當今時代,人們在互聯網上的行為完全被互聯網這個信息媒介所記錄。互聯網利用大數據技術收集、存儲和分析這些信息,預測和分析用戶的個人興趣、愛好、習慣和行為模式,以提取未在互聯網上“公開”的預測性信息,然后追求商業信息流。例如,劍橋分析公司不正當使用收集到的八千多萬Facebook用戶數據,并參與到美國總統大選的事件中,違反數據的收集和保存的原則使數據泄露,嚴重侵犯了公民的隱私權。
自新冠病毒疫情暴發以來,大多數醫務人員在疫情防控領域開展醫學研究,科技人員正確地運用人工智能技術開展疫情防控,取得了實實在在的效果,有效保障了我國人民的安全健康和社會的健康發展。然而,大數據在疫情防控中的廣泛運用已經并將繼續引發一些復雜的倫理問題,特別是隱私泄露問題。各級政府部門和地方組織擁有特定的合法權力,可以收集大量的個人隱私數據和信息,如姓名、身份證號碼、個人通信信息、交通和旅行信息、在線支付信息等。然而,這個過程在人工智能和大數據的加持下,很容易導致個人權利和公共利益之間的沖突,并導致個人權利受到侵犯[19]。
同時,人工智能的使用可能會增加醫療數據泄露的風險。一方面,這些數據被醫院或人工智能產品公司所掌握,如果這些信息被傳遞給欺詐者或其他醫療機構,那么數據主體就有可能被欺詐或被推銷醫療產品;另一方面,如果這些數據由于管理不善或系統漏洞而被泄露,可能對數據主體及其家人造成嚴重傷害[20]。
大數據的發展使共享信息的范圍不斷擴大、程度不斷加深,從而使個人信息的泄露更容易發生。互聯網技術的發展,使得社交媒體及各種APP非常容易獲取用戶的私人信息,進而更全面地了解一個人的個人偏好、智力能力、心理狀況等隱私。這表明,在大數據時代,人類隱私已經成為最脆弱的領域之一,迫切需要法律和倫理框架來保護,以維護人類尊嚴[21]。
(三)算法歧視引起的隱患
1.信息繭房
社交媒體平臺利用人工智能算法對用戶的偏好進行精準識別和計算,進而提供差異化、個性化服務,以迎合用戶需求從而吸引和維持用戶流量。這一過程必然會加劇其對消費者選擇性的信息傳遞,導致“信息繭房”問題,即個人沉浸在自己選擇的以及令自己愉悅的信息中[22]。長此以往,將自身桎梏于所謂的“繭房”之中,進而降低個人自主提煉優質信息以及自主判斷和決策的能力,不斷擾亂其價值體系,造成認知固化甚至形成偏見。
2.價格歧視
企業利用人工智能算法來優化產品定價方案以獲得更高的利潤,通過算法進行用戶數據畫像以更精準地了解其支付意愿,進而對不同的消費者實行差異化定價策略,產生了大眾熟知的“大數據殺熟”現象。同時,機器學習算法可獨立于企業直接進行動態差別定價,甚至規避《反壟斷法》的嚴格規制,實施隱蔽的價格合謀行為。這一過程嚴重侵害了消費者的合法權益,引發了競爭扭曲的壟斷行為并極大地擾亂了相關市場的公平競爭秩序。在數字政府建設過程中,人工智能算法也成為輔助行政決策智能化的重要技術支撐。受制于算法研發的能力,政府購買技術服務的過程也增強了自身對技術開發者和控制者的技術依賴,使其可以隱蔽地干預政治議程。政府也將因此陷入被算法支配、政治話語權缺失的重大權力危機之中。
3.種族歧視
解決有形的種族歧視很容易,但無形的種族歧視卻很難防范。種族歧視更易隱藏在算法黑匣子的幌子下。隨著面部識別系統的標準化,并逐漸在學校、體育館、機場、交通樞紐,特別是警察系統中使用,對有色人種造成的種族歧視的新的傷害形式也越來越明顯了。在谷歌上搜索“白人女孩”會得到相對正常的信息,而搜索“亞洲女孩”或“黑人女孩”往往會得到“約會”“色情”等信息[23]。同樣,人工智能算法在法醫實踐中也被廣泛使用。美國警察局在其“預測性警務”項目中實施智能算法分析。在目標犯罪應該平均分配的情況下,警察被派往黑人社區的比例大約是白人社區的兩倍。另一個值得警惕的例子是,在減少偏見的基礎上應用的算法,反而加劇了種族歧視。2016年,當人權數據分析小組將PredPol算法模擬應用于加利福尼亞州奧克蘭市的毒品犯罪時,它反復將警察派往少數族裔聚居區,而不管這些聚居區的實際犯罪率如何。近年來,算法引起的種族歧視普遍存在,這表明在虛擬世界中打擊種族主義的緊迫性和重要性。
4.性別歧視
算法上的性別歧視本質上是將長期存在于現實世界中的性別歧視觀念轉移到虛擬世界中。人類無意識的性別歧視會影響分析大數據的人工智能算法,在招聘和大學錄取等領域無意中強化了性別歧視。“就其核心而言,算法模仿了人類的決策……換句話說,算法并不中立。”例如,如果雇主在自動簡歷選擇軟件中輸入“程序員”一詞,搜索結果會偏向于男性候選人,因為“程序員”一詞與男性的聯系比與女性的聯系多。如果搜索目標是“接待員”,女性候選人的簡歷就會首先顯示。盡管性別歧視人人喊打,但它仍不時癔癥般作祟[24]。
三、人工智能面臨的風險的對策
面對人工智能社會日益快速、持續發展的現實,我們一方面要正視并深刻認識到人工智能社會的各種潛在風險,充分地估計到人工智能技術的現有存量,正確引導和運用人工智能;另一方面,作為社會管理者和建設者的政府應該積極應對人工智能帶來的潛在社會風險;最后,作為人工智能應用主體的人類,應加強對人工智能的控制,營造良好的人工智能應用環境。因此,本文從社會、政府及人類自身三個層面提出相應的對策建議,以期能更好地應對人工智能帶來的各種社會風險問題。
(一)社會層面的對策
1.堅持人工智能的權責一致原則
人工智能設計最主要、最核心的原則是遵循人權主義原則,即權責一致的原則。人工智能產品制造商和服務供應商必須使其符合社會主義核心價值觀。算法設置應遵循基本倫理原則,在算法過程中要充分尊重和保護人的權利,特別是對于人類生命權、健康權、隱私權等基本權利的保護。人工智能技術的設計與應用應將是否有助于改善人類福祉作為重要的參考指標,避免出現算法歧視、算法偏見的情況,維護社會公平公正與健康有序發展;設計者和使用者要明確各自的責任,明確責任分配與追責機制,避免相關人員利用技術推卸責任;人工智能系統的運行,特別是算法部分,必須以透明性和解釋性為基本要求,從而最大限度地降低人工智能技術被濫用的可能性。
2.加強社會對人工智能技術的監管
人工智能技術的進步對現代科學技術具有革命性的意義,人工智能技術制度設計的基礎始終要堅持以人為本。技術設計應遵循基本規范,不能超越對個人及個人合法權益的控制,人工智能設計制度與政策的制定應以維護個人數據安全為基本原則。如果人工智能系統的開發利用給社會帶來一定的危害,應當有相應的問責機制或者規章制度來有效解決。因此,負責人工智能的相關主管部門應未雨綢繆,提前規劃制定好相應的規則以及追究責任的標準。在社會監管方面,在人工智能全面投入市場的初期階段,必須建立風險控制機制,及時更新與反饋,保證人工智能技術的使用合理、合規、合法;不管是政府的還是企業的人工智能監管機構和倫理審查委員會,都應給予一定的權力,即對智能系統數據和信息有一定的訪問權限,從宏觀層面把控人工智能的風險評估、測試和審計,確保其安全性與可靠性;整合各領域的優質資源和精英人士,開展跨學科跨專業跨領域的合作研究,確保人工智能算法設計符合社會倫理要求。同時,在智能機器與人類和諧共生的環境適應性方面,在將人類的價值觀念、情感需求等嵌入到智能系統中時,必須充分考慮到政治、經濟、文化、社會等各方面的因素,平衡一切未知的不確定因素,使人工智能系統的設計更加符合人類社會價值標準,更加符合社會發展要求。
3.構建人工智能產業的聯動機制
正確處理人工智能帶來的社會問題需要多方共同參與,構建人工智能產業的橫向聯動機制。第一,人工智能的設計者及生產商應該充分發揮自身的主觀能動性,發揮自己的專業特長,自覺保持對特定落地場景倫理問題的敏感度并提高自身道德倫理修養,在一定程度上能夠確保智能系統的穩定與安全,充分保護人的基本權利與尊嚴;第二,負責人工智能相關的技術審查和評估機構要自覺履行自己的職責,認真負責、嚴格行事,不斷提升人工智能系統與人類道德規范系統的兼容性,使人類與人工智能和平共處;第三,人工智能的使用者應維護自己作為消費者的權益,積極向技術工作者及相關機構表達自身對于人工智能技術的訴求,參與技術層面的反饋。
(二)政府層面的對策
1.構建人工智能治理體系
政府要自覺承擔起人工智能治理框架建設的責任,建立健全開放的政府治理框架和數據共享、算法優化的治理機制,提高政府社會治理的智能化能力和效率。隨著數字治理的不斷發展,數據已經成為影響國家戰略和社會生產的關鍵因素。在人工智能時代,算法作為關鍵的政策規則,應闡明由誰來制定、如何制定、由誰來監管和如何監管,并對其他相關問題進行明確規劃。因此,政府應遵循“人性化”的方法,建立一個新的基于數據和算法的治理框架,并規定一致的權力和責任。
2.完善社會保障體系
任何信息技術的更新都不可避免地會導致勞動力市場結構的變化。為了實現向人工智能時代的平穩過渡,社會保障體系需要進一步完善,以應對人工智能帶來的技術差異和不平等的風險。與以往農業革命和工業革命的影響一樣,智能革命將導致社會分化、利益分歧和社會分層。技術革命的社會成本和利益必須由承擔者公平分享,使所有社會成員的利益最大化,這不僅是實現社會公平和正義的正確途徑,也是加快智能社會治理模式轉型的重要保障。人工智能作為一種稀缺資源或公共產品,有可能造成分配上的不平等。特別是由人工智能的負面影響所造成的損失,需要政府來承擔、調節和再分配,以在一定程度上縮小不平等差距,降低被剝奪感,提高人們的參與感、體驗感和獲得感。因此,政府在關注經濟、文化、產業政策的同時,也要關注與人工智能相關的社會政策,給予人工智能充分的發展空間,完善人工智能時代的社會保障體系。
3.構建多層次的政府責權體系
中國特色社會主義進入新時代,習近平總書記提出了人類命運共同體的理念,建立面向世界的人工智能倫理話語體系,與人類命運共同體理念相呼應。一個有效的政府問責制度應該遵循多層次的治理方式。作為國家和人民利益的保護者,政府應根據以人為本的發展理念,在國家人工智能發展戰略的基礎上制定人工智能技術標準和法規,引導技術發展用于滿足人類生產和生活的需要,避免不平衡、不充分的技術發展。
(三)人類自身層面的對策
1.提高技術研發者的道德責任感
技術作為一種手段自身并沒有好壞之分,決定人工智能善惡的關鍵是使用技術的人。科學家作為技術研發的重要人物,本身應最大限度地履行自身的道德責任,在關注技術研發的同時還應關注社會風險問題,在更新技術應用的同時就應對其系統進行一定的權限設置,讓技術更多地在對社會有利的方面發揮作用。技術研發者在對人工智能進行設計時,首先要遵循“以人為本”的原則,把人的基本權利放在首位,要最大限度地保護人類的人身權、隱私權、財產權等各項基本權利,消除人工智能對特定群體的偏見;其次,對于人工智能社會問題的研究,要有前瞻性與遠見性,在人工智能產品投入使用過程中要進行全面客觀的社會倫理風險檢測與安全系數評估,從而預防人工智能技術的誤用、濫用;最后,技術研發者自身應保持高度的道德責任感,要合理開發人工智能的功能作用,在倫理設計中要厘清人工智能的使用責任等問題,特別是面對重大決策時,人類要保持高度的話語權,與人工智保持清楚的界限,對人工智能技術的發展要達到理性控制。
2.提升民眾技術文化素養
隨著人工智能技術的不斷普及,智能化的生產方式給我們的日常生活帶來了諸多便利,在藝術創作方面衍生出的關于人工智能的優秀影視作品也不計其數,如《黑客帝國》《人工智能》等更是流傳甚廣,描繪出了人工智能主宰人類的時代的各種可能性。雖然這只是部分創作者的一種藝術表現形式,但其代表的是一部分人的共同認知。這些影視作品使許多不了解人工智能技術的公眾對其感到恐懼及排斥,從而忽視人工智能對社會發展及人類生活的貢獻,進而盲目反對科技的發展進步。應通過各種途徑加強公眾對人工智能的認知,減輕民眾對人工智能的恐懼之情,從而減少部分民眾因為反對科技發展而做出的過激行為,激發公眾學習技術的興趣,倡導公眾利用技術去獲取更多信息、提升公眾的信息素養,這有助于減少信息落差從而進一步消除數字鴻溝。
3.打造良好的社會倫理輿論氛圍
“人機共存”的世界終將會到來,但當下,除了人工智能技術帶來的倫理問題外,民眾社會倫理問題還被納米技術、轉基因技術等各種輿論所包裹。這種現象是由多種因素共同造成的后果,但總的來說,還是由社會倫理機制建設不健全、不完善導致的。深入思考會發現,很多事情都有解決的辦法和預防的措施,這需要我們在與人工智能不斷融合發展的過程中,不能一味地反對技術,而應與人工智能構建良性的社會關系。對人工智能,我們既不能輕視,也不能畏懼,更不能回避,要通過腳踏實地的努力、辛勤的勞動、豐富的思想,發展扎實的技術,構建一個全新的二元世界。大眾應該認識到人類才是社會的主體,人工智能技術的走向取決于人類對人工智能的看法。人工智能與人類共存是未來社會的必然趨勢,這既是未來人工智能的發展方向,也是未來社會的發展藍圖。應該營造良好的社會輿論氛圍,為科技的發展提供良好的社會環境。
四、結語
人工智能技術的快速發展給人類帶來便利的同時,也給社會帶來風險。但目前人工智能的發展仍然掌控在人類手中,要充分認識人工智能發展和發展中存在的潛在問題,并采取相應的預防措施。政府和企業在內的各種社會組織,應充分自覺承擔自身的社會責任,團結協作、合作共贏,共同構建一個“共建共享”的人工智能治理體系,并在遵守人工智能設計原則的基礎上,依據相關政策和法規利用人工智能。公民要積極主動地參與政府的相關法律和規則的制定工作,監督政府和企業之間的權責落實情況,夯實自上而下和自下而上的雙向協同治理體系。同時,我們也要正視人工智能的利弊,對人工智能應該善用之,不能太過畏懼人工智能,應該創造一個更好的社會環境,讓人工智能更好地服務于社會和人類。
[參考文獻]
[1]劉海軍:《人工智能的文明作用及其發展悖論——基于馬克思〈資本論〉及其手稿的闡釋》,《馬克思主義研究》2021年第8期,第87—100頁。
[2]《習近平致第三屆世界智能大會的賀信》,光明網,www.qstheory.cn/yaowen/2019-05/16/c_1124502531.htm。
[3]《中華人民共和國國民經濟和社會發展第十四個五年計劃和2035年遠景目標綱要》,人民出版社2021年版。
[4]《習近平在中共中央政治局第九次集體學習時強調 加強領導做好規劃明確任務夯實基礎 推動我國新一代人工智能健康發展》,《黨建》2018年第11期,第1頁。
[5]蘇竣、魏鈺明、黃萃:《社會實驗:人工智能社會影響研究的新路徑》,《中國軟科學》2020年第9期,第132—140頁。
[6]孫偉平:《人工智能與人的“新異化”》,《中國社會科學》2020年第12期,第119—137頁。
[7]趙金旭、孟天廣:《技術賦能:區塊鏈如何重塑治理結構與模式》,《當代世界與社會主義》2019年第3期,第187—194頁。
[8]任劍濤:《人工智能與“人的政治”重生》,《探索》2020年第5期,第52—65頁。
[9]何哲:《人工智能技術的社會風險與治理》,《電子政務》2020年第9期,第2—14頁。
[10]張成崗:《人工智能時代:技術發展、風險挑戰與秩序重構》,《南京社會科學》2018年第5期,第42—52頁。
[11]周利敏、谷玉萍:《人工智能時代的社會風險治理創新》,《河海大學學報(哲學社會科學版)》2021年第3期,第38—45頁。
[12]楊凱:《人工智能時代的社會風險治理創新思考分析》,《數字技術與應用》2021年第9期,第162—164頁。
[13]王泗通:《人工智能應用的社會風險及其治理——基于垃圾分類智能化實踐的思考》,《江蘇社會科學》2022年第5期,第108—116頁。
[14]高昕:《人工智能對社會就業崗位的影響研究》,《河南工業大學學報(社會科學版)》2019年第6期,第70—74頁。
[15]張務農、賈保先、曾強等:《“代具”還是“代替”?人工智能究竟能否取代人類教師的哲學省思》,《教師教育研究》2021年第1期,第14—21頁。
[16]李倫、孫保學:《給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個維度》,《教學與研究》2018年第8期,第72—79頁。
[17][美]庫茲韋爾:《奇點臨近》,機械工業出版社2011年版。
[18]黃瑩:《人工智能時代隱私權保護問題研究》,《文化創新比較研究》2020年第12期,第86—87頁。
[19]吳玉潔、賀苗、吳一波:《疫情防控中的隱私困境及對策思考》,《中國醫學倫理學》2022年第8期,第843—848頁。
[20]肖志敏、沈興蓉、劉榮等:《我國醫學人工智能的應用現狀及倫理問題反思》,《衛生軟科學》2021年第7期,第87—89頁。
[21]宋建欣:《大數據時代人的尊嚴和價值——以個人隱私與信息共享之間的倫理抉擇為中心》,《道德與文明》2021年第6期,第107—114頁。
[22]洪濤、陶思佳、盧思涵等:《人工智能算法“社會性嵌入”的衍生風險及其協同治理》,《復旦城市治理評論》2022年第1期,第144—172頁。
[23]謝永江、楊永興:《人工智能時代下的算法歧視及其治理研究》,《北京郵電大學學報(社會科學版)》2022年第5期,第18—25頁。
[24]汪懷君、汝緒華:《人工智能算法歧視及其治理》,《科學技術哲學研究》2020年第2期,第101—106頁。
Research on Social Risks in the Development of Artificial Intelligence
SONG Yang, LI Hui
(School of Marxism, Xian University of Architecture and Technology,Xian 710055, Shaanxi, China)
Abstract:? With the advent of the fourth wave of the industrial revolution and the widespread adoption of cloud computing, deep learning, big data, and other technologies, artificial intelligence (AI) has become deeply integrated into all aspects of human life. This not only affects the development of science and technology but also poses challenges to social, economic, political, moral, and ethical fields, leading to social risks and hidden dangers. It is, therefore, necessary to actively explore coping strategies from technology, social management, and human aspects to form an effective concerted system with multiple parties participating. The system will enable rational control over AI, better deal with the social risks that AI may bring, explore the future development directions of AI, and promote positive interaction between “technology” and “society.”
Key words:artificial intelligence; social risks; high quality development; technical risks; ethical risks
(責任編輯劉永俊;責任校對孫俊青編輯)