999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

網絡公民教育:智能時代道德教育的新要求

2022-11-21 19:53:23馮建軍
倫理學研究 2022年3期
關鍵詞:人工智能素養

馮建軍

20 世紀60 年代以來,網絡技術逐漸得到運用,從計算機技術到人工智能,從運用于科學研究到全面運用于社會生活,網絡技術改變了人與人之間的關系,塑造了人類社會的一種新樣態——網絡社會。隨著網絡技術愈發具有智能性,網絡時代進入了智能時代。網絡技術作為工具和手段為人類賦能,極大地解放了人類,為人類生活提供便利的同時提高了效率,但也導致人類社會發展陷入困境。這些困境涉及社會、政治、哲學、倫理和道德等方面。2018 年10 月31 日,習近平在主持中共中央政治局就人工智能發展現狀和趨勢舉行的第九次集體學習時指出:“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。”[1]只有建立健全人工智能倫理規范,培養網絡公民的道德素養,才能更好地利用人工智能,使之更好地服務于人類生活,給人類帶來更大的自由和解放。

一、網絡公民:智能時代公民的新形態

公民最初指向個人與國家政治生活的關系,隨著社會的發展,公民范圍不斷擴大,以公民與自然的關系、公民與虛擬網絡的關系為基礎,出現了生態公民、網絡公民。人工智能時代,公民除了現實社會的形態,又增加了網絡公民的新形態。網絡公民是現實公民在網絡社會中的虛擬再現,具有現實和虛擬的雙重屬性。現實性是網絡公民存在的前提,虛擬性是現實性在網絡社會中的表現。

公民在網絡上面對兩種關系:一是作為網絡的使用者與網絡技術的關系,即人—機關系,可稱之為技術網絡關系;二是以技術網絡為中介的人與人之間的關系,即人—人關系,可稱之為虛擬社會網絡關系。在技術網絡關系中的公民稱為數字公民,在虛擬社會網絡中的公民稱為網絡公民。智能時代作為網絡發展的高級階段,其憑借的技術更加智能化,對技術和技術倫理要求更高。所以,智能時代的公民,既保留了網絡公民的樣態,又凸顯了數字公民的素養,但網絡公民依然占主導地位。本文把數字公民包含于網絡公民之中,視其為智能時代網絡公民的一種數字化特征。

網絡公民是公民在網絡社會的存在方式,它依然保持公民的特性:一是個人在網絡生活中具有主體性,有獨立判斷能力和個人隱私權;二是在網絡生活中具有公共性,有對他人的責任、義務和社會責任感。所以,網絡公民是網絡社會中權利、義務、責任的統一體。

網絡社會是虛擬社會,網絡公民關注的是網絡社會“我們如何在一起”,這是一種道德關系。智能時代,不僅有網絡社會中人與人之間的關系,還有人與人工智能之間的關系。人與人工智能之間存不存在道德關系?有學者認為,人工智能是人發明的智能機器,無論機器如何智能化,終究是人發明的機器,不是道德行為主體,也不具有道德判斷力,因此,人與人工智能之間不存在道德關系。李建華教授就明確反對將倫理邊界無限擴張、倫理實體無限擴張,主張要守住人的本真性,守住人倫世界的親緣性,守住倫理原則的自然性[2]。有學者擔憂,人工智能已不僅僅是技術化的工具,在超越人類的能力之后,可能會反過來控制人、奴役人,“缺乏道德規范引導的人工智能對于人類來說是一項走向‘邊緣’的危險技術”[3](136)。因此,需要給人工智能以倫理規約,需要人工智能倫理。有學者建議,在給人工智能建立一套安全可靠的價值觀念系統之前,最好先不要讓機器太聰明、太復雜、太自主,將智能機器的能力限制在單純計算或算法的領域,限制在工具和手段的領域[4](34)。

筆者認為,在智能時代人與人、人與技術的兩大關系中,人與人的關系是最根本、最主要的,人與人工智能的關系是次要的。因為人工智能是人類智慧的產物,是人造物,控制權掌握在人手中,所以,人與人工智能的關系問題,遠不如智能化后人與人的關系改變所帶來的問題更有緊迫性、嚴重性。人工智能的道德,反映的是以智能技術為媒介的人與人之間的關系,它改變了傳統的人與人之間的關系,使人與人之間的關系因為人工智能而具有新的特點。

智能時代,人與人的網絡關系表現為開放性、虛擬性、陌生性和多樣性。第一,開放性。網絡是一個開放的存在,網絡技術的智能化,使進入網絡世界的門檻越來越低,未來的網絡面向每一個人的生活,成為人們的日常生活不可或缺的一部分。第二,虛擬性。網絡社會是一種數字化生存,人與人之間的交往關系是以數字化信息為基礎展開的,是一種虛擬的關系。第三,陌生性。網絡參與者越多,網絡交往范圍越大,網絡關系的陌生性越強,匿名的交往雙方則處在“無知之幕”之后。第四,多樣性。隨著網絡參與的人增多,網絡越來越大眾化、草根化。每個人都可以參與網絡,發出自己的聲音,表達自己的觀念,使網絡社會呈現出價值的多元、多歧和多義。

網絡社會的開放、虛擬、陌生和多樣,是智能時代技術所造成的。這些特點決定了網絡參與的自主性、平等性、開放性,有利于公民參與公共生活,使弱勢群體有機會發出自己的聲音,在網絡輿論中發揮重要作用,但也會帶來潛在的風險和危害,如網絡詐騙、網絡欺凌、網絡色情、網絡侵權、隱私泄露等。與技術的快速發展不相適應,人工智能的倫理規范還不健全。因此,必須建立健全人工智能倫理規范,加強社會倫理治理。同時,必須從根本上提高網絡公民的道德素養,使之成為有責任的網絡公民。當然,網絡公民道德素養,回答的是什么素養的公民是網絡好公民的問題。因此,公民的道德素養,不只包括狹義的道德品質,作為一個好公民的標準,既包含狹義的道德品質,也包括能力方面的素養。正如斯金納所指出的,公民美德就是每個人作為公民最需要具有的一系列能力,這些能力能夠使我們自覺地服務于公共利益,從而自覺地捍衛我們共同體的自由,并最終確保共同體的強大和我們自己的個人自由[5](72)。

二、智能時代網絡公民的倫理風險

技術不是萬能的,人工智能在給人類生活帶來便利的同時,也會給人類帶來風險。習近平指出,“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”[1]。本文從網絡公民數字倫理和人際倫理兩方面分析可能的倫理風險。

1.技術網絡中的數字倫理風險

在人工智能中,人轉化為數字化存在。但人不是純粹的數字,只是利用數字實現信息的交流。因此,在這個過程中,就必須對數字所負載的信息做出倫理的要求。數據倫理是衡量數據與他者(包括人、社會等)之間關系的道理與準則,主要涉及數據采集、數據分析、數據處理、數據應用等方面所產生的道德問題[6](18)。數據倫理風險來自人對數據的使用,表現為數據使用給人帶來的倫理風險。

(1)侵犯個人隱私權和暴露個人信息

人工智能的運用,如刷臉識別、指紋識別等,以存儲和使用個人信息為前提。人工智能越來越多地運用于生活,個人的信息數據越來越多地開放和流動,必然會帶來對個人隱私的暴露和侵犯。在數字化背景下,“數字身份被定位,數字軌跡被跟蹤,數字行為被記錄,數字交往被公開,在某種程度上,物理世界的復雜人成為數字鏡像世界的透明人”[7](48)。購物記錄、行蹤軌跡、就醫咨詢等個人信息全部存儲于人工智能設備中,被置于公共平臺,為他人所掌控。個人的隱私信息是否被暴露,取決于掌控信息的平臺操作者。我們時常會接到一些商業廣告、騷擾電話,意味著個人的信息被泄露了。《2019 年全國網民網絡安全感滿意度調查統計報告》顯示,認為個人信息泄露問題“比較嚴重或非常嚴重”的占37.4%,表示曾遇到個人信息被侵犯的占58.75%。《2021 年全國網民網絡安全感滿意度調查報告》顯示,認為網絡對個人信息的保護效果評價比較好或好的占37.52%,但依然有26.62%認為不太好或非常不好,認為網絡侵犯個人信息的高達56.07%。參與調查的網民認為,目前數據安全保護方面存在的主要問題較多,網民對數據市場秩序、數據規范、數據應用等方面的問題比較擔憂[8](6-9)。

人工智能肯定要儲存個人的信息,問題的關鍵是技術平臺的操縱者如何保護用戶信息。如果他們不能有效保護用戶信息,非法使用用戶信息,則會引發個人隱私被惡意泄露及不正當使用、網絡詐騙、數據侵權等信息安全問題。2018 年浙江省紹興市公安機關破獲了全國首例利用人工智能技術實施的“特大侵犯公民個人信息案”,成功截留公民個人信息10 億組。經過追查發現,這些公民個人信息系嫌疑人從一黑客團伙處低價購買[9](5)。相應的管理機制和保護制度的缺失造成公民信息流露出去的情況大量存在。與此同時,一部分公民對個人隱私信息缺乏保護意識,越來越多的個人信息留在了網絡平臺上,這也是導致個人信息被泄露的重要原因。

(2)數字鴻溝和人工智能算法偏見導致不公平

第一,人工智能使用的“數字鴻溝”加大了現實社會中的不公平。

人工智能在交通、醫療和教育等日常生活領域得到了廣泛的運用,正在逐步改變我們的日常生活。但現階段,并非所有的人都是人工智能的“原住民”,存在一個接受程度差異的問題。因接受程度不同,一部分人不會操作智能工具,就成了人工智能使用的“弱勢群體”,導致智能時代出現新的數字鴻溝。數字鴻溝表面上看是智能技術使用者之間的不平等,深層次上則是社會階層在數字化領域的差異再現。

即便對于生長在智能時代的青少年而言,受人工智能成本和家庭條件限制,人工智能教育只是在一些教學條件非常好的學校開展,欠發達地區和普通學校則無力承擔人工智能教育的高昂成本,導致他們并不能真正享受高水平的人工智能教育。雖然國家在“全面實施教育數字化戰略行動”的背景下,打造了國家中小學智慧教育平臺,讓偏遠地區的孩子享受到優質教育資源,促進了教育公平,但這種公平也只是底線的公平。隨著智能化程度越來越高,人工智能市場化的影響也越來越大,以大數據、云計算、智能機器人為代表的高端技術需要學校向企業購買,高昂的費用最終都將落在學生家長身上,只有那些條件好的學校和家庭才能享受到優質信息化資源[10](50)。不同地區之間、不同城鄉之間、不同人群之間接受和享有人工智能教育是有時間差的,這也會在青少年學生中產生“數字鴻溝”,形成新的教育不公平。

第二,人工智能的算法偏見和歧視,加劇了社會不公平。

算法(AI Algorithm)是人工智能的關鍵技術,用于描述一種有限、確定和有效的問題解決方法。算法不僅是一項技術程序,更是一個政治與道德問題。作為一種計算程序,算法是由人編制的,數據處理者和算法編制者是權力者,他們可能把自己的偏見隱藏和滲透到算法之中,實現少數權力者對多數不知情者的支配。這就使得看似客觀、公正、科學的算法,實則蘊含著不公平的政治偏見、民族偏見、性別偏見等。對于使用算法的人來說,看到的只是算法的結果,不知道算法的決策過程,很多人在毫不知情的情況下承受著算法的隱性歧視。算法歧視(Algorithmic Bias)是指人工智能算法在收集、分類、生成和解釋數據時產生的與人類相同的偏見與歧視,主要表現為年齡歧視、性別歧視、消費歧視、就業歧視、種族歧視、弱勢群體歧視等[11](101)。比如在性別上,是以大多數男性或女性的典型特征為判斷依據,如果一個人不具有明顯的男性或女性特征,就無法識別或出現識別錯誤。美國麻省理工學院的一項研究表明:當使用各種人臉識別算法來識別性別時,算法將膚色較深的女性誤分類為男性的比例為34.7%,而對膚色較淺的女性的分類最大錯誤率不到1%[11](102)。算法是一種一般化、普遍化的判斷標準,它排斥了特殊性和個別性的存在。比如,人工智能的語言多是以女性的甜美聲音出現,這一聲音會強化女性為他人服務的刻板印象,造成性別偏見。因此,批判人工智能算法的人很多是女性和少數群體,他們更可能遭遇到算法上的不公正偏見。隨著使用人工智能的人的地位和階層高端化,弱勢的邊緣群體在人工智能的算法中就處于更不利的地位。因此,算法的偏見折射的依然是社會階層的歧視和不平等。

“算法歧視”既可能是算法制造者隱藏的偏見,也可能是大數據本身的局限性[12](25-31)。人工智能是建立在大數據基礎上的,當我們在網上瀏覽和查閱資料時,算法會自動記錄我們瀏覽和查閱的情況,掌握我們的閱讀興趣,為我們做出個性化的資料定制和閱讀服務,定向推送符合我們閱讀需要的和我們經常關注的主題。這種服務便利了我們的閱讀和研究,但減少了我們看到其他主題的機會,使得我們所獲取的閱讀資源愈加同質化,失去了對不同觀點的了解,也喪失了對資源的獨立判斷和批判性思維,最終會導致個人把自己的喜好作為唯一“正確”的認知。制造者的偏見就是由此產生的。說到底,算法就是以“一己之見”作為普遍性的依據,排斥和消解了個別性的存在。基于大數據的一般性、普遍性而建構的算法,必然帶來對個別性、特殊性的忽視。這是算法本身作為標準的局限性所在。

2.社會網絡中的人際倫理風險

智能時代人與人之間在網絡世界交往的開放性、虛擬性、陌生性,有助于促進交往的平等、開放和個性化,但也帶來了人際關系的倫理風險。

(1)網絡世界的后真相和公民理性的缺失

在網絡世界,人人都是“麥克風”,既可以接收信息,也可以發出信息,還可以制造信息。因此,網絡世界使人擺脫了身份、地位、權力的控制,不依賴任何權威,為人們平等參與網絡生活,展示自我、促進自我的形成提供了客觀條件。但是,我們也看到了另外一面,由于網絡本身的虛擬性、匿名性,有些人在網絡上的言論過于自我,發布一些過激言論,網絡成為一些人的吐槽之地,也成為謠言的滋生地。網絡上信息復雜,很多信息真假難辨。在網絡上,誰的標題吸引眼球,誰的嗓門大,誰的聲音甜美,誰就可以吸引流量、引起關注,真相似乎不再重要。網絡時代進入后真相時代(Post-truth era)。后真相不是真相消失了,真相永遠存在,不可能消失,但人們不再追求真相,不再相信真相,只相信感覺,只愿意跟著感覺走。后真相的實質是立場先于事實,人們先確立立場,然后挑選事實,再做出判斷。真相作為價值判斷的事實性前提,變得無足輕重,甚至不復存在。在后真相時代,真相在信息傳播中被忽視,情感煽動主導信息傳播,激情有余,理性不足,非理性宣泄在網絡上大量出現。還有一部分人在網絡上跟風、從眾,盲目轉發信息,人情式點贊,對信息不加思考,不辨別真假,直接導致了網絡虛假信息的泛濫。在后真相時代,信息多了,但真相少了。謠言有時披著真相的外衣大行其道。從傳播學上看,虛假信息比真實信息更有市場,虛假信息傳播得更遠、更快、更深、更廣泛①美國麻省理工學院的一項研究發現,平均一條假新聞大約需要10 小時就能到達1500 個Twitter 用戶,而事實真相則要60 小時才能達到這一數量。從平均閱讀量來看,虛假信息比真實的新聞能夠多傳達到35%的人群。從轉發量來看,真實的新聞幾乎從來沒有得到1000 人以上的轉發;但有1%的假新聞,卻能獲得多達10 萬人次的轉發。參見田鳳:《后真相時代的教育輿情研究》,《華東師范大學學報(教育科學版)》2022 年第3 期。。因為后真相時代虛假信息的獨特性更容易引發人們的關注,這對于那些缺乏理性判斷和辨別能力的人來說,把“新奇”與“真相”混淆,缺乏對真相的關切,驅動信任的不是真相,而是立場和情緒。后真相時代跟著感覺走,跟著情緒走,對自己的言論不負責任。加之,網絡生活缺少倫理和法律約束,缺少懲罰機制,加劇了這種情況的存在。

(2)網絡世界中的信任危機與公共性缺失

信任在人的生存和發展中具有原初性和基礎性地位,它使人獲得本體性的安全感,也是社會合作和團結的基礎。現實生活中,人有兩種關系:一種是熟人關系,一種是陌生人關系。熟人關系構成的熟人社會中人們因熟悉而相互信任。陌生人社會中人們因為不熟悉,人與人之間關系不確定,難以產生熟人社會的信任感。“陌生人沒有理由去信任,也沒有理由被信任。由于他們共有的行為虛無假設,他們互不了解,因此在彼此相遇時候是小心翼翼、互不信任的態度。”[13](52)陌生人社會,每個人都戴著面具,“佩戴面具是文明的本質。面具隔絕了那些佩戴面具者的個人情感,掩蓋了交往雙方的能力和熱情,從而使得純粹的社交成為可能”[14](356)。所以,陌生人社會的文明交往是相互戒備的。交往的純粹化,使得交往成為一種禮儀、一種虛情的表達,失去了人與人之間的真誠與信任。舍勒就指出,現代道德的全部根基是人對人的原則上的不信任態度[15](126)。維系現代社會的是契約、法律,而契約、法律本身就是人與人之間不信任的結果。

網絡社會也是一種陌生人社會。與現實的陌生人社會相比,網絡陌生人社會雖然擴大了交往對象,使交往超越了時空限制,為更廣的公共生活提供了可能,但也削弱了人們的實際交往。人機交流取代了人與人的直接交流,人與屏幕的關系替代了人與人之間的直接關系,看到的多,交往的少,導致人與人之間道德情感冷漠和公共性的衰落。正如桑內特所說:“觀眾變成了旁觀者,而不是見證者。因而觀眾不再將自身當作一種主動的力量,一種‘公共的’力量……越來越多人嘗試不再和其他人進行交往,以便能夠用沉默來保護自己,甚至為了避免情感泄露而試圖變得冷漠。在一個人人都戴著面具的世界……公共領域失去了那些愿意在里面表達情感的人們。”[14](362)現代社會“手機控”“低頭族”“刷屏族”就是道德冷漠和大眾孤獨的真實寫照。智能時代,雖然人們可以自由出入網絡空間,可以自由發聲,但網絡社會中的人更加原子化、孤立化,個人的聲音都是自我利益的表達,缺少對他人的關懷和責任,缺少公共性和價值共識。所以,網絡社會,每個人都可以參與其中,似乎公共性更多了,但徒具公共性的形式,無公共性的實質。

三、網絡公民道德的教育引導

盡管人工智能可能會給人類社會帶來這樣或那樣的倫理風險,但人類無法阻止技術的進步,我們需要的也不是阻擋人工智能技術的發展與應用,而是改變運用技術的人,提高他們的網絡道德素養。青少年一代是伴隨著新的智能技術成長起來的“原住民”,他們的網絡道德素養直接關系到人工智能的發展和運用,更加需要精心培育和引導。

1.開展數字公民教育,提升公民數字素養

數字化生存是智能時代人的一種存在方式,數字公民已成為智能時代人必須具備的一種新的身份,美國國際教育技術協會(International Society for Technology in Education,ISTE)把數字公民定義為“能夠踐行安全地、合法地、符合道德規范地使用數字化信息和工具的人”[16](69)。智能時代公民必須具備數字素養,不僅是提高公民的數字生活能力、滿足公民參與網絡生活之必需,也是公民參與社會治理、縮小社會數字鴻溝的可行之道。

培養數字公民,根本在于提升公民的數字素養。一般地說,數字素養是一個人認識數字、理解數字、使用數字所必須具有的正確價值觀、關鍵能力和必備品格。具體到數字公民,數字公民素養是數字時代公民利用各種數字技術進行學習、工作和生活需具備的關于安全、合法、符合道德規范地使用技術的價值觀念、必備品格、關鍵能力和行為習慣[16](72)。數字素養是數字公民素養的上位概念,但數字公民素養不完全包含于數字素養之中,數字公民素養突出“安全、合法、符合道德規范地使用技術”的特殊性。數字公民素養具體表現為數字態度與價值觀、數字技能、數字參與、技術知識、數字權責、數字意識、數字交往與協作、數字安全、數字公民身份管理、數字健康、數字法律等。

智能時代的文盲,不再是那些不會讀寫的人,而是缺少數字素養、不會使用數據的人。所以,必須提高公民基本的數字素養,即公民在數字化情境中,能夠認識和理解數字的意義,對各種數字信息進行甄別、判斷,能夠負責任地運用數字,參與網絡數字生活。數字公民素養的培養,需要數學、信息技術等學科教育,但公民數字素養不是純粹的數字運算,還需要數字的人文關懷、價值判斷,因此,對于如何使用數字,要有正確的價值觀,有數字權利與責任、數字安全與數字健康的意識。“數字公民教育之父”邁克·瑞布把數字公民教育分成尊重(Respect)、教育(Educate)和保護(Protect)三個核心主題,其中,尊重包括數字禮儀、數字接入和數字法律,教育包括數字素養、數字交流和數字商務,保護包括數字權利與責任、數字安全和數字健康[17](55-59,67)。邁克·瑞布的“教育”就是指數字公民掌握數字生活技能,能夠使用數字進行網上交流和網上交易等,沒有包括數字使用的倫理道德和法律要求。數字的尊重和保護同樣需要列入教育之中,使公民具有尊重數字和保護數字的意識、技能,安全、道德、負責任地運用數字。公民的數字素養不只是掌握數字技能,還包括能夠安全、道德、負責任地使用數字,后者是智能化時代道德教育的重要任務。當前,針對數字公民中存在的侵犯個人隱私權、暴露個人信息等倫理風險,更需要強化數字安全教育,增強數字公民的人本關懷、數字權責和法治意識,使其有道德地使用數字,促進數字更好地為人類美好生活服務。

2.加強網絡道德和科技倫理教育,提升公民的網絡道德和科技倫理素養

人工智能的倫理風險,不是技術本身的問題,而是技術的使用者、操作者和研發者的問題。網絡和技術倫理風險的預防需要從網絡使用者和技術研發者入手,對他們加強網絡道德教育和科技倫理教育,使他們遵從道德和倫理規范,以道德規約技術的運用和研發,最大限度地減少人工智能的倫理風險。智能時代呼喚科技倫理,需要把人工智能倫理列入公民道德建設之中,貫徹到各級各類教育中,按照教育對象的不同,分類實施,全面推進。

首先是加強網民的網絡道德教育,增強他們的網絡道德自覺,培養文明自律的網絡行為。網絡社會是虛擬的陌生人社會,缺少監管,加之,網絡倫理和道德建設沒有跟上技術發展的步伐,造成網絡社會道德和倫理的匱乏。一些缺乏道德自覺的網民,在缺少監督的情況下,在網上散布謠言和不良信息。針對此,一方面需要建立和完善網絡倫理規范,加強網絡空間的道德建設和網絡道德治理,引導廣大網民尊德守法、文明互動、理性表達;另一方面要加強網絡道德教育,引導網民明確是非觀念,樹立正確的網絡道德觀,增強網絡道德自律,自覺維護清朗有序的網絡空間。

其次,加強網絡和技術研發人員的科技倫理教育。大多數公民只是網絡和技術的使用者,真正決定互聯網和人工智能發展的關鍵少數是科學家和技術專家以及出資研究人工智能的企業家、資本家[4](34),他們對網絡研發和智能技術的態度,不僅關系到互聯網和人工智能的發展,而且關乎人類的命運。因此,必須把道德與技術放在同等重要的位置,引導這些關鍵的少數人能夠倫理地對待人工智能,開發符合倫理的人工智能技術,從事符合倫理的技術研發活動。日前,中共中央辦公廳、國務院辦公廳印發《關于加強科技倫理治理的意見》[18],明確提出要“堅持倫理先行”,將科技倫理要求貫穿科學研究、技術開發等科技活動全過程,自覺踐行科技倫理原則,包括增進人類福祉、尊重生命權利、堅持公平公正、保持公開透明。開發人工智能要有一個倫理底線,人工智能再怎么智能化都不能給人類帶來傷害。堅守這一倫理底線,用倫理限制技術的野蠻發展,合理控制人工智能的倫理風險,將人工智能塑造得更加符合人性。針對算法偏見和歧視,在倫理上要承認每個人的差異性和權利,平等地對待每個人,堅持公平公正、公開透明的算法編制,保證每個人的合法利益和尊嚴不受侵犯。因此,為應對發展人工智能帶來的倫理風險,必須加強科技人員的倫理教育。

此外,網絡開發平臺也非常重要。必須加強網絡從業人員的道德教育,使互聯網企業自覺履行主體責任,主動承擔社會責任,引導互聯網企業和網民創作、生產、傳播格調健康的網絡作品,堅決打擊在網絡上傳播有害信息的行為,依法規范管理網絡信息的傳播渠道。

3.開展公民理性教育,提高公民辨別真相的能力和公共理性能力

為什么在網絡時代會出現后真相?后真相不是沒有真相,而是輿論和媒體有意利用情感、態度引導了真相,所以,我們在網絡中了解的真相,不一定是真實的“真相”,而是輿論、偏見“編織”的后真相。在網絡中,“立場、觀點、偏見、謠言成為信息的重要來源,從而使事實在輿論場域中的角色越來越邊緣化”[19](31)。所以,對于后真相時代的公民來說,真相依然存在,但需要從后真相中予以仔細辨別。這就需要對公民進行理性教育,培養其追求真相、追求真理、不斷探索的精神,使他們有說真話、說實話的勇氣和辨別真偽、理性判斷的能力。具有理性是公民的基本要求,在防疫期間,政府反復提醒公民“不信謠、不傳謠、不造謠”,就是要求公民面對復雜的信息,要有辨別真假的意識和理性能力。

理性是公民的基本素質。公民作為公共生活的理性主體,要能夠在公共生活中運用理性,具有公共理性。羅爾斯認為,公共理性是平等公民的理性,是那些共享平等公民身份的人的理性。公共理性表現為三個方面:第一,作為自身的理性,它是公共的理性;第二,它的目標是公共的善和根本性的正義;第三,它的本性和內容是公共的[20](225-226)。從個人理性到公共理性,不變的是理性,變化的是站在什么立場上思考理性。個人理性立足于自我,每個人都立足于自我,如“人對人是豺狼”(霍布斯),“他人就是地獄”(薩特)。公共理性立足于“我與你”,立足于“我們在一起”,就是公共性。公共性不是泯滅自我,是“我與你”的公共性。因此,公民的公共理性,不是整體的,而是“我與你”共在的。“我與你”如何共在?這既要有每個人獨立的思考,又要有人與人之間道德和情感上的關懷。前者是一種理論理性、工具理性,后者是一種實踐理性、價值理性。公共理性既有理性成分,也有道德成分。公共理性站在“我與你”共在的立場上,既考慮自我,也考慮他者;既為自我,也為他者。公共理性是權利與義務、合作與競爭的共在關系。

羅爾斯把公共理性用于公民政治領域,盡管網絡公民關乎的不是公民的政治生活,但公共理性依然可以用在網絡社會。網絡是一個公共空間,網絡社會也是公共生活。建立和諧的網絡公共生活,網絡公民必須具有公共理性。培育公共理性,核心是在尊重每個人的基礎上,構建協商對話的機制。公民作為具有理性的獨立主體,其價值、態度必然有差異。關鍵是要放棄偏見,堅持平等、開放、包容的原則,通過對話、協商,求同存異,形成民主意識、契約意識、法治意識、公正意識,達成公民間的“重疊共識”。只有以公共理性的態度對待網絡社會中的人,才可能形成一個開放、文明、和諧的網絡公共空間。

4.開展公民公共性教育,重塑網絡公民的信任感

信任,被盧曼“作為人性和世界的自明事態的‘本性’”[21](1),也被吉登斯視為人的本體性安全,“構成了本體性安全感的基礎”[22](80)。它是社會合作和團結的基礎,“離開了人們彼此之間的一般信任,社會自身將會變成一盤散沙”[23](111)。信任產生于人與人之間的關系,意味著“真誠”“承諾”“踐約”。信任有著利益的交換,但不只限于利益,還有彼此的情感認同。信任是情感和理性的交合。熟人社會主要是人際的情感信任,陌生人社會是基于契約的理性信任。網絡的虛擬性增強了網絡陌生人社會的不確定性,這種不確定性甚至可能超出人的控制能力。加之,網絡社會的規范、懲罰機制尚未完善,在網絡上信任他人成為一種帶有風險的行為,智能時代由此進入了后信任時代。后信任時代,人們一方面不愿意信任別人,另一方面又迫切需要別人信任。因此,后信任時代需要重塑信任關系。“以契約精神為核心的制度信任是人類文明發展的成果,故是我們今天建立社會信任時必須吸收和借鑒的”[24](12),所以,在智能時代,網絡陌生人社會的信任關系的建立,一方面,它依賴陌生人之間的契約性信任,建立和完善網絡社會的契約關系,使網絡社會有法可循,有約可尊;另一方面,它是建立在抽象的“原子式個人”和“個體利益最大化”基礎上的,以利益博弈代替情感認同,以契約關系代替心理關系,人與人之間的利益博弈,很難談得上真正的友愛、信任和責任,因此,缺少心理相容和情感支持。作為一種本體性安全,每個人都渴望信任。網絡公民教育首先要改變網絡公民對陌生人的“妖魔化”與“不和陌生人說話”的態度,讓其以開放、友好的態度對待身邊的陌生人。信任建立在人與人互信的基礎上,信任危機產生于人與人之間的戒備,解除戒備才可能有信任。網絡社會盡管是虛擬的,但人工智能和大數據能夠記錄人們在網絡上的行為,甚至可以對人的信譽進行評估,我們可以根據大數據提供的信譽數據作為選擇網絡交往對象的依據[25](63)。所以,相對于現實陌生人社會而言,網絡社會陌生人之間通過大數據的記錄減少了交往的不確定性,為網絡社會中的交往提供了信任的心理安全閥。

網絡社會的契約關系雖然避免了人與人之間的利益沖突,但它也使社會成為一種原子式機械組合。理想的社會應該是一個有機的整體,它不僅有著利益契約關系,還有人與人之間的信任、責任和愛。有信任、責任和愛維護的社會,才更和諧、更溫馨、更具凝聚力。公民在公共生活中,每個人都對別人承擔義務和責任。義務是公民實現公共性的基本要求,公民享有權利就必須履行相應的義務,這是法律的要求。責任是一種主動擔當,是對義務的超越,是一種道德的境界。網絡是開放的,每個人都可以參與其中。網絡增加了每個人的自由,也賦予了每個人必須承擔的責任。公民不僅要對自己的網上言行負責,也要對他人負責,對社會負責,維持有序的網絡秩序,形成良好的網絡社會公共性。信任是公共性形成的前提,沒有信任,就沒有合作,也就沒有公共性可言。公共性意味著公民具有公共善、公共利益,遵守公共倫理和契約,履行各自的義務,承擔公共責任,增進公共福祉。責任和愛是公共性的“黏合劑”,也是公共性形成的保障。網絡公民的公共性教育,不應該只是契約教育,還應該包括責任教育、愛的教育、信任教育,這樣的教育才是完整的公共性教育。

網絡公民是智能時代公民的一種新身份,網絡公民教育也是智能時代公民教育的一種新形態。智能時代的教育,必須把網絡公民培養作為重要目標,把網絡公民素質納入學生發展核心素養和公民道德建設之中,加強公民數字素養教育、網絡道德和科技倫理教育、公民理性和公共性教育等,使之體現在學校的課程和教育教學活動之中,體現在公民的網絡生活之中。培育網絡公民的道德素養,教育引導是基礎,但僅有教育引導是不夠的,必須把教育引導、實踐養成、制度保障結合起來,建立和完善網絡制度和倫理規則,使網絡道德全面滲透體現到網絡生活之中,實現網絡道德的生活化、日常化,建立制度化、常態化的網絡實踐機制,推動網絡道德真正在網絡生活中落地生根,全面提升公民的網絡道德素養,使每個公民都成為有道德的網絡公民。

猜你喜歡
人工智能素養
我校新增“人工智能”本科專業
必修上素養測評 第五測
必修上素養測評 第六測
必修上素養測評 第四測
必修上素養測評 第三測
必修上素養測評 第八測
必修上素養測評 第七測
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 综合网天天| 成人久久18免费网站| 一区二区自拍| 日韩精品无码免费专网站| 亚洲经典在线中文字幕| 国产网站免费| 久久无码高潮喷水| 欧美日韩国产系列在线观看| 伊人久久综在合线亚洲91| 日韩在线中文| 午夜国产小视频| igao国产精品| 91精品视频播放| 狠狠色综合久久狠狠色综合| 伊伊人成亚洲综合人网7777| 亚洲看片网| 青青操国产视频| 人妻丰满熟妇啪啪| 婷婷色婷婷| 国产亚洲欧美在线人成aaaa | 精品无码人妻一区二区| 在线视频精品一区| 毛片一级在线| 久久综合激情网| 亚洲第一视频区| www.日韩三级| 日韩少妇激情一区二区| 亚洲福利视频网址| a天堂视频在线| 58av国产精品| 久久中文电影| 免费观看无遮挡www的小视频| 黄色在线不卡| 国产精品任我爽爆在线播放6080| 在线精品亚洲国产| 在线精品欧美日韩| 91在线精品麻豆欧美在线| 欧美午夜在线播放| AV片亚洲国产男人的天堂| 中文字幕无码中文字幕有码在线| 国产噜噜噜| 久久夜夜视频| 国产sm重味一区二区三区| 精品成人免费自拍视频| 狠狠五月天中文字幕| 永久免费精品视频| 极品av一区二区| 国产成人亚洲精品蜜芽影院| 色婷婷啪啪| 国产精品视频公开费视频| 怡春院欧美一区二区三区免费| 热re99久久精品国99热| 日本高清免费不卡视频| 伊人欧美在线| 四虎精品免费久久| 91精品情国产情侣高潮对白蜜| 成人精品在线观看| 美女毛片在线| 日韩欧美91| 97视频在线精品国自产拍| 日本国产精品| 亚洲人成色在线观看| 国语少妇高潮| 中文字幕永久视频| 国产在线观看一区精品| 亚洲欧美另类色图| 久久国产精品夜色| 亚洲Av激情网五月天| 亚洲AV无码久久精品色欲| 国产亚洲视频免费播放| 久久毛片基地| 亚洲午夜福利在线| 免费无码又爽又黄又刺激网站| 国产主播福利在线观看| 波多野结衣一区二区三区四区视频| 亚洲欧美日韩成人在线| 热99精品视频| 亚洲无码91视频| 久久精品人人做人人爽电影蜜月 | 91 九色视频丝袜| 夜夜高潮夜夜爽国产伦精品| 久久精品aⅴ无码中文字幕|