劉方喜
摘要:作為通用人工智能倫理第一原則,物種主義強調科學精神與倫理精神、人道主義與自然主義的高度統一,主張以人類物種的存續發展和每個人生物性智能的自由發展為目的。作為生物領域反物種主義偽善平等觀的倒轉,硅谷精英基于智能進化論的反物種主義既反人道主義,也反科學,在把通用人工智能所代表的社會智力、社會力量人格化乃至神化的同時也把精英自我神化。反物種主義者所宣揚的通用人工智能將與人類形成物種沖突的論調,是偏頗乃至虛幻的;社會達爾文主義導致的過度競爭,掌握大資本的少數個人對通用人工智能壟斷及其引發的人類內部越來越劇烈的社會沖突,才是威脅人類物種存續發展的真正風險。揚棄資本和社會達爾文主義,通用人工智能將有助于人類進一步征服自然力量,并使每個人的生物性智能得到自由發展。
關鍵詞:通用人工智能;倫理;物種主義;自然主義;人道主義;社會達爾文主義
中圖分類號:TP18 ? ? ? 文獻標識碼:A ? ? ?文章編號:1003-8477(2024)03-0012-09
一、通用人工智能與硅谷精英的倫理認知混亂
在以蒸汽機的使用為代表的能量自動化時代,“階級差別和特權將與它們賴以存在的經濟基礎一同消失”和“自由平等的生產者的聯合體”的生成,已展現為“十九世紀的偉大經濟運動所引向的人道目標”。[1](p67)在以計算機為代表的智能自動化極速發展的21世紀,這一人道目標更加清晰地展現出來,但與此同時,社會上卻出現了形形色色的反人道倫理認知。
OpenAI發布的ChatGPT開啟了人工智能(Artificial Intelligence,簡稱AI)研發的大模型時代,通用人工智能(Artificial General Intelligence,簡稱AGI)進入社會生活的愿景正在接近實現。與此同時,硅谷精英圈卻爆發了一系列事件,辛頓(Geoffrey Hinton)退出谷歌,千人在暫停大模型研發的公開信上簽名,辛頓與本希奧(Yoshua Bengio)、DeepMind的哈薩比斯(Demis Hassabis)、OpenAI的薩姆·奧爾特曼(Sam Altman)等共同簽署了簡短聲明:“減輕人工智能所帶來的滅絕風險應與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項(Mitigating the risk of extinction from AI should be a global priority alongside othersocietal-scale risks such as pandemics and nuclear war)。”[2]“滅絕”(extinction)一詞把AI所帶來的風險提到威脅人類物種存續的最高級。現有GPT-4等大模型的確存在侵犯隱私、版權以及欺詐等諸多風險,但尚未達到社會規模;而滅絕一詞表明,AI帶來的將不僅僅是社會規模,而且可能是物種規模(species-scale)的風險。因此,維護人類的存續發展,應成為與通用人工智能發展相匹配的倫理第一原則。但在硅谷精英佩奇(Lawrence Edward Page)看來,這是狹隘的物種主義(Speciesism),而他的反物種主義(Anti-speciesism)則建立在貌似“科學”的智能物種進化論基礎上,認為人類被超級AI取代乃至滅絕,是宇宙智能進化的必然——這種赤裸裸的反人道主義,暴露了硅谷精英的倫理認知混亂。
硅谷精英基于智能進化論的反物種主義,既是反人道主義的,也是唯心主義和反科學的。事實上,相較于通用人工智能與人類之間的物種沖突,在壟斷資本和社會達爾文主義支配下,AGI將引發的人類內部越來越劇烈的,進而威脅人類物種存續發展的社會沖突,才是真正的社會風險——ChatGPT發布以來,OpenAI、DeepMind的重大異動,就初步暴露出這種風險。作為硅谷兩大標志性的AI創新團隊,控制和規避通用人工智能可能產生的巨大社會倫理風險是它們初創時的努力方向之一,其重要策略是堅持獨立地位、不以營利為目的、與大資本保持一定距離。但在2023年,被收購后還保持相對獨立性的DeepMind被完全合并到谷歌;與此同時,在代表營利性力量的大股東微軟強勢介入下,已被代表非營利性監督力量的董事會開除的奧爾特曼,又迅速復職OpenAI的CEO,兩大資本巨頭最終成為大贏家。辛頓已意識到社會達爾文主義所產生的真實風險:“我過去認為風險是遙不可及的,但現在我認為這是嚴重的,而且相當近”,“如果你要生活在資本主義制度中,你不能阻止谷歌與微軟競爭”,“在資本主義制度中或者在國家之間競爭的制度中,像美國和其他國家這樣,這種技術會被發展出來”。[3]這種認識是清醒而科學的,但他似乎未能將這種科學認知貫徹到底:他似乎不相信AI進化論,認為目前的人工智能還沒有“原始人所具有的競爭性、攻擊性”,但接著又說,也許人類可以賦予它們道德原則,“但目前,我只是很緊張,因為我不知道在智力差距很大時,更聰明的東西被更不聰明的東西控制的例子。我想舉的例子是假設青蛙發明了人。你認為現在誰將負責,青蛙還是人民?”[4]
關于物種主義,馬斯克(Elon Musk)與佩奇曾有一場激烈辯論。馬斯克認為,除非建立防火墻,“否則人工智能可能會取代人類,讓我們這個物種變成螻蟻草芥,甚至走向滅絕”。佩奇反駁說,AI在智力乃至意識方面對人類的超越,只是進化的下一階段罷了,“也許有一天,我們甚至能夠將自己的意識上傳到機器中”。[5](p227)佩奇認為具有智力和意識的機器應該具有與人類同等的價值和地位,指責馬斯克是物種主義者,只偏袒人類這個物種的生存。盡管馬斯克與佩奇分歧很大,但立論基礎都是智能進化論,不同之處在于:佩奇認為機器淘汰人類是智能物種進化的必然大勢,而馬斯克看上去則是堅定地偏袒人類的物種主義者。
哈薩比斯曾向馬斯克指出人工智能的潛在風險:AI可能進化為超級智能,甚至可能做出消滅人類的決定。馬斯克也在不同場合多次強調,人類最大的生存威脅可能就是AI;他還認為,AI的未來不應該讓拉里(佩奇)說了算。馬斯克與奧爾特曼曾聯合創辦了以實現AGI為目標的OpenAI,并請原任職于谷歌的蘇茨克維(Ilya Sutskever)擔任首席科學家,試圖以軟件開源的方式對抗谷歌在這一領域日漸強大的主導地位;馬斯克希望有一種類似于linux版本的人工智能,不受任何個人或公司控制,以提升人工智能安全發展的概率,使人類從中獲益。但如前所述,2023年,DeepMind和OpenAI都受到了大資本的強勢控制。
《馬斯克傳》概括了硅谷精英關注的兩大問題:一是“在人工智能系統中,人類可以設置哪些防火墻和自毀開關,讓機器的行動與我們的利益保持一致?”[5](p229)馬斯克與奧爾特曼討論過“人工智能對齊”問題,旨在“讓人工智能系統與人類的目標和價值觀保持一致”,[5](p228)這關乎人與外部世界的關系;二是“誰又有資格決定這些攸關人類的利益是什么?”[5](p229)即誰說了算,這關乎人的內部關系。馬斯克希望人工智能不受任何個人或公司控制,但他創建的X.AI顯然由他個人控制。攸關人類利益的通用人工智能如何研發、應用,恰恰由馬斯克、佩奇等占有巨量金錢的少數個人和微軟、谷歌等少數巨型公司說了算——這才是真實的問題所在,但硅谷精英不會把關注點聚焦在這種真實的問題和風險上。
蘇茨克維似乎也信奉AI進化論,認為GPT-4可能已有意識,進而會威脅人類,希望通過創建“超級對齊”來化解風險。既然GPT-4等大模型會出現“幻覺”,那么,認為大模型已有意識,是不是蘇茨克維等人的幻覺?蘇茨克維重視人類外部的AI與人類價值觀的對齊,但似乎沒有看到人類內部個人與個人、群體與群體之間價值觀和利益的嚴重不對齊。GPT-4發布后,奧爾特曼在接受采訪時表示:“我對資本主義創造并捕獲無限價值的激勵有些害怕。”暗示這種利潤最大化和辛頓所說的過度競爭,才是AGI的真實風險點。采訪者說:“我熱衷于擬人化。當然,大多數人也是如此。”他回應道:“我們應該努力向人們解釋,教育人們這是一個工具,而不是一個生物。”“把生物性投射到工具上是危險的。”采訪者認為AI越像生物,越能在情感上操控人,奧爾特曼說:“它實際上是不能做的。”采訪者又提到了在科幻電影和現實中都存在的浪漫伴侶 AI,奧爾特曼則表示他對此并無興趣。[6]采訪者反復想把奧爾特曼帶向超級AI像人的認知,而后者堅決反對把生物性投射到工具上,堅持認為AI只是工具,人才是目的。
“將人工智能,特別是擁有與人類相似心智系統的‘強人工智能仍作為人類工具使用的觀點遭到了‘反物種主義(Anti-speciesism)的抨擊。”[7](p88)這種反物種主義,一者要求硅基智能物種與碳基智能物種(人類)平等,一者要求動物與人類平等。作為生態社會主義先驅者,本頓把馬克思稱作“物種主義者”,認為“完全發達的人文主義等同于自然主義”一語所倡導的人道主義等同于物種主義。[8](p13)馬克思的原話是:“這種共產主義,作為完成了的自然主義,等于人道主義,而作為完成了的人道主義,等于自然主義。”[9](p120)強調人道主義與自然主義高度統一,是物種主義的基本理念。本頓等基于自然主義的反物種主義,割裂了與人道主義的有機聯系,等同于反人道主義;而佩奇等鼓吹的反物種主義則是這種極端生態主義的倒轉,反人道主義色彩更濃——在把人道主義作為人類倫理基本原則的當代社會,這些反人道主義論調卻以激進生態主義、激進技術主義為幌子而大行其道!
康德把倫理“最高的實踐原則”[10](p436)設定為:其一,“無論是你的人格中的人性,還是其他任何一個人的人格中的人性,你在任何時候都同時當做目的,絕不僅僅當做手段來使用”[10](p437)——這關乎人類內部關系,強調“任何一個人”是目的而不是手段;其二,“無理性的存在者”作為“手段”被“叫做事物”,而人作為“理性存在者”,“本性就已經使它們凸顯為目的自身”,“別的東西都應當僅僅作為手段來為它服務”[10](p436)——這關乎人類與物的關系,強調人是目的、物是手段。由以上兩點可以概括、推導出第三點,即從倫理責任主體看,負責任的主體和被負責任的主體都是人——這就是文藝復興以來形成的人道主義倫理第一原則,是在批判中世紀把人當作神的手段的基礎上建立起來的。現在佩奇等人要倒轉這一倫理原則,把人重新當作手段,當然不再是神而是某種超級智能的手段,可謂中世紀神學加持社會達爾文主義的當代翻版!
從人類內部關系看,“代表積極精神的少數杰出人物與代表精神空虛的群眾、代表物質的人類其余部分相對立”,“每一個單個的人是否愿意去冒充這樣的‘精神代表者,這要取決于他的地位和想像力”;[11](p108)“世外的批判不是現實的即生活在現代社會之中并同這個社會共甘苦的人類主體所特有的活動”,[11](p204)“批判家擺脫了一切人間的激情,他成了一個神人”,“他為自己建立起一個神圣家族”。[11](p205)本頓、佩奇等都冒充某種非人類的精神或智能的代表而把自我神化,只不過本頓等主要取決于想象力,佩奇等資本精英則主要取決于地位,但他們在把自我神化、自視為“神圣家族”的“神人”而不關心人類其余群體的反人道主義上卻是相通的,體現了狹隘的精英主義的傲慢,表征的不過是資本主義解體過程中精英的混亂倫理認知而已,而這其實一直伴隨著資本主義的發展進程。
二、反物種主義平等觀的偽善與物種主義倫理原則的建構
恩格斯“很能理解英國人對活體解剖的偽善的憤怒”,[12](p263)他指出:“資產階級在牧師的領導下,掀起反活體解剖運動”,攻擊醫生約翰·西蒙并“干涉他的專業部門”,而西蒙是“樞密院的衛生視察員”“全不列顛衛生警察的首腦”,是“忠于自己的職責、態度認真的老官吏中的最后的一個”,“資產階級的利益往往是他履行自己職責時的主要障礙,他不得不經常反對資產階級的利益”,“他對資產階級的本能的憎恨是很強烈的”;西蒙在國際醫學會議上的發言,是“醫學科學對資產階級的真正的起訴書”;面對攻擊,西蒙“不象微耳和那樣,用軟弱無力的說教來回答,而是把矛頭對準敵手,向他們進攻:他把資產階級對人民群眾做大規模的商業性實驗與醫生對動物做一些科學實驗相對比,他這就第一次把問題說到點子上了”。[13](p215)“生產過程的革命是靠犧牲工人來進行的。這就像解剖學家拿青蛙作實驗一樣,完全是拿無價值的生物體作實驗。”[14](p526)——西蒙之所以“說到點子上”,是因為他把現實的人—人關系(資產階級對人民群眾做大規模的商業性實驗)與人—非人(動物)關系(醫生對動物做一些科學實驗)進行了對比:資產階級和牧師對活體解剖憤怒的偽善體現在,只強調科學解剖實驗對動物的傷害,而無視大規模商業性實驗對人民群眾的傷害!
西蒙說:“雖然我的公務上的觀點僅限于醫學方面,然而最普通的人道不容許我忽視這種災禍的另外一面”,即“人像野獸而不像人”。[14](p759)動物保護主義者只關注野獸而無視“最普通的人道”,這依然適用于批判當今西方知識精英的倫理認知混亂:極端生態主義者要賦予動物與人類平等的權利,人工智能領域反物種主義者要賦予“擁有與人類相似心智系統的‘強人工智能”與人類平等的倫理主體地位,把這種論調與全世界依然有數億基本生存權利都沒有得到保障的饑餓人口的現狀相對比,其偽善就暴露出來了。西蒙指出:“工人要堅持他們首要的健康權利”,但“這實際上是辦不到的”,“他們也不可能從衛生警察官吏那里得到任何有效的幫助”。[14](p535)同樣,要解決通用人工智能可能造成的大規模失業等問題,勞動者、科技專業精英、代表資本主義國家監管力量的官吏都無能為力,只能依靠一場廣泛而深刻的社會變革。
“那種實際上淪為骯臟的唯物主義、使國家的大多數人變為‘商品、變為‘交換價值、使他們屈服于整個交換價值的物質條件的學說,當它在別的國家面前蔑視惡的‘交換價值的‘唯物主義而自己似乎只關心‘生產力的時候,它就是一種無恥的偽善和唯心主義的粉飾(欺詐)……他們關于文明和生產力的空談,只不過是對狹隘的利己主義傾向的粉飾。”[9](p255)這種空談就是:“交換價值、貨幣,似乎總是外在目的;可是生產力似乎是由我自己的本性中產生的目的,即目的本身。”如此空談者就“以詞句為滿足”而“不為隱藏在夸張詞句后面的骯臟現實而煩惱”[9](p261)——這個現實就是:“生產力從一開始就是由交換價值決定的。”[9](p263)“由我自己的本性中產生”的生產力就只是獲得交換價值的手段,而不是目的,而“為生產而生產無非就是發展人類的生產力,也就是發展人類天性的財富這種目的本身”。[15](p124)“人作為自然存在物,而且作為有生命的自然存在物”,具有“自然力、生命力,是能動的自然存在物;這些力量作為天賦和才能、作為欲望存在于人身上”[9](p167)——這就是“人類天性的財富”。一方面,存在于人身上的作為天賦和才能的力量發揮出來,是人作為能動的自然存在物的欲望,因而也可以成為人的生命創造活動的目的本身;另一方面,“人只有憑借現實的、感性的對象才能表現自己的生命”,“他需要在他之外的自然界、在他之外的對象”[9](p168)——這就是徹底的自然主義和人道主義對人的基本理解。而割裂跟自然主義的有機聯系,人的天賦和才能就成為與人身、自然界無關的抽象力量——這正是精英主義對人及其力量的抽象唯心主義的理解。
康德強調不能把人當作手段,而資本主義雇傭勞動的基本特征是:“生命的表現——生命活動——只是手段;與這種活動分開的生存才是目的”;[16](p635)工人“不是自由地發揮自己的體力和智力,而是使自己的肉體受折磨、精神遭摧殘”。[9](p93)“勞動力或勞動能力”是“人的身體即活的人體中存在的、每當他生產某種使用價值時就運用的體力和智力的總和”;[14](p195)勞動就是“人類勞動力在生理學意義上的耗費”,[14](p60)是作為“人體的機能”的“人的腦、神經、肌肉、感官等等的耗費”;[14](p88)而共產主義將使每個人的“體力和智力獲得充分的自由的發展和運用”[17](p411)——康德“人是目的”的先驗原則,就轉化為經驗原則:每個人生物性體力、智力的自由發展和運用是目的。而這已得到經驗事實的證明:以蒸汽機為代表的能量自動化機器代替人的體力后,人并不是不發揮體力,只不過不再把體力發揮作為創造物質財富的手段,而是當作目的本身了,二戰后廣泛興起的大眾體育活動,大致就表明了這一點。同樣,當作為智能自動化機器的通用人工智能代替人的智力后,人也不會不再發揮智力,只不過不再把智力發揮作為創造物質財富的手段,而是將其當作目的本身——這也有經驗事實比如人業余的智力游戲等方面的證明。因此,與通用人工智能相匹配的物種主義倫理原則就是:以每個人生物性智能自由發揮為目的,而AGI只是手段——這就是作為人道主義與自然主義高度統一的物種主義倫理第一原則。
反物種主義主張人類與動物平等的“科學”依據是兩者生物性差異不大(如強調人類與猿類的大腦差異不大),但這種判斷似是而非。馬克思強調:“勞動資料的使用和創造,雖然就其萌芽狀態來說已為某幾種動物所固有,但是這畢竟是人類勞動過程獨有的特征。”[14](p210)人是“制造工具的動物”[14](p210)——人不僅為體力勞動創造外在于身體的非生物性工具,而且也為智力勞動創造外在于身體的非生物性、社會性工具即文字等符號——人類與其他動物的物種差異,絕非只是大腦的生物性差異,更是文字符號等社會性、非生物性差異,基于片面自然主義的反物種主義理念,并不符合人類發展史的基本經驗事實。
從人—自然(物)關系看,“在實踐上,人的普遍性正表現在把整個自然界——首先作為人的直接的生活資料,其次作為人的生命活動的材料、對象和工具——變成人的無機的身體”,[9](p95)這是人發揮體力、智力的物的條件。從人—人關系看,私有財產使發揮自身體力、智力的勞動者喪失這些條件,體力、智力發揮活動反而成為生產資料這種物的手段。針對這種狀況,“共產主義作為私有財產的揚棄就是對真正人的生活這種人的不可剝奪的財產的要求,就是實踐的人道主義的生成”,[9](p174)如此,財產作為物就是手段,而人的體力、智力的發揮是目的,這就是與“完成了的自然主義”相互統一的“完成了的人道主義”;“無神論作為神的揚棄就是理論的人道主義的生成”,人就不再是神的手段而成為目的,這就是康德等的“理論的人道主義”,而“共產主義則是以揚棄私有財產作為自己的中介的人道主義”,[9](p174)在實踐上徹底貫徹人道主義,就必須揚棄私有財產。
反物種主義還把人類在外部上與動物的不平等,與人類內部的種族、性別不平等相混淆,無視人類內部另一種意義上的“種族”不平等:“最低的和唯一必要的工資額就是工人在勞動期間的生活費用,再加上使工人能夠養家活口并使工人種族不致死絕的費用”,是“同‘普通人即畜類的生活水平相適應的最低工資”。[9](p49)在此意義上,作為人類物種“亞種”的“工人種族”與動物是平等的。生產資料不歸勞動者所有,就形成了最大和最基本的不平等,即勞動者與非勞動者的不平等。
在資產者眼中,動物與勞動者是平等的:“為了破除美化‘生產力的神秘靈光,只要翻一下任何一本統計材料也就夠了。那里談到水力、蒸汽力、人力、馬力。所有這些都是‘生產力。人同馬、蒸汽、水全都充當‘力量的角色。”[9](p261)馬力與人力平等,馬與人類勞動者平等,如此就“把人貶低為一種創造財富的‘力量”,“資產者把無產者不是看作人,而是看作創造財富的力量。資產者還可以把這種力量同其他的生產力——牲畜、機器——進行比較。如果經過比較,說明人是不適宜的,那么以人為承擔者的力量必然被以牲畜或機器為承擔者的力量所代替”。[9](p262)同為創造財富的生產力,動物、機器就與人類勞動者平等,反物種主義者完全忽視這一點,他們要解放動物,但也被作為手段的人類勞動者難道不應該首先得到解放嗎?“農奴的主人是野蠻人,他把農奴看做牲口;工人的老板是文明人,他把工人看做機器……對前一種人的奴役不是偽善的,是明顯的,公開的,而對后一種人的奴役卻是偽善的,狡猾地蒙蔽著被奴役者本人和所有其他的人,這是比舊的農奴制更壞的神學的奴隸制。”[11](p471-472)當今人工智能也充當創造財富的“力量”角色,反物種主義者無視這種經驗現實:在當代資產者眼中,同為智能力量承擔者,人工智能與人類智力勞動者也絕對平等,經過比較,如果作為生物智能體的人是低效的,那么,人類必然會被人工智能代替而導致失業——這正是當今社會所昭示的大勢,而由此引發的劇烈沖突將威脅人類的存續發展。
三、社會達爾文主義批判與通用人工智能物種主義倫理原則的踐行
以通用人工智能為工具或手段,在人類內部關系上以每個人生物性智能的自由發展為目的,在人類外部關系上以人類物種存續發展為目的——不使這種倫理第一原則停留在詞句上,就要把人的智力發展置于現實的自然史、人類史、社會史中加以審視。
以每個人生物性智能自由發展為目的之原則,關乎人—自然(物)、人—人、個體—類等諸種關系,而出發點、歸結點是人類個體:“任何人類歷史的第一個前提無疑是有生命的個人的存在。因此第一個需要確定的具體事實就是這些個人的肉體組織,以及受肉體組織制約的他們與自然界的關系”;[18](p23)“對于各個個人來說,出發點總是他們自己,當然是在一定歷史條件和關系中的個人”。[18](p86)從人類與動物關系看,“可以根據意識、宗教或隨便別的什么來區別人和動物”,而“生產他們所必需的生活資料”的活動把人和動物區別開來。[18](p24)從人類內部關系看,“生產力和社會關系——這二者是社會的個人的發展的不同方面——對于資本來說僅僅表現為手段”,[19](p101)“個人相互間的社會聯系作為凌駕于個人之上的獨立權力,不論被想象為自然的權力,偶然現象,還是其他任何形式的東西,都是下述狀況的必然結果,這就是:這里的出發點不是自由的社會的個人”[20](p148)——之所以如此,是因為個人社會聯系和生產力被當作創造財富的手段。而“代替那存在著階級和階級對立的資產階級舊社會的,將是這樣一個聯合體,在那里,每個人的自由發展是一切人的自由發展的條件”;[21](p53)“生產勞動給每一個人提供全面發展和表現自己的全部能力即體能和智能的機會”[22](p311)——每個人體力、智力的自由發展成為目的本身,普遍的平等和自由得以實現。
建立在以個人生產力、社會關系為手段基礎上的資本主義共同體,就是貨幣共同體,每個人“既不從屬于某一自然發生的共同體,另一方面又不是作為自覺的共同體成員使共同體從屬于自己,所以這種共同體必然作為同樣是獨立的、外在的、偶然的、物的東西同他們這些獨立的主體相對立而存在”。[19](p355)——在前資本主義自然發生的共同體中,個人從屬于共同體,既不獨立,也不自由;在貨幣共同體中,個人憑借“物的東西”獲得抽象獨立,但這種抽象共同體也不從屬于個人,個人雖獨立但不自由;只有在取而代之的以各個人自由發展為一切人自由發展的條件的聯合體中,共同體才從屬于每個人,因而每個人既獨立也自由。從力量上看,“個人相互間的社會聯系作為凌駕于個人之上的獨立權力”,就表現為個人力量從屬于抽象的社會力量,個人力量的發展就成為資本所代表的抽象社會力量發展的手段,而在取而代之的社會聯系中,每個人力量的自由發展既是條件,也是目的。
“每個個人和每一代當作現成的東西承受下來的生產力、資金和社會交往形式的總和,是哲學家們想像為‘實體和‘人的本質的東西的現實基礎,是他們神化了的并與之作斗爭的東西的現實基礎”;[18](p43)“利己主義的財產”只是“神化一切的幻想變了形的普通的或資產階級的財產而已”[18](p425-426)——把發達生產力和資產階級財產神化,乃是現代唯心主義產生的根源。但是“凡是把理論導致神秘主義方面去的神秘東西,都能在人的實踐中以及對這個實踐的理解中得到合理的解決”,[18](p5)唯心主義各類神話也會被戳破。外在于個人的非個人力量包括自然力量和社會力量,在生產力不發達的狀況下,人主要把尚未征服的自然力量神化和人格化——這是宗教唯心主義產生的根源。而在“發展為自動化過程的勞動資料的生產力要以自然力服從于社會智力為前提”的狀況下,[19](p105)被神化和人格化的就主要是社會力量,由此形成的就是崇拜代表抽象社會力量的金錢的拜物教,而這是今天把代表強大而具體的社會智力的通用人工智能人格化乃至神化的直接社會根源。
從自然史看,單憑體力,人類在物種進化中可能會被淘汰,當然也無法征服自然力;人是憑借智力獲得優勢地位的,但這種智力只是自然進化的產物,也無法征服自然力;文字等符號在外在于個人身體的意義上具有非生物性,在作為人與人交流工具的意義上又具有社會性,人正是憑借這種非生物性的智能工具及其產生的社會智力,開始征服自然力的——這是生物學、人類學的基本經驗現實。生物學實驗和人類學田野調查研究證明:即使在不發達原始部落中,人也已掌握語言能力;而再高級的猿類也無法真正掌握上述能力。正是語言能力使人類每個種族、民族、個體同屬于一個物種,這是人類內部平等的科學依據。“狼孩”等現象亦表明:具有先天語言能力的孩童,如果在獸群中長大而喪失了學習語言的有效機會,其語言能力的發展就會受到很大限制,也就是說即使具有人腦這種先天的智能基礎,個人也并不必然獲得掌握并使用語言尤其文字的能力。反物種主義的最大問題就是無視這種廣泛而基本的經驗事實,把智能只歸功于人腦,忽視文字等符號工具和社會智力在人類及其個體智力發展中的基礎性作用。
“當人的思想脫離了自己本身和自己的經驗關系以后,人就可以被理解為盛納這些思想的簡單容器”;[18](p318)“現實的個人只是偶性,只是批判的批判借以表現自己為永恒實體的人間的容器”;[11](p204)“現實的人類個體反倒僅僅變成了這一形而上學的主體的體現者”[11](p101)——個人身體成為非個人力量如永恒實體、絕對精神、宇宙智能等等的容器和體現者,這是身心二元論唯心主義產生的根源。而徹底的唯物主義、自然主義強調意識、精神等與個人生物性身體的不可剝離性。“在德國,對真正的人道主義說來,沒有比唯靈論即思辨唯心主義更危險的敵人了。它用‘自我意識即‘精神代替現實的個體的人”[11](p7)——人工智能領域的反物種主義實際上就把現實的人類個體視作自我意識、宇宙智能的容器,是“唯靈論即思辨唯心主義”的當代翻版。硅谷理論精英庫茲韋爾說:“我同意椅子看起來沒有意識,但是對于計算機未來可能會具有和人類相同的復雜性、深度和微妙的變化并具備人類的能力,我不認為我們可以排除這一可能性。”[23](p280)“一個像人腦一樣復雜的系統是否存在意識并不是顯而易見的。事實上,這個系統可能是對真正人腦的組織和因果動力的直接復制。”[23](p278)強調智能進化將使人類“從生物過渡到非生物”,“成為機器人”[23](p228)——反自然主義、反人道主義于此登峰造極!
賦予通用人工智能以“自我意識”,就會將其所代表的社會智力人格化乃至神化,于是認為AGI將與人類形成物種沖突的觀點便大行其道,但這種觀點是偏頗乃至虛幻的。事實上,真實的沖突恰恰存在于人類內部社會關系中:“達爾文并不知道,當他證明經濟學家們當做最高的歷史成就加以頌揚的自由競爭、生存斗爭是動物界的正常狀態的時候,他對人們,特別是對他的同胞作了多么辛辣的諷刺。只有一種有計劃地生產和分配的自覺的社會生產組織,才能在社會方面把人從其余的動物中提升出來,正像一般生產曾經在物種關系方面把人從其余的動物中提升出來一樣。”[22](p479-480)當社會智力還不夠強大時,人類與其余動物之間存在動物式生存競爭;當社會智力足夠強大時,人類就“在物種關系方面把人從其余的動物中提升出來”,與其余動物之間也就不再存在動物式生存競爭了——現代資本主義通過“發展為自動化過程的勞動資料的生產力”做到了這一點,但卻把動物式生存競爭搬到人類物種內部社會關系中,由此就催生了強調過度競爭的社會達爾文主義。
把動物式生存競爭搬到人類內部,人類個體與類之間似乎就出現了一種“亞種”即階級:“個人的這種發展是在歷史上前后相繼的等級和階級的共同的生存條件下產生的”,“在這些個人中有類或人在發展”,“在這以后就可以把各種等級和階級理解為一個普遍概念的一些類別,理解為類的一些亞種”,于是“資產階級在構成這個階級的個人尚未存在之前就已經存在了”,似乎“階級是先存在的”。[18](p85)在私有制下,人類物種分化出了“亞種”,即“勞動階級種族”和“非勞動階級種族”,在非勞動階級看來,他們的地位是“先存在的”,就像自然物種進化中所形成的人類物種和其余物種一樣自然而然——這就是社會達爾文主義的基本理念。然而,隨著階級及其基礎私有制的消亡,在以各個人自由發展為一切人自由發展的條件的聯合體中,個體和類的本質就會在沒有隔閡、障礙中得到同時全面實現;反過來說,階級這種亞種恰恰是個體與類本質同時得以全面實現、人人自由平等的主要障礙。
“有如此‘好理由來否認自己周圍一代工人的苦難的資本,在自己的實際活動中不理會人類在未來將退化并將不免終于滅絕的前途。”[14](p311)“我死后哪怕洪水滔天!這就是每個資本家和每個資本家國家的口號。因此,資本是根本不關心工人的健康和壽命的,除非社會迫使它去關心。人們為體力和智力的衰退、夭折、過度勞動的折磨而憤憤不平,資本卻回答說:既然這種痛苦會增加我們的快樂(利潤),我們又何必為此苦惱呢?不過總的說來,這也并不取決于個別資本家的善意或惡意。自由競爭使資本主義生產的內在規律作為外在的強制規律對每個資本家起作用。”[14](p311-312)在薩瑟蘭郡,“居民已退化成瘦弱的種族了”,“西區的男人成了人類的織工……工人的健康被斷送了,再過幾代這個種族就會退化”。[14](p311)資本主義的利潤最大化和自由競爭使“工人種族”面臨退化乃至滅絕威脅,當然也會使寄生于“工人種族”的人進而使人類物種面臨滅種,這種滅絕風險之所以沒有成為現實,只是由于社會有意識的反作用:“工廠立法是社會對其生產過程自發形態的第一次有意識、有計劃的反作用。”[14](p553)
在資本框架下,能量自動化機器不僅使工人體力退化,而且還造成智力荒廢:“把未成年人變成單純制造剩余價值的機器,就人為地造成了智力的荒廢,——這和自然的無知完全不同,后者把智力閑置起來,并沒有損壞它的發展能力、它的自然肥力本身。”[14](p460)而當今人工智能尤其是通用人工智能也將人為地造成成年人的智力荒廢,即被人工智能或通用人工智能取代后,成年人的智力也不能得到現實的發展而荒廢。把人的智力比喻為“自然肥力”,突出了個人智力的自然性、生物性,而這種個人生物性智力的發展,乃是人類物種的目的本身。佩奇認為超級機器智能淘汰人類,是智能進化規律的必然,庫茲韋爾認為生物性人類成為非生物性機器人也是智能進化規律的必然,而馬斯克試圖通過腦機接合等所謂智能增強技術使人類可與機器競爭——在他們看來出于競爭需要而使人類變種,沒什么大不了的。可以說,無視滅種和變種危害的荒謬認知,都無視了自然主義與人道主義高度統一的物種主義倫理基本原則。
滅種論和變種論其實分享著相通的理論預設:個人生物性智力與外在于個人的非生物性的社會智力、符號智能、機器智能之間必然存在對立和競爭。但這并不符合經驗事實:在個人使用社會性符號的智能活動中,個人大腦生物性智能通過社會性符號得以發揮或展現,由此形成的非生物性符號智能并不必然與個人對立。私有制、分工造成的后果是:失去生產資料的絕大多數個人終生從事體力勞動,掌握物質生產資料的少數個人可以不從事體力勞動,并且同時也壟斷了精神生產資料如文字符號等,從而使自身的大腦智能獲得發展,沒有時間也不掌握精神生產工具的絕大多數個人大腦智能的發展就受到限制——正是這些社會性因素,造成了少數個人與絕大多數個人之間的智力不平等。因此,基本的對立并非個人智力與社會智力的對立,而是少數個人智力得到發展與絕大多數個人智力得不到充分發展之間的對立,當每個人的生物性智力都得到自由發展時,個人智力與通用人工智能等強大的社會智力也就不再對立。
踐行通用人工智能物種主義倫理原則,需要通過基于經驗現實的科學辨析,破除各類宗教唯心主義神話:早期的宗教、神話把人類尚未征服的自然力量人格化,待到科學認識自然力量運作的規律,并通過累積發展起來的強大社會力量、社會智力征服自然力量后,這種人格化的神話就失去了存在基礎。現在把通用人工智能物種化、人格化,其實就是把人類累積起來的強大社會力量、社會智力人格化,而這又與代表強大抽象的社會力量的資本的人格化密切相關,而資本的人格化只是表明:少數個人即資本家,經由對人類累積發展起來的強大社會力量的壟斷而支配了絕大多數個人。這種科學揭示可以在理論上破除資本的神秘外觀,進而也能破除把通用人工智能物種化、人格化的神秘外觀;而在實踐上,只有破除大資本對AGI等強大社會智力的支配和壟斷,使越來越強大的社會智力從屬于人類物種的每個人,讓每個人的生物性智力得到自由發展,通用人工智能才不再是異己力量而對人類形成威脅。
硅谷精英已經意識到通用人工智能像流行病、核武器一樣,可能會造成人類物種滅絕。從技術上說,基因技術的濫用或武器化等有可能導致人類變種,從而引發人道主義災難,各國和國際社會在這方面已經建立起較強的限制性倫理規則;核武器的使用也受到了相關國際公約限制;然而針對AI尤其AGI的武器化,迄今還沒有約束性的國際公約。AGI的武器化與基因、核技術武器化的結合,將增大人類的滅種風險,如果國際社會的行為規則依然建立在社會達爾文主義基礎上的話,這些尖端技術的武器化和濫用很難真正受到有效限制——這才是真實的風險點。硅谷精英的反物種主義玄論,好萊塢科幻大片與基因技術相關的超級克隆人、與AI技術相關的超級機器人神話等,只會把全球大眾的關注點從這些真實風險點上轉移開來。硅谷代表著當今人類社會的發達生產力,是決定人類未來命運的重要力量,硅谷精英的倫理認知混亂,加上基于利潤最大化、社會達爾文主義的資本固有的使人類退化乃至滅種的傾向,使人類已經到了非常危險的時刻。在此極端情形下,維持人類存續發展,應成為通用人工智能發展和應用的第一也是底線的倫理原則,而以每個人生物性智能自由發展為遠景倫理目標,有助于澄清相關認知混亂。
從人工智能的發展和應用現狀看,DeepMind的AlphaFold對蛋白質、晶體結構的成功預測,展現著人類進一步征服自然力量的前景,OpenAI的ChatGPT、GPT-4等則初步展現出每個人生物性智能自由發展的可能;但是,少數資本巨頭對人工智能尤其是通用人工智能的壟斷所造成的失業等社會風險,也已初步顯現出來了。針對這種現狀和趨勢,堅持科學精神與倫理精神高度統一的通用人工智能物種主義原則,將有助于推動人工智能技術的科學發展和合理應用。
參考文獻:
[1]馬克思,恩格斯.馬克思恩格斯全集:第18卷[M].北京:人民出版社,1964.
[2]Statement on AI Risk:AI experts and public figures express their concern about AI risk[EB/OL].https://www.safe.ai/statement-on-ai-risk,2023-12-26/2023-12-31.
[3]“AI教父”最新萬字訪談:人類可能只是AI演化過程中的過渡 [EB/OL].https://new.qq.com/rain/a/20230506A086D000,2023-05-07/2023-12-31.
[4]AI教父Hinton,放棄永生的凡人計算[EB/OL].https://hub.baai.ac.cn/view/27397,2023-06-11/2023-12-31.
[5][美]沃爾特·艾薩克森.埃隆·馬斯克傳[M].孫思遠,劉家琦,譯.北京:中信出版社,2023.
[6]Sam Altman:一個足以載入科技史的訪談[EB/OL].https://new.qq.com/rain/a/20230521A04QVJ00,2023-05-21/2023-12-31.
[7]李恒威,王昊晟.后人類社會圖景與人工智能[J].華東師范大學學報(哲學社會科學版),2020,(5).
[8][美]約翰·貝拉米·福斯特,[美]布雷特·克拉克.馬克思和異化的物種主義[J].禚明亮,劉一帆,譯.理論月刊,2020,(5).
[9]馬克思,恩格斯.馬克思恩格斯全集:第42卷[M].北京:人民出版社,1979.
[10][德]康德.康德著作全集:第4卷 純粹理性批判(第1版) 未來形而上學導論 道德形而上學的奠基 自然科學的形而上學初始根據[M].李秋零,主編.北京:中國人民大學出版社,2005.
[11]馬克思,恩格斯.馬克思恩格斯全集:第2卷[M].北京:人民出版社,1957.
[12]馬克思,恩格斯.馬克思恩格斯全集:第31卷[M].北京:人民出版社,1972.
[13]馬克思,恩格斯.馬克思恩格斯全集:第35卷[M].北京:人民出版社,1971.
[14]馬克思.資本論(紀念版):第1卷[M].北京:人民出版社,2018.
[15]馬克思,恩格斯.馬克思恩格斯全集:第26卷第2冊[M].北京:人民出版社,1973.
[16]馬克思,恩格斯.馬克思恩格斯全集:第6卷[M].北京:人民出版社,1961.
[17]馬克思,恩格斯.馬克思恩格斯全集(第2版):第25卷[M].北京:人民出版社,2001.
[18]馬克思,恩格斯.馬克思恩格斯全集:第3卷[M].北京:人民出版社,1960.
[19]馬克思,恩格斯.馬克思恩格斯全集(第2版):第31卷[M].北京:人民出版社,1998.
[20]馬克思,恩格斯.馬克思恩格斯全集(第2版):第30卷[M].北京:人民出版社,1995.
[21]馬克思,恩格斯.馬克思恩格斯文集:第2卷[M].北京:人民出版社,2009.
[22]馬克思,恩格斯.馬克思恩格斯全集:第20卷[M].北京:人民出版社,1971.
[23][美]雷·庫茲韋爾.奇點臨近[M].李慶誠,董振華,田源,譯.北京:機械工業出版社,2011.
責任編輯 ? 孔德智