單明
現在很多人擔心人工智能會成為世界的主宰讓人的自由空心化尊嚴無所依附也就粉碎了人的人格生命
那邊,霍金等十幾位世界頂級科學家在憂慮:人工智能可能導致人類滅絕;那邊,東北一大城市已把機器人產業升級為強市戰略。盡管后者的機器人還遠未達到人工智能的標準,卻是通向人工智能的必要起點。
我們要不要人工智能?這至少涉及兩點,人類是被科技主宰,還是人類主宰科技?即科技倫理;人工智能一旦普及,人類該怎么辦?
倫理是人類所有行動中最難逾越的一道坎,當年克隆羊多莉出現時,很多國家就擔心有人會把這一技術運用于人類自身,因而紛紛抵制。
說得直接一些,倫理學就是廣義的道德學。一般來講,科技的發展,生產力的提高,會有利于社會倫理水平的提高。但倫理又有相對獨立性,并不時時同經濟發展水平保持平衡。人工智能又叫AI,是用機器,尤其是計算機盡可能模擬人的精神活動,達到一定智力水平,并在人的工作水平上解決眾多領域的疑難問題。當它們在很大程度上取代了人類的思維和動手能力,那人類還剩什么?或許只剩下無能為力的茫然和蒼白的感受。
由此延展開來,人類的生命具有兩面性,即生物學生命和人格生命。生物學生命的一大特征是負責繁衍,人格生命重在規范群體、操縱世界、把握自由、維護尊嚴。現在很多人擔心人工智能會成為世界的主宰,讓人的自由空心化,尊嚴無所依附,也就粉碎了人的人格生命。人格生命被粉碎后,生物學生命要么變得可有可無,要么在蛻化中使功能萎縮。
這種擔心并不多余,大型計算機已經替代了人類的計算能力,人類的這一能力因此蛻化了。人工智能勢必也會替代人類的很多能力。其實,人類意識深處,還是愿意自身的某些功能被替代的,比如一些費力的或危險的工作,關鍵是人類對人工智能要一直處于可把控、可操縱的地位,而不是相反。這就涉及到如何讓它們聽命于人類,即規范問題。沒有規范或規范不嚴密,人工智能就會成為人類的主宰。這正是霍金們的擔心所在。
另一方面,若人工智能真不為霍金們的意志所轉移,那人類將以怎樣的方式思考、活動、生活?即當勞動不再成為人的第一需求之后,我們該如何安排自己?用傳統的馬克思學說解釋,那時人類就按需分配了。
所謂按需分配,拋開共產主義這一模式不談,無論形式還是內容,都跟現在北歐一些國家的高度福利化非常相似。瑞典、挪威、芬蘭和丹麥是典型的福利國家,其核心內容是幾大福利保障體系,即免費的國民教育,免費的公費醫療,免費的養老退休,免費實行就業與工作安排。問題是,人工智能普及后,前3項免費可能會得以進一步實現,但后一種免費就顯得無緣無由,無本無根了。人工智能會在很多崗位大顯身手,人類的就業不只是沒有著落,根本就沒這個空間,也沒這個需要。這時,人類極有可能思維怠惰,行為能力低下,或許只剩下了情感,但情感又有何依附?
移動互聯的普及正悄悄改變人類倫理,比移動互聯更厲害的人工智能絕不只是科技問題,它還與社會學、心理學、倫理學等諸多方面有千絲萬縷的聯系。這是我們在人工智能研究過程中必須思考的。工