魏霞
就在30年前,普通人還沒有預想到科技會如此無孔不入地嵌入到我們的日常生活中,那時沒有微博、微信、支付寶,手機是富豪的象征,電腦更是奇珍異玩。如今,無人機愛好者能夠低成本做出曾經只在戰爭中使用的造價昂貴的無人機,身處偏遠地區的農民可以接收到通信信號并開通社交賬戶,科技觸手可及。歷史上那些需要幾十年、幾個世紀才會發生的改變,現在幾年間就發生了。
美國布朗大學、斯坦福大學等多家機構的研究人員日前在美國《科學公共圖書館·綜合》雜志上介紹了一項最新開發的“大腦門戶”系統,3名四肢癱瘓的受試者使用腦機接口技術成功獲得了控制平板電腦的能力。他們只需想一想,植入大腦中的小型傳感器就能夠監測到大腦運動皮層發出的神經信號,光標就能隨著心意移動并完成點擊操作。這一大腦門戶系統的開發無疑為四肢癱瘓病人帶來福音。
人類發明了科技,科技也不遺余力地為人類做貢獻。據普華永道分析預計,至2030年,僅人工智能一項,就將為世界經濟貢獻15.7萬億美元,并且會為人類創造更多的就業崗位,盡管麥肯錫在肯定新的就業崗位產生的同時,分析有7000多萬個崗位可能會面臨自動化的風險。這對人的挑戰就是要有從事不同工作的技巧和能力。
科技進步為人類帶來效率和利益,人類也不得不因此承受前所未有的壓力。比如通過社交媒體我們有機會接觸到更多的人和信息,卻增加了過濾虛假新聞的成本和上當受騙的概率。更為嚴重的是,科技幾乎讓個人失去了隱私權。道德是一種約定俗成,規則的建立需要時間,而科技發展的速度遠在二者之上。
我們剛剛開始建立規則保護隱私權時,一則“世界首例免疫艾滋病基因編輯嬰兒在中國誕生”的新聞,又將人類陷入了科技可能引起人類基因池改變的恐慌。122位中國科學家發聯合聲明堅決反對貿然嘗試做可遺傳的人體胚胎基因編輯的任何嘗試,因為一旦做出來,活人就不可避免地會混入人類的基因池,沒有人能預知最終的影響,這是一個潘多拉的盒子。
科技面前,人類應不應該有禁區?法律和道德的邊界在哪里?我們使用人工智能,但人工智能,甚至智能手機都可以跟蹤我們的動作和習慣、運動和健康,通過我們的網絡搜索揭示我們的想法。人工智能對我們的了解會不會使人陷入風險?農耕生活、城市生活曾經是我們的生活方式,當下我們進入科技生活的時代,如果前兩種生活方式是我們可以選擇的,那么在強大的科技、在AI面前,我們是否有選擇?在現有的道德和法律范圍內,我們也許還很難評估科技的對錯和它給我們帶來的利弊。著名物理學家、宇宙學家、數學家、思想家、哲學家霍金支持人工智能,但同時也三番五次地表態,人工智能將摧毀人類;特斯拉和太空探索技術公司SpaceX創始人埃隆·馬斯克曾經提出,人工智能有可能會成為人類文明的最大威脅。
人與人工智能最大的區別就是人工智能有腦,而人不但有腦,還有心,道德是用心來衡量和判斷的。如果某一天機器人殺人了,它不會有罪惡感。所以,人在開發科技和利用人工智能的時候,道德應作為首要考慮因素。我們已經離不開人工智能帶來的效率,但如果僅讓效率和利益大行其道,人類面臨的風險可能是不可控的。核武器的發明和使用可以瞬間摧毀人類文明,聯合國大會2017年通過《禁止核武器條約》,希望“禁止核武器的擁有、研發、儲存、轉移、試驗,或是威脅使用”,讓核武器“完全非法化”,要求各國銷毀所持有的核武器。科技和人工智能還遠沒有到瞬間摧毀人類文明的地步,但人類必須未雨綢繆。
科技與人工智能關系到政治、經濟、社會、法律、倫理道德,盡管它的發展是日新月異的,但人類一旦意識到其中的問題,就要做出相應的規范,前提是,我們能夠始終保證人在操縱人工智能。
(作者系內蒙古師范大學法政學院博士、副教授)