卷首語
人工智能,讓人類毀滅還是永生?
1950年,阿蘭·圖靈的一篇里程碑式的論文《機器能思考嗎?》為人類帶來了一個新學科——人工智能。為了證明機器是否能夠思考,他又發明了“圖靈測試”(Turing Test),圖靈測試至今仍被沿用。
到目前為止,以人工智能為基礎的系統已經在很多方面為人類的生活帶來了便利:無人機、工業機器人、錯誤檢測和搜索引擎......,在一些涉及精確判斷的具體項目應用領域,人工智能的表現已經超越人類,甚至人類已經受到機器判斷的影響,如線上自動交易系統,健康檢查系統以及無人車駕駛等等。尤其是AlphaGo戰勝了李世石,讓人們意識到人工智能真的來了,不再只是電影中的場景,而是現實世界里正在上演的又一輪產業變革。人工智能先驅、未來學家雷·科茲威爾預言:到了2020年,我們將成功通過逆向工程制造出人腦。2030年末,計算機智能將趕上人類。2045年,人工智能會掌管全球科技發展。至此之后,人工智能的摩爾定律被打破,科技將呈現爆炸式發展。人類文明已經被人工智能所掌握,2045年以后的科技發展,已經無法被精確預測了。
這種變革讓不少人感到惶恐,一時間各種人工智能威脅人類的聲音鋪天蓋地,人們在各種人工智能會帶來大波“失業潮”的言論中深感憂慮,同時也在強悍的AlphaGo會不會被惡意利用等問題上擔心不已。擔憂未來的人們在爭辯:終極的人工智能,會讓人類永生還是毀滅?我們到底更應該關注智能的快速發展,還是智能社會背后的危機?
然而,人類唯一了解的智能是人本身的智能,如果讓機器也具有意識、思維、情感,這究竟能否做到,如果真的達到這個目標后,會給人類帶來什么影響,依然是未知數。其實,目前人類應用人工智能主要是機器人以及各種識別設備,主要目的是提升效率和保護人類的自身安全,因此“生殺決定權”還掌握在人類自己手里,它們只是沒有獨立思考能力的超級電腦而已。
然而,人工智能應用必然帶來諸多社會問題,例如人類哪些權利不容侵犯,被侵犯了要承擔什么責任,以人類倫理、道德原則為基礎設計的突發情況該如何判斷等等。“智能時代需要油門,也需要剎車,我們不能還未加速就想著踩下剎車,同樣我們更不能速度過快失去控制才想到安裝剎車。”如果它們將來真的超越人類,是不是應該現在就開始從政策、法律、道德和倫理角度制定游戲規則呢?
從精神分析的角度來說,恐懼來源于無知,人類對于人工智能的潛力和發展還不夠了解,憂慮其威脅也在情理之中。這些都涉及因人的社會化而導致的政策、法律、道德和倫理等問題,如果處理不當,人工智能可能會對人和社會造成危害。因此,在人工智能發展階段,我們必須提前從政策、法律、道德和倫理角度對其設計、進行干預,才能推動人工智能創新技術更好服務于人類和社會的發展。
另外,一些科學家認為,正如宇宙學上存在著一個讓所有物理定律都失效的“奇點”一樣,信息技術也正朝著“超人類智能”的奇點邁進。計算機科學家雷蒙德·庫茲韋爾相信,這個信息奇點即將到來,那時,人工智能將超越人腦,人類的意義將徹底改變;那時人將與機器融合,成為“超級人類”。當人工智能新成果再度引發爭議和恐慌時,美國《時代周刊》結合雷·科茲威爾的“半人半人工智能”的思路,提出了未來另一種可能存在的趨勢——人類與人工智能逐漸融合為一體,通過這種方式,人類獲得了永生的可能。
或許未來有一天,我們需要與人工智能分享地球。不過要想和平共處,我們需要不斷超越他們與自己,永遠比他們更聰明、更加充滿力量。
唐莉