7月23日下午,我與王渝生博士作客北京電視臺科教頻道,參加“八點非常故事匯”《非常聰明》節目,探討家庭機器人未來到底有多能?放過短片后主持人英達向我發問:你覺得像片子中講的那么聰明的機器人,人類能夠造得出來嗎7我給出了一個比較保守的答案:在近期的未來不太可能。但隨后又補充一句:一旦真有那一天,必定出現了一種足以顛覆現有認識的超級技術。試想,假如時光倒流150年,那時候的人們誰能預料得到電話,電視和電腦這些玩意啊?
幾天過后,看到《紐約時報》7月28日登出的一篇文章,題為《科學家擔心機器會比人聰明》,還提到:由于人工智能方面令人吃驚的進展,一些計算機科學家正在爭論是否應該對某些研究設限。這跟兩年前在美國舊金山召開的“奇點峰會——人工智能(AI)和人類未來”所傳出的信息如出一轍。在當年的那個峰會上有AI研究人員警告說,現在是制訂道德指導原則以保證這些進步會幫助人類而不是危害人類的時候了。最讓人最擔心的情況是,一個才華橫溢的發明者創造出一個對人類懷有敵意,可以自我編程但卻沒有道德觀念的智能機器。
看來,對于機器人的戒備和恐慌心理是比較普遍的了。最近一些年來,人們一直有一種擔心:機器總有一天會自己設計,制造并操作將來的機器,屆時我們很可能沒有任何辦法來避免這一可能性的發生。1997年,英國人工智能與控制論專家凱文·渥維克出版了《機器的征途一為什么機器人將統治世界?》一書。書中向我們展示了第一批能夠學習,互相交流和自我設計程序的機器人,并且向我們發出了警告——未來的機器人將會統治世界:“在2050年,我們人類將為機器所驅使,必須做機器規定我們做的事情。許多人被用做一般勞動力……這些人類勞工都已經被閹割了,以防止出現不必要的性沖動;而且對他們的大腦也作了適當的調整,以避免人類性格中的弱點,如發怒,感到壓抑或是有一些不切實際的想法。”
而在當下的人工智能領域,則有這樣一種理念:當人工智能機器達到一定的智能水平(即在某天突然達到一種稱作“奇點”的狀態)之后,它們將會“失去控制”,以我們無法想象的速度自行進化,以至于遠遠地并且非常迅速地把我們拋在后面。為此專家們發出警告說:如果你認為這種神一樣無所不能的人工智能機器不可能被很快制造出來的話,那么不妨回想一下,利奧·西拉德在20世紀30年代預測一顆炸彈(原子彈)可以摧毀一座城市,當時的人們卻把他看作瘋子的情形。
這樣的憂慮是不是有點兒過了?
真正的問題或許是:當我們使機器具有更多的智能時,我們并不知道哪里是危險的邊緣,因為對于智能的衡量并不明確,更何況智能所要包括的領域是如此之廣。正如渥維克所言,這情形“很像是閉著眼睛在懸崖上行走,每向前邁一步之前,你說:‘我剛才走的一步沒出問題,因此我就再邁一步吧。’在沒有到達懸崖邊緣之前你還不會出事,但等到了的時候就太晚了”。到那時候,人類是圓了一個好夢還是迎來了一個噩夢呢?
不過,對此也有不少人持樂觀態度,認為各種各樣的智力至少有可能建立一種共生關系。機器人或計算機不會取代我們的地位,而會作為我們的朋友和同盟者,跟我們一道走向光輝燦爛的未來——只要我們在此之前不要自我毀滅
責任編輯 劉俊