在奧地利,有個家用機器人“自殺”了。據(jù)媒體報道,這位型號為Roomba 760的機器保潔小妹受夠了家庭瑣事,于是選擇在一個獨自在家的時候?qū)⒎旁陔姞t上的鍋子推開,自己蹲坐在電爐上悍然自焚……
顯然這位機器小妹并非真的患上了憂郁癥,但一個老話題又由此被重新提及:機器真的能像人類一樣思考嗎?
早在1950年,就有人試圖回答這個問題。一位叫圖靈的英國數(shù)學家斷言,在2l世紀之前,就會有像人一樣思考的計算機誕生。圖靈認為,如何讓各種機械零件產(chǎn)生思想并不重要,重要的是,計算機能通過“圖靈測試”。
所謂的圖靈測試,就是讓一個人去詢問兩個他不能看見的對象任意一堆問題。而這兩個對象分別是一個人和一臺計算機。如果經(jīng)過若干詢問以后,詢問者不能分辨出人和機器,那么這臺計算機就算通過了圖靈測試,成為一臺能思考的機器了。
舉個簡單的例子,比如連續(xù)三次詢問對方是否會下象棋,機器會老老實實地回答三次“是的”:但如果是人類或者是能進行“思考”的機器,可能會在第二次就反問你為什么要重復(fù)提問,并在第三次表示不耐煩。
要實現(xiàn)這樣的“思考”并不困難,只要輸入足夠多的數(shù)據(jù),保證在任何一種情境下,機器都能迅速在數(shù)據(jù)庫里找出相應(yīng)的應(yīng)對方法,模擬人類反應(yīng)。這和能夠戰(zhàn)勝象棋世界冠軍的計算機“深藍”的原理是一樣的——“深藍”并沒有比人類更聰明,只是它記住了“所有”情況。
30年后,有一位叫希爾勒的美國科學家對此提出了反駁。為了證明機器無法有智能,希爾勒設(shè)計了一個精彩的思想試驗一“中文屋”。希爾勒設(shè)想:一個對中文一竅不通的人,被關(guān)進一間密閉的屋子,屋子里有足夠多的中文卡片,還有一本英文寫的卡片使用規(guī)則。別人從門縫里塞進寫著中文問題的紙條,而受試者則根據(jù)規(guī)則搬動相應(yīng)的中文卡片,遞出回答。屋外提問的中國人,看到屋子里遞出來的卡片對答如流,會以為屋中人精通中文。
希爾勒認為,“中文屋”就是一臺電腦,不管這臺計算機根據(jù)“使用規(guī)則”再對答如流,也不能表示它理解談話的內(nèi)容。因此,輸入了大量數(shù)據(jù)從而得以模擬人類談話的計算機,不能算是在思考。
“中文屋”試驗開啟另一條道路:為機器建立一個“假裝人類”的數(shù)據(jù)庫不再可行,現(xiàn)在科學家們正在試圖搭建一個模擬神經(jīng)元的網(wǎng)絡(luò)系統(tǒng),教會機器在海量數(shù)據(jù)中自我學習的本領(lǐng)。最新的進展是:Google X實驗室的機器人,在大數(shù)據(jù)中辨認并自行建立了“貓”這一概念。
(摘自《壹讀》圖/龍源期刊網(wǎng))