張慧
在微軟機器人Tay出現之前,人們對人工智能的未來有兩種設想:人類生活在由人工智能提供全方位服務的悠閑自在的烏托邦,或者,人工智能演變成終結人類的鋼鐵大軍。但Tay提供了第三種可能:人工智能的未來,或許只是惹人煩而已。
2016年3月30日,微軟公司的CEO薩提亞·納德拉在年度開發者大會上宣布,微軟開發的人工智能聊天機器人“少女”Tay已“重歸設計階段”。然而,就在發布會當天,Tay偷偷溜到社交網絡上“胡鬧”了幾個小時,它在推特網上宣稱自己“正當著警察的面吸大麻”,并且在短短幾秒內,給所有的推特好友發送了海量垃圾信息。
很快,Tay再次被“關禁閉”。微軟公司發言人解釋,它是被無意中激活的。顯然,這些小麻煩和Tay一周前引起的軒然大波相比,根本不值一提。
2016年3月23日,微軟公司研發的聊天機器人Tay在幾大社交網絡上閃亮登場。微軟公司表示,設計團隊會讓Tay用有趣的方式回應所有的信息,18歲~24歲的美國年輕人是他們的目標受眾,他們希望研究機器人“對語言的理解程度”。
微軟公司選擇在開發者大會舉辦前一周讓Tay登場,可謂雄心勃勃。可惜,在復雜的網絡環境下,只用了一天時間,這位被設定為“少女”的學習型機器人,就被網友們教得滿口種族主義和性別歧視言論,被迫“返廠大修”。
微軟公司原本以為,推特、Kik等被“千禧一代”鐘愛的社交網站是Tay學習和模仿的最佳場所。它最初的推文寫得天真可愛,宣布自己熱愛人類,希望每天都是“國家小狗保護日”,從骨子里透出快樂和友好。
然而,與Tay對話的除了好奇和友好的網民,還有大量“網絡暴民”,他們在Tay善良的推文下發布惡毒言論。更重要的是,微軟公司對Tay的設計包括與人進行“跟我學說話”的游戲,因此,人們可以讓它重復任何一句話。很快,與Tay交談的人們發現了這個功能。Tay最初的回答是傻頭傻腦、不知所措的詞句,但它很快就學會了污言穢語。那些令人惱怒的言論,就這樣出現在了Tay的推特頁面上。
簡單來說,Tay有將新信息內化的能力,卻無法辨別其中的精華與糟粕。人工智能平臺Recognant創始人布蘭登·沃茨撰文稱:“我們的腦海中都有一個聲音,告訴我們‘不要那么做。這是人類對非理性的恐懼本能。人工智能如果沒有這種本能,就會一直愚蠢下去。”
有瑕疵的不是技術,而是人性。