秦 雪/編譯
人工智能、人與社會
秦 雪/編譯

艾薩克·阿西莫夫在一篇關于他的科幻小說的文章中表示:將機器人描述為一種危險的設備是很常見的,并總是以摧毀它們的創造者為結局。但他反對這一觀點,并制定了確保機器人系統安全且不會傷害人類的“機器人三定律”。1955年在建議使用計算機解決人類面臨的各種問題時首次使用了“人工智能”一詞,這離阿西莫夫“人與機器人”關系的問世僅幾年時間。半個多世紀以來,人工智能研究已日趨成熟并發展了多個分支學科,產生了一系列機器學習方法,賦予人工智能感知、學習、推理以及理解自然語言等多種能力。
“深度學習”令機器模式在準確性上取得了令人驚訝的跳躍式進展,人工智能日益繁榮的時代已經到來。這些新的進展給消費者帶來了人工智能的許多新能力,包括語音翻譯和半自動駕駛等。然而,許多艱難的挑戰依然存在,如何讓人工智能學會人類智能的許多能力,仍然是人工智能科學家困惑的一個問題。
與此同時,對人工智能潛在負面影響的憂慮也減緩了對AI研究的興奮和激情。受一些很久以前的科幻故事情節影響,有些人擔心超級智能機器人的崛起或人工智能系統可能會失控。另外一些人注重的則是一些較近的憂患問題,強調潛在的不良后果。例如,用于指導衛生保健和刑事司法中高風險決策的數據驅動分類器,可能受到隱藏在數據集深處的帶有偏見觀點的數據的影響,從而導致不公正和不準確的推斷。其他迫在眉睫的問題包括關于自主系統所做決定的法律和道德問題,解釋人工智能所做推斷的困難,新形式的監督系統對公民自由的威脅,軍事應用不穩定產生的影響,取代人類就業崗位的潛在威脅以及財富不平等現象的擴大等。
我們在推動人工智能科學向前發展的同時,在短期和長期尺度上解決人工智能對人類和社會的影響將至關重要。例如,可以通過重點研究、監測和分析,制定出有價值的評估和指導方案。人工智能的影響范圍廣泛,需要跨學科團體的參與,包括計算機科學家、社會科學家、心理學家、經濟學家和律師等。就長期問題來說,通過對話就超級人工智能和邪惡人工智能的不同看法和分歧進行溝通是很有必要的。有前途的發展方向包括確定軌跡和結果,讓人工智能加入到計算機科學家和工程師們在軟件驗證、技術安全和故障安全設計原則等方面的工作中去。
好消息是,關于人工智能的研究以及一些項目計劃的實施已在進行之中。2008年人工智能發展協會主持了一項長達數月的關于人工智能未來發展的研究項目,研究AI的興趣在之后美國加州阿西洛瑪的一次會議上達到了高潮。該項目負責在未來一個世紀甚至更長時間里,每5年組織一次類似研究的總結報告。最近其他方面的一些活動包括美國國家科學院主辦的研習班和研究項目。2017年4月,在一項為期兩年的調查研究之后,一份關于自動化對美國勞動力影響的報告問世了。2017年早些時候,來自工業界、學術界和民間社會的代表組成了一個稱為“AI伙伴關系”的非營利組織,以期為開發和保護人工智能技術推薦最佳范例。
阿西莫夫曾撰文總結道,“我無法讓自己相信,如果知識出現了危機,解決方案也一樣無知。對我來說,解決方案必須充滿智慧。你不應該拒絕面對危險,而是要學會如何安全地掌控它。”事實的確如此,人工智能的前進之路應該由理智的好奇心、謹慎與合作來引導。
[資料來源:Science][責任編輯:彥 隱]