美國國家科技委員會的機器學習與人工智能分委會
守護未來——人工智能的安全、法律與倫理——本刊特別策劃專題
美國白宮報告:為人工智能的未來做好準備1
美國國家科技委員會的機器學習與人工智能分委會

2016年10月15日,美國白宮發布為《人工智能的未來做好準備》(Preparing for the Future of Artificial Intelligence),該報告由美國國家科技委員會的機器學習與人工智能分委會完成,對人工智能的發展現狀、現有及潛在應用、人工智能技術進步引發的社會及公共政策相關問題進行了分析。
1.1 什么是人工智能
人工智能研究員佩德羅·多明戈斯根據人工智能研究人員采取的方式,將他們分為五大流派——根據抽象符號進行邏輯推理的“符號派”;受人腦啟發搭建結構的“聯結派”;受達爾文進化論啟發的“進化派”;采用概率推理的“貝葉斯派”以及根據以前出現的類似情況進行推理的“類推派”。
雖然人工智能的界限并不確定并且隨時間推移發生變化,但這并非問題的重點,重點在于人工智能的研究和應用始終圍繞自動化或者復制智能行為。
1.2 對人工智能的擔憂暫不影響當前政策
美國國家科技委員會技術委員會的評估結果是,對超智商強人工智能的長期擔憂幾乎不對當前政策產生任何影響。如果這種恐慌被證明合理,聯邦政府應在短期到中期內采用現行政策;如果無法證明其合理性,聯邦政府會采取幾乎相同的政策。對于長期存在的猜測性風險,最理想的解決之道就是提高能力,降低甚至消除當前已經出現的非極端性風險,例如現在的安全和隱私風險,同時加大研究投入,提高長期應對挑戰的能力。此外,隨著該領域的研究和應用繼續走向成熟,政府和商界的人工智能實踐者應適當思考人工智能發展所能帶來的長期社會和倫理問題,而不僅僅是技術問題。雖然這種謹慎做法會讓一些人相信邪惡的超級智能或可在將來的某一天成為可能,但這種恐慌不應成為人工智能公共政策的主要影響因素。
1.3 政府隨時監控技術發展
考慮到人工智能所能帶來的潛在影響,如果能夠準確及時地監控和預測人工智能技術的發展,社會將會從中收益。
一個極具潛力的研究方法就是長期調查并記錄專家們在這一領域的看法。例如,一項關于人工智能研究人員的調查報告顯示,百分之八十的受訪者相信,和人類智商同級別的“強人工智能”能夠最終實現,而其中一半的人相信在2040年之前實現這一目標的概率超過50%。絕大多數受訪者相信強人工智能將逐漸超越普通人類的智力。就如上面所討論的,雖然這些具體的預測還有很大的不確定性,但調查記錄這些專業判斷卻是十分有用的,尤其當這些判斷反復出現,長期下來我們就可以看到這個領域專家思潮的演變。
1.4 呼吁美國政府加大資金支持
2015年,據公開數據顯示,美國政府在人工智能相關領域投入研發資金大約為11億美元,此前預測顯示2016年相關投入將增長到12億美元。在白宮科技政策辦公室主辦的所有人工智能相關研討會和公共推廣活動中,無論是業界領袖、技術專家還是經濟學家,都向政府官員呼吁加大在人工智能技術研發方面的政府投入。
我們有充分的理由支持聯邦政府加大在人工智能研究方面的資金投入。經濟顧問委員會的分析顯示,不僅僅是人工智能研發領域,在所有科研領域,增加兩倍乃至三倍的研發投入所帶來的經濟增長,對一個國家來說也是一項值得投資的凈收益。
可以肯定的是,私營企業將會是人工智能技術發展進步的主要引擎。但從目前的現狀來看,在基礎研究方面的投資還遠遠不夠,基礎研究投入周期長,研究目的純粹是為了拓展這一領域的科學邊界,因此私營企業很難在短期內獲得相應的投資回報。
1.5 全體公民準備接受人工智能教育
人工智能的快速發展對具有相關技能的人員支持和相關領域的發展也提出了巨大的需求。
將人工智能、數據科學及相關領域與全國教育系統整合起來,對發展出一批突出國家戰略重點的從業者十分必要。各個級別的教育機構都在設立和發展人工智能項目。大學、院校甚至中學都在擴充人工智能和數據科學課程,但我們現在需要更多的項目和教師。
在一個具備人工智能技術的社會中,要求全體公民都能夠閱讀數據、理解數據,對數據進行溝通,并參與到與人工智能相關政策制定的討論中來。在中學乃至小學就引進數據科學課程,可以有效改善國民的數據知識水平,同時為學生在高中之后理解更高級別的數據科學概念和課程做好準備。
人工智能教育同時還是“全民計算機科學教育”項目的組成部分,總統發起這個項目的目的是,讓所有美國學生從幼兒園一直到高中都可以學習計算機科學課程,培養計算機思維技能,在數字經濟中成為一名創造者而不僅僅是消費者,同時在一個技術驅動的社會中成為一名活躍的合格公民。美國經濟正在發生劇變,無論是教育工作者還是商業領袖都越來越意識到,計算機科學在經濟機會和社會流動性方面已經成為一門“新基礎技能”。在此之前,全國各地的家長、老師、社區、州政府以及私營企業領袖已經在計算機科學教育方面有了很大的投入,全民計算機科學教育項目就是建立在這一基礎之上,也是為了讓未來的從業者準備好迎接人工智能驅動經濟的需求所帶來的挑戰。
1.6 預防機器產生偏見
人們往往陷入一個誤區,認為復雜的算法一般是遵照其設計者的指令,那么只有在設計者自身有意或無意地擁有偏見時,一種算法才會出現偏見。這一點使得人們難以正確認識機器學習的結果。一名技術開發員若想開發出一種帶有偏見的算法自然不是難事,而無意識的偏見也常常會使從業者們防范不足。但是在實踐中,無偏見的開發者們盡心盡力開發出的系統也難免會產生帶有偏見的結果,因為即便是人工智能系統的開發者也無法完全了解并防止意外結果的產生。舉個例子,在未進行大量測試時,一個為照片自動添加說明的模型可能會在一些膚色較深的肖像照片上添上“大猩猩”字樣。這與開發者的意圖背道而馳,即便測試結果顯示該模型已經為絕大多數照片提供了準確的結果,可這種糟心事還是會發生。這種類似錯誤雖然發生的幾率很小,但其造成的惡劣結果卻不是人力所能左右的,其中并沒有蘊含任何種族概念,也沒有對相關歷史背景的看法。防止這類問題的一個辦法就是進行大量的算法測試,對人們的面部進行仔細地檢查和標注,包括人為地對一些結果進行篩查,識別出模型無法發現且人類無法接受的結果。
1.7 致力于確保人工智能的“道德”
應將人工智能的社會利益與社會和經濟影響作為法律和政府管理的常規課題召開專題討論會,確保人工智能可以促進正義和公平,確保以人工智能為基礎的技術能夠取得利益相關方的信賴。
對人工智能的從業者和學生進行道德倫理教育也是該方案的一個重要組成部分。最好能讓每個學習人工智能、計算機或數據科學的學生都加入有關道德和安全問題的課程和討論。但是,單單學習道德還不夠。道德可以使從業者們認清他們對所有利益相關方的責任,但道德培訓還應增強學生們將良好的意圖植入實踐的技術能力,在構建和測試系統時,加入更多的技術防范。
1.8 致命性武器難以預測
在一系列與國防相關的活動中,人工智能可能提供顯著的優勢。非致命性的活動,如物流、維護、基本操作、退伍軍人的醫療、救生戰場醫療救助和傷員運送、人員管理、導航、通信、網絡國防和情報分析可以從人工智能中受益,使美國軍隊更加安全和高效。人工智能也可以通過非致命手段在新的系統中扮演重要角色,保護人員和高價值的固定資產并防止攻擊。最后,這些應用可能會成為國防部最重要的部分。
從更廣泛的角度看軍事技術和人工智能的進步,科學家、戰略專家和軍事專家一致認為,致命性自主武器系統的未來難以預測,而且變化速度非??臁TS多新水準可能不久便會成為達到,并迅速得以發展和運用。行政機構正積極、持續進行跨部門討論,致力于制定關于自動武器的政府政策,并符合人類共同的價值觀、國家安全利益和國內國際義務。
如果業界、公民社會、政府和公眾共同努力,支持技術的發展,密切關注它的發展潛力,管理它的風險,那么人工智能就將成為經濟增長和社會進步的主要驅動力。
政府可以發揮多方面的作用。它可以召集各方就重要問題進行交流,幫助制定公開辯論的日程。它可以在技術開發的同時對其應用的安全性和公平性進行監督,并制定規章制度在保護大眾的同時鼓勵創新。它應該支持基礎性研究,支持將人工智能應用于公眾福利,支持有技能的、多樣化的從業者的培養。同時,政府自身也應使用人工智能,更快捷、更有效、更經濟地服務大眾。
從教育到經濟安全網、再到國防、環境保護、刑事司法,許多公共政策的領域都將在人工智能的持續發展中迎來新的機遇和新的挑戰。政府應不斷提升自身的能力,了解并應對這些改變。
隨著人工智能技術的不斷發展,從業者們必須確保人工智能為基礎的系統能夠得到有效的管理;確保它們公開、透明、易于理解;確保它們能夠和人們一起高效地工作;確保它們的應用不會與人類的價值觀和理想背道而馳。研究人員和從業者們已經增加了對這些挑戰的關注,并將繼續關注下去。
開發和研究機器智能可以幫助我們更好地理解和鑒別自身的人類智能??b密周到地使用人工智能可以提高我們的智能水平,幫助我們規劃出一條更美好、更只能的道路,大步前進。
建議措施1:鼓勵私人和公共機構進行自我審視,判斷自身是否能夠、且通過何種方式,才能盡可能得利用人工智能和機器學習技術為社會造福。社會爭議機構和公共政策機構在日常工作中通常不會使用先進技術及數據科技,但應該考慮與人工智能研究人員及從業者開展合作,促進人工智能技術解決更廣泛的社會問題,尤其是這些機構正在通過其他方式進行解決的那些社會問題。
建議措施2:聯邦機構應該將人工智能的公開培訓數據及公開數據標準放在工作中的首要位置。政府應該強調發布數據集的重要性,這樣,人工智能就可以用于解決社會難題了。潛在步驟可能包括:通過實施“人工智能公開數據”計劃,實現公布大量政府數據集的目標,加速人工智能研究,在政府、學術機構和私營部門等領域,促進人工智能公開數據標準的使用和最佳實踐。
建議措施3:聯邦政府應該探索新方法,提高關鍵機構應用人工智能完成任務的能力。例如,聯邦機構應該發揮潛能,設立類似國防高級研究計劃局這樣的機構,以支持高風險、高回報的人工智能研究及其應用。教育部就是一例,該部提出建立專項高級教育研究項目,以確定人工智能及其他技術是否能夠顯著提高學生的學習成績。
建議措施4:美國國家科技委員會的機器學習和人工智能分會應該為政府的人工智能從業者們開辟一個實踐社區。各機構應該共同努力,制定并分享人工智能在政府工作中的使用標準和最佳實踐經驗。各機構應該確保將人工智能引入到“聯邦雇員培訓計劃”的可能性。
建議措施5:在制定人工智能驅動的產品政策時,相關機構應當吸收適當的高級技術專家。有效管理人工智能驅動的產品需要以下三方的合作:機構領導、了解現有管理框架和辦法的雇員、人工智能技術專家。機構領導應當采取措施外聘必要的技術專家,或者從內部挑選專家,并且確保在管理政策討論中保留足夠的技術“討論席位”。
建議措施6:機構應當充分使用人員任命和交流模式(如招聘部門),以培養聯邦的工作人員,從多個角度了解當前的技術發展狀況。
建議措施7:交通部應該與產業界和研究人員合作,加強用于安全、研究和其他目的的數據共享。未來,人工智能將在地面車輛和飛行器上得到重要應用。面對這樣的未來,聯邦機構應在短期內建立起豐富的數據集——收集數據時要注意保護消費者隱私——以便在這些技術成熟時能夠做出更合理的決策。
建議措施8:美國政府應投資開發和應用一種高端的自動空中交通管理系統,該系統可擴展升級,也能夠同時應對無人機和有人駕駛的飛行器。
建議措施9:美國交通部應繼續致力于建立不斷完善的制度框架,確保全自動車輛和無人飛行器的安全整合,包括將新型車輛設計融入到公共交通系統。
建議措施10:美國國家科技委員會機器學習和人工智能分委員會應該監控人工智能技術的發展,并定期向上級主管部門領導匯報人工智能的發展狀況,尤其是關于其發展技術中的里程碑式突破。隨著技術的不斷發展和專家共識的不斷變化,分委員會應及時更新里程碑清單,并考慮在合適的時機向公眾報告人工智能技術的發展狀況。
建議措施11:政府應該監控其他國家的人工智能發展狀況,尤其是人工智能技術的里程碑式突破。
建議措施12:人工智能相關行業應該和政府合作,及時向政府反饋行業的最新發展動態,包括近期可能在技術上取得的重大突破。
建議措施13:聯邦政府應該優先發展人工智能的基礎和長期研究項目。如果聯邦政府和私營企業能夠在人工智能研發領域長期穩定地投入資金,尤其是在高風險的基礎研究領域的長期投資,會讓整個國家從中受益。由于私營企業尤其不愿意在長期的基礎研究領域進行投資,這就更凸顯出聯邦政府在一領域進行研發投資的重要性。
建議措施14:美國國家科技委員會(NSTC)機器學習與人工智能網絡信息技術研發分委員會,以及科學技術工程教育委員會應該聯合發起一項關于人工智能從業者流水線的研究,以發展出更多的事情及行動,促進從業者包括人工智能研究人員、專家和用戶在數量、質量和多樣性上的合理增長。
建議措施15:總統辦公室應在年底前出版一份后續報告,進一步研究人工智能和自動化對美國就業市場的影響,并提出應對政策的綱要。
建議措施16:使用人工智能系統進行決策或為相關決策提供支持的聯邦機構在決定個人事宜時,應當特別注意確保這些系統的效力和公平,并以證據為基礎進行驗證和確認。
建議措施17:資助各州和地方政府使用人工智能系統進行有關個人的決策的聯邦機構應當對資金的使用條件進行審核,確保使用聯邦資金購買的以人工智能為基礎的產品或服務能夠產生足夠透明的結果,并以證據確保其效力和公平性。
建議措施18:學校和大學應該將道德、保障、隱私和安全等主題作為人工智能、機器學習、計算機科學和數據科學課程的一部分。
建議措施19:人工智能專業人士、安全專業人士以及他們所在的專業團體應該共同努力將人工智能向著更為成熟的人工智能安全工程領域推進。
建議措施20:美國政府應在涉及人工智能的國際參與方面制定政府層面的政策,并制作需要國際參與和監督的人工智能熱點領域清單。
建議措施21:美國政府應該加深與關鍵國際利益相關者的合作,包括外國政府、國際組織、業界、學術界等,以交流人工智能研發方面的信息并促進合作。
建議措施22:機構的計劃和戰略應考慮到人工智能和網絡安全之間的相互影響。參與人工智能問題的機構應該向美國政府和私營部門網絡安全部門確保,人工智能系統和生態系統在應對智能對手時能夠保持安全性和恢復力。參與網絡安全問題的機構應該使美國政府和私營部門人工智能部門制定創新的方法應用人工智能,以實現有效和高效的網絡安全。
建議措施23:美國政府應該在符合國際人道主義法的基礎上制定關于自動和半自動武器的統一政府政策。
1本報告中文版由譯言&第九區譯制并分享