文 俞靈琦
完善人工智能治理體系是保障人工智能健康和高質量發展的關鍵,全球正在就推動人與機器的和諧共生逐步達成共識,而將這些共識性原則轉化為行動方案已是大勢所趨。
談及2020 前沿科技產業,人工智能以其高頻率和高覆蓋率成為了膾炙人口的科技熱詞。
眼下,人工智能在全球范圍內蓬勃興起,為經濟社會發展注入了新動能,正在深刻改變人們的生產生活方式,同時也帶來了倫理、法律等方面新的挑戰。
人工智能在追求卓越的同時如何兼顧倫理和情感?如何更加安全友好?如何與人類和諧共生而不是替代……為之于未有,治之于未亂。處理好人工智能在法律、安全、就業、道德倫理和政府治理等方面提出的新課題,需要各國共同探討,需要多學科交叉研究。
可以說,完善人工智能治理體系是保障人工智能健康和高質量發展的關鍵。
2019 年,中國國家新一代人工智能治理專業委員會發布了以“發展負責任的人工智能”為主題的治理原則。近年來,眾多相關組織和機構發布了上百份人工智能治理原則和倡議。全球正在就推動人與機器的和諧共生逐步達成共識。
在近期舉辦的2020 世界人工智能大會治理論壇上,各國專家、學者、企業代表、政府人士等從技術、企業、理論多個角度闡述AI 治理的看法,同時在探討中,既有前沿國家的聲音,也有發展中國家的呼吁,各方力爭“多維度”地將許多共識性原則轉化為行動方案。
關于人工智能治理,其實發達國家及人工智能產業強國之間已經舉辦過不少論壇和活動。然而人工智能的發展與治理,事實上應是全球所有國家都應該參與的“大項目”。因此,一些發展中國家和人工智能技術不發達的地區,他們的聲音亦很重要。
對此,聯合國大會主席辦公室和平與安全事務高級顧問Eugenio Garcia表示,需要吸納更多來自發展中國家的學者和政策制定者,參與有關AI 治理的討論,尤其是關于AI 政策制定與國際機構的討論。
基于“提倡世界各國平等發聲”的理念,人工智能治理的探討開始從大國間討論向所有國家開放討論轉變,這也是人類命運共同體理念深入實踐的具體體現。

那么,發展中國家對于人工智能產業的發展和治理抱以何等想法呢?
對此,牙買加廣播委員會執行董事兼聯合國教科文組織“全民信息計劃”(IFA)副主席Cordel Green 談道:“隨著越來越多的人接觸和了解人工智能,我們必須給予充分重視,并有效運用其改善和改變我們的生活。我們須以AI 技術的發展為依托,促進各行各業的發展,所有人都必須利用AI,以實現可持續發展目標。”
另一方面,對于農業與人工智能之間的賦能關系,阿根廷南方互聯網治理學院主任兼聯合創始人Olga Cavalli 說道:“我專注于研究如何運用人工智能促進阿根廷的技術發展,阿根廷有基于人工智能開發服務和應用的創新公司,然而,當前我們所處的世界是由高度發達國家的持續創新所主導的,阿根廷具備發展成為農業領域領軍者的突出優勢條件,在該行業領域擁有高素質的人才儲備和豐富的經驗。但我們在該行業的發展也面臨一大阻礙,即專業人才的缺乏,希望通過與世界同仁分享經驗,交流想法,一起應對人才方面的挑戰。”
可見,對于人工智能,發展中國家更渴望協同發展,因此在制定產業治理的原則和行動方案時,如何平衡各國與各地區科技實力的強弱差異變得尤為重要。
人工智能治理事關人與人工智能之間的關系,既具有全球性,又具有多樣性:數據來源的合法性和個人隱私,比如人臉信息泄露;算法的公平、責任和透明,比如大數據殺熟;智能產品的可靠性和安全,比如自動駕駛事故責任;工作崗位和稅收的轉移,比如機器取代人;不平等與社會鴻溝,比如老年人難以使用新技術;深度造假等惡意應用,比如視頻造假……
新的全球性治理問題呼喚新的全球治理體系。全球利益相關方已廣泛且深度參與。對全球人工智能治理的治理客體(治理什么)、治理主體(誰來治理)和治理規則(用什么治理)的認識,都在不斷加深。眼下,全球人工智能產業的治理體系正處于成型關鍵期。
從技術層面,復旦大學計算機科學技術學院院長、教授姜育剛認為,技術會在人工智能治理當中發揮非常重要的作用。在保護隱私的情況下進行學習的技術,這是很值得探索的。另外,關于算法透明、決策公平、應用益民,在這些方面技術都將發揮不少作用。
中國科學院院士何積豐則希望人工智能能夠給社會發展有一個共性的互動關系。“我們希望在工業界因為有人工智能技術能夠推進我們的智能制造,發展我們的智能醫療來解決我們的老齡化問題,希望把我們城市生活搞得更加美好,智慧城市也是一個目標。和諧共生,是我們追求的目標。”何積豐說。
作為技術的運用和實踐者,企業在人工智能治理中,既扮演著“實行者”,同時也扮演著“治理者”的角色。
作為人工智能計算機視覺“四小龍”之一,曠視在人工智能深度學習方面擁有核心競爭力,通過提供多種高效的全棧式解決方案為不同垂直領域的客戶賦能。曠視向客戶提供包括先進算法、平臺軟件、應用軟件及內嵌人工智能功能的物聯網設備的全棧式解決方案,并在多個行業取得優異的成績。
對于人工智能企業的發展道路,曠視聯合創始人兼首席執行官印奇表示,負責任的AI 就是可持續發展的AI。治理問題其實是一個非常長期的問題,只有更多的企業從實踐角度提出更好的問題,才能讓我們的行業專家、教授們和宏觀研究的學者們能夠有一個更好的牽引和更實際問題的落地。
談及AI 技術人才的管理,IBM 擁有一套成功的管理經驗。歐盟AI 高級專家組成員、IBM 研究院人工智能倫理全球負責人和杰出研究者Francesca Rossi 認為,開發人員必須認識到,他們的每一個選擇都可能在無意中向系統注入偏見。因此,開發人員需要在這些問題方面接受相關培訓,同時還需要了解是否存在能夠處理和解決上述問題的技術性或非技術性解決方案。
另一方面,理論和倫理亦是人工智能治理不可忽視的關鍵點。
對此,復旦大學應用倫理學研究中心主任王國豫談道:“負責任的人工智能是可能的,但是它是以負責任的人和負責任的行為為前提的。人工智能是一個技術系統,是社會、政治、經濟、文化語境當中的技術社會系統,因此負責任的治理不僅僅是工程師和科學家的事情,也是我們每一個人的事情。負責任地發展人工智能在這個意義上來說人人有責。”
眼下,人工智能產業越來越“家喻戶曉”,應用前景更廣泛,技術和產品走向精細化和專業化的方向,如何確保人工智能安全、可靠與可控,是一個人工智能產業從業人員和科技工作者需要思考的問題。為了讓人工智能產業更進一步融入生活和未來科技發展的軌道,從基礎研發到應用都需要更合乎倫理,“發展負責任的人工智能”應成為人們的一大共識。