浮婷
近年來,負責任研究與創新(Responsible Research and Innovation, RRI)逐漸成為研究熱點。它建立在多學科背景的理論基礎上,是對包括人工智能、互聯網、大數據、納米技術、基因研究等新興研究與創新領域的深刻反思。在工業革命以及工業革命之前的時期里,科學技術往往以一種絕對正面的力量而存在,它被哲學家認為是一種美德,也被稱之為人類社會進步的標志。而在兩次世界大戰中,科技開始呈現出“惡”的一面,催生了包括核武器在內的威脅人類命運的成果,成為了戰爭的幫兇。
科學研究的“價值中立主義”最早由德國社會學家馬科斯·韋伯(1914年)提出,這一理論強調的是包括社會科學在內的所有研究應當秉持一種“價值中立”的原則,實際上指出了科學研究從選題到提出假設都包含著主觀的價值判斷。科學研究中純粹的“價值中立”實際并不存在。為此,負責任研究與創新完全揚棄了所謂的“價值中立”,主張在新科技影響越來越重大的背景下,在研究與創新階段就貫穿對影響負責任的理念,實現社會價值、環境價值和道德標準的和諧統一,真正將“社會中的科學”轉變為“為社會的科學”以及“與社會共生”的科學。
在負責任研究與創新的理論模型中,具有代表性的是英國學者斯蒂爾戈與歐文等(Stilgoe et al. ,2013年)提出的“預見性—反思性—包容性—回應性”四維框架。其中“預見性”是指研究與創新本身所涉及到重大影響需要提前進行分析、認知與管理,既包括了對風險的預防也包括了對于參與者、受益者、替代方案等一系列問題的關注;“反思性”是指研究與創新必須充分考慮法律法規的約束條件和道德要求,確保實驗室中的研究與創新能夠充分反映社會訴求。“包容性”是指研究與創新的過程必須最廣泛地邀請利益相關方參與,并將關鍵群體的訴求納入到研究重點議程范圍。“回應性”是指保持研究與創新全過程的透明和接受監督,并對政策監管、技術標準、知識產權、文化背景等諸多方面積極做出回應。“預見性—反思性—包容性—回應性”四維框架能夠促進責任價值融入實驗室的基礎研究與企業所推動的應用創新的過程,對于人工智能這樣基礎研究與企業創新并行的前沿熱點領域尤為重要。
1.預見性:我們需要什么樣的人工智能?目前人工智能的快速發展是移動互聯產生的大數據、機器學習算法演進和硬件發展遵循摩爾定律共同驅動的結果。如果說人工智能發展在多種條件成熟之后具備了發展的前提和動力,那么應當將人工智能引向怎樣的方向則是超越技術范疇的社會問題。我們需要考慮的不僅僅是人工智能研究創新需要避免什么,同時也應該清楚的是我們究竟希望從人工智能發展中獲得什么。這里需要納入考量的兩條必要原則是:A. 人工智能的研究與創新需要利于經濟、社會環境可持續發展。人工智能的意義遠不僅僅體現在商業價值,目前企業推動的人工智能模式識別大量被用在了推銷產品和制造消費需求上,所有尋找所謂用戶“痛點”的商業策略都可謂不痛不癢,關于資源、環境、社會平等等方面的重大問題卻鮮有關注,這是一種缺乏預見的方向性偏差。B. 人工智能的應用與創新要有利于個體賦能和人的價值實現。“AI云”即云端的人工智能計算,不應該僅僅為大型企業所掌控,而應當像互聯網走出軍方的實驗室最終成為現代社會的基礎設施那樣,成為人人都可以便捷利用的個體賦能工具,并能夠通過數字化的手段和實時溝通策略,進一步將分散的人類智慧聚合起來,成為使個體專長得到充分發揮的“人機協同系統”。
2.反思性:需要從人與機器的層面同時進行反思。人工智能研究與創新應當最大限度避免管中窺豹的思維,僅從單一的領域與單一的視野出發很容易將研究與創新引向極端,單純的技術思維不可取,而單純的商業思維同樣也不是最佳解決方案,需要將相關研究創新置于社會—技術系統中認識與分析。這里同樣存在著兩種反思,A.第一種是研究者與政策制定者的反思。“好心辦壞事”往往都是由于過于自信和缺乏反思。不僅研究者們需要反思自己的研究方向和具體的技術構架,商業領域的創新者們同樣需要反思人工智能的應用與推廣策略,而政策制定者們則更需要有長遠的眼光和視角,不能被短期的效果和利益所蒙蔽。B.第二種是構建的人工智能需要具有反思性。強調機器擁有對目標的反思能力聽起來似乎還很遙遠,但卻是關系到人工智能是否會造成威脅的關鍵因素。如果我們繼續向著人類智能的方向塑造人工智能,那么最危險的莫過于最終出現了極其高效并可以通過一切手段實現其目標,但又缺少人類的自我反思能力的人工智能,其后果顯然將會是災難性的。
3.包容性:人工智能需要最廣泛的利益相關方參與。究竟誰應當決定人工智能未來的發展方向?目前人工智能的發展中,社會力量的參與和影響微乎其微。普通公眾對大數據、算法和人工智能缺少必要的了解與認知,更談不上監督與參與,市場目前在這一過程中發揮決定性作用,很多人工智能的應用與產品匆匆投向市場,只能接受社會公眾消費行動這種唯一的檢驗方式。然而商業上成功的產品未必就代表著正確的發展方向。這里增加包容性的兩點建議是:A.企業與政府在相關決策過程中應促進利益相關方參與。隨著人工智能技術的應用,科技巨頭企業已日益向著基礎設施提供者和“社會公器”的角色演變,這就需要這些企業在收集和運用大數據時,超越單純的經濟價值驅動和企業家個人偏好驅動,開展相關方合作使創新能夠服務于社會整體利益;政府在制定與社會關系重大的人工智能政策時,同樣需要盡可能廣泛地納入各個群體的意見。B.為利益相關方參與準備資源和平臺。這些資源和平臺包括信息公開的機制和渠道,必要的知識與技能的培訓,政策與理論的儲備,以及對公眾對于自己數據權益使用敏感意識的培養等。
4.回應性:人工智能研究與創新必須克服“黑箱”與“盲點”。目前人工智能研究流行的神經網絡算法,在輸入和輸出結果之間的調試過程存在著難以確知的“黑箱”,即研究人員也弄不清楚算法自身進行了怎樣的演化并產生了最終的結果。這從安全性的角度來看風險極高。針對這樣不明確的研究與創新應當怎樣回應?需要重點關注以下兩點。A.技術上的回應。對于高度不確定性的“黑箱”技術是否一定要采用?是否有技術上的替代方案?在運用的同時有沒有建立類似自動切斷電源這類的技術安全屏障?B.制度上的回應。必須使制度和政策設計跟上技術的發展,不應該有法律和政策上的盲點,要明確相關影響的主體,產生了什么樣的影響就應該對什么樣的影響負責,通過合理的制度框架明確責任關系的歸屬,是應對人工智能可能帶來的風險的最后一道保障措施。
編輯|胡文娟 wenjuan.hu@wtoguide.net
作者單位:中國社會科學院工業經濟研究所