■文/凌 超
博士,中國信息通信研究院華東分院數字經濟研究總監
當前,從倫理層面規范人工智能技術的發展與應用已是大勢所趨,但將指導原則進一步轉化為可執行、可監督的具體標準,還有許多工作要做,也需要我們從不同維度開展更深入的研究。
2021年11月,聯合國教科文組織發布了《人工智能倫理建議書》,這是193個成員國集體談判后達成的共同協議,因而成為首個全球性的人工智能倫理規則框架與綱領性文件。在此之前,倫理規范已日益成為人工智能發展的最新趨勢,以及社會輿論關注的焦點話題。近年來,世界各國密集出臺有關人工智能的倫理規范。例如,歐盟委員會在2019年出臺了《可信人工智能倫理指南》,中國國家新一代人工智能治理專業委員會在2021年9月發布了《新一代人工智能倫理規范》。同時,國內外人工智能領軍企業也高度關注人工智能倫理,在企業層面采取了一系列舉措。例如,微軟公司成立了人工智能與道德標準委員會,商湯公司設立了相應的倫理委員會,致力于推動人工智能技術的恰當使用。
從技術自身特點來看,人工智能因為能夠在某些領域實現對人的“替代”,自誕生之初就飽受爭議。近幾年,隨著人工智能應用的速度、廣度和深度不斷提升,社會各界對以深度學習為代表的人工智能技術的認識更加深刻。與此同時,在人臉識別、算法推薦、自動決策等人工智能應用中頻頻暴露出數據安全、個人隱私、算法歧視等問題的當下,人們對人工智能應用的擔憂已經從抽象的哲學思考轉為現實的利益保障。……