張金穎
特斯拉和美國太空探索技術公司創始人兼首席執行官埃隆·馬斯克在羅德島一次全國性州長會議上表示應該警惕人工智能崛起的潛在風險,并建立監管機構來引導這項強大技術的發展。隨著人工智能系統越來越多地參與到人類日常生活,如何降低人工智能帶來的潛在風險,成為亟待解決的全球性新議題。為此,筆者有三點建議。
一是完善人工智能的監管體系。作為各國企業自動駕駛試驗田的美國,其交管部門雖通過發放許可證等方式充分鼓勵和積極配合自動駕駛技術的測試和路試,而對于正式的應用許可仍然抱有十分審慎的監管態度。獲得許可證的公司均在汽車設計中加入了人為干預汽車駕駛操作系統,以保障行車的安全性。世界經濟論壇認為,對于人工智能的監管需多層政策,包括道德標準、規范人工智能應用程序的預期、實現場景以及實施問責制。
二是厘清人工智能的標準體系。目前有關人工智能的硬件與技術存在發展水平、處理速度層次參差不齊等問題。因此,未來人工智能技術標準化建設的主要趨勢是統一技術、數據使用以及安全等標準化建設。在人工智能技術發展日益成熟的趨勢下,明確規范的行業標準,將為人工智能的發展提供“智能化”的支撐與支持。
三是夯實人工智能的法律體系。Google無人駕駛汽車在美國加州測試時與一輛公交車相撞,萬幸未發生人員傷亡。美國高速公路安全管理局認為,根據聯邦法律,無人駕駛汽車上的人工智能應被視為司機。聯系之前發生的德國大眾“機器人殺人”事件,不禁引起人們對人工智能責任承擔的思考。我國《產品質量法》規定,因產品存在缺陷造成人身、他人財產損害的,受害人可以向產品的生產者要求賠償,也可以向產品的銷售者要求賠償。該條文可在短期內解決人工智能相關法律問題,而當人工智能發展到具有高度自主性和行為能力時,一套獨立完整的法律體系涵蓋人工智能的定罪量刑、確保研發者、運營者和使用者的責任分配的清晰性,對維護社會秩序的穩定和法律體系的完善來說十分有必要。2017年美國國會提出3部有關“人工智能”的法案,分別涉及到民生領域及教育領域。針對人工智能的法律體系,需要有一部體系和結構上相對完整的專門法律作為主導,加以不同領域相關法律的配合與補充,將人工智能提升至國家戰略層面。endprint