999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代專利制度的實踐挑戰與應對策略

2022-11-24 09:53:28李明晶
科技進步與對策 2022年19期
關鍵詞:人工智能

鄧 鵬,李 芳,李明晶

(國家知識產權局 知識產權發展研究中心,北京 100000)

0 引言

目前,人工智能技術已經邁入感知階段,從輔助工具延伸到自主創新領域。面對全球新一輪科技革命和產業變革,人工智能將發揮越來越關鍵的驅動作用。同時,以專利為代表的知識產權越來越成為創新發展的戰略性資源和激勵性要素,推動人工智能技術與產業深度融合發展。然而,人工智能與知識產權制度并不十分契合,兩者間存在諸多沖突需要平衡與協調,特別是在專利、著作權領域,相關改革與實踐已經成為世界各國普遍關注的焦點。

1 人工智能時代專利制度的實踐特征

從全球主要國家的實踐來看,各國對人工智能技術的研究、使用和保護都高度重視,同時,都在積極探索和制定相關知識產權保護體系。但鑒于人工智能技術仍在快速發展,技術和產業尚存在很大不確定性,相關制度的價值取向和政策立場將更多取決于各自的人工智能技術水平和產業需求。具體到專利制度,目前呈現出正向激勵與反向約束兩方面特征。

1.1 明確專利保護客體,在制度內部結構設計上追求獨特性

雖然加強人工智能保護已經成為普遍共識,但因其技術的獨特性,需要設計一套與之相適應的保護體系與規則,以更有效發揮專利制度的激勵作用。

以美國為例,美國專利商標局(USPTO)明確承認,人工智能可以通過專利分類中的第 706 類[1]申請專利并受到保護。而且,USPTO提供了兩個技術審查組專門負責審查針對人工智能算法的申請。從動因來看,USPTO的一個關鍵優先事項是保持美國在創新方面的領先地位,特別是包括人工智能在內的新興技術方面。因此,在授予保護的同時,USPTO也不斷地積極與人工智能領域的創新者和專家接觸,一方面是為了提升對于人工智能技術相關知識產權的理解,另一方面鑒于人工智能在算法、體系結構及應用等方面的特殊性,也在努力探尋相適應的知識產權體系與激勵措施,以進一步鼓勵人工智能領域創新[2]。

2020年2月1日新修訂實施的《中國專利審查指南》中也明確了涉及人工智能等新業態新領域專利申請審查規則,并加入了有關人工智能算法的特別案例,為涉及相關算法的可專利性提供了指引,同時,明確了相關權利要求書、說明書的撰寫規范[3]。

然而,明確給予專利保護僅是一個開端,未來的道路挑戰重重。學者吳漢東[4]指出,“為回應人工智能時代的法律挑戰,需要對專利的客體制度、主體制度、授權制度等內部結構進行審視,或維系或調整或重構,包括擴充專利授權客體范圍、保障產業主體利益、調整專利授權的‘三性’判斷標準等”。

1.2 注重“正義”價值指引,探尋構建協同治理體系和安全屏障,消解潛在危害

人工智能系統具有更突出的自主性、壟斷性和隱蔽性,因而引發了人們對于安全、隱私、誠信、尊嚴、自主權和數據權利等一系列風險和問題的關注,如何將人工智能置于安全可信體系中健康發展成為關注的焦點。這方面歐盟已經進行了一系列探索與實踐,2017年2月16日歐洲議會投票通過向歐盟委員會提出的開發機器人與人工智能民事法律規范建議[5],要求制定機器人憲章(Charter on Robotics),為機器人設計和使用制定倫理框架。機器人憲章要求從事機器人研究領域的人員必須承諾遵循道德和專業行為的最高標準,包括善良原則、非惡意原則與自主權保障原則等。目前,關于憲章范圍仍在進一步討論。雖然建議中僅在介紹的段落涉及專利,但對知識產權,歐洲議會希望歐盟委員會對所有行業包括機器人和人工智能采用水平和技術中立的方式,并且在保護和促進創新的硬件、軟件、標準和代碼方面采用激勵與約束相平衡的方式。不難看出,這份建議中針對機器人和人工智能知識產權保護的議題具有前瞻性,必將對未來知識產權制度發展產生深遠影響[6]。2018年5月25日生效的歐盟《統一數據保護條例》(GDPR),不僅提供了一系列具象的法律規則,更重要的是秉持和傳遞出“數據正義”(data justice)理念。

從專利角度考量,專利制度對創新的激勵和規范作用有助于人工智能領域的“創新”與“安全”協同發展。吳漢東強調,人工智能相比于其它技術領域,相關專利制度設計更需要秉持法律的安全價值觀,從時代理性和社會理性出發,通過設置專利客體的排除領域以及適用禁止權利濫用、限制權利行使等制度規則,消解人工智能技術的潛在危害。

進一步看,安全可信的人工智能涉及3個基本議題:邊界性、可回溯性和可驗證性[7],其中又涉及法律、技術、規范和倫理等諸多問題[8]。雖然完全解決上述問題已經遠遠超出專利范疇,但是,專利制度可以發揮十分重要的積極影響。一方面,加強專利制度與道德、規范、技術、市場等不同體系間的橋梁和紐帶作用,協調人工智能領域創新發展與有效治理之間的平衡,探索構建人工智能領域的協同治理體系;另一方面,通過內部制度優化與協調,促進人工智能透明化與標準化,幫助公眾更好地檢驗、理解和監督人工智能決策及發展,形成創新與應用的安全屏障,以增進全社會公眾福祉。

2 人工智能專利制度的實踐挑戰

為適應人工智能時代的發展,全球主要國家都對人工智能技術的可專利性、審查標準、主體資格和權利、侵權責任等開展了廣泛討論,并首先在專利保護客體方面進行了積極探索和實踐。然而,由于人工智能技術和應用的特殊性,其相關專利制度在實踐中仍然面臨諸多困難與挑戰。

2.1 技術層面的挑戰

目前,以深度學習為主流的人工智能技術無論是在算法、模型還是數據方面,都對專利制度提出了新的挑戰和訴求。

首先是算法,它在人工智能系統中處于最為關鍵與核心的地位。縱觀人工智能發展歷程,每次熱潮的更迭都與算法息息相關。早在20世紀50年代,美國羅森布拉特發明第一款類神經網絡“感知器”(Perceptron),將人工智能系統推向第一個高峰,但由于無法完成大規模數據訓練和復雜任務,很快進入了低谷。20世紀80年代,霍普菲爾德神經網絡被提出,使得大規模神經網絡的訓練成為可能,人工智能系統進入第二個高峰,但由于算力等問題仍然極大地制約了技術發展。直到2006年,Hinton提出“深度學習”神經網絡,使得人工智能在性能上獲得突破性進展,算法在語音和視覺識別領域取得了巨大成功。2016-2017年谷歌AlphaGo先后戰勝圍棋世界冠軍李世石、柯潔,揭開人工智能的新篇章。

從技術角度看,深度學習算法與傳統算法的主要區別在于,傳統算法有著明確的指令、清晰的流程和唯一的邏輯關系,而深度學習算法大多是基于“大數據+深度神經網絡”的機器學習模型系統,其實質是通過構建具有龐大神經元的“隱層”自學習模型和海量訓練數據,使機器學習更有用的特征,從而提升機器的查詢、分類和預測準確性。這類算法模型在高效模仿人類思維構建過程的同時,也具有無法推理、難以解釋、通用性和穩定性弱等特性,極易造成黑箱、歧視、不公等問題。本質上講,此類算法已經完全脫離傳統算法的概念,打破了傳統算法的約定。

從專利角度看,涉及人工智能的發明創造普遍涉及算法相關內容,在大多數情況下,算法可能也是整個技術方案中最具創造性的部分。加強涉及人工智能算法的專利保護與規范,既滿足現階段技術發展的要求,也符合時代發展的需要。但鑒于此類算法的特殊性,在給予保護的同時,也有必要加強對此類發明特性的考量與應對。

2.1.1 算法黑箱

“黑箱”是控制論中的概念。作為一種隱喻,它是指那些不為人知的不能打開、不能從外部直接觀察其內部狀態的系統[9]。“黑箱”問題的根源在于深度學習算法的輸入數據與輸出結果之間設計了眾多無法洞悉的“隱層”,而這些隱層之間還存在難以推理判斷的關聯關系,其決策的規則已經不再是邏輯性而是相關性,相關即因果,很多時候這種相關性體現出來的可能并不是自然法則的規律,而是基于所提供“自定義數據”的規則。這也直接導致此類算法輸出無法解釋、推導,甚至是難以理解。人類理性的發展歷程顯示,如果判斷或決策過程是可以被解釋的,那么,更容易了解其優點、不足,也更容易評估其風險,知道其在多大程度上、在怎樣的場合可以被信賴,以及可以從哪些方面不斷對其進行改善,以盡量增進共識、減少風險,推動相應領域不斷發展[10]。

就專利而言,算法黑箱無論是對相關技術方案的審查與授權還是保護與應用都會造成較大沖擊,具體而言,可以從授予專利權的實質性條件即新穎性、創造性和實用性(三性)方面作進一步審視。

(1)導致“新穎性”瑕疵。如果一項發明的全部技術特征和方案都是明確的,或者是可被解釋和推導的,那么,就能準確判斷其發明獲得的技術效果和解決的技術問題,也可以明晰改進方向。然而,算法黑箱使得對技術方案的評判和推導變得極為困難,特別是將人工智能系統應用于特定領域場景執行特定任務時,復雜的算法隱層和相關性使人們幾乎不可能確切地了解機器的全部思考過程和細節,只知道初始輸入和最終輸出,難以確定系統的整個決策過程,甚至可能連發明人自己都無法對算法有全面準確的了解和掌握。Douglas教授[11]指出,人工智能專利變得越來越深刻與模糊,以至于沒有人可以徹底明白;吳漢東[4]也指出,這很可能導致對專利新穎性審查的瑕疵,即對現有技術檢索比對的不完全性,造成新穎性判斷的不確定性,進而增加專利權的不穩定性。為此,學者們提出:一是不拘泥于某一特定技術領域,對現有技術進行擴大解釋,包括算法本身及其運行所依賴的原始數據、僅靠詞語替換而生成的海量技術方案等[12]。然而,擴大解釋必然會增加對現有技術檢索范圍、文獻獲取和特征比對難度,在目前尚缺乏統一、標準的技術體系支撐的前提下可能很難達到預期效果。二是要求專利申請材料中完全披露其與人工智能生成發明有關的所有數據及文獻,除涉及商業秘密外[12]。這種由專利申請人協助提供與發明相關一切必要信息的舉措似乎更為可行,但其中還需要考慮申請人的意愿,披露的充分性、必要性和有效性,以及對相關數據的管理等,相關制度和規則設計可能十分復雜,而且必將是一個漫長曲折的過程。

(2)引發“創造性”鴻溝。其主要體現在對“創造性標準”的把握和判斷上,隨著人工智能在各行業更廣泛和深入的應用,人工智能由特定技術向通用技術轉變,算法也逐步向通用算法發展[13]。然而,就目前算法體系來講,距離這一目標仍有很長的路要走,短期改善的可能性也很小。因此,要想進一步評估創造性,可能仍然需要本領域普通技術人員掌握較高深的算法設計、調試、數據處理等專業知識和能力,但這會無形中抬高各技術領域的整體水平和門檻,相關的“所屬技術領域”、“普通技術人員”和“最接近的現有技術”可能都需要重塑。對此,學者們提出:一是采取主客觀相結合的方法,引進不具有創造能力的技術分析型人工智能[14];二是提高創造性標準,將“一般技術人員標準”提升至“一般人工智能標準”[4]。然而,實踐中仍然面臨較大困難和阻礙。一方面,隨著人工智能技術更廣泛的應用,提高創造性標準會導致各領域專利的審查標準、實踐都難以把握與統一,極易造成領域間“鴻溝”。究竟調整到何處才是最佳標準是一個關鍵問題,也是一個疑難問題[4]。另一方面,就目前完全依靠“數據訓練”實現的人工智能系統來講,其實質仍是一種主客觀深度結合的技術架構,極易造成系統性偏差與壟斷,這對于非人工智能領域普通技術人員或不掌握相關數據的發明人來講顯然是不公平的。

(3)造成“實用性”隱患。黑箱中的相關即因果,導致算法決策過程中的高度不可預測性,或者說不穩定,特別是在深度學習和相關適應性學習算法模型體系中,這種不確定性很可能導致發明缺乏重復再現性,不具備實用性。具體表現為以下3個方面:一是對專利審查實用性標準中的“實際效果”評價,如何把握實用性所要求的積極效果?對于人們無法理解或難以破解的技術方案,如何判斷是有害的或是可再現的?學界主要觀點認為應將“人類介入”納入考慮因素,并作為判斷該項發明創造是否具有積極效果的標準之一[14,15]。但是,如何有效識別和理解技術方案,進而判斷“實際效果”仍然是實踐中的難點。二是不確定性導致價值進一步降低,使得專利轉讓/許可的交易風險和交易成本徒增,制約專利技術的市場交易和產業應用,也將打擊人工智能領域的投資信心[4]。三是阻礙技術應用和進步。一方面,“模糊”的技術方案無法被發明人之外的其它人借鑒和使用;另一方面,“封閉”與“復雜”的算法導致難以明晰技術問題及改進方向,這也有悖于“促進科學技術進步和經濟社會發展”的專利法立法宗旨。

2.1.2 模型缺陷

目前主流的人工智能模型仍是基于大規模歷史數據訓練構建的技術體系,雖然其在計算能力上實現了巨大突破,但其本質上仍然無法避免穩健性、適用性方面的問題。其中,穩健性也稱為魯棒性(robustness),是指模型通過訓練數據確定的各種參數對于新輸入作出正確決策的能力;適用性是指模型在領域內應用的普遍適用與復用能力。

2015年谷歌推出相冊服務“Google Photos”,其采用引以為傲的第二代深度學習引擎TensorFlow。這項服務背后是超1 000臺計算機、16 000個芯片組成的超大型神經網絡。然而,人們在實際應用中發現,它會將一些深色皮膚的人標記為大猩猩。為解決這一錯誤,谷歌直接從搜索結果中刪除了“大猩猩、黑猩猩、猴子”等一類靈長類動物的詞條標簽,但至今尚未有技術層面的根本性解決方案。無獨有偶,美國法院用以評估犯罪風險和量刑的人工智能系統COMPAS也被證實存在膚色歧視的現象,其針對黑人罪犯的誤報率遠高于白人。2018年3月15日,中國青年調查聯合問卷網針對互聯網消費者的調研顯示,51.3%的受訪者遇到過互聯網企業利用大數據“殺熟”的情況[16]。

越來越多的事件表明,一方面人工智能技術還遠未成熟,在適用領域和穩健決策等方面仍然存在難以解決的技術缺陷;另一方面隨著人們越來越依賴人工智能,相關應用中的錯誤決策很容易、也很隱蔽地轉變為傷害,導致更嚴重的社會問題。傳統上,人們對于技術的認知是天然的、理性的、值得信任的工具,而人工智能時代重塑了人與技術的關系,技術不僅是制造和使用的方式,更是一種人化的自然,如果不解決目前的模型缺陷,那么,“有目的”、“不公正”仍將是系統生態的固化特征[17]。如何應對由此導致的直接或間接風險,目前法學界主要從人工智能系統致人損害的認定方面提出:一是基于行為人過失所產生的產品責任,歸類于機器人制造者和銷售者的過失;二是基于技術中立原則所產生的替代責任,即機器人本無對錯之分,但其所有人或使用人,或不盡善良管理人之義務,或放任機器人的侵權行為,則不能以技術中立原則免除責任[18]。然而,上述兩種方式更多地在于事后補救及威懾,對風險的預防效果較為有限,多數還是以“自律”的形式加以約束。因此,人工智能時代公眾對于相關技術風險的防范呼聲持續高漲。

另外,人工智能除受到模型架構的客觀因素影響外,還在模型設計、編程、數據選取等諸多環節受到人為主觀因素的疊加影響,難以避免地天然具有某種側向,也必然導致某種偏見或不公。然而,問題的焦點是,人工智能系統模型的“封閉”與“復雜”性使得其內部既難以識別也無法判斷,更難以追溯,大多數情況下只能不斷依靠外部輸出進行判斷與識別。就專利而言,這種模型缺陷不僅使得專利的實用性大打折扣,而且可能導致嚴重的授權缺陷,給后續保護、運用埋下巨大隱患。

2.1.3 數據危機

目前,人工智能系統還完全依賴或受限于所提供的數據(訓練數據、測試數據、驗證數據等)。雖然知識產權制度已經為數據提供了多種類型的確權和保護,但主要傾向于對產出物的保護,并不會延及數據本身[19]。由于缺乏相應的保護制度和規范,多數數據權利主體傾向于采取技術秘密形式進行保護。這就導致,一方面不同行業、領域、企業間數據共享和分發都受到極大制約,相關權利主體按照自己的利益隔離各自數據,并為數據共享設置障礙,使得獲取數據的難度和成本依然巨大,數據“孤島”和“壟斷”問題仍是制約人工智能發展的主要瓶頸。另一方面,低質量、不完整、非客觀的數據缺陷也會直接導致系統性重大偏頗和錯誤。而且更致命的是這種數據缺陷往往十分隱蔽、難以察覺,大多數情況下,只有形成一定規模應用后才可能逐漸暴露出來。而此時再著手解決,往往需要付出巨大代價,甚至很可能像“Google Photos”一樣是無解的。這也使得技術問題被無限放大,引發嚴重的社會問題。尋求人工智能公開透明、可解釋、可追溯的呼聲日漸高漲。

從專利角度看,雖然給予人工智能保護客體已經成為普遍共識,但對相關數據的進一步規定仍是空白。長此以往,不僅會加劇人工智能領域專利的瑕疵和爭議,還會嚴重制約相關技術發展和應用。鑒于數據在人工智能領域的關鍵作用,世界知識產權組織(WIPO)、歐洲專利局(EPO)和美國專利商標局(USPTO)開展了廣泛討論,焦點主要有3個方面:一是必要性,鑒于人工智能技術的快速更新迭代,相關算法、模型、應用甚至技術體系都尚未定型,此時對數據進行規定是否為時尚早或可能阻礙技術發展;二是平衡性,出于專利申請的意愿,相關數據規則需要如何設計,既能滿足專利充分公開的要求,又能保障申請人的積極性和權益;三是安全性,數據不同于技術,往往涉及大量商業秘密和個人隱私,如何保障數據在安全可信的環境下公開使用,也是需要重點考量的。

2.2 應用層面的挑戰

隨著人工智能技術邁入感知階段,相關應用已經從輔助工具延伸到自主決策與創造方面。長遠來看,隨著知識圖譜等認知技術的不斷發展與完善,很可能出現更具創造力的智慧形態。人工智能創造力的躍升將對專利乃至整個知識產權生態造成巨大沖擊和挑戰。

2.2.1 人工智能生成物

2019年8月,名為“達布斯”(DABUS)的人工智能發明人出現在兩項國際專利申請中。歐洲專利局(EPO)和英國知識產權局(UKIPO)進行了初步評估,發現申請已盡可能滿足可專利性的要求,但隨后歐洲、英國和美國專利局均以“發明人必須是自然人”為由駁回了申請[20]。發明團隊介紹Dabus時稱其是具有自主設計能力的系統,可根據提供的信息自主進行綜合分析,設計具有新穎性的產品方案。雖然發明申請被駁回,但Dabus的創建者斯蒂芬·泰勒(Stephen Thaler)博士表示未來通過完善Dabus在場景應用方面的抽象概念,可以讓Dabus成為真正具有獨立設計能力的智能系統,他堅信人工智能自主發明總有被接受的時候。英國知識產權局隨后發表聲明稱“基于目前的專利制度,人工智能的發明可能并不適用,但或許未來的專利制度將會進行相應修改”。隨著時代的進步,未來許多行業由于人工智能的出現會產生新的矛盾,甚至一些競技項目會因為人工智能的加入而發生根本性改變,或許需要提早制定一些共同規則來應對未來變化。

發明創造的動機是出于解決問題和獲得收益的需要。在這個過程中,可以借助智能工具提供先驗知識、經驗和試錯,以供開發出獨特的解決方案。但如果人工智能工具已經達到一定智力水平,可以創造出被認為是獨立開發的、具有與人類同等質量的發明時,將對現行專利制度體系產生巨大沖擊和影響。學者們提出“類職務發明的保護路徑”,但實踐中仍然存在權利主體、人格要素等難以克服的障礙[21]。也有學者認為,目前討論人工智能權利還為時過早,當務之急應是確定人工智能諸多參與者之中誰最有資格成為權利人,這關系到侵權責任的認定[22]。

針對人工智能生成發明,首先面臨的問題是如何有效識別發明是由人工智能自主完成的。雖然目前出現了署名人工智能發明人的專利申請,但大部分申請人仍然是“自然人”身份,以便主張權利。從相關專利的表現形式上看,人工智能生成的發明與一般發明沒有本質上的區別,因此,在沒有使用者提供相應信息的情況下很難進行有效辨識。而且,目前各國在專利申請程序中沒有明確規定必須提交相關材料或聲明。

從發展角度看,有效辨識人工智能生成發明對于規則制定或監管都是十分必要的。如果無法進行有效識別,就無從下手,也無法作進一步規范和管理。從監管角度看,建立一種適合人工智能的制度似乎存在一定合理性。著眼于未來,甚至可能需要某種與人工智能發明系統相適應的激勵制度或程序,以鼓勵對人工智能生成物的聲明或公開。

2.2.2 人工智能發明人

進一步看,人工智能發明人的出現將對傳統的發明創造要素和環境產生顛覆性影響。以往的知識、經驗、領域、工具間鴻溝很可能被迅速填平,使得僅掌握人工智能技術的人與傳統的發明家處于同等地位。正如AlphaGo訓練40天就戰勝了人類頂尖圍棋選手一樣,眾多高科技公司越來越普遍地利用人工智能實現跨界發明創造。試想一下,人類發明家通過結合幾種現有技術教導發明而可能具備的創造性,利用人工智能可能變得極為輕松,它甚至可以輕松產生包含數種甚至十余種現有技術的發明創造。未來這一趨勢很可能會對傳統人類發明家的權利乃至制度本身造成沖擊,悲觀者甚至認為很可能會對人類創造力產生破壞性影響。

人們的憂慮不無道理,知識產權制度既要保護財產權也要維護人權。世界上大多數國家的知識產權法律都規定對個人擁有的知識產權保護應考慮與一定公共利益之間的平衡[23]。人工智能生成發明可能混淆知識產權所賦予“自然人”的精神權,削弱道德秩序。促使人工智能使用者將本不屬于自己的創造性工作歸功于自己,并通過改變或降低發明家創造的意義來貶低其成就。換言之,這可能將本領域人類創造性工作等同于那些簡單的機器系統的輸出,對于大多數人類發明家來說顯然是極不公平的[24]。

另外,從專利的創造性看,無論是理論上還是實踐中,創造性或非顯而易見性的評估都是以人類發明家衡量的,而且是最為困難的環節。但是,隨著人工智能發明的普及,很可能使得大部分腦力勞動轉移到機器上,導致人類整體發明活動變得更容易。這不僅使得評估發明和授權變得更加困難,而且長遠來看甚至可能影響專利制度對人類創新的正向激勵作用。

2.2.3 技術與市場壟斷

從理論上講,人工智能可以瞬間產生無數新創意與新發明,這一過程幾乎無需人工過多參與,加之算法共謀、支配地位濫用等問題,人們對于人工智能加劇壟斷的憂慮愈發強烈[25]。

從技術角度看,目前主流的深度學習算法天然具有壟斷傾向[26]。大公司可以利用資金與平臺優勢,掌握更多數據資源,而算法模型接觸到的特定數據資源越多,就越能準確選擇模式,更好地識別現實世界中的事物[27]。如果某公司使用的人工智能技術比競爭對手更好,那么,對手就很難打破這種壟斷局面,使得創新與競爭環境變得惡劣。同時,還極易造成信息繭房,阻礙更廣泛的技術創新發展。

從專利實踐看,人工智能自主發明創造很可能被專利權人用于增強自身技術壟斷,也可能被非專利人用于降低專利技術效力[28]。2019年6月26日,谷歌對解決基礎算法Dropout(在深度學習、訓練神經網絡時被普遍使用)的過度擬合問題提出的專利申請US14015768正式生效,在人工智能領域引起軒然大波。樂觀者認為谷歌沒有對算法進行限制或者收費的先例,此次谷歌申請專利很可能是為了防止被其它公司起訴,是一種自我保護行為。悲觀者認為谷歌對深度學習底層算法進行專利申請,握住了整個深度學習領域的命脈,所有Dropout算法使用者都面臨“卡脖子”風險。谷歌對于業界的爭議并沒有給出正面回應,但事實是2032年12月24日專利到期前,使用Dropout算法的企業、科研機構、從業人員都可能面臨專利收費和被限制的風險。另外,人工智能自主發明創造還可能被“非專利實施實體(NPE)”或“別有用心的人”當作大肆斂財的工具,造成系統性的創新生態危機。

可見,無論是微觀層面還是宏觀層面,人工智能技術的應用都對專利制度形成了巨大挑戰。微軟首席執行官薩蒂亞·納德拉(Satya Nadella)明確指出,“人工智能可以增強人類的才能和能力,但是涉及知識產權的創造和保護時,人工智能應該被允許與人類發明家站在同一立場上嗎?”他認為要慎重對待人工智能相關知識產權問題,在沒有進行充分討論的前提下,人工智能不應享有同等權益。

2.2.4 安全與可信

目前人工智能技術在醫療、交通、生產、金融等風險敏感型領域出現了越來越多的發明創造,能否有效降低人工智能技術在這些敏感領域的系統性風險,實現安全可信的人工智能,一定程度上決定人工智能應用的廣度和深度[7]。

安全可信的人工智能主要涉及3個基本問題:邊界性、可回溯和可驗證。其中,“邊界性”稱為適用性,指人工智能可以自主判斷可解與不可解問題的范圍,只有明確適用邊界,才能真正確定安全可信的使用場景。從專利角度看,主要涉及技術領域和應用場景,以及相關技術方案的實用性等方面,目前人工智能技術尚未形成統一、規范的標準,致使實踐中的判斷與評價都較為困難和模糊。“可回溯”是指人工智能系統在運行中出現問題或錯誤時,能否對出錯原因進行回溯,其目的是進行追責以便設計出約束人工智能系統應用的規范和技術。目前在機器學習類技術的專利中,相關算法會隨時間演進和數據可及性的改善自主發生變化,考慮到漫長的專利生命周期,僅在申請階段進行公開是否足夠?如何確保技術方案的穩定?如何有效管理以便追溯?這些問題都亟待探索與研究。“可驗證”即第三方保障和背書,一方面設計者需要對發明的改進提供反饋和指導,另一方面第三方需要衡量指標和評測標準。專利法第五條規定:“對違反法律、社會公德或者妨害公共利益的發明創造,不授予專利權”,專利制度肩負的是技術排他保護和技術信息傳播責任,并不為其產品質量和使用背書。然而,一再發生的產品危機蔓延影響專利聲譽和公信力的事件表明,公眾對專利還存在較大誤解,相應地,對專利承載的內容也提出了更高期望,這一現象在人工智能時代或將更加凸顯與尖銳。從公共利益的角度考慮,加強涉及人工智能算法發明的公開、透明和可追溯,使其置于安全可信環境中運行和發展,不僅有利于人工智能產業發展,而且有助于公眾利益平衡與維護,滿足社會的殷切期望。

3 應對策略及建議

人工智能時代,以專利為代表的知識產權越來越成為創新發展激勵性要素、市場競爭戰略性資源,推動人工智能技術與市場、產業融合發展。但鑒于人工智能技術仍處于快速迭代期,專利制度乃至整個知識產權體系由“僅人系統”過渡到“人與人工智能系統”需要一個循序漸進的過程。現階段,不宜在“保護客體”、“機器發明人”等方面“大刀闊斧”,應采取“小步快跑”策略,基于現有制度框架,持續進行“點穴式”優化完善。

進一步,可以從相關專利的申請流程入手優化影響發展的“短板”問題,從公開規則入手解決制約發展的“瓶頸”問題,從審查方面入手破除高質量發展的“軟肋”問題,充分發揮專利制度對人工智能創新和應用的激勵作用。同時,積極探索推進各領域相關專利審查、標準的完善,穩步推進“智能介入”的手段和方式,為最終實現與技術規制、法律控制、倫理準則相銜接的綜合治理體系積累經驗。

3.1 完善專利公開規則,促進人工智能技術的創新、應用和流動

專利制度的根本作用是促進技術創新、應用和流動,這就要求發明者以“公開換取保護”,而對技術方案的公開披露也是發明獲得授權的先決條件。世界各國都對專利公開有明確規定,中國專利法第二十六條三款規定“說明書應當對發明或實用新型作出清楚、完整的說明,以所屬技術領域的技術人員能夠實現為準”。然而,目前主流的深度學習人工智能技術無論是在清楚、完整還是可實現方面都存在較大阻礙。而且,就目前申請人普遍采用的“功能性描述”撰寫方式而言,問題愈加突顯。

從積極的角度考量,專利制度理應在“公開”方面發揮更積極的作用,促進人工智能技術流動和應用。然而矛盾的是,加強公開可能壓制一部分發明人申請專利的積極性和主動性,導致發明人出于利益考量,更多采取技術秘密的方式進行保護。但鑒于目前人工智能技術的復雜程度和數據獲取難度,未進行“適當”公開的技術方案可能很難被“外人”借鑒和使用,造成公開與保護方面的失衡,長此以往甚至會造成嚴重壟斷,更不利于技術創新。因此,從公共利益角度考慮,加強涉及人工智能相關發明的公開、透明和可追溯,不僅有利于人工智能技術發展,而且有助于公眾利益的平衡與維護。

解決問題的思路在于“探尋一種既符合現階段人工智能技術發展和保護需求,又適度滿足專利公開要求的平衡方案”。就深度學習人工智能技術而言,或許可以從算法架構、目標函數、訓練數據3個方面入手進行探索。

為了促進人工智能技術的應用,并避免過度調試,算法相關模型架構與目標函數對技術人員來說都是十分關鍵和必要的。如果將算法比作人,則“目標函數”是大腦,“架構”是骨骼,而“數據”是血肉。

3.1.1 架構體系

算法的模型架構就像是人的“骨骼”。針對不同任務的算法模型可能存在較大差異,例如,適合處理可視信息、圖像、感知等任務的“卷積神經網絡(CNN)”,其層數和排列雖然是任意的,但每層都會設置不同高度、寬度和深度,隱層的設計往往都具有獨特性。如果未披露這些特征,技術人員只能被迫進行漫無邊際的實驗,從近乎無限的可能中尋找正確方案,這無異于大海撈針。而目前廣泛使用的“深度神經網絡(DNN)”更適合處理較復雜的任務,通常情況下此類算法中隱層越多越有利于任務的執行,然而這也意味著,執行過程將變得更加復雜和不穩定,實現起來也更為困難。因此,不同類型算法的發明可能還需要針對性的額外信息披露,以便指導技術人員將算法模型置于適當范圍內,避免大量、漫無邊際的調試與驗證。

3.1.2 目標函數

算法的目標函數就像是人的“大腦”。它從數學上定義了模型執行任務的方式,以及度量任務“成功”的級別。對于目標函數來說,任何變化都意味著算法模型在設計上針對不同任務進行的優化。因此,為了確保發明按照預期的效果執行,目標函數是必不可少的特征。目前,已有很多通用函數可供基本的任務需求,但由于專利技術方案往往都是在特定領域執行特定任務,自定義函數可能也會大量出現。是否應該或有必要對目標函數進行披露,如何披露以實現申請人、發明人與社會公眾間權益平衡,這些問題都值得進一步探索與研究。

3.1.3 數據

“數據是新的石油”已經成為人們普遍的共識,而數據對于人工智能來講就如同“血肉”,至關重要。要想實現一個有效的系統,如果沒有合適的數據相匹配,那么,其僅是一具“沒有靈魂的軀殼”,不具有任何“實用性”。

目前,各國專利制度對于數據相關披露要求還是空白,大多數申請人都采用技術秘密的方式不愿主動公開相關內容。對于具體實施來說,僅能通過領域、應用等信息猜測或推斷相關數據的特征,再考慮到算法的不確定性,發明實施難度被無限放大。

另外,數據的結構特征以及準備數據所進行的收集、整理、處理等各種操作都可能對算法產生決定性影響。例如,針對成百上千個維度的數據集進行特征抽取、隨機采樣、標準化等操作,即使發明人自己也可能難以明確哪些操作對于算法優化是必不可少的以及影響如何。鑒于此,為了滿足發明的實施要求,有必要對相關數據特征或信息進行適當披露。

然而,從可操作的角度考慮,人工智能數據集往往規模龐大,而且多涉及個人隱私、商業秘密等信息,實踐中很可能面臨較大困難和阻礙。另外,過度的公開要求可能促使發明人轉向技術秘密等更隱秘的保護形式,也不利于技術進步。因此,有效且適度的信息披露制度顯得十分重要。

按照披露的程度至少有3種方式可供選擇:

一是公開數據收集或處理過程相關信息。例如,數據來源、收集時間與范圍、處理手段及要求等外圍信息。此類信息可以提供基本的方向指引和評估。

二是公開數據集相關特征信息。例如,人臉圖像數據集,其特征可能包括人物范圍、人物分類、采集方式、結構特征、過濾和采樣情況等。這些信息有助于指導技術人員重新創建類似數據集,避免隨意猜測和實驗。

三是直接公開脫敏后的數據集或樣本數據,類似于MNIST、WikiText、LibriSpeech等知名開源數據集,進一步還可能涉及僅使用開源數據集、包含部分定制的數據集、完全定制的數據集3種情形。

另外,為了有效管理和保護數據,可能還需要建立某種統一的數據存儲或保藏體系,這可能也是一個巨大挑戰。

雖然困難重重,但是,從操作與收益的角度考量,加強對相關數據的公開披露不僅有利于技術發展和應用,還有利于全社會對數據的收集、處理和流動。在數據作為核心生產要素的新時代背景下,其值得積極探索與實踐。而且,就專利制度而言,已經有化學、醫藥領域補充實驗數據的先例可供借鑒,具備一定基礎和可操作性。

3.2 健全頂層設計,優化申請流程和審查手段,滿足創新保護的迫切需求

目前,專利申請、審查和授權周期已經大幅壓縮,但要適應人工智能技術的創新步伐還需加大力度,進一步優化相關專利申請程序和審查手段。除利用電子網絡等現代化手段外,在相關制度和機制上也需要配合完善。一方面,雖然依托國內各地方建設的知識產權保護中心和快速維權中心可以滿足一部分人工智能技術創新主體、市場主體的需求,但仍然存在技術領域、管轄范圍等諸多方面的條件制約。而面向國家層面、行業層面的快速預審、快速確權、快速維權“一站式”知識產權綜合服務尚處于空白,導致缺少統籌規劃,各自為戰,難以形成合力。健全和完善人工智能領域的知識產權創、運、保、管、服的頂層設計應是首要任務。另一方面,在優先審查的基礎上,還應積極探索人工智能技術輔助審查的方法和途徑,并通過不斷累積實踐數據和經驗,逐步構建相關專利審查的技術圖譜、審查標準和操作規程,為進一步縮短審查周期提供技術保障和支撐。同時,有助于明確相關專利與技術標準之間的制約和依存關系,推動人工智能關鍵技術專利進入國際和國內標準,也推動各領域標準體系建設,為全球人工智能綜合治理體系創新貢獻中國智慧和中國方案。

3.3 建立人工智能生成物標識制度,為有效辨識和管理提供基礎保障

雖然專利領域已經出現人工智能生成物的發明創造,但受限于人工智能技術水平和能力,現階段討論其法律地位、權利義務等為時尚早。目前,更重要的是如何對其進行有效辨識或區分,確保其始終在安全可控范圍內運行,并為后續政策制定與協調管理提供基礎。從專利角度看,為了進行更有效的辨識,可能要提供某種激勵措施,鼓勵申請人對其進行標識或聲明。基于現有專利發明人制度框架,有以下4種處理方式:

(1)暫時擱置,仍然維持“自然人”作為發明者的規定,待時機成熟再處理。一方面,人工智能發明人與“自然人”仍然處于混淆的狀態;另一方面,可能導致各國在專利法中對發明人的概念作出不同定義或解釋。另外,究竟怎樣才算時機成熟,可能永遠也沒有一個定論,隨著時間的推移,管理、協調難度可能越來越大。

(2)一步到位,直接允許人工智能發明人。這種方式雖然可以最大限度地鼓勵創新和商業化,但是,仍然會導致人工智能發明權利不清等問題,而且,會造成嚴重“壟斷”。在目前人工智能未被承認具有獨立法律人格的情況下,“人工智能”不應與“自然人”發明家具有同等地位。

(3)相關發明不具有專利權或增設一類有限專利權予以保護。一方面,拒絕人工智能自主創造的發明獲得專利權會直接導致申請人轉而采用商業秘密形式,從而限制人工智能技術發展和商業化使用,甚至造成壟斷;另一方面,增設一類有限專利權只會增加制度的復雜性,并不能帶來明顯的益處。

(4)相關發明可以視為“一般發明”,在現有專利制度框架內獲得授權,但需要進行額外聲明或標識。可以在保留“自然人”發明家的前提下,增設相應人工智能發明的聲明或標識項,并要求設置至少一位“自然人”發明者承擔相關權利和義務。這樣既可以避免人工智能發明人與“發明家”相混淆,也可以避免相關權利沖突。

考慮到對現有專利制度框架的沖擊與影響,第4種處理方式可能更為溫和,操作難度也較低,效果也較明顯,綜合來看可能更符合現階段發展需要。

3.4 發揮紐帶作用,助力構建技術規制與法律控制為主導的風險防控長效機制

人工智能時代的風險防范和治理需要采取技術規制與法律控制的綜合治理體系[16]。專利制度作為科技創新向現實生產力轉化的重要橋梁和紐帶,理應在構建人工智能風險防控的長效機制上發揮積極作用。

(1)發揮“審查”之問,助力事前預防。例如,通過對人工智能發明實用性審查中“可實施性”、“實施效果”等方面的強化,促進相關技術方案的透明、控制與監管,進而規制技術研究,預防技術產生的負面效應或副作用。有害發明的“可專利主題排除”與專利申請案中的無害實用性審查,共同組成防范人工智能發明技術風險的安全閥[4]。

(2)發揮“規則”之尺,明確權責配置。專利是具有公、私雙重屬性的商品,通過重塑或明確人工智能領域發明的使用、分配和利益分享等權責配置,有利于明確從技術研發到應用過程的各方責任規制,確保人工智能始終在科學、道義、倫理和法律的體系下安全運行。

(3)發揮“公正”之基,推動技術民主。例如,通過對人工智能發明申請、審查中的程序優化,推動技術信息公開、公眾積極參與和決策。同時,結合反壟斷、反不正當競爭等監管手段,推動各利益主體間平衡,確保公平正義,以實現社會利益最大化。

4 結語

人工智能從輔助工具到自主決策的發展已經不再局限于技術層面,而是向著新生產要素的方向邁進,不斷融入整個社會生態系統中。雖然全面解決人工智能問題已經超出專利的范疇,但是,專利制度本身仍然可以發揮十分重要的積極影響,通過相關制度的優化與協調,幫助公眾更好地檢驗、理解和監督人工智能創新與發展,進而增進全社會公眾的福祉。

本文主要側重專利制度實踐,通過分析人工智能時代專利制度面臨的沖擊和挑戰,提出我國現階段人工智能相關專利制度優化、完善的對策建議。具體包括:完善專利公開規則,促進人工智能技術的創新、應用和流動;健全頂層設計,優化申請流程和審查手段,滿足創新保護的需求;建立人工智能生成物標識制度,為有效辨識和管理提供基礎保障;構建技術規制與法律控制為主導的風險防范控制機制。

未來以專利為代表的知識產權將越來越成為創新發展的戰略性資源和激勵性要素,推動人工智能技術與產業深度融合。堅持包容審慎的態度,在安全可控的范圍內積極探索,不僅有助于我國人工智能技術發展,而且有助于促進全社會高質量發展。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 亚洲精品天堂自在久久77| 日韩精品亚洲人旧成在线| 国产欧美又粗又猛又爽老| 午夜国产精品视频| 国产亚洲精品无码专| 欧美、日韩、国产综合一区| 亚洲中文字幕精品| 久久久久九九精品影院| 亚洲综合狠狠| h视频在线观看网站| 国产成人精品亚洲77美色| 亚洲成网站| 国产精品女人呻吟在线观看| 亚洲欧美另类视频| 中国国产一级毛片| 久久情精品国产品免费| 欧美亚洲国产精品第一页| 看看一级毛片| 国产爽妇精品| 国产精品永久不卡免费视频| 国产91熟女高潮一区二区| 久无码久无码av无码| 国产超碰在线观看| 欧美视频在线观看第一页| 精品国产免费第一区二区三区日韩| 国产精品一老牛影视频| 国产综合精品一区二区| 免费看a毛片| 国产乱人视频免费观看| 噜噜噜综合亚洲| 色婷婷综合激情视频免费看| 国产第八页| 亚洲精品手机在线| 国产精品黄色片| 欧美高清国产| 亚洲免费播放| 免费观看无遮挡www的小视频| 91麻豆精品国产91久久久久| 国产精品主播| 日韩无码黄色| 国产欧美日韩专区发布| 在线精品亚洲国产| 伊人网址在线| 国产色爱av资源综合区| 国语少妇高潮| 久久动漫精品| 国产午夜看片| 国产网站免费看| WWW丫丫国产成人精品| 精品成人免费自拍视频| 在线国产你懂的| 国产亚洲视频免费播放| 激情综合网激情综合| 国产在线精彩视频二区| 99这里精品| 久久综合色视频| 四虎成人精品在永久免费| 91色国产在线| 不卡的在线视频免费观看| 久久综合AV免费观看| 中国精品自拍| 午夜国产大片免费观看| 国产精品高清国产三级囯产AV| 欧美亚洲另类在线观看| 中字无码av在线电影| 在线欧美日韩| 国产精品99一区不卡| 日韩免费毛片| 国内精品91| 亚洲人成成无码网WWW| 亚洲成A人V欧美综合| 色国产视频| 欧美精品不卡| 巨熟乳波霸若妻中文观看免费| 97青青青国产在线播放| 成人午夜福利视频| 欧美va亚洲va香蕉在线| 在线国产资源| 国产剧情一区二区| 国产成人啪视频一区二区三区 | 激情网址在线观看| 国产精品天干天干在线观看|