鄧家豐 河南省滑縣第一高級中學
引言:人工智能帶來的法律敏感問題不可避免,也不可忽視,應該加快建立起適合人工智能時代的法律制度,尤其高中階段對一個人的價值觀養成極為重要,高中生也應對這些有所了解,形成正確的價值觀,可見法律制度的完善即便是從高中生的立場也有很大的實際價值。
人工智能時代的來臨給現行的法律帶來了巨大的挑戰,這里主要介紹幾個于高中生而言比較有體會的問題,包括智能系統的侵權法、著作權以及隱私、人格權,下面即一一進行分析:
(一)侵權法問題。智能系統致使人受到損害的侵權法問題是目前較為常見的有關人工智能的法律問題,我們不能否認人工智能帶來的便利性與高效性,但同時智能系統致人損害也不可避免的存在著,總的來說這種侵權法問題可分成兩類:由于人的非法控制、不當使用導致的損害以及由于人工智能產品本身的缺陷導致的損害。而當損害發生時,到底是那種因素引起的?要辨別這種損害生成的原因,就要通過對智能產品過錯行為的剖析,必須明確成因才能進行接下來的責任認定,而這一過程的實施就有很大的難度。另外,目前我國的法律對于這類問題有兩種責任認定方式,一種對應上述第一類成因,也就是人的錯誤、非法使用造成損害的責任認定。另一種則是技術中立原則上的替代責任,具體來說就是,人工智能產品本身沒有缺陷問題則滿足技術中立原則的標準,但若發生因產品所有人、管理人等的不良介導下的侵權行為,不屬于技術中立原則范疇,應承擔侵權責任。
(二)著作權問題。人工智能開發的初衷就是通過對機器利用,輔助、參與人們的工作,其中自然也包括了文學、科學等方面的創作,在人工智能的不斷發展下,人工智能產品已經可以生成作品,而對于這些人工智能創作的作品的著作權問題不禁引人思考,這些作品能不能享有權利?如果能享有權利,那么著作權是由誰享受?機器?還是機器的發明者或使用者?關于這些思考目前我國法律的規定是,智能機器人創造的作品同樣享有著作權,是受著作權法保護的。而由于機器人本身并不能行使著作權權利,所以作品享有著作權,但該著作權為智能機器的創造者或機器所有人享有,法律對這一著作權的保護通過保護智能機器作品來實現。
(三)隱私、人格權問題。人工智能時代下隱私、人格權的問題也是現代社會人民群眾面臨最多的問題,即使是身為高中生的我們也常遇到這種問題,身處于人工智能時代、在網絡科技不斷發展之下、在人工智能、大數據以及互聯網科技交互運用之下,我們的隱私問題越發突出,這種形勢對我國隱私、人格權相關法律也帶來了一定的挑戰,同時我們自身在利用人工智能時也要重視對隱私權的保護,從自己做起加強隱私保護意識,智能機器對隱私的收集、挖掘是個人隱私泄露的重要途徑,因此作為人工智能使用者應該對人工智能產品加以防備[1]。另外,還有企業方面對用戶隱私的保護也要加強,同時我國法律也應加強立法約束人工智能下的隱私、人權問題,需要更進一步明確智能時代下人民隱私、人格權的內容、范圍、屬性等。
對于人工智能時代帶來的法律與制度上的挑戰,在此基于價值目標、社會規范調控體系、風險控制機制三個角度來分析人工智能時代下具體的制度安排以及法律規制:
(一)價值目標層面。對于人工智能時代下價值目標的深入完善,應該貫徹安全為核心,樹立安全價值、形成安全價值觀,安全為核心的價值目標能夠有效保障社會秩序的穩定運行。這也是一直以來有關部門的努力方向,具體來說安全價值貫徹落實到人工智能環境下的制度規劃主要應注意以下幾個方面:第一是國家戰略部署上,加強對人工智能有關技術發展的戰略規劃[1];第二,盡快出臺有關法律推進并監管人工智能行業,明確行業準則,制定安全標準,為人工智能的發展創設一個規范、有序、安全的環境并同時能起到監督的作用;另外,人工智能知識產權有關機制也應該進一步完善。
(二)社會規范調控體系。人工智能時代下要做好制度安排以及法律規制還要加強社會規范調控體系的建設,堅持以倫理為先導的調控體系,其實倫理指導的調控體系的運用在很多發達國家已經相當成熟,運用倫理進行規范的優勢在于能夠起到先導作用,其起到的調整作用區別于法律的約束,是另一種獨特的作用方式[3]。比如,對人工智能產品進行道德預設,設置好有關道德標準等方式來實行倫理指導,這些倫理規范、調控也能通過進一步的法制建設實現道德的法律化。
(三)風險控制機制。風險控制機制的作用不言而喻,當下人工智能帶來的隱患、風險急需得到控制,規避風險,建立起技術、法律雙控的風險控制機制。在法律控制的基礎下輔之以技術控制,這樣能夠對人工智能產品、技術的研發、投入市場等進行合理范圍的限制,同時形成懲戒機制,對于利用人工智能做出不法行為的人或組織要嚴肅處理。可以建立起從人工智能的研發到應用、流入市場的全過程的責任制度,明細責任劃分。另外,還應實行技術民主原則,一定程度公開人工智能技術相關信息,并且人民群眾有權參與到這些技術決策中。
結束語:總而言之,人工智能是時代發展的大趨勢,在這樣的背景下應當加強法律、制度的建設,也相信通過價值目標、社會規范調控體系以及風險控制機制三個方面的調整,在安全為核心的價值目標引導下、在以倫理規范的調控體系牽引下、在技術與法律介導的風險控制機制的輔助下,能夠有效幫助健全有關法律制度,解決當前人工智能帶來的法律盲點。