999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自主機器人的道德責任困境研究
——基于人類責任視角

2020-01-17 12:39:59簡小烜
湖南第一師范學院學報 2020年4期
關鍵詞:主體人工智能人類

簡小烜

(長沙學院 馬克思主義學院,湖南 長沙 410022)

人工智能技術經過幾十年的發展已經取得了巨大進展,它的產物——自主機器人興起并席卷了人類社會生活的各個領域。隨著技術更新速度的不斷加快,自主機器人的自主性和學習能力不斷增強,人類對其的控制卻越來越弱。經典道德責任理論指出:雖然自主機器人已具有一定程度的自主行為能力,但它們沒有意識、情感、欲望,對它們的問責是沒有意義的,因此它們不可能是責任主體,也不可能承擔責任;實用道德責任理論認為,如果由程序員、制造者和使用者負責,但他們原則上都不能預言和控制機器人的決策和行為,由他們負責是不公正的,他們也不可能是責任主體。兩派爭議很大,且不管他們的觀點是否具有可行性,現實中的情況就是,由于存在研發、生產、使用、管理等多個環節及多個參與主體,再加之自主機器人又不具備獨立承擔責任的能力,容易出現因果鏈失效和遠距離效應等問題,因此導致人類責任的彌散和逃避,最終造成了責任主體的缺失。我們的觀點是,研發者、制造商、使用者和政府部門是主要責任主體,自主機器人的道德責任是多元主體責任;人類應樹立“負責任創新”的理念,并從各個環節確定研發者、制造商和使用者以及政府部門等責任主體的責任,以保證每個意外、每個環節都有責任主體來承擔道德責任。

一、困境:責任主體缺失

道德責任問題就是:就具體的事件/情況而言,誰應該受到獎賞或懲罰,或者贊揚/批評?這個“誰”就是道德行為的責任主體。因此,要判定道德責任,首先要判定清楚誰是責任主體。按照經典道德責任理論,成為責任主體的前提條件是具備意識、意志、情感和自由,因此道德責任的主體是人;自主機器人雖然具有一定的自主性,但終究是人類的工具,不可能成為責任主體。實用道德責任理論則不認為意識、意志等是成為責任主體的前提條件,他們認為自主機器人具有類人的特性和能力,且其行為確實產生了道德后果,因此可以是責任主體。兩派的爭論非常激烈。

早在1978年,在日本廣島的一家工廠就上演了第一宗機器人“殺人”事件,切割機器人在切鋼板時突然發生異常,將一名值班工人當做鋼板操作致人死亡;1989年,前蘇聯國際象棋冠軍尼古拉·古德科夫和機器人對弈之時,機器人突然向金屬棋盤釋放強大的電流,眾目睽睽之下將這名國際大師擊斃[1];2007年10月,南非軍隊使用的一種半自主性機器人加農炮出了故障,殺死9名士兵,傷了14名;2018年3月的一個周日,在美國亞利桑那州坦佩市,Uber的一輛自動駕駛汽車與一名正在過馬路的行人相撞,該行人被送往醫院后于周一死亡[2]。這四個案例都造成了人員的傷亡,誰是責任主體呢?自主機器人嗎?實用派立馬指出,是的,自主機器人是責任主體,應承擔一定的道德責任。然而,經典派提出質疑:自主機器人沒有意識和情感,只是人類的工具,如何成為責任主體和承擔責任?那么,是研發者、制造商、使用者嗎?經典派立刻響應:是的,應該由他們負責。但實用派辯駁說:人類在研發、制造、使用環節未有任何疏漏,是自主機器人的學習和自主能力造成了傷害,應由機器人負責。從兩派的理論爭論而言,似乎誰都不可能是責任主體,而上述現實案例的最終結果確實是無人負責。可見,無論從理論還是實踐而言,自主機器人的道德責任都面臨著責任主體缺失之困。

隨著機器更加智能化,也隨著自主機器人的自主性越來越強,事故越來越多,道德責任問題被提出并持續發酵。比如,自主機器人的基礎性作用是代替人類勞動,必然會導致很多人失業,誰將對此負責?醫療行業的人工智能,人類無法斷定其治療操作是否絕對不會出現問題,如果對患者造成傷害,誰將對事故后果負責?可以說,由自主機器人行為導致的損害或傷害,應該由誰來承擔道德責任,這是道德責任領域最具爭議的部分。無人駕駛汽車是人工智能最尖端的研究領域之一,它在現實中可能遭遇諸多困境,如:在剎車失靈的情況下,車是選擇撞向十人,車內一人生還;還是撞向建筑物,車內一人死亡?無論哪一種選擇,都存在著或多或少的爭議,而對于造成剎車失靈的責任主體是當事人還是汽車的制造商,抑或是無人駕駛汽車,法律和道德至今未能給予答案,也無清楚的責任界定。

以智能化自適應電梯系統為例[3]。在高層辦公樓中,已經使用自適應電梯系統,這些系統通常使用人工神經網絡和強化學習算法來分析交通模式,并且它們試圖最小化電梯用戶的等待和運輸時間,也即系統可以優化自身行為,以最佳方式工作。但是,正如大家所知,由于學習是通過反復試驗完成的,犯錯是任何強化學習系統都不可避免的,那么,這個電梯系統在學習過程中是可能犯錯的。現在讓我們假設,有一個具有學習能力和適應性的電梯(100層高,裝有16個軟件系統控制的電梯)犯錯了,讓一位公司高管在34樓等了半個小時,導致他無法按時參加重要商務談判,并造成相當大的財務損失。誰是責任主體?由誰負責?制造商可以否認責任,因為能夠學習的電梯在其運行過程中改變了其程序的參數,以便更好地適應建筑物中的交通模式,他不再可能在給定情況下預測或控制電梯的特定行為(盡管可能在數學上證明最終使用的算法將會收獲到一些最佳行為,即電梯用戶的最小總體等待時間)。由于制造商無法預測或避免在這種情況下產生的不良后果,他認為他不能對機器人的這種特定行為負責,不是責任主體。設計人員也認為:當初我的設計沒有任何問題,機器人自主學習導致的這種行為我也無法控制和預測,我不能承擔責任。最終結果還是責任主體缺失、無人負責。

二、原因:人類責任的彌散與逃避

針對技術產生的問題,尤納斯曾經建構了“未來責任”倫理[4]。他的責任倫理理論強調了人類對現在和將來的責任,也強調了全社會的責任。從他的理論,我們可以推知,責任者不僅包括開發者、創造者和使用者,還包括政府部門,全社會都應當自覺承擔起對人工智能技術發展的責任。現代技術不可逆,我們要慎重對待技術,不能拿人類的未來當作“賭注”,當下的忽視或疏漏必將造成不可挽回的損失。

大部分人傾向于由人類承擔道德責任,然而,在因自主機器人的行為導致損害發生之時,人類卻往往傾向于逃避責任。根據Miller的說法,計算機從業人員通常有意無意地采用了一種被稱為“瀆職行為”的責任模型,該模型本意是為確定造成損害事件的責任人,卻導致了人類以各種借口推脫責任[5]。關鍵是,自主機器人的復雜性也使得人類可以回避責任。從研發設計、制造到使用,眾多主體參與,而一個事故的發生,并非某一環節或某一個人的責任,這導致誰都可以負責,誰又都無法負責,而且,也沒有直接的因果關系將人類的行為與損害聯系起來,無法判定責任,也無法確認責任主體,最終導致一種“責任彌散”的情況出現——無人承擔責任。而且研發人員經常申明不是產品缺陷,所以他們沒有責任;制造商認為自己對事件鏈的貢獻微不足道,因為他們只是團隊的一部分;使用者則說:“我是嚴格按照說明書來操作的,我沒有責任。”

科技的發展造就了無人機與軍事機器人,它們應用于戰爭已成為現實。據資料統計,美國無人機參與的戰爭已經奪去了2500—4000人的生命,其中約有1000位平民和200名兒童,受到了世界各國的譴責。如果人類不小心誤殺了3個孩子,那么他也許會在內疚中度過余生,甚至會受懲罰,但無人機的使用減輕了我們的負罪感,因為人不是我們直接殺害的,我們只是遠距離遙控了無人機,并不是我們自己的行為導致了3個孩子的死亡,而是無人機的行為導致了這個悲劇[6]。這種“遠距離效應”讓責任因果鏈難以追溯,讓人類的責任淡化甚至消亡。更可怕的是,無人機在一場戰爭中誤殺了幾個孩子,我們得到的卻只是一些沒有情感溫度的數據而已,沒有人會為此承擔責任。戰爭是一個極端的例子,試想在日常生活中經常出現的情況。我們抱怨說:“導航把我帶錯了地方”“手機提示這里并不堵車”“我的手機沒電了”等,這些話的潛臺詞便是“這并不是我的錯”。越來越多的人將失敗的錯誤轉嫁到自主機器人上,越來越多的損害無人負責。

一直以來,確實有一種聲音在呼吁,那就是由自主機器人承擔責任,它就是責任主體,關于這方面的論證有很多。這派理論因為提倡實用至上,所以被稱為“實用派”。實用理論屬于非人類中心主義,傾向于摒棄非凡的自我意識和自由意志,并從自主機器人的理性、自主性和意向性等類人屬性出發,深入論證自主機器人能夠成為道德主體或道德能動者,從而能夠承擔道德責任。因為自主機器人具有理性、自主性和意向性,所以應承擔道德責任,而人類缺乏對其的控制,所以不能承擔責任。但問題是,人類一方面在某種程度上還是可以實施控制的,另一方面,作為研發者、制造商和使用者,或多或少總是存在責任的。實際上,實用理論大多時候會導致人類責任的逃避,所以有一種說法就是,如果我們承認自主機器人能夠承擔責任,人類就會逃避所有責任。

責任主體的確定非常重要,能夠確保日后有意外或損害發生時,有人能承擔責任以及及時處理和解決問題,否則將為自主機器人的后續發展埋下巨大的隱患。但相關道德、法律規章的制訂及更新的速度總是跟不上人工智能技術發展的速度,人類正面臨各方面的壓力。自主機器人只能分析問題和解決問題,而人類不但可以分析問題和解決問題,還可以提出問題,作為“萬物之靈”,作為富有創造性的高級物種,基于目前的技術發展水平,人類無論如何都應負有主要道德責任。

三、對策:研發者、制造商、使用者和政府部門作為主要責任主體

根據人工智能技術當下的真實發展程度以及可預見的未來可能性,在自主機器人行為所造成的損害事件中,作為研發、創造、使用和管理自主機器人的主體,研發者、制造商、使用者和政府部門等是主要責任主體,應該承擔主要責任,因此,自主機器人的道德責任是一種多元主體責任。

(一)樹立“負責任創新”的理念,完善前瞻性責任制度

“負責任創新”是近年來歐美國家提出的一種新的發展理念,這一理念已被列入歐盟2020年遠景規劃,美、英、德、法、荷與中國等都開展了“負責任創新”的研究和實踐活動。“負責任創新”理念注重研發者、制造商的社會責任與技術創新活動的有機結合,對于經濟、社會和人工智能技術的協調發展具有重要的理論意義和實踐價值[7]。“負責任創新”理念首先要求研發者盡力減少可預見的不良事件。研發者應該關注的是如何做,尤其是在自主機器人“出世”之前應該做什么,而不是因為不負責任的行為責備或懲罰他人。

“負責任創新”強調研發者、制造商、政府部門等的職責和義務,要盡量考慮到個體行為的后果并最大程度地減少造成傷害的可能性。換句話說,作為責任主體,應該盡可能地開發和制造更有可控性、更安全且“向善”的自主機器人。另外,從宏觀上而言,還應完善前瞻性責任制度,從研發、制造、使用和管理各個環節來確定和分配各個主體的行為規范與責任要求。一方面是防患于未然,另一方面可以保證每個意外、每個環節都有責任主體來承擔道德責任。

(二)研發者和制造商作為責任主體

就像當初人類設計出飛機和武器一樣,人們不能準確地預測自主機器人在未來使用過程中會產生什么突發狀況,也無法預測它們的未來會如何[8]。Grodzinsky,Miller等人指出:我們不能預測它進入市場后會給我們的生活造成什么影響,會帶來什么意外,但應該讓生產商和設計者意識到,如果他們不遵守倫理規則,如果不認真測試自己創造的自主機器人,一旦自主機器人對人們造成傷害,他們就得承擔責任[9]。

在過去的幾十年中,人工智能倫理領域的主要成就之一就是人類越來越意識到自身的價值觀對設計開發進程的影響,在此過程中他們也逐漸增加了對他人價值觀的敏感度。美國白宮人工智能報告將“理解并解決人工智能的道德、法律和社會影響”列入國家人工智能戰略,并建議AI從業者和學生等都接受倫理培訓[10]。我國政府在2017年7月印發的《新一代人工智能發展規劃》中,呼吁“建成更加完善的人工智能法律法規、倫理規范和政策體系”“加強對人工智能潛在危害與收益的評估”[11],以確保人工智能的健康發展。去年6月又發布了《新一代人工智能治理原則》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八大原則[12],其中對研發者和制造商們提出了倫理要求。研發者和制造商更應樹立“負責任創新”的理念,盡可能地預測自主機器人的行為及其產生的后果,即使不能做到詳細、具體的預測,也一定要控制在一定范圍內,讓機器人是安全與可控的,是“向善”的機器人。

(三)使用者作為責任主體

使用者作為最終的接觸者存在,分為科研使用者、工業生產使用者、日常消費使用者等。無論是哪一種使用者,都應遵守自主機器人的操作規范。任何一款自主機器人都有其使用說明或操作準則,任何一位使用者都要遵守相關操作準則,一旦出現違規違法的使用,那么責任就應由使用者承擔。就像無人機可以被用來進行高危偵查,但是如果被用于窺探他人隱私,使用者必須承擔相關責任。另外,使用者應為自主機器人進行保險購買和登記。目前自主機器人的發展還處于早期階段,應對未來可能出現的未知風險的最佳方式,就是采用保險制度。這種保險制度對于個人而言是實施強制登記的,就如現在的機動車上路之前,必須要繳納強制性的交強險,然后再根據個人需求進行相關商業險的購買。現階段已經出現了商用化的無人駕駛汽車,未來還會有更多的自主機器人。如果出現意外事故,對于使用者而言,第三方保險不但降低了風險和損失,而且也是對自身責任踐行的最佳方式。

(四)政府部門作為責任主體

政府部門對于人工智能技術的發展起著決定性作用,目前我國政府對于人工智能領域的重視已經上升到了國家戰略層面,如2020年計劃實行的“新基建”中就包含了人工智能領域的內容,還有如前所述的發展規劃和倫理原則等。政府部門應從立法和行政層面對其進行監管,不可冒然突進,也不可謹慎過度。

近期目標:將自主機器人在應用過程中出現的問題納入法律框架中,充分發揮法律的規制作用。對于一些普適性問題,以及容易產生糾紛的疑難問題,應通過司法解釋和案例指導的方式提供解決方案。在刑法領域中,重點關注利用自主機器人實行違法犯罪行為的新型案例,對于可以明確為危害人身安全、財產安全、社會穩定與秩序的案例,參照現有法律規定執行,而無法明確規定的,可以借鑒網絡詐騙、信息犯罪的相關規定。在民商領域中,按照現有用法規定執行,應注意減少受害者的舉證難度。

中期目標:確立基本法律原則,完善和擴展現有的法律規章制度。我國正在逐漸落實民法典,要逐漸增加和明確自主機器人侵權的責任類型,根據不同的情形以及可能造成危險的程度,分級和細化自主機器人的歸責原則和舉證責任。如對于危險系數較高的自主機器人(無人機、無人駕駛汽車等),適用無過錯責任;對于危險系數較低的自主機器人,適用一般責任原則;對于產品責任,明確相關范疇,建立統一的機構對其進行產品缺陷認定,適用共同責任原則。對于近期目標中未能解決的自主機器人的道德主體地位問題,可以在中期目標中探索解決,并在國家設定的一些技術創新區進行試行,逐漸落實對自主機器人道德和法律地位的確定,明確人工智能法的基本原則和內容。

長期目標:建立健全多層次的人工智能監管體系。首先要推出專門的人工智能法,對于自主機器人生產過程中涉及的多元主體(研發者、制造商、銷售者、使用者、監管者等)責任,以及自主機器人的技術標準等級、風險等級、使用領域等進行明確劃分;其次要建立人工智能法律和倫理委員會,討論和制定相關的社會倫理標準,將法律和倫理結合在一起,建立起對所有從業人員的道德規范和法律要求,推動社會倫理標準融入自主機器人的開發設計中,最后形成一個集國家法律、社會倫理、行業標準等于一體的人工智能監管體系。

結語

本文從人類責任視角,認為研發者、制造商、使用者和政府部門是主要責任主體,并對自主機器人的道德責任困境、原因和對策進行了較為深入的探討。實際上,自主機器人具有一定自主的認知、決策和行為能力,一些學者認為它具有一定的道德地位,是責任主體,應承擔一定的道德責任,但如何承擔還需深入研究,限于篇幅,在此不予探討。

猜你喜歡
主體人工智能人類
人類能否一覺到未來?
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
關于遺產保護主體的思考
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
主站蜘蛛池模板: 国产一级毛片在线| 精品无码日韩国产不卡av| 99精品在线视频观看| 亚洲色欲色欲www网| 乱人伦中文视频在线观看免费| 色综合综合网| 大陆精大陆国产国语精品1024| 美女无遮挡免费网站| 欧美h在线观看| 日韩在线1| 亚洲午夜片| 综合亚洲网| 在线观看国产小视频| 福利片91| 熟女成人国产精品视频| 国产精品亚洲а∨天堂免下载| 日韩麻豆小视频| 乱人伦99久久| 一个色综合久久| 久久精品国产电影| 国产在线视频自拍| 内射人妻无套中出无码| 国产精品女主播| 日日碰狠狠添天天爽| 国产精品污污在线观看网站| 国产亚洲欧美日韩在线一区二区三区 | 精品人妻无码区在线视频| 在线看片中文字幕| 91在线精品麻豆欧美在线| 噜噜噜久久| 欧美成一级| 五月天久久婷婷| 国产精品综合久久久 | 91精品国产麻豆国产自产在线| 亚洲色欲色欲www在线观看| 国产91av在线| 色综合天天娱乐综合网| 波多野结衣在线se| 特级毛片8级毛片免费观看| 国产18在线| 男人天堂亚洲天堂| 日韩视频免费| 久久久噜噜噜| 人妻少妇乱子伦精品无码专区毛片| 中字无码av在线电影| 成人自拍视频在线观看| 五月婷婷丁香综合| 国产欧美综合在线观看第七页| 91精品情国产情侣高潮对白蜜| 国产麻豆精品久久一二三| 日本欧美精品| 国产香蕉在线视频| 香蕉视频在线观看www| 精品人妻一区无码视频| 亚洲综合网在线观看| 国产毛片基地| 人妻丰满熟妇AV无码区| 99精品福利视频| 国产小视频免费观看| 中文字幕无码中文字幕有码在线| 国产91丝袜在线播放动漫 | 丁香五月婷婷激情基地| 久久大香香蕉国产免费网站| 无码网站免费观看| 欧美特黄一级大黄录像| 最新国产高清在线| 一级全黄毛片| 国产精品专区第一页在线观看| 精品午夜国产福利观看| 亚欧美国产综合| 欧美亚洲日韩中文| 国产无码精品在线播放| 色妞永久免费视频| 中日无码在线观看| 91色爱欧美精品www| 久久久精品国产SM调教网站| 亚洲美女久久| 亚洲国产成人在线| 香蕉久久国产精品免| 亚洲成在人线av品善网好看| 亚洲婷婷丁香| 亚洲大学生视频在线播放|