999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx

機器人倫理學:機器的倫理學還是人的倫理學?

2019-11-17 06:01:36閆坤如
社會觀察 2019年10期
關鍵詞:主體人工智能人類

文/閆坤如

機器人倫理研究緣起

1.機器人技術潛藏著難以預估的風險

從簡單的圖靈測試到世界上第一位具有國籍的機器人公民索菲亞的出現,機器人的發展有失控的風險,難以預測機器人技術的走向是否能夠被人類準確評估與規范,也沒有任何的經驗或者教訓可以借鑒和吸取。21世紀以來,軍用殺戮機器人在戰場上誤殺無辜生命,無人駕駛汽車致使行人死亡,聊天軟件公開發表種族歧視、性別歧視的言論,人臉識別涉嫌種族歧視,機器人在虛擬互動中通過“作弊”獲得用戶的隱私信息等負面事件不斷出現,引發人類對于機器人的負面效應的思考。機器人技術出發點本來是“為己”的,現在卻變成了“異己”的力量,導致“機器人異化”現象出現。機器人帶來失業風險,福特(Martin Ford)在《機器人崛起:技術以及失業的未來威脅》中著重從教育、金融以及醫療等領域機器人的發揮說明機器人的社會影響,特別是導致勞動者失業。有的學者認為智能機器的負面影響已經超過了正面的積極作用,智能機器人所帶來的風險超過了它的積極作用。智能機器人所帶來的負面影響和風險給人類生活造成了影響,從失業風險到信息泄露,機器人的出現不但帶來技術風險,而且帶來社會風險、環境風險,等等,甚至影響人類生命安全。機器人的負面影響及其倫理規范引發學者思考。

2.機器人威脅人類的主體地位

隨著人工智能的發展,機器越來越像人,機器不僅僅具有工具屬性,還具有獨特的存在價值,機器人開始挑戰人類的主體性,人類對智能機器的發展表現出恐慌心理。智能機器不僅僅是簡單的工具與客體,機器人不再局限于人類肢體的延伸與作用的增強,機器人具有自主決策與推理能力,可能具有自由意志與人類情感,這可能威脅到人類的主體地位,引發人類主體性地位喪失。隨著機器人技術的突破,智能機器人在社交、知覺、創造力、自然語言理解等方面的能力不斷突破,在帶來巨大的物質力量、促進社會進步與人類發展的同時,也引發人類主體性地位喪失的可能性與風險。人工智能先驅明斯基(Marvin Minsky)在《理解人工智能》雜志上發表《機器人會掌控世界嗎?》來探討機器掌控人類世界的問題。國際象棋被公認是挑戰人類智能的一項運動,1997年,深藍計算機戰勝國際象棋冠軍卡斯帕羅夫也引發人類對于機器智能超越人類智能的思考。智能機器的發展正在日益威脅到人類的主體性地位。

3.機器人帶來新的倫理問題

機器人的出現與發展,除了需要解決傳統的倫理問題之外,還引發一些新的倫理問題。隨著機器人的應用,機器誤傷兒童、無人駕駛汽車撞死人事件時有發生,影響人類安全。機器人傷人、殺人事件時有發生,威脅人類安全,到底是設計者還是機器對此類事件負責呢?這帶來機器是否是道德主體的疑問。機器學習與圖像識別技術讓無人駕駛汽車輕松上路,卻帶來機器設計道德上的倫理困境的思考。機器人采集數據涉及到數據共享與隱私之間的悖論。由于不能公平地使用機器人帶來國家與地區間的經濟發展差異,機器人的使用導致社會不公平現象的出現,等等。上述問題都是隨著機器人出現而引發的新問題。

機器人倫理學的內涵辨析

2017年,瓦拉赫(Wendell Wallach)與阿薩羅(P.Asaro)編輯《機器倫理與機器人倫理》一書,收集了關于機器倫理與機器人倫理以及道德主體等方面的文章。機器人倫理(Robot ethics)與機器倫理(Machine ethics)在內涵界定、研究范疇以及責任主體方面都有差異。

1.機器人倫理學與機器倫理學內涵辨析

機器人倫理學家弗魯吉奧首次將機器人倫理學縮減為“roboethics”這個單詞,他認為機器人的發展是由三大基本元素構成:人工智能、機器人技術和倫理學構成,其中,機器人技術是一個研究機器人的設計、制造、操作和使用的領域。人與機器的區別是機器人倫理學的研究預設,首先要承認機器人與人相區別,機器不能成為人,也就不能成為道德主體。機器倫理學與機器人倫理學內涵不同,機器倫理學指的是機器具有了人的主體地位之后出現的倫理問題,例如,機器如何表現出符合人類倫理道德的行為,機器傷害人類后如何承擔責任,等等。機器倫理學是人工智能倫理的一部分,涉及到人工智能物的道德行為,人工智能機器作為實際的或潛在的道德主體而存在,不但如此,機器可能具有自主學習能力、具有自我意識、自由意志、人類情感與人類智能。機器具有自由意志、具有道德主體地位,能夠獨立承擔責任是機器倫理學的理論前提。機器與人一樣具有理性,能夠辨識自己的行為,能夠獨立承擔責任的道德主體,因此,可以有針對機器的倫理學,機器倫理學關注的是機器對人類用戶和其他機器的行為,機器倫理是以機器為責任主體的倫理學。

2.機器人倫理學與機器倫理學的研究范疇辨析

機器人倫理學與機器倫理學研究范疇有相近之處,機器倫理學是關于以機器為智能主體的研究。例如,2009年,牛津大學出版社出版了溫德爾·瓦拉赫(Wendell Wallach)與科林·艾倫(Colin Allen)的《道德機器:如何讓機器人明辨是非》,涉及到機器自主行為的倫理后果以及機器自主的最近和潛在發展,關注的是像人類倫理一樣的機器道德。機器倫理學的發展要求在機器上增加一個道德層面的內容,提高道德考量比重。2011年,美國康涅狄格州哈特福德大學機器倫理學家邁克爾·安德森(Michael Anderson) 與美國大學哲學系教授蘇珊·安德森(Susan Leigh Anderson)夫婦編著《機器倫理》(Machine Ethics)一書,對機器倫理的本質與內涵進行詳細分析,機器倫理學研究機器道德,把機器作為具有自由意志,能夠獨立承擔責任,具有道德主體地位,機器與人的地位是完全相同的。機器人倫理學與機器倫理學的研究范疇不同,它指的是人在設計機器人中的倫理學,機器人倫理學的研究范疇主要包括機器人制造與使用階段的倫理道德問題,以及把人類道德規范嵌入到機器人的操作系統中等問題,關注機器人設計者的道德以及機器人設計應用引發的人類安全、設計公平、社會穩定以及環境影響等問題。

3.機器人倫理學是以人為責任主體的倫理學

機器人倫理強調人與機器的區別,機器倫理把機器當作人來看待。學者基于機器與人的區別關注機器人倫理。美國加州理工大學哲學系帕特里克·林(Patrick Lin)在《機器人倫理:機械化世界的問題映射》中強調機器人設計,關注在機器人設計環節如何實現價值的嵌入,從而設計出有道德的機器人,提出設計具有同情心和無私情懷的機器人的設想。帕特里克在《機器人倫理2.0:從自駕駛汽車到人工智能》中,認為構建機器人倫理要在道德機器的基礎上,增加了法律責任的考量,指出隨著智能機器人的智能水平的不斷提高,智能機器能在一定程度上為其行為負法律責任,并詳細闡述了其法律責任分配的依據,其中就包括了設計者可能要肩負的法律責任等內容。對于機器人倫理來講,研究主要集中在人類負責任和不負責任地使用人工智能技術。人機關系是機器人倫理的核心問題,機器人倫理學指的是人在設計機器人中的倫理學,機器人制造和部署的倫理道德問題,用來處理人們發明機器人的倫理道德問題。在機器人倫理學家看來,機器不具有人類的主體地位,也不能獨立地承擔責任。當人工智能仍然只是人類決策的輔助工具時,即機器仍由人來控制和干預時,機器作惡可用已有的道德和法律規則來進行約束,因為此時做出錯誤決策的是人本身而非機器,機器只是人的命令和指令執行者而已。機器人倫理學主要關注的還是機器設計中的設計主體責任以及機器應用帶來的社會倫理問題,從這個意義來講,機器人倫理學是作為應用倫理學的分支存在的。

通過上述分析我們可以知道,機器人倫理學是關注人工智能設計以及人工智能給人類帶來的倫理問題,例如,數據挖掘倫理、人工智能社會倫理等問題;機器倫理認為人工智能具有自我推理與決策能力,研究機器在決策過程中決策失誤、傷害人類身體以及損害人類利益中的倫理問題。機器人倫理學是設計、制造以及對待機器人的倫理學,這種倫理學一般針對設計主體來說的,機器人倫理學屬于“以人為中心”的倫理學,責任主體是人,主要研究設計者在機器人設計、利用機器人中的倫理規范;機器倫理學是機器人具有了人類智能后應該遵循的倫理規范,機器倫理學是“以機器為中心”的倫理學,責任主體是機器。這是機器人倫理學與機器倫理學之間的本質差異。

機器人倫理學的實踐路徑

機器人倫理學是一門迅速發展的跨學科研究,它屬于應用倫理學與機器人學的交叉領域,旨在理解機器人技術,尤其是機器人的倫理含義和后果。機器人倫理學是以“人”為責任主體的研究學科。研究機器人倫理應該在分析人的機器人倫理立場、機器人倫理的研究進路以及機器人倫理的制度保障等方面進行研究。

1.機器人的倫理立場分析

2005年,弗魯吉奧與歐普圖(F.Operto)等人在美國電子電氣工程師協會召開的機器人與自動化國際會議(International Conference on Robotics and Automation)上總結了對待機器人的三種倫理立場:第一,對機器人倫理沒有興趣;第二,關注機器人倫理的短期問題;第三,關注機器人倫理的長期問題。對機器人倫理不感興趣的人認為人類的行為是中性的,不負載價值,因此設計機器人、利用機器人不存在價值取向,設計中不存在設計者的道德責任,因此,沒有必要提倡機器人倫理。對機器人倫理的短期倫理問題感興趣的人認為機器人應該區分為“好”與“壞”兩類。他們覺得機器人必須遵守社會習俗或者參考某些文化價值觀,包括在不同領域“尊重”和幫助人類。對機器人倫理的長期倫理問題感興趣的人從全球性、長期性視角關注機器人的倫理問題,例如,關注發達國家與發展中國家的“數字鴻溝”,承認工業化國家和貧窮國家之間的差距,思考發達國家是否應該改變它們發展機器人的方式,以便有利于發展中國家發展等長期性倫理問題。

2.機器人倫理研究進路分析

瓦拉赫、艾倫與斯密特(I.Smit)提出機器人倫理的兩種進路:即“自上而下進路”與“自下而上進路”。自上而下的倫理學進路建立在找出或者表征做道德決策的一般或者普遍原理的基礎上。自上而下的進路是將規則轉換為道德算法嵌入到機器人設計中,例如將效果論、功利主義倫理學、康德的道德律令、法律和職業規則等嵌入到機器人的設計中,將人類的道德決策分解為可計算、可管理的模塊或者組件。因為機器具有智能自我推理與決策能力,應該通過前攝倫理或者在機器中嵌入人類道德。需要一種“道德算術”,例如,吉普斯(James Gips)給出基于效果論機器人的“自上而下進路”的嘗試。吉普斯認為在結果論中,行為由結果來判斷,為了能夠以結果論的方式進行道德推理,機器人應該具備以下條件:描述世界情境的方法;產生可能行動的方式;一種手段可以預測基于當下情境采取行動而導致的后果;根據情況的好壞或者可取性來評價它的方法。在此基礎上吉普斯構建機器人倫理的評價指標體系,通過分析道德利己主義者與道德利他主義者的差異,將道德分解為機器人可執行的算法來思考機器人倫理的自上而下研究進路的實踐路徑。除此之外,吉普斯還給出基于義務論與美德論的機器人倫理的自上而下的研究進路,義務論不同于結果論,在義務論中行為的評價是基于行為本身,而不是基于行為的結果。效果論一般不關注特定的行動實施的理由以及行動實施的主體,但道義論把責任直接歸屬于主體的具體本性,不同種類的主體就會有不同的責任。吉普斯通過把普遍的道德規范變成具體的道德算法,從而使機器人行為符合道德規范,這是非常典型的自上而下研究進路,通過倫理原則在機器人中嵌入道德,關注設計者的責任與道德。機器人倫理的“自下而上”的研究進路是按照具體的設計情景來制定具體的設計標準。人類的道德是動態的,必須在具體的設計情景中去把握。必須協調好利益相關者之間的關系,可以通過計算機模擬測試各種設計策略,運用博弈論觀點選擇最佳設計方案。丹尼爾森(Peter Denielson)在《人工道德:虛擬游戲中的道德機器人》中提出“功能性道德”,認為理性是智能體成為道德智能體的前提條件。霍爾(Josh Dtorrs Hall)也關注自下而上的道德機器設計,2007年,他編著了《超越人工智能:創造機器良知》(Beyond AI:Creating the Conscience of the Machine),霍爾認為人工道德智能體需要一個“共謀者擔保協議”,以便從動態的情景去設置道德算法。機器人倫理從動態的社會機制輸入道德信息,從而對人工道德智能體的整體設計提供技術與標準。還有的學者堅持“自上而下”或者“自下而上”相結合的研究進路。通過普遍性的倫理規則與具體的道德情境相結合,構建人工道德智能體。

3.機器人倫理的制度保障分析

沒有既定的倫理準則與法律制度去遵守和執行,機器人具體倫理要求能否在技術層面真正實現還存在爭議。為了規范與引導機器人技術的良性發展,國家部門、社會組織、行業學會以及設計者也從不同視角做出努力。2004年,機器人倫理技術委員會建立,目的是提出和解決機器人研究和技術所引發的以及相關的緊迫倫理問題。2005年,歐洲機器人學研究網絡(European Robotics Research Network)資助機器人倫理學工作室(Roboethics Atelier)項目,任務是繪制第一個機器人倫理學路線圖(Roboethics Roadmap)。機器人倫理路線圖的最終目的是對機器人研發中涉及的倫理問題提供系統的評估;增加對有關問題的認識,并促進進一步的研究和跨學科研究。2016年,聯合國教科文組織與世界科學知識與技術倫理委員會聯合發布報告,討論機器人進步以及帶來的社會與倫理道德問題。2016年,英國標準協會(BSI)頒布《機器人和機器系統的倫理設計和應用指南》。2017年1月,阿西洛馬會議公布的阿西洛馬人工智能原則(Asilomar AI Principles),從科研問題、倫理價值以及長期問題三個視角保障人工智能的安全與合乎道德。給機器人設計者帶上“緊箍咒”。美國電氣與電子工程師協會(簡稱IEEE)在2015年、2017年提出“合乎倫理設計”(Ethically Aligned Design,簡稱EAD)規范。呼吁在機器人設計中嵌入人類規范與道德價值觀,避免人工智能導致的社會不公平、算法歧視等社會問題。

綜上所述,機器人倫理學不同于機器倫理學,機器人倫理學是以人為責任主體的倫理學,涉及到人類如何設計機器人,如何將人類道德嵌入機器人以及如何對待機器人的問題,我們應該將普遍性的倫理規則與具體的設計情景相結合,發揮設計者、行業協會、企業、政府部門等不同設計主體的作用,通過法律、倫理等不同層面保障機器人的良性發展,發揮機器人的積極作用。

猜你喜歡
主體人工智能人類
人類能否一覺到未來?
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
關于遺產保護主體的思考
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
主站蜘蛛池模板: 中国国产A一级毛片| 亚洲专区一区二区在线观看| 国产精品色婷婷在线观看| 亚洲精品不卡午夜精品| 亚洲欧美一区二区三区麻豆| 制服丝袜 91视频| 国产精品第一区| 成人av手机在线观看| 亚洲成人在线免费| 无码中文字幕加勒比高清| 亚洲人成在线精品| 亚洲午夜18| 欧洲极品无码一区二区三区| 国产正在播放| 久久精品视频一| 亚洲无码91视频| 亚洲日韩在线满18点击进入| 中文字幕日韩欧美| 国产在线视频二区| 久久黄色小视频| 国产91精选在线观看| 91精品综合| www.精品国产| 国产欧美日韩在线在线不卡视频| 国产91特黄特色A级毛片| 亚洲区第一页| 99精品高清在线播放| 亚洲人成在线精品| 欧美日韩一区二区三| 成人免费网站久久久| 在线视频亚洲色图| 超碰精品无码一区二区| 日本国产一区在线观看| 成AV人片一区二区三区久久| 麻豆国产在线观看一区二区| hezyo加勒比一区二区三区| 欧美在线网| 久久精品视频一| 亚洲无码37.| 最新精品久久精品| 无码aaa视频| 丁香六月激情综合| 日本高清免费不卡视频| 色婷婷在线影院| 夜夜高潮夜夜爽国产伦精品| 亚洲一区二区三区香蕉| 九九热精品在线视频| 欧美精品成人一区二区在线观看| 91在线播放免费不卡无毒| 亚洲精品国产综合99久久夜夜嗨| 素人激情视频福利| 九九精品在线观看| 国产日韩精品一区在线不卡| 国内丰满少妇猛烈精品播 | 精品久久久久久久久久久| 国产无吗一区二区三区在线欢| 久久久久亚洲Av片无码观看| 婷婷成人综合| 亚洲日韩精品伊甸| 欧美在线天堂| 精品久久人人爽人人玩人人妻| 亚洲欧美另类日本| 国禁国产you女视频网站| 丁香六月综合网| 97影院午夜在线观看视频| 亚洲欧洲日韩久久狠狠爱 | 久久精品视频一| 手机在线看片不卡中文字幕| 亚洲区欧美区| 亚洲系列无码专区偷窥无码| 欧美性久久久久| 永久免费AⅤ无码网站在线观看| 国产三级视频网站| 日本91视频| 国产国产人成免费视频77777| 国产精品吹潮在线观看中文| 波多野结衣在线一区二区| 久久精品最新免费国产成人| 99re在线视频观看| 91在线无码精品秘九色APP| 中文字幕资源站| 91精品国产情侣高潮露脸|