999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能的行政法規制

2018-06-12 05:53:58文//董
21世紀 2018年6期
關鍵詞:人工智能信息

文//董 妍

董妍 天津大學法學院副教授,中國人民大學憲法學與行政法學專業博士。主要研究方向為行政法學。天津市131工程人才,天津市“雙千計劃”人才。2018年借調科技部生物技術發展中心,從事科技領域相關立法工作。曾在《南京大學學報》《法制與社會發展》《陜西師范大學學報》《行政論壇》等核心期刊發表過相關領域論文十余篇。

有學者指出,人類在進入到21世紀的三個關鍵時間點,相繼出現了三個互相聯系又略有區別的新時代,即網絡社會時代、大數據時代、人工智能時代,三者共同構成了新的社會時代。人工智能技術是人類的偉大發明,但是也存在著極大的潛在風險。人工智能的發展程度已經足以讓人類開始警覺甚至為自己的地位擔憂。同時,有學者也盤點了人工智能失敗的案例,如路易斯維爾大學網絡安全實驗室(Cybersecurity Lab)的主任 Roman Yampolskiy 發表了一篇論文,名為《ArTIficial Intelligence Safety and Cybersecurity:a TImeline of AI Failures》,其中列出了2016年人工智能表現不太好的例子。文章作者指出,這些失敗都可以歸因于AI系統在學習階段以及表現階段中犯的錯誤。有學者更是將人工智能可能帶來的風險歸結為十大類:意識形態和國家安全風險;軍事風險;公共安全風險;社會不穩定風險;倫理風險;個人隱私風險;算法歧視和數據歧視;知識產權風險;信息安全風險;未成年人身心健康風險。由此可見,無論是人工智能的高速發展,特別是其發展的不確定性,抑或是人工智能研發不完善而導致的事故,都使得人工智能的法律規制,特別是政府對人工智能的行政規制成為了迫在眉睫的任務。對于人工智能的行政規制,主要應當體現在以下幾個方面:

構建和完善人工智能研發準入制度及標準

準入制度與研究的自由程度成反比,準入制度越嚴格,開展研究所需要的周期就越長,研發速度也隨之減慢。但對于人工智能領域,準入制度是十分必要的。以無人駕駛技術為例,大多數國家都對無人駕駛的研發、測試進行了嚴格的規定,目的就在于防止無人駕駛對人身造成傷害,對社會秩序造成沖擊。這一點在國外有一些較為成熟的經驗可供借鑒。如美國內華達州2011年通過的AB511法案,2012年加利福尼亞州通過的SB1298法案,主要目的都是為了保障無人駕駛汽車的安全。歐洲國家法國、英國和德國也有相關的立法。日本較韓國激進,為保障該技術的發展,專門設計了路線圖和法規,并且對生產商等人員承擔的責任進行了明確。而在韓國,主要是由政府部門來主導該技術的開發和測試,持一個保守的態度。由此看出,無人駕駛汽車行政規制有全球趨同化的趨勢,其最佳效果是能夠降低生產廠商的成本。

因此,我國應當盡快建立和完善人工智能研發的準入制度。雖然在簡政放權的背景下,清理不必要的行政許可是法治政府建設的重要要求之一,但對于有可能造成重大隱患的新領域,應當本著謹慎的態度,設置研發的準入制度,對研發者的資質和研發項目的內容進行嚴格審核,確保其研究目的和研究計劃不至于發生嚴重的社會危害。我國目前沒有設置任何人工智能研發準入制度,但其如果涉及到在不同領域的應用,可能會需要取得不同領域的行政許可。但在現實中出現了人工智能躲避許可制度的現象:如“智能投顧”就是打著人工智能的幌子進行理財產品的推薦和代銷。其實,這一產品就是利用數據算法優化產品配置,其本質上是對理財產品的推薦和銷售。因此,進入這一領域應當取得相應的行政許可,而不能借人工智能逃避行政許可制度。

此外,對于部分已經在實踐中應用的領域,如無人駕駛等,應當盡快制定各項制造標準,特別是安全標準,確保在研發、制造、測試中遵循統一的標準以保證使用者的人身安全。

同時,制定一套嚴格的市場準入規則及研發標準,既是規制本國人工智能研制的一個必要舉措,也是爭奪國際法治話語權的重要措施之一。人工智能在各國都是新興事物,在這一領域中尚未形成統一的國際立法規則,加快在這一領域的立法可以使我國掌握國際法治話語權。

避免算法歧視,保障公民平等權

算法是解決問題的方案,人工智能中算法是一個非常重要的問題,算法的設置直接影響結果。在人工智能領域,由于算法是由人預先設定的,因此人的價值判斷難免滲透其中,或者由于某地區基礎數據等問題,算法容易導致新的歧視出現,而且這種歧視是赤裸裸,不加任何掩飾的。有學者指出,由于人工智能算法技術具有復雜性,這些算法就猶如一個“黑箱”,用戶根本無法獲知算法的意圖和目標,也不知道開發者和實際控制者以及算法最后得出的結論,在此種情況下,更談不上監督問題。

如前文述及的人工智能失敗的案例中,Northpointe公司開發了一套AI系統,它可以預測被指控罪犯再次違法的概率。這套算法遭到指責,它可能存在種族歧視,與其他種族相比,黑人未來犯罪的幾率更高,威脅性更大。還有一些媒體指出,不論種族如何,Northpointe軟件在一般情況下都無法準確預測。此外,在第一屆由AI擔任評委的國際選美比賽中,機器人小組對選手的臉進行評判,算法可以精準評估各項標準,這些標準與人類對美和健康的感知聯系在一起。由于AI沒有經歷過多樣化訓練,最終比賽選出來的贏家全部是白人。Yampolskiy評價說:“美成為了模式識別器。”

在上述案例中,由于算法出現問題而導致人工智能產品運行結果或是與人類期望不符,或是與事實不符,或是完全不顧道德和社會習慣甚至是法律的方式,將運行結果赤裸裸地展現出來。在人工智能產品下,種族歧視、地域歧視、性別歧視這些本來已經在社會中被長期抑制的錯誤觀點死灰復燃,甚至人工智能運行結果會刻意被某些人進行強調,用以證明自己帶有偏見的觀點,讓本已經失去普遍認可度的觀點再次對部分人造成傷害,使得科技的進步雖然帶來了技術的前進和飛躍,但是卻帶來了社會領域中的倒退,這自然與人類的期望不符。有觀點認為,這種單詞嵌入技術其實只是對社會存在觀點的一個客觀反映,真正帶有歧視的并不是這種單詞嵌入技術所導致的結果,而是因為社會中本來就存在歧視和偏見。因此,應當被糾正的是社會中那些錯誤的觀點,而這與人工智能算法本身無關。對這一說法,本文認為應當謹慎對待,科技發展應當有助于矯正這種性別歧視而并非擴大這種歧視,在算法還不足以對社會觀點起到糾偏作用的時候,至少應當做到不放大這些帶有問題的觀點,更不能將這些觀點作為基礎數據進行加工,形成進一步的結果。

因此,在行政法領域,應當建立對于算法禁止性標準的制定,在選定算法及數據庫的時候,要盡量剔除任何可能有歧視的因素,至少對于這種偏見和歧視不能通過人工智能系統進行放大。如前文述及的微軟機器人,其采用單詞嵌入技術以谷歌新聞作為基礎數據庫,其原因是專業記者撰寫的文章應當不會帶有明顯的歧視,但結果并非如此。特別是經過預定算法下單詞嵌入技術的處理,這種歧視被明顯擴大。而帶有這種算法的處理又會進一步導致歧視觀點的出現和新的社會不公平。例如按照谷歌新聞數據庫中的單詞嵌入處理結果,如果搜索程序員的簡歷,男性的簡歷會排在女性的簡歷之前;搜索醫生的簡歷,男性醫生的簡歷會排在女性醫生的簡歷之前,這就導致了極端的性別歧視。研發人員通過對于單詞嵌入技術的改良,已經在一定程度上避免了上述情況的發生,這意味著對于人工智能運行的結果,目前人類還是具有絕對主動權的。在行政法領域中,應當加強對這一問題的政府規制,制定算法標準,從而對人工智能的運行結果進行控制。

保護個人信息,刪除具有識別性的數據

有人曾經準確地描述,互聯網是一個真實的虛擬存在,在互聯網中,人類擁有了“數字化人格”,每個人在網絡空間上的活動成為了整個大數據庫中的一部分。而依托于互聯網而發展起來的人工智能離不開大數據的支撐,而大數據中的基礎數據大多數來源于公民個人。美國《生物信息隱私法案》中設有用戶的知情同意權,互聯網用戶應當被告知自己信息獲取的期限和方式,特別是自己面部、身體等生物信息。盡管如此,Facebook的人臉識別功能仍然被包括德國在內的許多國家認定為違反了數據保護法,要求Facebook刪除相關數據。最終,Facebook被迫在歐洲關閉人臉識別功能,并且刪除了在歐洲采集的所有人臉數據。這其中有一個我們需要思考的法律問題就是,這些人工智能技術搜集到的個人生物信息,將在何種程度上被以何種方式進行使用。

不當的大數據分析和人工智能使用,不但會產生信息泄露,而且會對用戶產生切實的影響。如前一段時間熱議的“大數據殺熟”現象,通過大數據的比對和智能分析,可以得出每個人的消費習慣和可接受的價格,從而形成了針對個體用戶的定價,實現了經濟學上一直不具有可操作性的“一級價格歧視”。這些都是由于對數據的不當使用而導致的。

我國個人信息保護法的制定已經提上日程,之前的《全國人大常委會關于加強網絡信息保護的決定》、網絡安全法以及民法總則和“兩高”《關于辦理侵犯公民個人信息刑事案件適用法律若干問題的解釋》都對于個人信息保護問題作出了規定。個人信息最重要的特點是具有特定身份的可識別性,如果去除這一特征,僅利用群體大數據進行分析,則造成損害結果的幾率會大大降低。如搜集某地區某種高發疾病人群的信息,對這些數據進行分析可以對疾病預防,提升健康水平具有十分重要的意義。但是如果沒有剔除具有可識別性的信息,會導致個人健康等隱私信息泄露,在就業、購買保險等方面造成嚴重障礙,給個人生活帶來極大的不利影響。

因此,監管部門應當建立具有可識別信息的數據庫銷毀制度。在進行數據錄入的時候,具有可識別性的信息和不具有可識別性的信息應當分別錄入在兩個數據庫中,對不具有可識別性信息的數據庫,可以應用到各種研究中,并且鼓勵這種數據庫的跨平臺共享,政府數據開放以及企業數據信息共享。這種共享和開放,有利于數據的最大化利用,有利于政府在大數據和智能分析的幫助下作出正確的判斷,也有利于企業判斷市場形勢,從而作出正確的決定。而對于具有可識別性的信息,應當在數據完成錄入后永久性刪除,任何人不得再次獲取這些具有個人信息的數據,避免其不當利用。

人工智能的研發剛剛起步,其可能產生的風險和負面影響并不明晰。作為監管部門應當在促進科技發展的前提下,對人工智能的準入制度、算法標準等進行規制,避免算法歧視,保障公民平等權,加強個人信息保護。

同時,人工智能技術的興起,還有責任主體認定、道路交通安全、勞動法等領域中的法律問題亟待解決,這是我們法律人所面臨的新的時代課題。

猜你喜歡
人工智能信息
我校新增“人工智能”本科專業
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 亚洲黄色网站视频| 欧美一级夜夜爽www| 天堂av高清一区二区三区| 欧美日韩一区二区三区四区在线观看| 91成人精品视频| 国产粉嫩粉嫩的18在线播放91| 免费一级毛片在线观看| 国产成年无码AⅤ片在线| 亚洲欧美综合另类图片小说区| 综合网久久| 国产精品成人一区二区| 无码日韩人妻精品久久蜜桃| 亚洲天堂日韩在线| 91精品国产91久无码网站| 日韩精品一区二区深田咏美| jijzzizz老师出水喷水喷出| 国产精品黄色片| 亚洲日本一本dvd高清| 国产麻豆精品久久一二三| 国产小视频免费| 国产成人精品男人的天堂下载| 国产真实乱人视频| 日韩欧美中文亚洲高清在线| 原味小视频在线www国产| 高清久久精品亚洲日韩Av| 91小视频在线观看| 秋霞国产在线| 午夜天堂视频| 夜夜爽免费视频| 国产毛片高清一级国语| 亚洲综合网在线观看| 久久精品亚洲中文字幕乱码| 国产一二三区在线| 99视频精品在线观看| 乱色熟女综合一区二区| 亚洲视频在线网| 国产成人艳妇AA视频在线| 谁有在线观看日韩亚洲最新视频| 久久久亚洲国产美女国产盗摄| 亚洲制服中文字幕一区二区| 亚洲一区精品视频在线| 在线观看欧美精品二区| 中文字幕色在线| 国产成人av一区二区三区| 国产成人高精品免费视频| 毛片一级在线| 91伊人国产| 久久久久久久久亚洲精品| 亚洲人成网站在线播放2019| 国产人前露出系列视频| 国产女人喷水视频| 色婷婷天天综合在线| 在线观看91香蕉国产免费| jizz亚洲高清在线观看| 伊人激情综合网| 亚洲狼网站狼狼鲁亚洲下载| 天天操精品| 亚洲va精品中文字幕| 日韩在线影院| 国产新AV天堂| 国产成人盗摄精品| 精品国产一区二区三区在线观看| 中文字幕一区二区视频| 久久精品国产亚洲麻豆| 欧美成人影院亚洲综合图| 日本三级精品| vvvv98国产成人综合青青| 男女精品视频| 在线观看精品国产入口| 成人福利一区二区视频在线| 色综合天天综合| 日韩欧美高清视频| 国产91高清视频| 国产免费自拍视频| 在线观看国产黄色| 青青草国产在线视频| 91青青草视频在线观看的| 成人福利在线免费观看| 国产精品19p| 污网站在线观看视频| 亚洲精品视频在线观看视频| 无码精油按摩潮喷在线播放|