999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代算法權力及其法律規制

2023-01-05 16:11:06
湖北工程學院學報 2022年1期

楊 超

(遼寧大學 法學院,遼寧 沈陽 110036)

隨著人工智能技術和大數據的發展,算法逐漸進入人們的視野,并滲透進人們的日常生活和社會生產之中。小到人們瀏覽手機APP購買商品或閱讀新聞,大到政府部門制定公共政策,背后都留有算法的印記。與其說是算法在施加影響,不如說是算法權力在背后主導。伴隨著算法的普遍應用,行為受限問題、社會歧視問題、數據安全問題、公共利益被損害等問題逐漸暴露,凸顯了社會不和諧的一面。然而,由于“算法黑箱”的存在,大多數人并不了解算法權力,更不清楚算法權力是如何運行并發揮效用的。可以說,面對算法權力帶來的種種弊端,人們最大的感受莫過于有心無力。因此,深刻認識算法權力以及如何規制算法權力很有必要,勢在必行。

當前,我國法學界對算法權力也有諸多的研究,主要集中于算法權力的形成原因、帶來的問題及法律規制等等,可以說取得了一定的研究成果。但也存在著問題,一方面對于算法權力的定義采取了“拿來即用”的方式,缺少對算法權力的深入解讀,直接影響到了人們對算法權力的定位與后續法律規制,另一方面算法權力的規制局限于具體制度的構建,缺乏概觀性的價值指引。本文力圖在深入解讀算法權力的基礎上,分析算法權力的運行邏輯、對社會主要價值觀念的沖擊,最終提出符合現階段算法權力實際情況的規制路徑。

一、算法權力的界定

(一)算法權力定義的檢視與重新界定

關于算法權力的定義,僅有少數的學者給予了明確的定義,更多的是不加闡述直接引用。有學者認為“算法權力是一種人工智能技術平臺的控制者,憑借自身擁有的算法技術優勢而在人工智能應用過程中產生的對政府、社會組織和公民個人等對象的技術權力”[1],意在表明算法權力控制人工智能平臺,憑借的是自身的算法技術,作用對象是政府、社會組織、公民個人,是一種控制性技術權力。整體來看,這是一個比較全面的定義,但是該定義未指出算法技術是如何作用于對象的,缺少了算法技術與作用對象的中間描述,過于抽象。有學者認為“算法權力是掌握算法技術的個人和企業利用自身的技術優勢和行業便利,把控社會資源及信息,引導政府做出決策,從而形成的一股不可小覷的力量”[2],換言之,算法權力主體包括個人和企業,利用算法技術引導政府決策,側重于私的力量影響了政府。整體來看,該定義是比較片面的。該定義優點是點出了算法技術的本質是可以掌控社會資源及信息,問題在于忽略了算法權力的掌控者除了個人和企業,也可以有政府,而且相比企業和個人,政府擁有發展算法權力的數據優勢,潛力更大。從引導政府作出決策可以看出,算法權力是最終服務于政府和公眾的。有學者則直接采用“算法權力”的概念,沒有給出定義。正如有學者指出:“算法權力作為一種新型的權力形式,尚未完全被學界接納,但這不妨礙我們對其內涵和特征進行探討。”[1]但這并不代表就不需要對算法權力的定義不加重視,相反,明確算法權力的定義,對于其法律規制具有重要的意義。

從字面構成來看,算法權力是由“算法”和“權力”組合而來的合成詞匯。“算法”是解決問題的策略機制,是一種計算機指令,屬于非常明確的概念。而對于“權力”的理解,不同領域、同一領域不同流派均有不同的認識,主流的觀點認為權力是人與人之間的一種特殊影響力,是一些人對另一些人造成他所希望和預定影響的能力,或者是一個人或許多人的行為使另一個人或其他許多人的行為發生改變的一種關系。[3]為使敘事清楚,本文嘗試給算法權力下定義,認為算法權力是指一方憑借算法技術把控社會資源及信息從而作用于另一方的一種技術性力量。該定義將算法權力定位為技術性力量,而不是法律意義上的權力。根據吳玉章老師的觀點,“法律權力具有有限性,受到法律規范的制約和法律監督的制約”,[4]很顯然,算法權力皆不符合。該定義明確了算法權力的行使主體和行使對象,避免了過寬或過窄定義主客體,具有開放性;表明了形成的關鍵在于技術、資源、信息的絕對優勢,而不是傳統的政治統治權下的暴力奪取和暴力執行,突出了算法權力的特殊之處;角色分明,也為后續規制算法權力提供了清晰的路徑。算法權力本質上是一種計算機技術權力。算法權力的特征之一為隱蔽性,區別于公示性的國家權力,算法權力通過一系列計算機指令行使權力,其運行機制是不對外公開的。算法權力的特征之二為分離性,一方面是運行于機器內部指令與輸出結果在空間上的分離,一方面是算法使用者與算法擁有者的分離。當前,算法權力主要見于公共領域與商業領域。

(二)算法權力與相關用語的區分

1.算法權力與公權力。依目前大多數學者的觀點,算法權力是一種類似于公權力的權力形態,這種“類似”僅限于算法權力可以對有限的社會構成或公眾產生效果,但這種趨勢在逐漸增強。除此,兩者的區別也比較明顯。

從權力來源看,公權力來源于人民的讓渡,即人民賦權,而算法權力來源于算法技術的應用;從權力行使主體角度看,公權力由明定的國家機關或經國家機關授權或委托的國家組織行使,而算法權力由掌控算法技術的主體行使,這類主體可能是國家機關,也可能是私營企業,但不管是國家機關還是私營企業,算法權力最終僅掌握在少數的幾個人手中;從權力的行使對象看,公權力的行使對象為社會公眾,而算法權力的行使對象為因應用場景而異,可以是社會公眾,也可以是政府、企業;從權力行使目的看,公權力的行使目的是為人們謀利益,而算法權力的行使目的是為人們謀利益或為私有主體謀取利益;從是否受監督角度看,公權力有一套完備的制約和監督體系以防止濫用,而算法權力目前尚無相關的法律或規定予以制約和監督。

2.算法權力與權利。在算法領域,權力與權利在配置上處于嚴重的失衡狀態,即有算法權力的實際存在(雖無名分)但無可防御性的權利存在的狀態,兩者的區分直接關系到后續算法權力的規制。

權利是權利享有人實現自身利益的一種方式,而算法權力是算法權力的掌控主體實現其自身利益的一種控制力或力量,這種力量源于技術、資源、信息,兩者看似沒有交集,但是深入思考會發現,當算法權力對相對方發生侵害時,相對方是沒有專門針對前者相應的權利進行救濟的。礙于“算法黑箱”的存在,也難以對算法權力的違法行為進行清晰的認定,《民法典》中“侵權責任編”適用的空間非常狹窄。

二、算法權力的作用機制

算法權力的定義及其與相關概念的區分使我們對算法權力有了一個較為清晰的認識與定位,那么算法權力是如何發揮作用的?這就需要了解算法權力的作用機制,“在福柯看來,當代社會里,權力已經具有了新的形勢和特點”[5],“新的權力手段則完全不同:他們不靠權利,而靠技術;不靠法律,而靠正常化;不靠懲罰,而靠控制”[6]。算法即是利用技術控制著人的行為,同時使其作用影響正常化。當算法作用于行為對象時,通過行為控制機制、嵌入機制、算法歧視機制影響自由、平等、安全價值。

(一)行為控制機制

行為控制機制指算法以強大的數據處理能力和自主學習能力裹挾網絡平臺使用者,通過代碼規則形成對公眾行為的控制。行為控制機制通過算法構建行為規范產生強大的控制力量形成算法權力,這種強大的控制力量有兩個來源,一是算法使用者具有極大的資源、技術、信息優勢,在與算法相對方的較量中占據主導地位,一是算法通過二進制的代碼構建行為規范,普通人難以理解,只能默默承受。尤瓦爾·赫拉利在其《未來簡史》中曾預測:“在未來人工智能將獲得統治地位,我們的法律將變成一種數字規則,它除了無法管理物理定律之外,將規范人類的一切行為。”[7]以滴滴打車軟件應用為例,用戶下載滴滴打車軟件——點擊滴滴法律條款及隱私政策選項——訪問權限設置——用戶注冊——行駛路線劃定——司機分配——支付車款,算法設計出了一系列的用車流程,事實上打車人的整個行為已處于滴滴軟件系統的規制之下,根本沒有討價還價的余地。

(二)嵌入機制

嵌入機制指算法嵌入公共治理領域,形成算法權力與國家權力共同發揮作用的一種形式。信息社會,政府社會職能的實現需要借助算法強大的數據收集與分析能力,這為算法嵌入公共治理領域提供了契機。例如,我國公安機關DNA數據庫應用系統就采用了算法技術,當新錄入的DNA與舊案相符合時就會自動報警。再如,美國紐約州警察局曾將數據分析大規模地引入治安管理工作中,成功的降低了當地的犯罪率。眾所周知,政府領域涉及人們生活的方方面面,關涉公共利益。算法嵌入政府領域,尤其是在做出對公眾利益影響巨大的決策時,數據收集是否合理、數據分析是否符合邏輯、決策作出是否透明等等至關重要。值得警惕的是,算法主要掌握在少數大型互聯網平臺企業手中,以追逐商業利益為目的,先天性的會擠壓部分公共利益,有損社會公平正義。

(三)算法歧視機制

算法歧視機制指算法的應用對某個特殊群體產生了不平等對待的情形。算法歧視根源于算法權力的形成,本質上是擁有算法權力的一方與算法作用對象占有資源的極不對等。當某些被考慮的個性參數具有雙價相關,即當這些參數以具有統計學意義的方式同時與構成區別對待的合法理由以及歧視特征相關聯時,算法歧視可能會出現。同時,算法的表象是客觀中立的,但表象的背后實際是算法設計者、算法控制者對算法應用對象的歧視或打壓。算法歧視發生與作用的領域越來越廣,如就業、信貸、保險、網上購物。初次的算法歧視一旦形成,會形成“歧視慣性”,然后會持續性的影響到算法應用對象的日常生活和生產。

三、算法權力對法價值的沖擊

當前,算法權力已經迅速的滲入到了人們的日常生活和社會生產之中,引發了人們的極大關注。透過紛繁復雜的現象,可以看出,算法權力對自由、平等、安全法價值觀念產生了沖擊。

(一)對自由的挑戰

整個法律和正義的哲學就是以自由觀念為核心而構建起來的,朱利葉斯·凱撒曾說“任何人生來都渴求自由、痛恨奴役狀況”。[8]一般意義上,自由包括人的意志自由和行動自由。

算法對行動自由的挑戰。算法通過對海量數據的分析、分類、歸納及整合,能勾勒出“用戶畫像”,從而實現定向推送,一定程度上限制了公眾的選擇自由。這種場景常發生于基于算法定向推送的情形。“智能算法的個性化服務使人的需求受制于數據,人性自身的超越性自由和可能性力量被迅速限制。”[9]以消費者選擇自由受限為例,在算法未誕生之前,消費者可以在網絡平臺上自由的選擇中意的商品,雖說是漫無目的,但消費者享有選擇的絕對自由。而算法的介入,使得個性化定向推送成為可能,消費者的選擇自由受到了極大地限制。當消費者在網絡平臺瀏覽各種商品時會留下瀏覽的痕跡,“一旦這些數據淪為算法技術的分析對象——算料,那么,算法技術有可能會進一步挖掘、整合和加總這些數據,從不同系統的數據腳印中,印證、解釋和再現個體的一切活動軌跡,個人隱私無處遁形,個人行動還會被誘導”[10]。自主性是技術最根本的特性,技術自主性意味著技術擺脫了社會控制,正在形成一種難以抑制的力量,人類自由將受到威脅。

算法對意志自由的挑戰。搜索引擎服務商利用算法規則顯示搜索排名,受商業目的、政治目的、技術目的的影響,有的內容被優先顯示,有的則無法顯示,一定程度上限制了言說者的言論自由的權利。以谷歌廣告排名系統為例,通過競價的方式在有限的展示名單上排列產品廣告信息,無異于壓制了其他產品提供商言論自由的權利。換句話說,有錢的人能夠享有充分的言論自由,而相對沒錢的人的言論自由被限制或剝奪。如上所述的個性化算法推薦,除了限制公眾選擇自由,一定程度上沖擊了公眾的思想自由。以今日頭條新聞推送為例,頻繁的、持續的精準推送會形成“信息繭房”效應,慢慢侵蝕人的思想,使人的思考和認知片面化。

(二)對平等的挑戰

與平等相對的用語為不平等,而歧視通常以一種不平等的視角對待人或事物。毋庸置疑,算法背景下形成的算法歧視構成了對平等最直接的挑戰,主要表現為價格歧視、性別歧視、種族歧視三種形式。

價格歧視。價格歧視最為大眾所熟知,區別于傳統的價格歧視,算法驅動下的價格歧視是基于海量的消費者數據的收集,然后由算法對數據進行分析比對,進而了解消費者的消費習慣,最終形成針對特定消費者的價格。“大數據殺熟”這一術語在2018年被評為社會生活類十大用語,即面對同樣的商品或服務,老用戶看到的價格要比新用戶看到的價格要高,多發生于關系消費的網絡平臺,比如酒店、旅游、美食、機票類平臺。這些平臺廣泛運用消費者往常登錄平臺留下的大量痕跡,進而運用算法對其進行分析形成精準的“消費畫像”,最終做到一人一價。性別歧視,主要發生于求職領域,2015年,谷歌公司開發的廣告算法被指存在嚴重的性別歧視。卡內基·梅隆大學和國際計算機科學研究所(ICSI)的研究人員的一項研究使用了一款名為AdFisher的定制軟件,模擬了網絡用戶的瀏覽活動,當訪問招聘網站的時候,假冒男性用戶會更頻繁地顯示許諾高薪的廣告,而假冒女性時卻沒有。種族歧視,相對而言,種族歧視則更為隱蔽。Northpointe公司推出的COMPAS(有關替代性制裁的懲教罪犯管理概況)軟件,它可以預測被告再次犯罪的概率,而黑人再次犯罪的概率明顯大于白人。[8]

(三)對安全的挑戰

算法時代的安全威脅,主要源于數據的泄露尤其是含有個人隱私的數據泄露。數據被譽為新的“石油”資源,資源屬性意義重大,而有算法的助力,數據將發揮更大的效用。一旦發生數據泄露,受利益驅使、居心叵測并擁有強大算法技術的大企業便抓住機會對泄露數據進行分析、整合,推測出數據擁有者的更多的個人信息或關聯人的信息,形成數據泄露的再次升級。不論用于合法的活動還是非法的活動,都對個人隱私安全甚至人身安全、財產安全構成比先前單純的數據泄露更大地威脅。

四、算法權力的規制

當前的算法權力規制手段大多集中于具體制度的構建,誠然,如果能夠落實,預測能有一定的效果,但是算法畢竟是一類新生事物,當前并無哪部法律或法規能夠有效約束,從新的立法到施行更是需要很長一段時間,因此,從價值指引、原則調適方面對于現階段的算法權力規制能起到更好的效果,也更有益于算法的創新與社會的發展進步。當然,具體的制度也要積極構建,制度落實只是時間長短問題。因此,本文嘗試構建一種價值與原則先行、具體制度逐步推進的順序規制策略。

(一)人的尊嚴

“尊嚴”是一個抽象詞匯,屬于意識范疇領域。關于“尊嚴”的概念和內涵因人或因時代而異,尊嚴是指人們的尊嚴還是人性尊嚴還是人格尊嚴也存著爭議,雖然表達用語不同,但都不無例外的體現了對人的關注和重視。“尊嚴”意味著尊重他人,基于人與人之間的相互尊重,人們內心的自由、平等、安全、自信感得到滿足,進而遵從內心理性從事社會交往,得以形成和諧的人際關系,最終促進社會的和諧與穩定,社會的公平正義也就自然實現了。

互聯網絡的發展,人與人之間、人與社會之間的聯系多通過虛擬網絡建構,大數據挖掘技術與算法技術的結合,能近乎精確的勾勒出“用戶畫像”,使得人們對于尊嚴的理解多局限于虛擬網絡環境,忽略了現實中人的主體性特征,直接導致了人們對人的尊嚴的低維理解和認知意義削減。但是,當算法應用對人的自由、平等、安全、公共利益的產生威脅時,人們并未徹底認識到這是對人的尊嚴的嚴重侵犯。康德曾說:“任何人都沒有權利僅把他人作為實現自己主觀目的的工具。每個個人都應當永遠被視為目的本身”,這是近代時期先哲對人的尊嚴做的最完美的詮釋。因此,相較于算法應用,人的尊嚴保護當置于優先地位。

(二)利益衡量原則

利益衡量原則指在算法設計前,在算法的設計者、算法使用者或擁有者、算法應用對象之間的一種利益衡量。這一原則對于緩和由網絡平臺與平臺用戶地位不平等、資源占有不對等引發的對自由、平等、安全價值觀念的沖擊具有平衡作用。當前,算法的應用主要集中在商業領域,公共治理領域雖然也在積極推進,但仍不及商業領域應用的普遍和深入。無論哪個領域,背后必然有利益的衡量,如何協調背后的資本利益,使之契合各方的利益訴求,是社會實現公平正義的關鍵。

在商業領域,一般涉及的利益相關方為算法的設計者、算法使用者(所有者)、算法的應用者。限于開發能力,除了幾個大型互聯網企業,其他企業的算法系統幾乎都是委托他方開發,所以算法設計者的利益是獲取服務費用,算法使用者的利益是實現最大可能的利潤,算法應用者的利益是實現便捷服務與利益盡可能不受損害。其中,算法使用者與算法應用者之間的利益是存在沖突的,或者說資本利益與有限公共利益的沖突。此時,應當將算法使用者的利益和算法應用者的利益置于算法應用這一平臺加以比較。同樣,在公共治理領域,應當將算法的使用者即政府的利益與算法的應用者即社會公眾之間的利益置于算法應用這一平臺加以比較。至于如何衡量各方利益,需要根據自動化決策的適用對象、適用范圍、評估效果等因素而定。但毋庸置疑的是,公共利益應為首要考慮,且不得損害公共利益是底線要求。

(三)程序正當原則

程序正當原則是行政法的基本原則之一,正當程序是指基于公平、正義而應遵循的程序,不論法律是否有明確規定都應予以遵守,它是對行政主體行使行政權力的最低限度的程序要求。[11]算法權力是掌握算法技術的個人和企業利用自身的技術優勢和行業便利,把控社會資源及信息,引導政府作出決策,從而形成的一股不可小覷的力量。雖說算法權力具有橫向性,不同于縱向性的國家權力,但就雙方的權力本質而言,兩者具有統一性,都具有控制和影響他人的能力。目前,學界有稱算法權力為“準公權力”。鑒于算法權力與國家權力具有相似之處,有必要吸收程序正當原則作為指導實現算法正義的一項原則。這一原則使算法運行透明化尤其是從數據收集到分析的整個過程,同時賦予公眾參與的權利,是從算法應用的初始階段開始對算法進行規制,對于數據安全、公共利益的維護具有重要作用。具體包括算法公開原則和公眾參與原則,公開原則指算法的使用者應當主動向公眾公開算法系統的數據收集、數據處理、數據應用的情況,其中數據收集是算法系統運行的初始步驟,能夠從源頭上把握數據的契合度,防止出現“數據鴻溝”與采集數據單一化的現象;如果數據契合度很高,數據處理環節就會相對公平;數據應用包括自動化決策、行為控制等環節。公眾參與原則指當算法系統向公眾公開后,應當聽取公眾的意見。尤其是有損公眾利益的決定,公眾有權進行申辯。

(四)制度保障

1.建立以憲法為核心,以多部門為輔的制度保障體系。人權是一個歷史概念,不同的歷史階段、時代背景有著不同的人權解讀,相應的,侵犯和保護人權的方式也會發生變化。當前侵犯人權的方式呈現出智能化、隱蔽性的特征,侵犯人權的時間上具有長期性特征,如上文提到的算法定向推薦、算法歧視,人們的權益受到侵犯卻渾然不知,嚴重威脅著社會的公平正義。更嚴重的是,目前尚無專門性的法律規章制度進行規制。

憲法是國家的根本大法,具有統帥部門法的領導地位。憲法第三十三條第二款規定了“尊重和保障人權”,(1)《中華人民共和國憲法》第三十三條第二款。,憲法第三十八條規定了“中華人民共和國公民的人格尊嚴不受侵犯”,(2)《中華人民共和國憲法》第三十八條。這些規定都是原則性的規定,對于緩解算法對自由、平等、安全、公共利益正義價值的侵害具有引領和指導作用。此外,《民法典》中對人格權的保護,《網絡安全法》中對網絡產品、服務的提供者的約束,對用戶個人信息保護,以及即將出臺的《個人信息保護法》,都不同程度的發揮著保護人們基本權益的積極作用。因此,非常有必要構建以憲法為核心,即以尊重和保障人權原則為指導,從憲法價值、憲法原則、憲法具體條文層面延伸到各個部門法相關的條款對算法出現的問題進行規制,遏制算法帶來的侵害人權、侵害社會公平正義的情形。

2.在具體的應用場景中對算法權力進行規制。第一,公共治理領域中的算法權力規制。一是對于涉及公共利益的一般決策,應當嚴格遵循程序正當原則,及時公開算法(涉及國家秘密、商業秘密的除外),保證公眾知情權;對于涉及公共利益的重大決策,除了遵循前述原則,應當對算法應用的必要性進行論證,必要時舉行聽證會。二是配置個人權利對抗算法權力。根據算法應用的實際情況,適當的賦予個人以數據權利,包括但不限于知情權、訪問權、刪除權、拒絕權,防止算法權力的肆意侵害。

第二,商業領域中的算法權力規制。一是加強政府層面對算法權力的監管,建立算法問責制度,發現算法危害公共利益的情形,及時介入處理并追究責任。二是嚴格把控數據質量包括數據的清潔度、數據的均衡性、數據的完整性,從源頭上保證數據的匹配度與公正性,實現“數據正義”[12]。如拒絕將種族、弱勢群體等因素納入基礎數據,防止算法歧視的滋生。三是在基礎數據中嵌入社會倫理觀念,使社會倫理成為自動化決策的參考因素,確保企業在追逐利益的同時符合公眾的容忍期待。四是要求企業自身建立健全風險監控機制和事后救濟制度,對算法應用的全過程進行監控,一旦發現危險情況應立即上報和處理。如果出現了損害結果,應及時對外公布,必要的給予賠償。

主站蜘蛛池模板: 一级毛片免费观看久| 免费三A级毛片视频| 亚洲第一区在线| 99热免费在线| 欧美亚洲国产精品久久蜜芽| 国产成人综合亚洲欧洲色就色| 香蕉综合在线视频91| 亚洲乱伦视频| 在线a网站| 久久婷婷国产综合尤物精品| 亚洲欧美国产高清va在线播放| 亚洲AV人人澡人人双人| 青青草国产在线视频| 国产白浆一区二区三区视频在线| 久久精品人人做人人综合试看| 婷婷色中文网| 天堂久久久久久中文字幕| 伊在人亚洲香蕉精品播放| 91在线国内在线播放老师| 狠狠色婷婷丁香综合久久韩国| 国产拍在线| 精品国产99久久| 一本大道东京热无码av| 国产女同自拍视频| 日本一区高清| 人妻无码AⅤ中文字| 在线欧美a| 日韩在线观看网站| 亚洲无线一二三四区男男| 国产精品极品美女自在线网站| 露脸一二三区国语对白| 男女精品视频| 91无码人妻精品一区二区蜜桃| 欧美激情成人网| 亚洲人成影院在线观看| 国产精品成人AⅤ在线一二三四| 欧美综合区自拍亚洲综合天堂| 欧美激情首页| 最新国产你懂的在线网址| 波多野结衣无码AV在线| 成人在线亚洲| 毛片手机在线看| 欧美日韩在线成人| 成人午夜网址| 一级毛片在线播放免费观看| 欧美精品啪啪一区二区三区| 色综合手机在线| 99久久国产综合精品2020| 91久久天天躁狠狠躁夜夜| aaa国产一级毛片| 日本在线亚洲| 婷婷亚洲综合五月天在线| 精品国产一二三区| 青草国产在线视频| 91久久夜色精品国产网站| 成人亚洲天堂| 精品一区二区久久久久网站| 欧美激情伊人| 日韩无码真实干出血视频| 试看120秒男女啪啪免费| 亚洲永久视频| 在线观看精品国产入口| 91在线播放免费不卡无毒| 999国产精品永久免费视频精品久久 | 尤物午夜福利视频| 国产不卡国语在线| 成人午夜在线播放| 亚洲二区视频| 欧美黑人欧美精品刺激| 久久狠狠色噜噜狠狠狠狠97视色 | 在线不卡免费视频| 六月婷婷精品视频在线观看| 日韩无码视频专区| 少妇被粗大的猛烈进出免费视频| 国产福利微拍精品一区二区| 一本久道热中字伊人| 99久久这里只精品麻豆| 无码区日韩专区免费系列 | 成人日韩欧美| 美女国产在线| 亚洲综合网在线观看| 亚洲综合18p|