999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智駕惹禍,全怪算法?

2025-04-25 00:00:00陳惟杉王詩涵
中國新聞周刊 2025年13期
關鍵詞:駕駛員系統

2024年4月3日,中國28座城市的小米汽車交付中心同步開啟首批小米SU7汽車交付。攝影/本刊記者 殷立勤

3月29日晚間,一輛小米SU7以116公里/小時的速度在高速路上行駛,路遇道路施工,車輛需要改道行駛,但因變道不及時最終以97公里/小時的速度與水泥護欄發生碰撞,車輛隨后發生火災,駕駛員和另外兩名乘客不幸遇難。

碰撞發生前數秒,車輛處于NOA(輔助導航駕駛)狀態。直到事故發生前兩秒,NOA發出風險提示“請注意前方有障礙”,發出減速請求,并開始減速。下一秒,駕駛員接管,隨后碰撞發生。這隨即引發公眾有關現階段輔助駕駛系統感知能力、接管機制等一系列問題的追問。

系統報警到碰撞的4秒里,駕駛員僅有1.5秒有效操作時間。在97公里時速下完成“識別—判斷—轉向—制動”的操作鏈,這要求人類在0.8秒內做出兩次精準轉向。更值得反思的是,涉事車輛此前17分鐘持續發出“輕度分心報警”。這種溫水煮青蛙式的安全暗示,讓駕駛員在潛意識里形成“系統可靠”的依賴。

新能源汽車的競爭本應是安全底線之上的科技創新,但如今尷尬的是,“既要相信系統,又要隨時接管”,成為當前智駕發展中的最大悖論。

自動駕駛雖然尚未到來,但是人們已經越來越多依賴趨近于自動駕駛的輔助駕駛功能,這些功能被車企以L2+級輔助駕駛的名義下放。在L2+級輔助駕駛仍有局限的情況下,人們卻已經習慣于依賴系統,由此引發一系列事故。

“人們開始把駕駛座當沙發,這是比算法漏洞更危險的認知陷阱。”中國消費者協會投訴部主任王芳指出。

因此有必要重估當前智能駕駛系統的邊界,并在這一過程中厘清駕駛員、車企和監管者的責任。對行業來說,每次對安全問題的避重就輕,可能都會透支整個行業的未來。而對駕駛員而言,必須充分認識到智能駕駛技術的局限性,不能將生命完全交給算法。

安徽銅陵小米SU7事故現場、事故后的車輛殘骸。(視頻截圖)
2023年7月,世界人工智能大會期間,智能駕駛、機器人、大模型、芯片等領域的科技成果吸引人們參觀體驗。圖/IC

純視覺路線的爭議

小米SU7車禍引發的第一個爭議便是純視覺路線是否可靠。

事故車型為小米SU7標準版,該版本NOA采用純視覺路線,沒有安裝激光雷達。而更高端的Pro版、Max版和Ultra版則采用“視覺+激光雷達”的路線。

特斯拉一直被視為“純視覺”路線的代表,2024年以來,國內車企也開始更為積極地嘗試純視覺路線,如小鵬甚至被認為全面轉向純視覺路線。

智能駕駛可以被分為感知、決策和執行三部分。在感知環節,主流做法曾是使用激光雷達、攝像頭等多種傳感器,以減輕車輛感知環節壓力。特斯拉則放棄激光雷達,只使用攝像頭采集的視覺數據。這是一個馬斯克用第一性原理思考的案例,既然人開車時只采集視覺信息,機器開車時也應如此。

對于純視覺路線究竟是否存在短板的問題,清華大學蘇州汽車研究院智能網聯中心技術總監孫輝告訴《中國新聞周刊》,純視覺路線的短板主要在于三個方面:深度感知局限,高動態場景(反光、逆光)適應性弱,以及夜晚、雨霧場景性能衰減明顯。“在算力允許的情況下,從獲取信息完備的角度看,‘視覺+激光雷達’一定優于純視覺。兩種方案的差距主要體現在對不規則、稀有障礙物的判斷上,純視覺主要依賴模型的泛化能力,因此存在一定的漏檢風險,尤其是在光線不足或過曝時,更可能失去感知能力。”

不過,相比于純視覺路線是否可靠的疑問,一個更重要的問題可能是國內車企的純視覺路線是否可靠。有業內人士告訴《中國新聞周刊》:“不能簡單對比兩條路線的優劣。作為‘純視覺’路線代表,特斯拉FSD能力就比較強。”

但是國內車企在硬件與模型訓練層面相比特斯拉均有差距。

比如對于“純視覺”路線的一個質疑在于其夜間表現。“目前多數特斯拉仍在使用3.0版本硬件,配備8個200萬像素攝像頭,144 TOPS算力,這一版本硬件的攝像頭夜間成像可能存在問題。但是新款Model Y使用4.0版本硬件,配備8個500萬像素索尼攝像頭,720 TOPS算力。索尼攝像頭在光照強度僅有1勒克斯左右,也就是沒有月光的夜間也能清晰成像,而在光照強度為8萬—10萬勒克斯的夏天正午,也不會過度曝光,所以這款攝像頭對照度的適應范圍遠超人眼。”有長期關注智能駕駛領域的學者告訴《中國新聞周刊》,“相比之下,國內車企可能配備數量更多的攝像頭,基本包括前后兩只800萬像素攝像頭,但是攝像頭對照度的適應范圍可能不及特斯拉使用的索尼攝像頭,可能導致夜間成像質量存疑。”

而在前述業內人士看來,國內車企在車載攝像頭、芯片等硬件方面的配置尚可,但是訓練算力與數據的缺失才是關鍵。

在孫輝看來,純視覺路線主要從硬件與軟件兩方面提升表現,軟件方面的提升主要依賴數據,大模型訓練需要海量數據,尤其是Corner case(邊緣場景)數據,這些數據的數量和質量決定了智駕系統的表現。

前述學者進一步解釋稱,國內車企訓練算力普遍不足,而且一些車企用戶數據閉環剛剛建成,甚至還沒有建成,而僅僅依靠數據采集能采集的數據量有限。特斯拉V12版本FSD使用1000萬段,每段1分鐘時長的用戶數據。如果1分鐘對應的行駛距離是1公里,這意味其使用1000萬公里用戶駕駛數據,如此數據量難以通過數據采集的方式完成,從采集到標注的成本為七八十億元,因此沒有車企能夠依靠數據采集的方式積累足夠的數據。

有國內第三方智駕方案供應商告訴記者,在數據方面,特斯拉相比國內廠商確實具備很大優勢,因其具有先發優勢。據他預估,如果一家車企累計銷量超過百萬輛,便會具備“相對可以”的模型訓練數據基礎。

“由于算力與數據的不足,國內車企‘純視覺’路線相比特斯拉FSD普遍存在差距,而且‘激光雷達+視覺’路線的功能性、安全性都優于純視覺路線。”前述業內人士直言,國內車企沒有激光雷達的輔助駕駛系統“差很多”。

在他看來,國內車企從去年開始密集發布“純視覺”路線,更多還是出于降本考慮。“目前激光雷達的價格還在3000元—7000元之間,從車企采購零部件成本的角度來看,每增加1000元都十分艱難。盡管有激光雷達廠商聲稱售價已在千元以下,但是前提是一次性大量采購。”他認為,今年被視為智駕平權元年,這意味著智能駕駛成為“標配”,因此車企首先在較低價位車型放棄激光雷達。

智駕局限何在?

哪怕是同一款車型,不同配置的輔助駕駛系統也不盡相同,但是車企在介紹一款車型的輔助駕駛能力時,往往僅介紹其高配版本擁有的能力,而一些低配版本甚至可能不搭載輔助駕駛系統。

車企的宣傳話術確實容易讓消費者喪失警惕。但是另一方面,哪怕是一款車具備輔助駕駛功能,人們也往往容易忽視其局限性。比如小米SU7三款車型中,相比于Pro版、Max版,雖然標準版不配備激光雷達,車載算力更低,但是同樣具備高速NOA功能。

人們已經習慣于在高速場景使用輔助駕駛功能,但是近年數次高速車禍引發人們對于輔助駕駛的討論。

“高速NOA與城市NOA實現的難度可謂天壤之別。但是從風險角度來講,人類駕駛員在熟悉城市場景后,再到高速場景駕駛,但是輔助駕駛功能卻優先在高速場景推出。企業潛意識認為高速NOA容易達成,不過是將車道保持、定速巡航等功能組合。”前述業內人士表示。

即使是在當前較為成熟的高速場景,輔助駕駛依然有明顯短板。孫輝表示,在高速NOA中,比較常見的短板有施工、事故等突發場景應對不佳、異形車識別效果不理想、緊急避險策略較保守,也就是傾向于剎車,易導致被追尾事故。

其中,施工場景確實是高速NOA的重要局限,近年很多引發外界對于輔助駕駛討論的事故都發生在高速公路維修路段。

“車企還沒有認真對待道路維修工況,比如AEB對于錐桶、水馬等無法正常響應,根源在于對于這樣的場景訓練不足。高速公路維修路段是一個典型的Corner case(邊緣場景),車企沒有針對這種場景采集到足夠多的數據,甚至沒有對這些數據進行處理。”前述學者認為。

他表示,首先,高速公路維修路段到來前,會在沿途LED顯示屏上提示,但是恐怕沒有輔助駕駛系統會識別提示文字。其次,在維修路段,會設置道路指引標識牌,系統能否識別這樣的標識牌也存在疑問。再次,維修道路往往會安排漸進式限速,比如此次發生事故的維修路段,限速40公里/小時。但是這些限速標識牌往往并不規范,駕駛員看到限速從120公里/小時逐漸下降到80公里/小時、60公里/小時、40公里/小時的時候能準確理解,但是輔助駕駛系統可能難以連貫地理解這些漸近式限速標識牌。“目前智駕系統在使用Transformer模型時,盡管算法已經改進,但由于車載算力有限,一般也只會關聯前后4幀,約40毫秒的信息,這意味系統的‘記憶’有限,而由于系統默認在高速公路行駛,并不會識別這些限速標識。因此與其盯住事故發生前的最后三秒,不如多去問問,為什么此前車輛并未減速。”

正是因為像高速公路施工這樣的邊緣場景仍然存在,真正的自動駕駛才難以到來。汽車自動駕駛技術被劃分為L0至L5六個級別,L3級是分界線,L3級及以上為自動駕駛。盡管國內車企不斷推出L2+、L2.9等概念,但是仍然稱不上自動駕駛。

“不要說還剩下1%的邊緣場景,哪怕只剩下0.01%的邊緣場景,依然不能離開駕駛員。”前述業內人士感慨,沒有人能回答還剩下多少待解決的邊緣場景。

真正實現自動駕駛就需要解決邊緣場景的問題,不過這并非易事。對于駕駛而言,人工智能與人類容易犯的錯誤不同。人類最容易犯的錯誤是疲勞駕駛、分心駕駛,系統既不會疲勞,也不會分心,而是取決于訓練。但是由于車載算力的限制,大模型、推理模型目前還難以應用于車端,車端更多應用深度學習模型,其不具備大模型、推理模型的泛化、推理能力,因此更容易在邊緣場景出現問題,也就是所謂的“黑天鵝問題”,如果在天鵝這一標簽下錄入1萬張白天鵝照片,深度學習模型不會將一只黑天鵝照片識別為天鵝,從而出現誤判。

特斯拉最初希望通過“大力出奇跡”的方式解決這一問題,特斯拉FSD V12版本已經覆蓋30億公里的行駛里程數據,V13版本的下一個目標是覆蓋約100億公里的行駛里程數據,但是這顯然沒有窮盡所有駕駛場景。

前述學者告訴記者,目前,像理想等車企也在嘗試將視覺語言模型與現有的深度學習模型相結合,賦予系統一定推理能力,從而解決“黑天鵝問題”,但這仍取決于車端算力的突破。深度學習模型的參數級別約為10億級,而所謂大模型的參數級別至少在百億級。今年車載算力應該會突破1000 TOPS,接近1500 TOPS,也就是使用兩顆英偉達Thor芯片,而明年可能會突破2000 TOPS,這意味著比較好的推理模型可以“上車”。“隨著車載算力的提升,以及智能駕駛模型的進步,邊緣場景的問題有可能被更好地解決。”

在邊緣場景問題解決前,智駕的局限便始終存在。

把駕駛員“喊回來”不丟人

盡管智能駕駛在現階段仍然停留在輔助駕駛階段,尚未真正實現自動駕駛,但是隨著車企不斷將L3級的能力下放到L2+級,其仍然要求駕駛員注意力保持集中與為駕駛員提供足夠便利之間的悖論已經出現。

在啟動輔助駕駛功能的情況下,駕駛員注意力往往難以集中,從而帶來事故隱患。

2024年4月,美國國家公路交通安全管理局(NHTSA)針對特斯拉的Autopilot系統發布了一份調查報告。他們分析了2018年1月至2023年8月期間發生的956起車禍——這些事故在發生時或發生前,都啟用了Autopilot。其中,有135起車禍可以通過車輛數據日志和EDR(事件數據記錄器)確定駕駛員在碰撞前的反應。在82%的事故中,駕駛員沒有剎車或在碰撞前不到1秒才剎車;在78%的事故中,駕駛員沒有轉向或在碰撞前不到1秒才轉向。這足以表明駕駛員們有多信任輔助駕駛系統。

中國消費者協會投訴部主任王芳也指出,近期73%的自動駕駛相關投訴涉及“過度信任系統導致的分心駕駛”。

盡管車企也在使用技術手段保證駕駛員注意力足夠集中,但這一方面被認為有悖于人性,另一方面,車企為展現更好的輔助駕駛能力,也在追求所謂的“零接管”。

孫輝告訴記者,從技術層面來說,DMS(駕駛員監測系統)可以很好地對駕駛員狀態進行實時監測,獲得微表情信息,如疲勞、注意力分散等,但由于車內隱私保護等考慮存在接受意愿不高的現象。提高駕駛員使用輔助駕駛系統門檻可能會被理解成車企技術不自信,同時削弱了客戶權限,容易導致負面的市場反應,非法規情況下預期車企不會優先采用。

在L2+級輔助駕駛的語境下,輔助駕駛系統究竟應該在何時、何地交給駕駛員接管,目前并無明確監管要求。

“對于L2+級輔助駕駛而言,目前最重要的是把人‘喊回來’,也就是接管,在駕駛員仍要負責的情況下,沒有必要要求系統解決一切問題。比如:如果系統在高速公路上識別到維修路段的一個特征,是不是就可以直接把駕駛員‘喊回來’?如果監管不在這方面提出明確要求,車企便會傾向于無限‘秀技’。因為車企往往在潛意識中認為,輔助駕駛系統把駕駛員‘喊回來’比較‘丟人’,一旦輔助駕駛系統頻繁退出,還會被認為接管率(MPI)過高,從而被認為輔助駕駛系統性能較差。因此車企為了降低接管率,輔助駕駛系統往往有‘不行也行’的傾向,最為典型的可能就是特斯拉,FSD就是不愿意退出。”前述業內人士直言。

他表示:“如果輔助駕駛系統在某些場景沒有經過充分測試,在遇到這些場景時就該果斷退出,甚至在相關場景根本不應該下發輔助駕駛功能。在這一點上華為做得比較好,比如其在去年也一直沒有下發環島、掉頭等工況的NOA功能。對于汽車產業而言,一起惡性事故足以摧毀一個品牌,因此車企首先要建立起把駕駛員‘喊回來’并不‘丟人’的意識。”

2024年10月28日,河南鄭州市,人們參觀比亞迪首個新能源汽車科普空間——鄭州迪空間并體驗智能駕駛。圖/視覺中國

此次小米SU7事故發生后,駕駛員在接管后兩秒便發生碰撞,由此引發接管時間的討論,但是對于L2+級輔助駕駛而言,目前這一標準并不存在。

汽車安全領域常用TTC(碰撞時間,計算車輛與前方障礙物發生碰撞所需的時間)來評估合理的接管時機。系統發出接管預警時,TTC越長,就意味著駕駛員有更充足的反應時間。

同濟大學汽車學院教授朱西產的團隊通過模擬器測試發現,從系統提示到事故發生的平均時間僅1.7秒,而人類駕駛員平均需要2.3秒才能完成從識別提示到有效接管的操作。而當系統處于3級自動駕駛狀態時,駕駛員注意力分散率高達82%。

現在有針對L3級自動駕駛的TTC國際標準,要求智駕系統從發出預警到駕駛員成功接管應有10秒的TTC時間,但對于L2+輔助駕駛沒有強制性要求。

“目前車輛硬件就難以滿足L3級的TTC時間要求,如果車輛以120公里/小時的速度行駛,10秒對應距離超過300米,目前鮮有車輛搭載的激光雷達探測距離能達到300米。”前述業內人士坦言,TTC能做到5秒便已經不錯,這也應該成為監管的硬性要求。

孫輝也建議,沒有完美的接管算法,目前的問題在于應對系統失效時“最小風險策略”的缺失,目前L2+僅做報警提示,然后便退出。可參考高階自動駕駛中“最小風險策略”的做法,完善應急處理機制。當遇到無法處理的復雜情況或系統出現嚴重故障時,能夠迅速采取降級運行模式,如將車輛安全地引導至路邊停車,或在確保安全的前提下,以較低的速度行駛到安全位置。

前述業內人士表示,目前輔助駕駛系統的接管往往是“無提醒接管”,而每一次“無提醒接管”都會導致安全隱患,因為“無提醒接管”建立在駕駛員注意力時刻集中的假設之上,但是這種假設難以成立,因此首先應該建立起預留充足時間的情況下有提醒接管的規范。

而監管之所以是空白,在很大程度上也是因為當前不同車企、不同車型L2+級輔助駕駛能力邊界并不清晰。即使是實現難度較低的高速NOA,不同車型的性能表現差異仍然較大。在今年這一智駕平權元年,奇瑞小螞蟻搭載的獵鷹智駕系統也宣稱具備高速NOA功能,而其售價已經低至5萬元。

“近期,我們也在參與中國汽車工業研究院的智駕長測,將售價從5萬元到30萬元以上的不同車型劃分為六檔,所選車型均宣稱具備高速NOA功能,通過打分測試其性能差異。”前述學者表示,希望借此逐漸打破NOA缺少國家標準,車企“宣稱”具備NOA功能就具備NOA功能的情況。測試是制定下一步監管規則的基礎,一些低價位車型如果在輔助駕駛系統性能上表現較差,就理應通過更多、更合理的接管來保障安全。

猜你喜歡
駕駛員系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
基于高速公路的駕駛員換道意圖識別
基于眼動的駕駛員危險認知
駕駛員安全帶識別方法綜述
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
基于PowerPC+FPGA顯示系統
半沸制皂系統(下)
基于matlab的純電動客車駕駛員行為分析
汽車電器(2018年1期)2018-06-05 01:22:54
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
主站蜘蛛池模板: 4虎影视国产在线观看精品| 女人18毛片久久| 国内精自线i品一区202| 亚洲Va中文字幕久久一区| 在线国产欧美| 伊人成人在线视频| 亚洲综合天堂网| 欧美日韩国产成人高清视频| 国产91在线|日本| 久久国产精品娇妻素人| 亚洲一区色| 极品性荡少妇一区二区色欲| 中国国产A一级毛片| 国产成人成人一区二区| 亚洲A∨无码精品午夜在线观看| 69国产精品视频免费| 97se亚洲综合在线天天| 无码视频国产精品一区二区| 黄色网页在线播放| 午夜欧美理论2019理论| 国产福利在线观看精品| 国内a级毛片| 亚洲系列中文字幕一区二区| 国产9191精品免费观看| 最近最新中文字幕在线第一页| 天天综合天天综合| 乱人伦中文视频在线观看免费| 亚洲女同一区二区| 精品国产免费观看| 亚洲AV无码乱码在线观看裸奔| 999福利激情视频| 日韩精品一区二区三区免费| 无码精品国产dvd在线观看9久 | 欧美成人怡春院在线激情| 国产经典三级在线| 在线无码九区| 欧美亚洲综合免费精品高清在线观看| 日本人真淫视频一区二区三区| 99这里只有精品免费视频| 国产成人一区在线播放| 色婷婷视频在线| 老司国产精品视频91| 亚洲av无码成人专区| 国产成人禁片在线观看| 91破解版在线亚洲| 免费观看三级毛片| 香蕉国产精品视频| 中文字幕亚洲电影| 天天干天天色综合网| 久久婷婷色综合老司机| 久久精品免费国产大片| 欧美亚洲第一页| 欧美a级在线| 欧美成人一区午夜福利在线| 亚洲日韩欧美在线观看| 在线视频亚洲欧美| 夜夜爽免费视频| 中文字幕天无码久久精品视频免费| 一级爆乳无码av| 久久情精品国产品免费| 五月婷婷综合网| 欧美激情视频二区| 亚洲欧洲美色一区二区三区| 国产青榴视频| 高清国产va日韩亚洲免费午夜电影| 少妇精品网站| 国产欧美精品午夜在线播放| 尤物亚洲最大AV无码网站| 国产在线视频导航| 国产后式a一视频| 白丝美女办公室高潮喷水视频| 亚洲天天更新| 久久一本精品久久久ー99| 亚洲精品亚洲人成在线| 97视频在线精品国自产拍| 国产欧美精品专区一区二区| 国产91精品久久| 久久人妻xunleige无码| 亚洲成A人V欧美综合天堂| 毛片卡一卡二| 国产极品美女在线| 69av免费视频|