999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

綜述:類腦智能導航建模技術及其應用

2024-11-25 00:00:00李衛斌秦晨浩張天一毛鑫楊東浩紀文搏侯彪焦李成
系統工程與電子技術 2024年11期
關鍵詞:人工智能

摘要: 自主導航能力是無人系統所要具備的核心能力。近年來,無人系統作業的環境日益復雜,所面臨的任務也越來越有挑戰性,這對其自主導航能力提出更高的要求。隨著神經科學和人工智能的不斷發展,基于動物大腦空間導航機理的類腦導航技術已經成為一種解決復雜環境下智能導航問題的方案。本文對類腦智能導航技術的發展歷程進行梳理與總結,重點討論類腦導航的空間認知模型建模技術及其應用技術——類腦同時定位與建圖(simultaneous localization and mapping, SLAM)技術及類腦集群導航技術。最后,總結目前類腦導航技術面臨的挑戰和不足,并探討未來的重要發展方向。

關鍵詞: 類腦導航; 自主導航; 認知地圖; 類腦同時定位與建圖; 人工智能

中圖分類號: V 249.32

文獻標志碼: A

DOI:10.12305/j.issn.1001-506X.2024.11.27

Review: brain-inspired intelligent navigation modeling technology and its application

LI Weibin*, QIN Chenhao, ZHANG Tianyi, MAO Xin, YANG Donghao, JI Wenbo, HOU Biao, JIAO Licheng

(School of Artificial Intelligence, Xidian University, Xi’an 710071, China)

Abstract: Autonomous navigation capability is a core capability for unmanned systems. In recent years, the environment in which unmanned systems operate has become increasingly complex and the tasks they face have become more and more challenging, which puts forward higher requirements for their autonomous navigation capability. With the continuous development of neuroscience and artificial intelligence, the brain-inspired navigation technology based on the spatial navigation mechanism of animal brain has become a solution to the problem of intelligent navigation in complex environments. In this paper, the development history of the brain-inspired intelligent navigation technology is sorted out and summarized, focusing on the spatial cognitive model modeling technology of the brain-inspired navigation and its application technology—the brain-inspired simultaneous localization and mapping (SLAM) technology and the brain-inspired cluster navigation technology. Finally, the challenges and shortcomings of the current brain-inspired navigation technology are summarized, and the important future develop ment directions are discussed.

Keywords: brain-inspired navigation; autonomous navigation; cognitive map; brain-inspired simultaneous localization and mapping (SLAM); artificial intelligence (AI)

0 引 言

近年來,無人移動設備在越來越多的領域得到廣泛應用,為了應對不同環境下的導航任務,對無人系統在復雜環境下的穩定導航能力要求也與日俱增。傳統的無人系統導航手段有全球導航衛星系統(Global Navigation Satellite System, GNSS)及慣性導航系統(inertial navigation system, INS)。此外,還有基于各種傳感器如攝像頭、激光雷達及磁力計的輔助導航手段。但由于無人系統作業環境的高度復雜性,傳統導航技術存在諸多問題,如惡劣環境下GNSS拒止(衛星信號中斷、被干擾、遮蔽或者誘騙而導致GNSS設備無法正常工作);慣性導航累計誤差大;基于雷達、激光傳感器的輔助導航技術穩定性差,實時性差且設備成本高。

隨著人工智能及神經科學的不斷發展,科學家們逐漸揭示了人體大腦中不同導航細胞(位置細胞、網格細胞、頭朝向細胞等)之間的相互作用方式[1-9,并進一步闡明了自然界中動物大腦進行方向感知、位置定位以及自主導航的機理,為類腦智能提供了新的研究方向與研究思路。

陳雨荻等[1-2均對類腦導航做出定義,但是目前為止,類腦導航技術的概念還沒有統一。本文作者團隊經研究認為:類腦導航技術是一種模仿生物大腦端到端的自適應導航技術,借鑒動物導航機理,實現從抽象的自身運動信息輸入到導航行為決策輸出的整合,形成具有自主環境感知、空間地圖記憶、路徑規劃決策等功能的智能導航系統,其核心在于基于各種生物導航細胞所構建的具有認知及記憶功能的類腦空間建模模塊。

與傳統導航技術不同,類腦導航技術并不依賴于精確測量與幾何模型[3,而是利用神經網絡模擬大腦導航系統,根據對環境的特定認知來進行導航。因此,自主導航是無人系統必須具備的基礎能力,搭載在無人系統上的自主導航系統一方面要滿足導航的體積小、精確度高、成本低、適合無人系統搭載等要求;另一方面需要輔助解決傳統導航精度、穩定性、可靠性等問題。

類腦導航技術屬于無人系統自主導航技術的一種,無人系統自主導航技術需要解決3個問題[4,即“我在什么地方”“我周身環境是什么樣的”“我應該怎么運動”,對應類腦導航系統的環境感知、空間記憶及規劃決策功能。衛星導航、慣性導航、激光導航等技術依賴于傳感器數據的精度及頻度,當傳感器出現故障時,導航效果會受到較大影響。類腦導航技術是對上述技術的補充,具有低成本、低功耗、高可靠的特點,通過綜合多源數據、補充和增強導航能力以及實現自適應和智能化導航,以此來應對復雜導航環境和任務需求。類腦導航系統之所以具備低成本、低功耗、高可靠性等顯著特點,歸因于其背后的變革性理論方法、技術創新及硬件發展。

因此,類腦導航技術的研究,對無人系統在復雜、動態環境下的精確定位及導航具有重要意義,在無人系統復雜環境建圖、無人機集群飛行任務規劃、無人系統復雜環境搜救等任務中有著重要的應用價值。

本文主要分為4個主要部分,著重對目前類腦導航技術的建模技術和應用進行闡述。第1部分對類腦導航的生物基礎及其研究歷程進行簡單介紹;第2部分梳理分析目前類腦導航系統的技術框架及其核心模塊,即類腦空間認知模塊的主要技術手段,詳細描述了連續吸引子技術、脈沖神經網絡技術,并對其做出系統性的闡述和對比分析;第3部分介紹類腦認知導航技術與現有導航技術結合的應用,即類腦導航與同步定位及建圖(simultaneous localization and mapping, SLAM)技術和無人機群多智能協同導航技術的發展及方法進行介紹;第4部分對未來類腦導航發展趨勢及方向做出討論。

1 類腦智能導航技術研究基礎

本節闡述了類腦導航技術的生物學基礎及其發展歷程,并描述哺乳動物腦導航過程,為引出類腦導航技術做出鋪墊。

動物腦導航系統的神經機理是類腦導航系統的研究基礎。自然界中許多哺乳動物有著優秀的導航能力,其腦導航系統具有自適應性、靈活性、多模態集成、高效能耗比等諸多優越性,能保證動物能夠綜合利用視覺、聽覺、觸覺等多種感知信息,在各種復雜環境中進行相對低能耗的高效導航行為,最重要的是,動物導航具有在動態環境中的適應性,面對環境發生變化時可以迅速根據個體的經驗和偏好進行導航行為的調整。

傳統導航方式成本高、易受干擾、動態性差,SLAM技術被提出用于移動機器人在未知環境中導航任務,但其仍具有功耗高、成本高及穩定性差等缺陷。

動物的腦導航系統使得其可以在復雜、未知的環境中實現從感知外界環境到形成環境空間記憶,再到規劃路徑進行導航的功能。類腦導航的研究動機在于借鑒人類大腦的優勢,解決傳統導航系統存在的局限性,提高導航系統的智能化和適應性,從而更好地滿足人們對導航的需求,具有重要的研究意義和實際應用價值。

20世紀后期起,研究人員對哺乳動物大腦導航系統進行實驗研究(見表1),相繼發現位置細胞、頭朝向細胞、網格細胞、邊界矢量細胞等多種腦導航細胞。研究表明,哺乳動物大腦海馬體及內嗅皮層是其可以僅靠認知進行導航的關鍵,各種導航細胞有著不同的功能,通過相互作用實現從探索感知到記憶再到路徑規劃的強導航能力。

表1 動物腦導航系統研究歷程

Table 1 Research history of animal brain navigation system時間/年份研究者研究內容1971O’keefe等位置細胞被發現在哺乳動物大腦海馬體中[71978Eccles等揭示了海馬回路的神經環路和神經元網絡,證實海馬體是海馬回路的一部分,這是一種被認為與空間導航及記憶有關的神經回路[81979O’keefe等闡述認知地圖理論,提出海馬體的某些功能能使動物在場地之間建立聯系,以此來進行空間推斷與探測[91990Taube等頭朝向細胞被發現存在于海馬體中,這些細胞可用來計算頭部朝向信息[102005Hafting等網格細胞被證明存在于內嗅皮層中,可編碼表征動物周圍環境,當動物的位置與代表環境的等邊三角形網格上的頂點重合時,網格單元被激活[112009Lever等邊界細胞被證實存在于海馬體中,這類細胞可以為位置細胞提供環境信息,并補充路徑整合信息[122014Bjerknes等證明邊界細胞在大鼠導航行為開始時就存在,而網格細胞成熟速度比邊界細胞慢[132015Kropff等探討內嗅皮層中的速度細胞在動物自我定位中的作用,即提供關于運行速度的信息,并調節多種導航細胞的放電頻率[142020Yi等證明海馬體在動物導航過程中有連接及整合多個與導航相關腦區的作用,支持空間記憶和語言之間連接的神經機制[152021Basu等除了海馬體之外,動物眶額皮層(orbito frontal cortex, OFC)中的神經元也可以形成空間表征,在導航過程中持續指向動物的后續目標目的地[162022Ormond等驗證動物導航過程中,海馬體創建基于矢量的模型來支持動物的靈活導航,使得動物具有最優路徑規劃能力[17

文獻[2,5-6]對類腦導航生物學基礎及各種導航細胞的功能描述的非常詳細,本節僅對類腦導航機理做出簡單描述并闡明其研究歷程。

哺乳動物海馬體與內嗅皮層部分區域有著高度有序的組織結構,是哺乳動物定位及導航系統的核心組成部分[18。內嗅-海馬系統中的眾多導航細胞,如位置細胞、頭朝向細胞、網格細胞之間通過放電相互作用而形成的神經回路來實現哺乳動物的導航計算與定位。

目前,哺乳動物導航機理可大致被描述為如下流程,如圖1所示。

首先,邊界細胞及位置細胞接受環境信息并將其輸入網格細胞中以形成網格細胞對目前環境位置的多尺度表征;其次,頭朝向細胞及速度細胞等向網格細胞提供自運動信息以執行路徑積分;第3,邊界細胞及位置細胞表征參與校準路徑積分誤差,并與網格細胞一同構建認知地圖;第4,對比路徑積分與目標位置之間的表征,并計算矢量信息,再根據矢量信息進行導航。哺乳動物腦導航系統為類腦導航系統架構提供了參考。

2 類腦導航系統架構及關鍵技術

本節介紹類腦導航技術的框架,詳細闡述類腦認知模型的關鍵技術,對吸引子模型、振蕩相干模型、深度學習模型以及脈沖神經網絡模型的優缺點做出對比,并討論這些方法的應用及其實用性。

類腦導航是借鑒生物大腦導航系統的神經機制,模仿其機理以實現自主導航功能的技術。當哺乳動物腦導航細胞開始被發現時,許多學者就導航任務提出了基于單個導航細胞的模型,如基于競爭學習的位置細胞模型[20、基于局部視覺及空間交互表征的位置細胞模型21、 基于自組織學習的位置細胞模型[22、基于頭朝向細胞的路徑整合模型23-24、基于吸引子神經網絡與競爭神經網絡的頭朝向細胞模型25

隨著神經科學的不斷發展,研究者們認識到哺乳動物空間導航時不同腦區有著不同的作用,如圖2所示[26-27,其過程是多種腦區及細胞共同作用下的復雜過程,其中包含多源傳感信息融合[28-29、局部視覺信息記憶、路徑積分、空間認知地圖構建、導航決策等活動30-31,而相比于簡單的路徑積分及地圖構建功能,哺乳動物海馬體更像是連接各導航腦區的橋梁及整合各種導航信息的粘合劑[4,32

隨后,許多學者開始就類腦導航整體框架進行研究,Mhatre等[33提出一個基于自組織地圖模型的類腦導航計算結構,用以解釋內嗅-海馬體在空間導航中的相互作用;Tejera等[34提出一個多源信息整合的類腦導航計算結構,并將Actor-Critic機制引入路徑規劃部分;Edvardsen等[35提出基于位置細胞、網格細胞及邊界細胞的類腦導航系統結構,并以基于網格單元的矢量導航機制與邊界單元和位置單元介導的局部避障機制為核心來支持復雜環境中的導航;Llofriu等[36提出一個基于哺乳動物海馬體的多目標類腦導航框架,其中目標導航計算模型也是基于強化學習實現的。如今,類腦自主導航系統的架構已逐漸發展完整及成熟,如圖3所示。

目前,類腦導航系統的整體架構也未統一,Li等[37提出基于絕對航向的類腦導航模型框架,Chao等[38提出基于脈沖神經網絡的無人機類腦導航系統,文獻[6,39]均有對類腦導航框架做出歸納。本文作者認為,類腦導航技術框架從功能的角度可遵從文獻[6]所提出的技術路線,被分為3個模塊:類腦環境感知模型、類腦空間認知模型、類腦規劃決策模型,這3個模塊相互影響、相互補充,共同在導航過程中發揮作用,后續的研究內容也可以大致被這3個強關聯的模塊所劃分。

2.1 類腦導航系統架構

本節對類腦導航技術的架構按功能層次分類進行闡述,描述了類腦環境感知模型、類腦空間認知模型、類腦規劃決策模型的主要技術及研究內容,分析以往學者的研究成果。以往文獻對環境感知模型及規劃決策模型的描述已經較為詳盡,本文僅對類腦導航系統的核心模塊——類腦空間認知模型做出展開論述,并對其各個建模技術的優缺點及實用性做出分析。

(1) 類腦環境感知模型。生物在導航時往往是通過多源渠道獲取不同形式的環境信息,以此為啟發,類腦環境感知模型主要基于多模態的仿生傳感器及類腦傳感信息處理機制來設置感知模型,通過諸如基于雙目視覺的事件驅動傳感器[40、以蝙蝠回聲定位機制為靈感的電磁聲納傳感器[41、基于深度學習與觸覺傳感器的感知模型42,以及一系列仿生傳感器43(如仿生光流傳感器、仿生復眼傳感器、仿生陀螺儀、仿生磁強計等)獲取感知信息。與此同時,在處理傳感器帶來的巨量信息時,借助生物處理信息的機制,如注意力機制[44、快照模型45等可以大大減少運算量,又能實現較為準確、迅速地對環境信息中的有用信息進行提取,無用信息去除的功能,經過預處理遠遠降低了數據的初始復雜度。隨著卷積神經網絡(convolutional neural networks, CNN)的發展,其強大的特征提取能力使得它非常契合需要處理大量多源信息的類腦感知任務,也因此被廣泛應用于類腦環境感知模型中。蘇黎世聯邦理工大學[46-47利用基于視覺的CNN感知模塊與路徑規劃模塊集成,以搭載在無人飛行器上完成復雜環境下的自主導航,該方法避免了狀態估計方法帶來的軌跡漂移問題,并且可以在高度動態的環境中穩定運行。Dan等[48提出基于CNN的模糊、抽象的建圖定位方法而非采用傳統點云構建顯式地圖,該研究也展現出生成式模型與判別式模型在不同場景下的優缺點,為后續研究提供思考,研究者們可以在不同任務需求下通過不同方式結合兩種模型來共同實現定位目標。Zhuo等[49提出一種全球定位系統(Global Positioning System, GPS)性能補償方法,利用CNN對視覺信息實現快速提取,再結合長短期記憶(long short-term memory, LSTM)網絡輸出補償信號以此在GPS間斷情況下導航,該方法可以有效地降低慣導方法的位置與速度漂移誤差。Zhao等[50也提出一種基于CNN與門控循環單元(CNN-gated recurrent unit, CNN-GRU)的INS/GNSS集成導航的輔助方法,先利用CNN快速提取序列特征,再利用GRU網絡進行建模輸出,該方法可在短時間GNSS拒止情況實現低誤差的軌跡預測功能。此外,還有其他的基于生物大腦信息處理機制的類腦環境感知模型正被學者們研究。

(2) 類腦空間認知模型。生物腦導航系統的核心是其擁有的豐富的導航細胞,在類腦導航系統中,類腦空間認知模型起到了導航細胞的作用。類腦空間認知模型的基本是模擬導航細胞放電活動的計算模型,通過完成路徑積分、認知地圖構建等功能,來表征環境位置。目前,空間認知模型的構建方式可以分為兩類:一類是基于單個導航細胞的貝葉斯模型[51、振蕩相干模型52等;另一類基于多種導航細胞集群電涌活動的深度學習模型、脈沖神經網絡(spiking neural network, SNN)模型[53-55、吸引子神經網絡(attractor neural network, ANN)模型[56-57等。

(3) 類腦規劃決策模型。類腦規劃決策模型會利用空間記憶模型得到的空間認知地圖進行路徑推理及優化,結合外源信息最終輸出最優路線或導航決策結果。在基于SLAM的導航方法中,路徑規劃動作主要是基于概率圖[58、快速搜索隨機樹59-60等方法實現的,但這些方法大多忽視了外源視覺信息在決策中的作用。在類腦導航系統中,規劃決策部分的計算模型主要是基于神經網絡實現的。無監督學習方法可為導航智能體自主學習導航策略,使其能夠將各種導航細胞與不同環境感知和不同導航決策動作聯系起來。經過無監督學習訓練的導航智能體具有在未知環境中利用獲取到的認知地圖、環境以及自身運動信息選擇最優的導航動作的能力,從而實現自主導航。因此,許多基于無監督學習的決策模型被提出及驗證。Vegard[61提出一種基于網格解碼機制的策略模型,通過競爭學習監測當前與目標位置網格細胞表征之間的差異作為導航決策的依據,該模型可以實現使用網格單元之間的差異性來引導智能體到達記憶目標點,并符合生物學邏輯。Goldschmidt等[62基于聯想學習與獎勵機制來執行基于矢量引導的導航模型,該項研究完成了基于矢量的自主導航方法底層控制與學習機制的合理神經實現,為后續自適應的目標導航研究提供了思路。此外,半監督學習方法如強化學習,也被廣泛地應用在規劃決策模型中。Faust等[63結合基于采樣的路徑規劃與強化學習方法,強化學習代理只學習采樣點之間的短程導航策略,結合多個采樣點之間的動作決策即可實現高效率的遠程導航決策。Zhu等[64提出了基于演員-評論家模塊的目標驅動視覺導航任務,該方法很好地提高了強化學習在執行規劃決策任務時的泛化能力。雖然無監督學習及半監督學習在一定程度上都具有便利性,但是在復雜環境導航中通常會受到各種障礙的影響導致導航穩定性變差,且效率低下,部分學者采用監督學習的方式來解決這些問題。Shen等[65基于CNN訓練生成25個既定動作,又采用情景匹配的方式,通過新的CNN學習不同場景下的特征以匹配對應動作,并在中間引入情景注意力機制,實現根據場景匹配結果來選擇導航動作,該方法很好地彌補了無監督學習的不確定性,使得導航智能體的行為更具可控性及可解釋性。Du等[66提出試驗驅動的模仿學習策略,當短時間內視覺信息特征重復性高時,即導航載體陷入死鎖狀態,通過暫定策略網絡輸出既定指令以打破死鎖狀態。

2.2 類腦空間認知模型關鍵技術

類腦導航系統的核心是類腦空間認知部分,基于各種導航細胞所構建的空間認知模型可以整合感知模型傳遞的環境信息及自運動信息,將其轉換為導航細胞的特定放電模式及表征,以此來完成認知地圖的構建。本節將介紹并分析幾種典型的空間認知建模方式。

2.2.1 吸引子神經網絡模型

Marr等[67于20世紀70年代提出吸引子的概念,吸引子是指在無外界輸入的條件下,一個動力學系統僅靠自身動力就能維持非靜息的穩定狀態,這種穩定狀態也被稱為“工作記憶”。ANN是一種基于吸引子的循環神經網絡,傳統的吸引子是離散的,只能編碼離散的狀態。隨后,連續ANN(continuous ANN, CANN)被提出并被證明其動力學特征使得其可被用于對神經系統各種細胞的建模[68,并可以刻畫大腦的信息處理機制,CANN內部神經元集群放電活動對記憶信息高效穩定的編碼功能也使得其具有很強的生物意義及應用場景[69

因為其貼近生物神經系統表征信息的方式,CANN常被用來編碼不同尺度的腦導航細胞。頭朝向細胞一般采用二維吸引子進行建模(見圖4(a)),吸引子均勻分布在圓周上,不同位置的細胞分布取決于細胞對不同方向的敏感程度,不同方向細胞之間具有循環連接,連接權值大小與距離成反比,進而形成細胞之間距離遠則相互抑制,距離近則相互激活的效果。在適當的刺激與抑制之下模型可以實現保持穩定放電的狀態。對于頭朝向細胞的活動特性可以通過積分頭方向運動的角速度來表征[70-71。位置細胞、網格細胞對二維環境編碼的方式可以通過二維CANN來實現(見圖4(b))。細胞在二維CANN中的坐標編碼著二維環境中的位置坐標,與一維CANN相似,細胞之間具有循環連接,連接權值大小與距離成反比。此外,各個邊界上的細胞與對立邊界上細胞也建立循環連接(見圖4(c)),形成具有周期性邊界的環面以消除邊界影響。二維CANN可以通過驅動網絡狀態向偏移方向連續運動來實現路徑積分[50,72

Milford等[73基于二維連續吸引子編碼的頭朝向細胞模型及網格細胞模型提出視覺與感知相結合的RatSLAM系統來構建拓撲地圖,并完成室外環境下66 km建圖任務,該方法可以在長時間、長距離的前提下完成精度較高的二維拓撲地圖構建任務。此外,Burak等[74提出基于速度與航向編碼的CANN細胞精確積分模型,該項研究證明基于連續吸引子模型所構建的網格細胞網絡可以高精準度地整合自運動信息輸入以生成認知地圖,但是吸引子存在穩定性的問題,并且吸引子的穩定性以及其外部狀態會對整合結果造成較多影響。Rivero-Ortega等[75基于環形吸引子網絡集成了智能體的感知、認知及運動控制能力,該方法僅依靠感知模塊來獲取環境信息,因此無法保障導航路徑是最優化的,但其在避障行為和穩定性上得到很大提升,能為復雜環境下多智能體安全導航提供研究思路。

然而,哺乳動物強大的導航能力在三維空間內是普適的,二維腦導航細胞模型會喪失許多維度的信息,從而不能被應用于三維導航任務中。文獻[76-78]討論三維條件下的頭方向細胞計算模型及呈六邊形緊密堆積(hexagonal close-packed, HCP)和面心立方(faced-centered cubic, FCC)堆積的網格細胞模型。

為模擬哺乳動物在三維環境中方向認知的神經機制,Tang等[79結合由一維連續吸引子編碼的頭方向細胞模型及三維網格細胞模型使無人系統進行認知任務并構建環境地圖,通過該方法構建出的拓撲地圖被賦予情景記憶后,可引導無人系統進行認知導航任務。Yu等[80提出多層連續吸引子編碼的頭方向模型及三維網格細胞模型,如圖5所示。多層頭方向細胞模型可以在三維空間中描述無人系統的頭朝向,每個神經元負責在特定的垂直區域繪制特定的偏航角,并與局部視圖單元格相關聯,以進行方向校準。三維網格細胞模型編碼無人系統的三維位置、方向及度量信息,并可以根據自運動信息進行路徑積分,同時可以根據外部視覺信息進行三維位置校準。

ANN可解釋性強、魯棒性高、訓練簡單,且因為其豐富的動力學特征,在模擬動物神經機制建模的任務中有著廣泛的應用前景。但是,基于ANN的方法仍存在諸多技術瓶頸,如確保吸引子的穩定性問題,所模擬的不同導航細胞之間的交互問題以及吸引子網絡表征信息的準確性問題都有待攻克。目前,采用吸引子網絡編碼的導航細胞模型僅是逐個的功能模擬。未來,從對單個細胞模擬到對多個細胞的功能整合,再到對動物腦導航系統的整體模擬,是一個具有重要研究意義的方向。

2.2.2 振蕩相干模型

在1993年O’Keefe等[81發現大鼠在空間環境中運動時,大鼠海馬體的腦電波呈現8~12 Hz的θ波振蕩,在大鼠經過位置野時位置細胞、網格細胞的放電野時,其放電脈沖在時間上對應θ波的相位會越來越提前,這一過程被稱為θ相位進動。振蕩相干模型是基于單個導航細胞進行設計,認為動物的空間信息計算過程在單個導航細胞內完成,隨后再進行加權、干擾等融合為全局一致的導航信息來構建認知地圖。振蕩相干模型將單個神經元的輸入信息設為多個相位間隔為60°的相干信息組成,如圖6所示,其中GC表示網格細胞。樹突中受自運動信息,如速度、頭朝向信號調整的周期性振蕩輸入與細胞體附近的周期性振蕩輸入電流疊加形成了不同的相干模式,進而將生物運動信息如速度、頭朝向等整合為空間相位,形成位置編碼[82-84。因為振蕩的固有周期性,所以路徑積分的重置是自然發生的,這也是干涉模型的優點所在[85。Soman等[86利用振蕩相干模型編碼網格細胞,并觀察出現了正六邊形的網格放電場表征,該實驗也證明在使用振蕩相干模型對網格細胞進行建模時,網格表征來源于純運動信息的輸入,并且網格表征與速度有著密切關系,為振蕩相干模型的生物學依據提供了很好的解釋。Zilli等[87提出基于網絡的振蕩相干模型,并證明在高噪聲情況下,振蕩網絡的頻率依然能被很好地控制,因此該模型適用于真實噪聲條件。

然而,由于大腦的振蕩信號非常復雜,且多個振蕩器直接有密切的相互作用,而振蕩相干模型僅能模擬獨立且理想的振蕩作用,并且構建出來的振蕩相干模型不能維持像生物一樣長時間的穩定放電[87,這也是振蕩相干模型的一大技術瓶頸,因此振蕩相干模型在構建腦導航系統模型時應用較少。

2.2.3 深度學習模型

類腦導航技術強調記憶及學習能力,隨著深度學習的不斷發展,研究人員發現循環神經網絡(recurrent neural network, RNN)具有優秀的序列信息處理能力,是類腦空間認知導航建模的一條途徑[88。此外,LSTM網絡及門控循環單元(gate recurrent unit, GRU)等RNN變體解決了RNN中梯度消失及梯度爆炸等問題,為RNN的實用及穩定性提供了保障。哥倫比亞大學Cueva等[89在利用RNN將導航智能體的頭方向及速度作為輸入訓練導航智能體時,RNN節點可視化結果呈現出與生理學觀測一致的邊界細胞、網格細胞等腦導航細胞的放電模式。受此啟發,谷歌DeepMind團隊Banino等[90設計一個基于LSTM網絡的網格細胞路徑積分模型,利用導航智能體的速度與航向信息來執行路徑積分以生成位置與頭方向的預測,稱為Grid-cell路徑積分網絡(見圖7)。

將該網絡與基于CNN的視覺輸入模塊以及基于LSTM使用強化學習進行訓練的規劃決策模塊相結合,搭建了一個面向目標的類腦智能導航系統整體,實驗表明,經過訓練的LSTM網絡隱藏單元出現了網格細胞、邊界細胞以及內嗅皮層其他細胞的表征。此外,DeepMind團隊在不同模擬環境上測試證明該智能體,結果表示該智能體具有良好的空間定位以及導航能力,甚至出現走捷徑的尋路能力,并證明上述表征為導航智能體在復雜、多變、陌生的環境中實現定位目標提供了基礎。

目前,深度學習模型存在的技術瓶頸是功耗性、可解釋性及對高質量數據的要求。由于深度學習模型計算功耗大,可解釋性低,在他應用到移動機器人導航任務上時就存在實時性差,能耗大的問題。并且由于深度學習模型需要大量的高質量導航數據,包括從實際導航任務中獲取的感知信息與行為軌跡,而獲取大規模高質量的訓練數據是成本高且工作量很大的任務。因此,如何通過輕量化、半監督甚至無監督的神經網絡模型構建腦導航系統是未來的重大研究方向。

2.2.4 SNN模型

基于深度學習的類腦空間認知模型需要大量監督學習訓練,且沒有實際的生理學根據。1952年,Hodgkin等[91在研究烏賊神經細胞動作發生機制時發現烏賊神經細胞的電位受脈沖電流影響,用電路模型模擬這種神經元的脈沖放電機制就是SNN的雛形。1997年,Maass[92提出基于脈沖神經元的SNN模型。SNN中的信息通過脈沖時間(包括延遲和峰值速率)傳輸,這些單獨的脈沖在時間上是稀疏的,因此每個脈沖都有很高的信息含量,并且在一級近似下具有均勻的振幅[93,與傳統神經網絡相比,包含更多神經生理學細節,圖8為SNN模型。

由于SNN具有包含時序動力學特點的神經元節點,所以SNN最大的優點是可以利用并傳遞與時空相關的信息。此外,SNN低功耗網絡信息處理能力、抵御干擾能力、認識增強等優點使其十分契合復雜環境導航的任務。近年來,SNN由于其編碼機制的多樣性、時空動力學特征的豐富性以及契合硬件的事件驅動性等優點在類腦計算、神經計算等領域應用廣泛。Chao等[94基于SNN對位置細胞進行建模,并提出無人機飛行路徑規劃系統,該方法在實驗環境下成功實現規劃出繞開障礙物的無人機最優飛行路徑,充分利用SNN的特性使得該方法具有更高的魯棒性及效率。但是,其路徑規劃能力僅是在靜態環境下,方法實時性有待提高。Kreiser等[95基于SNN對頭方向細胞進行建模,以實現路徑整合并校正累積誤差,并將該網絡搭載在神經形態硬件上以減少功耗,該研究為基于SNN的類腦導航方法與類腦硬件的結合提供了研究思路。Lobov等[96提出一種基于SNN的全局網絡記憶的測量方法,使用突觸向量場方法來驗證結果并計算信息特征,能夠生成外部環境的內部表示并實現空間記憶。實驗表明,該方法可以使機器人避開危險區域,雖然機器人最終會重新進入到該區域,這是因為危險轉移到另一個區域,這代表著機器人可以不斷根據經驗更新地圖,以適應不斷改變的環境。Tang等[97提出一個具有生物學約束的SNN,并利用其對頭方向細胞、網格細胞及位置細胞等多種腦導航細胞模型進行學習訓練,以此控制無人系統進行未知環境導航任務,該方法很好地改善了以往SNN架構速度較慢、計算效率低的問題,并且為引入其他信息處理細胞做出了鋪墊。

此外,由于SNN具有高度的生物機理,以此帶動模擬生物神經生理結構的神經形態硬件的發展,結合SNN及神經形態硬件所設計的類腦導航軟硬一體化系統也成為實現高效率、高自主性、實時反應及低功耗類腦導航系統的研究重點及挑戰[80。Fleischer等[98基于生物神經系統提出了類腦軟硬一體化(brain based device, BBD)導航系統,整合了包括自運動信息及導航載體與環境的交互信息進行空間建圖、導航規劃等任務,也為類腦軟硬件結合研究提供了思路及范例。加州大學Hwu等[99將CNN搭載在SNN架構的類腦芯片TrueNorth上實現無人系統的自主導航功能,為在自主嵌入式系統上使用神經形態硬件提供研究思路及范例。Pei等[100提出基于類腦異構芯片的“天機”無人駕駛自行車類腦導航系統,結合多傳感信息及包含CNN、SNN及CANN的多模態神經計算模型實現無人系統感知、記憶及決策一體化的導航功能。類腦芯片的發展及SNN準確性的提升為類腦軟硬一體化智能導航系統的發展奠定了基礎。

SNN具有豐富的時空動力學特征及事件驅動模式,因此在類腦計算任務中有獨特的優勢。但是,由于其獨特的訓練方式,在監督學習中SNN需要具有時序屬性的目標脈沖序列形式進行編碼后的數據來進行訓練,這為模擬腦導航系統又增加了工作量。其次,由于SNN的理論基礎尚未完備,在類腦導航任務中,如何構建多模態協作和多時空尺度聯合表征的高效脈沖編碼理論與模型也是一個待突破的技術瓶頸。

2.2.5 類腦空間認知建模技術對比分析

針對類腦空間記憶模塊部分,目前所有的建模技術均有其各自的優勢及缺陷。CANN模型可解釋性強、訓練簡單且穩定性高,因此得到大量的研究與應用,但利用CANN進行導航細胞建模時所依賴的部分神經機理并未被證實存在于哺乳動物大腦中,所以存在完備性問題。振蕩相干模型所依賴的神經機理真實存在于生物大腦中,但是其對噪聲非常敏感,且無法完全模擬哺乳動物腦振蕩系統,在導航過程中實現連續、穩定地放電。深度學習模型如RNN等有著良好的端到端訓練導航及記憶能力,能夠很好地整合多源信息完成導航任務,且具備魯棒性高、人工工作量少等優勢,但其模型需要大量數據進行訓練,且深度學習模型的可解釋性是一直存在的問題。雖然哥倫比亞大學Cueva等[89及DeepMind團隊Banino等[90證明RNN隱藏節點的物理表征類似于腦導航細胞的放電場,但其建模所依賴的生理學依據及神經機理也有待進一步解釋。SNN模型具有優秀的生物學特征,但其功耗低、處理速度快等優勢需要在與之匹配的類腦芯片上才能發揮出最優性能。目前,各種建模技術均存在的技術瓶頸是無法系統、穩定地模擬整個腦導航系統的神經運行機制,這與生物學與腦科學的發展也密不可分。

此外,除了采用各種技術構建各種腦導航細胞來實現無人系統的自主導航之外,也有許多學者提出采用純人工智能的方法使得無人系統具備自主導航功能。Lv等[101采用CNN與粒子濾波的方法實現無人機的自主軌跡視覺導航,利用視覺特征匹配的方式控制無人機以較小的姿態角及速度誤差識別目標來進行導航。熊李艷等[102提出一種雙重注意力的深度強化學習算法,使得無人系統在理解環境的同時實時自我決策進行導航,該算法在模擬環境中表現優秀。目前,基于人工智能的自主導航方法主要有基于計算機視覺的導航方法[103-105,這類導航方法主要利用神經網絡的特征處理能力,通過對不同場景中的圖像特征匹配來達到自主目標導航效果。此外,還有基于深度強化學習的無人系統自主導航方法[106-108,這類方法主要是根據獎懲機制使得導航智能體逐漸學會自主導航能力,這些方法也將導航描述為馬爾可夫決策過程(Markov decision process, MDP)。

目前,基于純人工智能的自主導航算法與類腦導航方法最大的區別在于,是否通過對腦導航細胞的建模來模擬腦導航系統實現自主導航功能。基于純視覺與強化學習的自主導航方法在某些場景下取得了較好的效果,但其缺乏可靠的物理學及神經學基礎,且存在模型的表現不可控,實時性較差,在復雜動態環境下穩定性難以保證等問題。類腦導航的靈感來源于動物大腦的結構和功能,試圖模仿人類導航的方式和智能特性。而基于純人工智能方法的導航則更側重于利用人工智能技術,如強化學習、深度學習等,來構建導航系統,其設計思路和技術手段相對獨立于人類大腦的工作機制。在實際應用中,類腦導航的一些建模方法也使用到了人工智能的相關技術。

3 類腦智能導航認知技術應用

類腦導航技術的發展還處于研究階段,目前,類腦導航技術主要是作為一種輔助導航手段來結合其他導航方法進行應用。趙菁等[109基于位置細胞模型構建無人機飛行軌跡類腦導航方法,將其與慣性導航技術結合,設計節點誤差補償模型以降低慣性導航所帶來的漂移誤差,該方法不僅能提高無人系統自主導航精度,同時也證明類腦導航技術可以修正傳統導航器件所帶來的誤差。申沖等[110利用基于超寬帶(ultra wide band, UWB)模塊的位置細胞節點所獲取到的智能體速度與位置信息和利用光流傳感器所獲取的速度與位置信息之間的誤差建立誤差模型,再利用誤差模型對速度與位置信息進行校正,該方法成功提高了基于光流法的智能體速度與位置測量精度,也為復雜環境下的組合導航技術提供參考。

本節主要闡述了類腦導航技術與現有的導航技術的重要結合與應用。目前,研究技術最成熟、最熱門的自主導航技術即SLAM技術,因此本節針對類腦導航技術與SLAM技術及多智能協同導航技術的結合及可能性的應用展開描述。

3.1 類腦SLAM技術

SLAM技術有著多年的研究基礎及理論支撐,其穩定性及可解釋性較強,類腦導航技術與SLAM技術的結合彌補了SLAM技術的缺陷,又為類腦導航技術研究及應用提供了可解釋性的保障。

類腦空間認知模型的主要任務是進行空間記憶并建立認知地圖。認知地圖的概念最早由Tolman[111于1948年提出,認知地圖是動物在導航過程中理解環境的整體空間結構,主動選擇重要線索從而構建出獨立于自身而存在的環境全景地圖。認知地圖一般具有一定的抽象性和高層次的表示,通常用于規劃路徑、避障、導航等高級決策和任務。

SLAM技術也是被提出用以解決無人系統在未知環境中的定位及建圖問題,是指無人平臺在運動的過程中利用自身多種傳感器實時構建經驗地圖,并以此作為導航與定位的依據。與認知地圖不同,經驗地圖是通過實際經驗和實時感知所積累的環境信息的記錄和整理,可以用來描述和表示機器人或無人系統在運動中所感知到的環境特征、位置信息、障礙物等。認知地圖和經驗地圖也可以相互影響和更新。經驗地圖中的數據可以用于更新認知地圖,改進無人系統對環境的認知和理解,認知地圖中的高層次結構和規劃決策也可以引導機器人在實時操作中對環境信息的收集和更新。根據所應用的傳感器,傳統SLAM技術可大致分為基于激光雷達的SLAM[112-114、基于視覺的SLAM[115-117及基于多種傳感器如慣性測量單元(inertial measurement unit, IMU)、視覺傳感器及激光雷達之間的融合SLAM技術[118-120

早期的SLAM大多基于概率統計模型[121-123,如圖9所示,這類方法依賴昂貴的傳感器如激光雷達與復雜的計算模型,導致基于概率的SLAM方法具有代價高、計算資源耗費高、穩定性差等一系列缺點。

隨后,受到自然界中生物導航策略及哺乳動物腦導航機制啟發的類腦SLAM[73,80,125-126技術被提出,用于低成本、高自適應性地完成無人系統在未知環境中的建圖任務。類腦SLAM技術是通過仿照哺乳動物的腦導航系統,結合傳感器數據和機器學習算法,實現機器在未知環境中同時進行自主定位和地圖構建的技術。其模仿了哺乳動物腦中的空間導航回路和細胞,通過感知數據和機器學習算法來實現定位和建圖的功能。此外,類腦SLAM技術可以利用感知數據和定位信息來估計導航系統的運動狀態,包括速度、加速度、姿態等,這對于導航系統的行為決策和路徑規劃非常重要,例如避障、隨動控制、動態路徑規劃等。類腦SLAM技術旨在讓機器能夠像動物一樣在未知環境中進行自主導航和環境認知,具有較強的魯棒性和適應性。類腦SLAM技術的發展過程中有兩個至關重要的算法:一是將類腦與SLAM技術首次結合并落地的RatSLAM技術;另一個是將RatSLAM技術由二維推廣至三維的NeuroSLAM技術。目前,現存大部分算法均是從這兩個技術中得到的啟發或對其進行改進。

3.1.1 RatSLAM技術

2004年,Milford等[73提出一個基于競爭吸引子網絡的嚙齒動物海馬體模型2DSLAM技術,稱為RatSLAM。RatSLAM利用位置細胞和頭部方向細胞構建了一個名為pose cell network的海馬模型,整合來自視覺傳感器的里程計運動數據和地標。圖10為RatSLAM的基本框架,其中位姿細胞由競爭吸引子網絡編碼,接收來自由外部視覺信息轉換的局部信息以及由內部信息執行得到的路徑積分結果輸入,來控制及判斷無人系統的位姿變化。

搭載該模型的無人系統可在模糊地標信息的條件下執行實時SLAM任務,并且可以從不同程度的路徑積分誤差中自主恢復過來。受到RatSLAM網絡的啟發,Steckel等[125提出基于聲納信息的地圖構建技術——BatSLAM,為多源傳感融合及基于仿生聲納的空間定位和地圖構建任務提供了研究思路。Luan等[126將二維RatSLAM模型擴展到三維的水下環境中,稱為DolphinSLAM,并結合擴展的FABMap來處理復雜海底環境下的地表檢測任務,該研究僅依賴視覺與聲納信息,為生物啟發的水下SLAM技術研究提供了思路與啟發。昆士蘭科技大學Milford等[127利用基于純視覺車載RatSLAM實現長達66 km的實時建圖任務,并且實現地圖閉環。Kazmi等[128利用RatSLAM與視覺里程計的外部輸入完成校園環形道路的閉環建圖,證實RatSLAM+視覺里程計建圖的可行性,并給出基于RatSLAM的視覺/里程積分算法結構。Yu等[129基于情景記憶的概念,提出一種結合RatSLAM和情景記憶圖的仿生路徑規劃技術,并在多種場景下驗證其有效性及魯棒性,該算法也為認知拓撲地圖升維,將拓撲地圖轉變為語義拓撲地圖的研究提供了思路。

此外,Milford等[130通過RatSLAM系統在不同模糊程度外界環境中的行為表現,研究RatSLAM系統中的網格細胞放電場模式,并證明網格細胞具有處理模糊信息的功能,同時驗證不確定性是高效導航的必要條件,以此為RatSLAM提供了生物學依據。Ball等[131-132分別提出基于機器人操作系統(robot operating system, ROS)的OpenRatSLAM以及并行的xRatSLAM作為RatSLAM模型的開源框架,供研究人員們驗證及探討。

RatSLAM模型的提出為SLAM技術的發展做出巨大貢獻,其有著強大的自主導航能力,并且魯棒性強、實用范圍廣,可在導航、測繪及自動駕駛等多個領域發揮作用,但也存在著精度不高、可擴展性低以及所需計算資源較高等問題。

3.1.2 NeuroSLAM技術

受到鳥類及蝙蝠等生物利用空間神經記憶及外部傳感信息融合進行導航的機制啟發,Yu等[80提出一種基于三維網格細胞及多層頭朝向細胞模型的三維4自由度(degree of freedom, DoF)類腦SLAM技術,稱為NeuroSLAM。

圖11為NeuroSLAM的系統框架,該系統由包括視覺里程計的視覺模塊、三維網格細胞模塊、多層頭朝向細胞模塊及多層經驗地圖模塊組成,其中視覺模塊提供局部視覺信息以及自運動信息,自運動信息包括偏航旋轉速度、平移速度及高度變化速度等。視覺模塊提供的信息分別被送入多層頭朝向細胞模塊以及三維網格細胞模塊進行路徑積分并根據視覺里程計信息進行校正,校正后的路徑積分結果融合局部視圖單元及視覺里程計結果共同構建三維經驗地圖。

多層頭朝向細胞模型及三維網格細胞模型分別由多維連續吸引子網絡(multi dimensional continuous attractor network, MD-CAN)及三維連續吸引子網絡編碼,共同被稱為聯合位姿細胞,用以表示無人系統的4DoF位姿(x,y,z,yaw),即空間坐標和偏航角。聯合位姿細胞的活性會受到無人系統自運動信息變化的影響而發生改變,同時在遇到熟悉的場景時,聯合位姿細胞的活性會根據局部視覺信息而得到校準,即多維吸引子網絡的活動包會根據三維視覺里程計信息進行移位,局部視覺細胞將會在三維視覺里程計遇到熟悉的視覺信息時被激活,通過聯想學習將活性注入特定的聯合位姿細胞中,從而實現路徑積分。

NeuroSLAM的提出填補了三維空間中類腦SLAM技術的空白,其計算模型更符合三維生物學特征,并且可以通過軌跡誤差校正實現經驗地圖的閉環。與傳統三維SLAM技術沿軌跡不斷生成位姿信息相比,NeuroSLAM降低了大量的計算復雜度及功耗,同時彌補了傳統三維SLAM魯棒性低、智能性低等問題,為三維類腦SLAM技術的發展提供了參考及研究思路。受NeuroSLAM技術的啟發,Ambrus等[133設計一個融合NeuroSLAM網絡與基于Hebbian網絡關鍵幀匹配技術的閉環類腦建圖和導航系統,稱為NeoSLAM。但是目前為止,NeuroSLAM也存在著精度低、僅能生成無語義信息的拓撲地圖、無法實現無人系統的路徑規劃與導航等問題。

隨著動物腦導航機制的不斷深入研究,類腦SLAM技術也隨之蓬勃發展,呈現出從二維到三維、從3DoF到4DoF甚至更高DoF、從模擬單個腦導航細胞到多種腦導航細胞再到整個腦導航系統、從單種傳感器到多種傳感器融合、從高成本到低成本、從低效到高效等發展趨勢,如表2所示。

位置細胞視覺傳感器構建基于反赫布學習遞歸神經網絡的空間認知模型,并采用貝葉斯估計方法進行誤差修正,使得無人系統可整合多源信息完成認知地圖構建任務[138

隨著研究的不斷深入,類腦SLAM技術所構建的認知地圖精確度也逐漸增高,許多學者也在研究語義SLAM技術[139-142,使得構建的拓撲地圖向帶有語義信息的地圖發展,這也與生物導航機制更為貼合,為類腦導航技術提供了研究方向。

3.2 無人機群類腦智能協同導航技術應用

文獻[143]提出認知導航的概念,認為認知導航具有對空間環境和導航規劃決策的注意、記憶、學習、思維能力,并提出任務驅動的協同導航能力是認知導航的一種新質導航能力,而類腦導航與無人機集群協同導航技術的結合能夠實現無人系統的集群認知導航,并滿足協同智能導航能力的要求。

類腦智能導航技術在無人機群的智能協同導航中具有重要應用。在無人機任務中,由于功耗、起飛重量、成本等因素的限制,單個無人機無法同時攜帶多種傳感器和高性能的處理設備。因此,針對無人機群協同導航任務的研究需要借助適應性較強的類腦智能導航技術。

無人機集群是由多架相互聯系、協同控制的無人機組成的具有統一調配、自主決策功能的無人機系統。與單架的無人機相比,無人機集群可以通過協同合作以更小的成本適應復雜的外界環境,執行較為困難的任務時容錯率高,且根據不同任務需求,可以分配給每個無人機不同的子任務[144。近年來,隨著人工智能與神經科學的發展,研究者們嘗試利用類腦導航技術進行無人機集群的飛行任務導航研究,并獲得了可觀的成績。

自然界中有許多生物有著高效的群體交流及導航能力,如鴿群、魚群及蜂群的導航[145-146。目前,類腦無人機集群系統主要是模擬自然界中鳥群編隊飛行機制進行設計。鴿群在飛行任務中有著森嚴的等級制度[147-148,每個鴿群有一個頭鴿,對整個鴿群的導航方向及路線起到絕對領導作用,其跟隨的個體之間也有著層次關系,每個個體僅可以跟與之臨近的個體通訊,且絕對服從頭鴿及上層個體的領導。這樣的集群導航系統使得群體之間的通訊次數大幅減少,并且即使個體故障,群體之間的導航系統也可以快速重構,使得導航穩定性增加。曾子鳴等[149提出一種基于新鴿群的無人機集群導航拓撲結構,通過模擬生物集群之間的交流機制,讓集群導航處于更加協調的狀態。范林飛[150基于鴿群算法解決多無人機航跡規劃問題,并在迭代過程中引入Levy擾動以此來更快速地進行全局搜索,該方法實現更小代價、更高效率的無人機編隊航路規劃任務,并且利用優化后的鴿群算法保證了集群作業的穩定性,為無人機集群協同導航提供了完整的研究思路。楊慶等[151利用雁編隊飛行行為機制設計四旋翼無人機集群飛行的自主協同控制方法,該算法利用鴻雁自組織、自調節的編隊飛行特性,為無人機編隊在大航程、遠距離編隊導航任務提供研究思路。

此外,Zhou等[152實現基于視覺里程計及軌跡規劃器的微型無人機自主導航系統,該系統具有避障、目標跟蹤、群體協調、環境建圖等多種功能,依靠機載傳感器的有限信息可實現快速高效的動作反應,并且完成了穿越竹林及跟蹤目標等任務。目前為止,類腦集群導航系統的構建并未將哺乳動物大腦空間導航自組織機制與生物集群導航自組織機制結合起來,未來這也是一個重要的研究方向。

4 總結與展望

類腦智能導航系統融合了最新的神經科學發現和人工智能技術,尤其是借鑒人類大腦在空間認知和決策制定方面的機制。通過模擬人腦的信息處理流程和學習機制,導航系統能夠以更自然的方式進行環境感知和路徑規劃,從而降低對復雜算法和大量計算資源的依賴,以較低的成本保證系統的運行,與此同時通過模擬腦導航系統的環境信息處理能力,實現復雜環境中動態調整導航策略,使得導航行為保持高效和可靠。另外,神經形態計算硬件的發展如SNN和相應的神經形態處理器使得系統在執行感知、認知任務時能夠顯著降低能耗。

目前,類腦導航的技術難點和發展瓶頸主要在于如何利用計算機技術系統地模擬出腦導航系統的運行方式。類腦導航作為人工智能研究的重點之一,已經取得了一定的進展。類腦導航系統已經能夠初步模仿大腦的多種功能,包括高維感官信息的捕獲、空間記憶的形成以及動作規劃和決策等,從而展現出一種相對智能化的導航系統。但是,由于人類目前對腦的認知有限,對大腦內各部分工作機理及細胞之間的信息交互方式的研究并不深入,所以類腦導航在工作機理上缺乏可解釋性,并且目前不論是從神經動力學還是從神經網絡的角度去模擬的腦導航系統,各部分之間的交互方式均非常簡單,甚至僅僅能模擬出腦導航系統的部分功能,難以確保導航的穩定性及精確性,尤其是無法模擬出在復雜動態環境下的快速響應能力。類腦導航目前存在的技術難點及發展方向大致如下。

(1) 導航機理研究。目前,大部分的研究都是對腦局部功能的模仿,如單純基于網格細胞、頭朝向細胞的導航模型,這類模型雖能完成部分地圖構建及導航任務,但其性能與動物真實導航能力相差甚遠。未來,隨著對哺乳動物腦導航機理的進一步研究,對腦導航系統的模擬從局部到整體準確、高效的耦合,實現類腦導航系統的魯棒性、高效性、準確性、實時響應、自主導航等性能將成為重點研究方向。此外,對生物大腦導航機理的進一步研究也是至關重要的。除了大鼠等哺乳動物外,螞蟻、盲鰻、駱駝、信鴿等多種多樣的生物均具有強大的導航及路徑記憶能力。類腦導航的研究不應該局限于模擬某類生物的導航機理,而是參考自然界中不同物種所具有的豐富的導航機理。當然,類腦導航的研究必須是在對生物腦導航機理有準確認知的基礎之上開展的。

(2) 高維認知地圖構建技術研究。目前的研究大部分是構建二維拓撲地圖,少部分研究基于三維拓撲地圖來開發類腦智能導航系統。但是在真實環境中,二維拓撲地圖的應用場景十分局限,因此需要構建更高維度以及包含更多信息的認知地圖來支持無人系統后續的導航定位及路徑規劃任務。未來,由二維低DoF到三維高DoF的認知地圖的構建模型,以及從認知拓撲地圖到認知語義地圖,都將會是類腦導航系統的重要研究方向。此外,文獻[2]中所提到目前類腦導航技術缺少對于算法的評價指標。本文認為,除了對類腦智能導航系統整體性能設計評價指標之外,整個系統中的每個部分均需要設計單獨的性能評價指標來指導系統的設計及優化。例如,對于類腦信息處理模塊,測度其信息轉換的效率及準確率;對于空間記憶模型,評價其認知地圖構建與真實軌跡地圖之間的誤差等;對于規劃決策模型,考慮其規劃路徑及動作是否為最優選擇;對于類腦導航系統整體,則考慮其功耗、效率、響應速度及完成目標的準確性等指標。對類腦智能導航系統的評價指標的研究需求是迫切的且是首要的,只有建立成熟的評價體系,研究人員才能根據其所度量的模型性能去設計并優化類腦智能導航系統。

(3) 軟硬一體化的高效能類腦智能導航系統研究。未來,無人系統復雜導航任務越來越要求導航系統的低功耗、高速及實時反應性等能力。隨著類腦計算及類腦芯片的發展,軟硬一體化的類腦智能導航系統也是實現上述導航能力的一個重要途徑。此外,由于單傳感器在復雜環境中的信息采集能力有限,近年來多傳感器融合導航技術得到許多研究,未來基于如深度相機、單目/雙目相機、仿生傳感器、wifi氣壓計、陀螺儀、慣導芯片等傳感器的多源傳感融合類腦導航系統也是一大重要發展方向。

(4) 多智能協同導航研究。隨著應用場景的日益復雜化,近年來無人機任務逐漸由單體向集群任務方式轉換,無人機群多智能協同任務也是未來無人系統的重要應用場景。因此,就需要高度智能化、效率化以及低成本化的導航通信一體化技術的研究。目前,在類腦集群導航方面的研究主要是基于動物集群自適應導航機制來設置無人系統集群間的信息傳遞方式及高效的群體導航系統,但是并未將基于哺乳動物腦導航系統的相關導航細胞模型與之結合起來。未來,在類腦集群導航方向將動物集群自組織導航與哺乳動物腦導航機制結合將會是一個重要的研究方向。此外,類腦協同智能之間的信息交互與融合技術也是降低無人機群設備成本及提高導航精準度的一大主要研究內容。例如,無人機群中,確定一個或有限個主機,主機攜帶高性能的信息處理設備,多個從機分別攜帶激光雷達、氣壓計、慣性傳感器等信息采集設備,通過分布式群體間的信息交互達到在不損失集群定位精準度的條件下降低單架無人機成本,提高集群整體可靠性和智能導航能力的目的。

(5) 類腦導航與大模型技術的融合研究。近年來,大語言模型的研究與應用日益廣泛,因此具身智能成為了當下人工智能的前沿和熱點研究領域。具身智能的核心思想是無人系統通過自主與環境交互,實現感知、認知及決策一體化的高階智能體,其也被認為是傳統人工智能邁向通用人工智能的必要途徑[153。未來,類腦智能導航方法可以與大模型進行結合,通過模型強大的認知及規劃能力,可以實現從圖像輸入到決策輸出一體化的高效率、高精準度的“具身導航”策略,甚至可以從語義級別來實現導航任務,如告訴智能體需要導航到杯子所在地點,模型通過圖像數據自主判斷杯子的所在地,并直接向導航載體下達動作指令,以抵達目的地,實現無圖、無監督、無人工參與的具身導航效果。

現階段,類腦導航技術主要是借鑒哺乳動物空間導航機理,實現傳感信息輸入及處理、空間記憶及建圖、面向目標規劃決策等功能,形成一個不依賴于地圖模型及衛星導航信號的智能自主導航系統。在不遠的未來,類腦導航技術主要是作為一種輔助導航手段來結合衛星導航進行應用,如在長距離導航過程中,可先利用衛星導航技術進行路徑規劃,在導航過程中遇到衛星信號干擾或者丟失的情況下,利用類腦導航技術進行導航決策。

參考文獻

[1]陳雨荻, 熊智, 劉建業, 等. 基于海馬體的面向未知復雜環境類腦導航技術綜述[J]. 兵工學報, 2022, 43(11): 2965-2980.

CHEN Y D, XIONG Z, LIU J Y, et al. Review of brain-inspired navigation technology based on hippocampal formation for unknown complex environments[J]. Acta Armamentarii, 2022, 43(11): 2965-2980.

[2]朱祥維, 沈丹, 肖凱, 等. 類腦導航的機理、算法、實現與展望[J]. 航空學報, 2023, 44(19): 6-38.

ZHU X W, SHEN D, XIAO K, et al. Mechanisms, algorithms, implementation and perspectives of brain-inspired navigation[J]. Acta Aeronautica et Astronautica Sinica, 2023, 44(19): 6-38.

[3]郭遲, 羅賓漢, 李飛, 等. 類腦導航算法: 綜述與驗證[J]. 武漢大學學報(信息科學版), 2021, 46(12): 1819-1831.

GUO C, LUO B H, LI F, et al. Review and verification for the brain-inspired navigation algorithm[J]. Geomatics and Information Science of Wuhan University, 2021, 46(12): 1819-1831.

[4]LEONARD J, DURRANT W H. Mobile robot localization by tracking geometric beacons[J]. IEEE Trans.on Robotics and Automation, 1991, 7(3): 376-382.

[5]斯白露, 羅壹凡. 空間記憶與類腦導航研究進展[J]. 人工智能, 2020(1): 16-31.

SI B L, LUO Y F. Research progress on spatial memory and the brain-inspired navigation[J]. Artificial Intelligence View, 2020(1): 16-31.

[6]楊闖, 劉建業, 熊智, 等. 由感知到動作決策一體化的類腦導航技術研究現狀與未來發展[J]. 航空學報, 2020, 41(1): 23280.

YANG C, LIU J Y, XIONG Z, et al. Brain-inspired navigation technology integrating perception and action decision: a review and outlook[J]. Acta Aeronautica et Astronautica Sinica, 2020, 41(1): 23280.

[7]O’KEEFE J, DOSTROVSKY J. The hippocampus as a spatial map: preliminary evidence from unit activity in the freely-moving rat[J]. Brain Research, 1971, 34(1): 171-175.

[8]ECCLES J C, MILNER B. Localization of hippocampus in the rat using the 2-deoxyglucose method[J]. Neuroscience Letters, 1978, 8(4): 237-242.

[9]O’KEEFE J, NADEL L. The hippocampus as a cognitive map[J]. Behavioral and Brain Sciences, 1979, 2(4): 487-494.

[10]TAUBE J, MULLER R, RANCK J. Head-direction cells recorded from the postsubiculum in freely moving rats. II. Effects of environmental manipulations[J]. Journal of Neuroscience, 1990, 10(2): 436-447.

[11]HAFTING T, FYHN M, MOLDEN S, et al. Micro-structure of a spatial map in the entorhinal cortex[J]. Nature, 2005, 436(7052): 801-806.

[12]LEVER C, BURTON S, JEEWAJEE A, et al. Boundary vector cells in the subiculum of the hippocampal formation[J]. Journal of Neuroscience, 2009, 29(31): 9771-9777.

[13]BJERKNES T, MOSER E, MOSER M B. Representation of geometric borders in the developing rat[J]. Neuron, 2014, 82(1): 71-78.

[14]KROPFF E, CARMICHAEL J E, MOSER M B, et al. Speed cells in the medial entorhinal cortex[J]. Nature, 2015, 523(7561): 419-424.

[15]YI P, DOUGLAS C, YANAN S, et al. Theta oscillations support the interface between language and memory[J]. NeuroImage, 2020, 215: 116782.

[16]BASU R, GEBAUER R, HERFURTH T, et al. The orbitofrontal cortex maps future navigational goals[J]. Nature, 2021, 599(7885): 449-452.

[17]ORMOND J, O’KEEFE J. Hippocampal place cells have goal-oriented vector fields during navigation[J]. Nature, 2022, 607(7920): 741-746.

[18]王琳, 王亮. 認知地圖的神經環路基礎[J]. 生物化學與生物物理進展, 2017, 44(3): 187-197.

WANG L, WANG L. Neural circuit basis of cognitive map[J]. Progress in Biochemistry and Biophysics, 2017, 44(3): 187-197.

[19]楊闖, 劉建業, 熊智, 等. 基于多尺度網格細胞模型的無人機類腦矢量導航方法[J]. 中國慣性技術學報, 2020, 28(2): 179-185.

YANG C, LIU J Y, XIONG Z, et al. Brain-inspired vector navigation method based on model of multi-scale grid cells[J]. Journal of Chinese Inertial Technology, 2020, 28(2): 179-185.

[20]SHARP P E. Computer simulation of hippocampal place cells[J]. Psychobiology, 1991, 19(2): 103-115.

[21]TOURETZKY D S, REDISH A D. Theory of rodent navigation based on interacting representations of space[J]. Hippocampus, 1996, 6(3): 247-270.

[22]CHOKSHI K, WERMTER S, WEBER C. Learning localisation based on landmarks using self-organisation[C]∥Proc.of the Artificial Neural Networks and Neural Information Processing, 2003: 504-511.

[23]ISLAM T, FUKUZAKI R. A model of path integration and navigation based on head direction cells in entorhinal cortex[C]∥Proc.of the International Conference on Neural Information Processing, 2010: 82-90.

[24]KUBIE J L, FENTON A A. Heading-vector navigation based on head-direction cells and path integration[J]. Hippocampus, 2009, 19(5): 456-479.

[25]WALTERS D M, STRINGER S M. Path integration of head direction: updating a packet of neural activity at the correct speed using neuronal time constants[J]. Biological Cybernetics, 2010, 103(1): 21-41.

[26]孔祥禎, 張鳳翔, 蒲藝. 空間導航的腦網絡基礎和調控機制[J]. 心理科學進展, 2023, 31(3): 330-337.

KONG X Z, ZHANG F X, PU Y. The functional brain network that supports human spatial navigation[J]. Advances in Psychological Science, 2023, 31(3): 330-337.

[27]COUGHLAN G, LACZó J, HORT J, et al. Spatial navigation deficits—overlooked cognitive marker for preclinical Alzheimer disease?[J]. Nature Reviews Neurology, 2018, 14(8): 496-506.

[28]EKSTROM A D, HUFFMAN D J, STARRETT M. Interacting networks of brain regions underlie human spatial navigation: a review and novel synthesis of the literature[J]. Journal of neurophysiology, 2017, 118(6): 3328-3344.

[29]KONG X Z, WANG X, PU Y, et al. Human navigation network: the intrinsic functional organization and behavioral relevance[J]. Brain Structure and Function, 2017, 222: 749-764.

[30]BAUMANN O, MATTINGLEY J B. Extrahippocampal contributions to spatial navigation in humans: a review of the neuroimaging evidence[J]. Hippocampus, 2021, 31(7): 640-657.

[31]WOLBERS T, HEGARTY M. What determines our navigational abilities?[J]. Trends in Cognitive Sciences, 2010, 14(3): 138-146.

[32]CORNWELL B R, JOHNSON L L, HOLROYD T, et al. Human hippocampal and parahippocampal theta during goal-directed spatial navigation predicts performance on a virtual morris water maze[J]. Journal of Neuroscience, 2008, 28(23): 5983-5990.

[33]MHATRE H, GORCHETCHNIKOV A, GROSSBERG S. Grid cell hexagonal patterns formed by fast self-organized learning within entorhinal cortex[J]. Hippocampus, 2012, 22(2): 320-334.

[34]TEJERA G, LLOFRIU M, BARRER A, et al. Bio-inspired robotics: a spatial cognition model integrating place cells, grid cells and head direction cells[J]. Journal of Intelligent amp; Robotic Systems: Theory amp; Application, 2018, 91(1): 85-99.

[35]EDVARDSEN V, BICANSKI A, BURGESS N. Navigating with grid and place cells in cluttered environments[J]. Hippocampus, 2020, 30(3): 220-232.

[36]LLOFRIU M, SCLEIDOROVICH P, TEJERA G, et al. A computational model for a multi-goal spatial navigation task inspired by rodent studies[C]∥Proc.of the IEEE International Joint Conference on Neural Networks, 2019.

[37]LI J S, CHU J K, ZHANG R, et al. Brain-inspired navigation model based on the distribution of polarized sky-light[J]. Machines, 2022, 10(11): 1028.

[38]CHAO Y X, AUGENSTEIN P, ROENNAU A, et al. Brain inspired path planning algorithms for drones[J]. Frontiers in Neurorobotics, 2023, 17: 1111861.

[39]CHEN Y D, XIONG Z, LIU J Y, et al. A positioning method based on place cells and head-direction cells for inertial/visual brain-inspired navigation system[J]. Sensors, 2021, 21(23): 7988.

[40]STEFFEN L, REICHARD D, WEINLAND J, et al. Neuromorphic stereo vision: a survey of bio-inspired sensors and algorithms[J]. Frontiers in Neurorobotics, 2019, 13: 28-48.

[41]GEVA-SAGIV M, LAS L, YOVEL Y, et al. Spatial cognition in bats and rats: from sensory acquisition to multiscale maps and navigation[J]. Nature Reviews Neuroscience, 2015, 16(2): 94-108.

[42]TIAN S, EBERT F, JAYARAMAN D, et al. Manipulation by feel: touch-based control with deep predictive models[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2019: 818-824.

[43]WU W C, SCHENATO L, WOOD R J, et al. Biomimetic sensor suite for flight control of a micromechanical flying insect: design and experimental results[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2003: 1146-1151.

[44]DESIMONE R. Neural mechanisms of selective visual attention[J]. Annual Review of Neuroscience, 1995, 18(1): 193-222.

[45]CARTWRIGHT B A, COLLETT T S. Landmark maps for honeybees[J]. Biological Cybernetics, 1987, 57(1): 85-93.

[46]KAUFMANN E, LOQUERCIO A, RANFTL R, et al. Deep drone racing: learning agile flight in dynamic environments[C]∥Proc.of the Conference on Robot Learning, 2018: 133-145.

[47]LOQUERCIO A, KAUFMANN E, RANFTL R, et al. Deep drone racing: from simulation to reality with domain randomization[J]. IEEE Trans.on Robotics, 2020, 36(1): 1-14.

[48]DAN R, BESSE F, VIOLA F, et al. Learning models for visual 3D localization with implicit mapping[EB/OL]. [2024-03-16]. https:∥doi.org/10.48550/arXiv.1807.03149.

[49]ZHUO Z A, DL B, LL B. A performance compensation method for GPS/INS integrated navigation system based on CNN-LSTM during GPS outages[J]. Measurement, 2022, 188: 110516.

[50]ZHAO S, ZHOU Y L, HUANG T C. A novel method for ai-assisted ins/gnss navigation system based on CNN-GRU and CKF during GNSS outage[J]. Remote Sensing, 2022, 14(18): 4494.

[51]MADL T, FRANKLIN S, CHEN K, et al. Bayesian integration of information in hippocampal place cells[J]. Plos One, 2014, 9(3): e89762.

[52]MCNAUGHTON B L, BATTAGLIA F P, JENSEN O, et al. Path integration and the neural basis of the “cognitive map”[J]. Nature Reviews Neuroscience, 2006, 7(8): 663-678.

[53]NICHOLS E, MCDAID L J, SIDDIQUE N H. Case study on a self-organizing spiking neural network for robot navigation[J]. International Journal of Neural Systems, 2010, 20(6): 501-508.

[54]韓昆, 吳德偉, 來磊. 類腦導航中基于差分Hebbian學習的網格細胞構建模型[J]. 系統工程與電子技術, 2020, 42(3): 674-679.

HAN K, WU D W, LAI L. Model of generating grid cell based on difference Hebbian learning in brain-inspired navigation[J]. Systems Engineering and Electronics, 2020, 42(3): 674-679.

[55]WANG X, HOU Z G, FENG L, et al. Mobile robots’ modular navigation controller using spiking neural networks[J]. Neurocomputing, 2014, 134(25): 230-238.

[56]FU E, BRAVO M, ROSKOS B. Single-destination navigation in a multiple-destination environment: a new “later-destination attractor” bias in route choice[J]. Memory amp; Cognition, 2015, 43(7): 1043-1055.

[57]ANGELAKI D E, LAURENS J. The head direction cell network: attractor dynamics, integration within the navigation system, and three-dimensional properties[J]. Current Opinion in Neurobiology, 2020, 60: 136-144.

[58]KAVRAKI L E, SVESTKA P, LATOMBE J C, et al. Probabilistic roadmaps for path planning in high-dimensional configuration spaces[J]. IEEE Trans.on Robotics and Automation, 1996, 12(4): 566-580.

[59]LAVALLE S M, KUFFNER J J. Rapidly-exploring random trees: progress and prospects[C]∥Proc.of the Conference on 4th Algorithmic and Computational Robotics: New Direction, 2001: 303-307.

[60]JR J, LAVALLE S M. RRT-Connect: an efficient approach to single-query path planning[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2000: 995-1001.

[61]VEGARD E. Goal-directed navigation based on path integration and decoding of grid cells in an artificial neural network[J]. Natural Computing, 2019, 18(1): 13-27.

[62]GOLDSCHMIDT D, MANOONPONG P, DASGUPT S. A neurocomputational model of goal-directed navigation in insect-inspired artificial agents[J]. Frontiers in Neurorobotics, 2017, 11(20). DOI: 10.3389/fnbot.2017.00020.

[63]FAUST A, RAMIREZ O, FISER M, et al. PRM-RL: long-range robotic navigation tasks by combining reinforcement learning and sampling-based planning[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2018: 5113-5120.

[64]ZHU Y, MOTTAGHI R, KOLVE E, et al. Target-driven visual navigation in indoor scenes using deep reinforcement learning[C]∥Proc.of the IEEE International Conference on Robotics and Automation (ICRA), 2017: 3357-3364.

[65]SHEN W B, XU D, ZHU Y, et al. Situational fusion of visual representation for visual navigation[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2019: 2881-2890.

[66]DU H M, YU X, ZHENG L. Learning object relation graph and tentative policy for visual navigation[C]∥Proc.of the European Conference on Computer Vision, 2020: 19-34.

[67]MARR D. Simple memory: a theory for archicortex[J]. Philosophical Transactions of The Royal Society B Biological Sciences, 1971, 262(841): 23-81.

[68]WU S, WONG K Y M, FUNG C C A, et al. Continuous attractor neural networks: candidate of a canonical model for neural information representation[J]. F1000research, 2016, 5(16): 209-226.

[69]BUSH D, BURGESS N. A hybrid oscillatory interference/continuous attractor network model of grid cell firing[J]. The Journal of Neuroscience: the Official Journal of the Society for Neuroscience, 2014, 34(14): 5065-5079.

[70]ZHANG K. Representation of spatial orientation by the intrinsic dynamics of the head-direction cell ensemble: a theory[J]. Journal of Neuroscience, 1996, 16(6): 2112-2126.

[71]REDISH A D, ELGA A N, TOURETZKY D S. A coupled attractor model of the rodent head direction system[J]. Network Computation in Neural Systems, 1997, 7(4): 671-685.

[72]趙辰豪, 吳德偉, 韓昆, 等. 基于多尺度網格細胞的路徑整合模型[J]. 系統工程與電子技術, 2021, 43(10): 2961-2967.

ZHAO C H, WU D W, HAN K, et al. Path integration model based on multi-scale grid cell[J]. Systems Engineering and Electronics, 2021, 43(10): 2961-2967.

[73]MILFORD M J, WYETH G F, PRASSER D P. RatSLAM: a hippocampal model for simultaneous localisation and mapping[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2004: 403-408.

[74]BURAK Y, FIETE I R. Accurate path integration in continuous attractor network models of grid cells[J]. PLoS Computational Biology, 2009, 5(2): e1000291.

[75]RIVERO-ORTEGA J D, MOSQUERA-MATURANA J S, PARDO-CABRERA J, et al. Ring attractor bio-inspired neural network for robot social navigation[J]. Frontiers in Neurorobotics, 2023, 17: 1211570.

[76]HAYMAN R, GIULIO C, WILSON J J, et al. Grid cells on steeply sloping terrain: evidence for planar rather than volumetric encoding[J]. Frontiers in Psychology, 2015, 6: 925.

[77]JEFFERY K J, WILSON J J, GIULIO C, et al. Neural encoding of large-scale three-dimensional space—properties and constraints[J]. Frontiers in Psychology, 2015, 6: 927.

[78]KIM M, MAGUIRE E A. Encoding of 3D head direction information in the human brain[J]. Hippocampus, 2019, 29(7): 619-629.

[79]TANG H, YAN R, TAN K C. Cognitive navigation by neuro-inspired localization, mapping, and episodic memory[J]. IEEE Trans.on Cognitive and Developmental Systems, 2017, 10(3): 751-761.

[80]YU F W, SHANG J G, HU Y J. NeuroSLAM: a brain-inspired SLAM system for 3D environments[J]. Biological cybernetics, 2019, 113(5): 515-545.

[81]O’KEEFE J, RECCE M L. Phase relationship between hip-pocampal place units and the EEG theta rhythm[J]. Hippocampus, 1993, 3(3): 317-330.

[82]MOSER E I, MOSER M B. Grid cells and neural cod-ing in high-end co81rtices[J]. Neuron, 2013, 80(3): 765-774.

[83]BARRY C, BURGESS N. Neural mechanisms of self-location[J]. Current Biology, 2014, 24(8): 330-339.

[84]BURGESS N, BARRY C, O’KEEFE J. An oscillatory interference model of grid cell firing[J]. Hippocampus, 2007, 17(9): 801-812.

[85]GAUSSIER P, BANQUET J P, SARGOLINI F, et al. A model of grid cells involving extra hippocampal path integration, and the hippocampal loop[J]. Journal of Integrative Neuroscience, 2007, 6(3): 447-476.

[86]SOMAN K, MURALIDHARAN V, CHAKRAVART-HY V S. A unified hierarchical oscillatory network model of head direction cells, spatially periodic cells, and place cells[J]. The European Journal of Neuroscience, 2018, 47(10): 1266-1281.

[87]ZILLI E A, HASSELMO M E. Coupled noisy spiking neurons as velocity-controlled oscillators in a model of grid cell spatial firing[J]. The Journal of Neuroscience: the Official Journal of the Society for Neuroscience, 2010, 30(41): 13850-13860.

[88]KANITSCHEIDER I, FIETE I. Training recurrent networks to generate hypotheses about how the brain solves hard navigation problems[EB/OL]. [2024-03-16]. https:∥doi.org/10.48550/arXiv.1609.09059.

[89]CUEVA C J, WEI X X. Emergence of grid-like representations by training recurrent neural networks to perform spatial localization[EB/OL]. [2024-03-16]. https:∥doi.org/10.48550/arXiv.1803.07770.

[90]BANINO A, BARRY C, URIA B, et al. Vector-based navigation using grid-like representations in artificial agents[J]. Nature, 2018, 557(7705): 429-433.

[91]HODGKIN A L, HUXLEY A F. Currents carried by sodium and potassium ions through the membrane of the giant axon of Loligo[J]. The Journal of Physiology, 1952, 116(4): 449-472.

[92]MAASS W. Networks of spiking neurons: the third generation of neural network models[J]. Neural Networks, 1997, 10(9): 1659-1671.

[93]AT A, MG B, SRK C, et al. Deep learning in spiking neural networks[J]. Neural Networks, 2019, 111: 47-63.

[94]CHAO Y, AUGENSTEIN P, ROENNAU A, et al. Brain inspired path planning algorithms for drones[J]. Frontiers in Neurorobotics, 2023, 17: 1111861.

[95]KREISER R, CARTIGLIA M, MARTEL J, et al. A neuromorphic approach to path integration: a head-direction spiking neural network with vision-driven reset[C]∥Proc.of the IEEE International Symposium on Circuits and Systems, 2018.

[96]LOBOV S A, ZHARINOV A I, MAKAROV V, et al. Spatial memory in a spiking neural network with robot embodiment[J]. Sensors, 2021, 21(8): 2678.

[97]TANG G, MICHMIZOS K P. Gridbot: an autonomous robot controlled by a spiking neural network mimicking the brain’s navigational system[C]∥Proc.of the International Conference on Neuromorphic Systems, 2018.

[98]FLEISCHER J G, EDELMAN G M. Brain-based devices[J]. IEEE Robotics amp; Automation Magazine, 2009, 16(3): 33-41.

[99]HWU T, ISBELL J, OROS N, et al. A self-driving robot using deep convolutional neural networks on neuromorphic hardware[C]∥Proc.of the International Joint Conference on Neural Networks, 2017: 635-641.

[100]PEI J, DENG L, SONG S, et al. Towards artificial general intelligence with hybrid Tianjic chip architecture[J]. Nature, 2019, 572(7767): 106-111.

[101]LV J, TU L H. Deep learning-based visual navigation control method for autonomous trajectory of UAVs[J]. Applied Mathematics and Nonlinear Sciences, 2024, 9(1): 1-14.

[102]熊李艷, 舒垚淞, 曾輝, 等. 基于深度強化學習的機器人導航算法研究[J]. 華東交通大學學報, 2023, 40(1): 67-74.

XIONG L Y, SHU Y S, ZENG H, et al. Research on robot navigation algorithm based on deep reinforcement learning[J]. Journal of East China Jiaotong University, 2023, 40(1): 67-74.

[103]KIM Y, BANG H. Vision-based navigation for unmanned aircraft using ground feature points and terrain elevation data[J]. Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering, 2018, 232(7): 1334-1346.

[104]尚克軍, 趙亮, 張偉建, 等. 基于深度特征正射匹配的無人機視覺定位方法[J]. 中國慣性技術學報, 2024, 32(1): 52-57.

SHANG K J, ZHAO L, ZHANG J W, et al. Unmanned aerial vehicle visual localization method based on deep feature orthorectification matching[J]. Journal of Chinese Inertial Technology, 2024, 32(1): 52-57.

[105]GARCíA-PINTOS C A, ALDANA-MURILLO N G, OVALLE-MAGALLANES E, et al. A deep learning-based visual map generation for mobile robot navigation[J]. Eng-Advances in Engineering, 2023, 4(2): 1616-1634.

[106]董明澤, 溫莊磊, 陳錫愛, 等. 安全凸空間與深度強化學習結合的機器人導航方法[EB/OL]. [2024-03-16]. http:∥kns.cnki.net/kcms/detail/11.2176.TJ.20240229.1058.002.html.

DONG M Z, WEN Z L, CHEN X A, et al. Research on robot navigation method integrating safe convex space and deep reinforcement learning[EB/OL]. [2024-03-16]. http:∥kns.cnki.net/kcms/detail/11.2176.TJ.20240229.1058.002.html.

[107]CHEN G D, YAO S Y, MA J, et al. Distributed non-communicating multi-robot collision avoidance via map-based deep reinforcement learning[J]. Sensors, 2020, 20(17): 4836.

[108]HODGE V J, HAWKINS R, ALEXANDER R. Deep reinforcement learning for drone navigation using sensor data[J]. Neural Computing and Applications, 2021, 33(6): 2015-2033.

[109]趙菁, 趙東花, 王晨光, 等. 基于場景識別的慣性基類腦導航方法[J]. 導航與控制, 2020, 19(4): 119-125.

ZHAO J, ZHAO D H, WANG C G, et al. Inertial-based brain-like navigation strategy based on scene recognition[J]. Navigation and Control, 2020, 19(4): 119-125.

[110]申沖, 劉曉杰, 王晨光, 等. 一種基于光流UWB組合的類腦導航方法[P]. 中國: CN109459025B, 2020-09-04.

SHEN C, LIU X J, WANG C G, et al. A brain-like navigation method based on optical flow UWB combination[P]. China: CN109459025B, 2020-09-04.

[111]TOLMAN E C. Cognitive maps in rats and men[J]. Psychological Review, 1948, 55(4): 189-208.

[112]MONTEMERLO M, THRUN S, KOLLER D, et al. Fast-SLAM: a factored solution to the simultaneous localization and mapping problem[C]∥Proc.of the 18th National Conference on Artificle Intelligence, and 14th Conference on Innovative Application of Artificle Intelligence, 2022: 593-598.

[113]GRISETTI G, STACHNISS C, BURGARD W. Improved techniques for grid mapping with rao-blackwellized particle filters[J]. IEEE Trans.on Robotics, 2007, 23(1): 34-46.

[114]WANG H N, NI J Y, QI Y, et al. Optimal design of laser SLAM algorithm based on RBPF improved resampling technology[C]∥Proc.of the IEEE International Conference on Mechatronics and Automation, 2020: 1245-1250.

[115]PRITSKER A, O’REILLY J J. Simulation with visual SLAM and AweSim[J]. Computers and Mathematics with Applications, 1997, 34(10): 137.

[116]PUPILLI M, CALWAY A. Real-time visual SLAM with resilience to erratic motion[C]∥Proc.of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2006: 1244-1249.

[117]ROMERORAMIREZ F J, MUOZSALINAS R, MARíNJI-MNEZ M J, et al. sSLAM: speeded-up visual SLAM mixing artificial markers and temporary keypoints[J]. Sensors, 2023, 23(4): 2210.

[118]GRAETER J, WILCZYNSKI A, LAUER M. LIMO: lidar-monocular visual odometry[C]∥Proc.of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2018: 7872-7879.

[119]CHENG Y, LAI J Z, ZHANG J H, et al. Research on an autonomously tightly integrated positioning method for UAV in sparse-feature indoor environment[C]∥Proc.of the 15th International Bhurban Conference on Applied Sciences and Technology, 2018: 318-324.

[120]LOU L, LI Y, ZHANG Q, et al. SLAM and 3D semantic reconstruction based on the fusion of lidar and monocular vision[J]. Sensors, 2023, 23(3): 1502.

[121]MONTEMERLO M, THRUN S, WHITTAKER W. Conditional particle filters for simultaneous mobile robot localization and people-tracking[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2002: 695-701.

[122]WALTER M R, EUSTICE R M, LEONARD J J. Exactly sparse extended information filters for feature-based SLAM[J]. The International Journal of Robotics Research, 2007, 26(4): 335-359.

[123]MATTAR E, MUTIB K A, SULAIMAN M A, et al. Mobile robot intelligence based SLAM features learning and navigation[J]. International Journal of Computing and Digital Systems, 2018, 7(1): 23-34.

[124]CADENA C, CARLONE L, CARRILLO H, et al. Past, present, and future of simultaneous localization and mapping: toward the robust-perception age[J]. IEEE Trans.on Robotics, 2016, 32(6): 1309-1332.

[125]STECKEL J, PEREMANS H. BatSLAM: simultaneous localization and mapping using biomimetic sonar[J]. PloS One, 2013, 8(1): e54076.

[126]LUAN S, GUTH F, DREWS P, et al. An open-source bio-inspired solution to underwater SLAM[J]. IFAC-PapersOnLine, 2016, 48(2): 212-217.

[127]MILFORD M J, WYETH G F. Mapping a suburb with a single camera using a biologically inspired SLAM system[J]. IEEE Trans.on Robotics, 2008, 24(5): 1038-1053.

[128]KAZMI S, MERTSCHING B. Gist+RatSLAM: an incremental bio-inspired place recognition front-end for RatSLAM[J]. EAI Endorsed Transactions on Creative Technologies, 2016, 3(8): 3-12.

[129]YU S M, XU H D, WU C, et al. Bionic path planning fusing episodic memory based on RatSLAM[J]. Biomimetics, 2023, 8(1): 59-77.

[130]MILFORD M J, WILES J, WYETH G F. Solving navigational uncertainty using grid cells on robots[J]. PLoS Computational Biology, 2010, 6(11): e1000995.

[131]BALL D, HEATH S, WILES J, et al. OpenRatSLAM: an open source brain-based SLAM system[J]. Autonomous Robots, 2013, 34(3): 149-176.

[132]DE-SOUZA M M E, CHAVES M M, PIGNATON D F E, et al. xRatSLAM: an extensible RATSLAM computational framework[J]. Sensors, 2022, 22(21): 8305.

[133]AMBRU瘙塁 R, BORE N, FOLKESSON J, et al. Meta-rooms: building and maintaining long term spatial models in a dynamic world[C]∥Proc.of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2014: 1854-1861.

[134]ARLEO A, GERSTNER W. Spatial cognition and neuro-mimetic navigation: a model of hippocampal place cell activity[J]. Biological Cybernetics, 2000, 83(3): 287-299.

[135]MEYER J A, GUILLOT A, GIRARD B, et al. The Psikharpax project: towards building an artificial rat[J]. Robotics amp; Autonomous Systems, 2005, 50(4): 211-223.

[136]GIOVANNANGELI C, GAUSSIER P. Autonomous vision-based navigation: goal-oriented action planning by transient states prediction, cognitive map building, and sensory-motor learning[C]∥Proc.of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008: 676-683.

[137]ZENG T P, TANG F Z, JI D X, et al. NeuroBayesSLAM: neurobiologically inspired Bayesian integration of multisensory information for robot navigation[J]. Neural Networks, 2020, 126: 21-35.

[138]叢明, 邊雪, 劉冬, 等. 基于類腦認知與貝葉斯估計的仿生建圖方法[J]. 華中科技大學學報(自然科學版), 2022, 50(4): 33-39.

CONG M, BIAN X, LIU D, et al. Bionic mapping method based on brain-inspired cognition and Bayesian estimation[J]. Huazhong University of Science amp; Technology (Natural Science Edition), 2022, 50(4): 33-39.

[139]BAVLE H, PUENTE P, HOW J, et al. VPS-SLAM: visual planar semantic SLAM for aerial robotic systems[J]. IEEE Access, 2020, 8: 60704-60718.

[140]ZHAO X, ZUO T, HU X Y. OFM-SLAM: a visual semantic SLAM for dynamic indoor environments[J]. Mathematical Problems in Engineering, 2021, 2021: 5538840.

[141]YOU Y X, WEI P, CAI J L, et al. MISD-SLAM: multimodal semantic SLAM for dynamic environments[J]. Wireless Communications and Mobile Computing, 2022, 2022(1): 11-13.

[142]SUN L X, WEI J Y, SU S J, et al. SOLO-SLAM: a parallel semantic SLAM algorithm for dynamic scenes[J]. Sensors, 2022, 22(18): 6977.

[143]吳德偉, 何晶, 韓昆, 等. 無人作戰平臺認知導航及其類腦實現思想[J]. 空軍工程大學學報, 2018, 19(6): 33-38.

WU D W, HE J, HAN K, et al. Cognitive navigation and its thought of brain inspired realization in un-manned combat platform[J]. Journal of Air Force Engineering University(Natural Science Edition), 2018, 19(6): 33-38.

[144]DARRAH M A, NILAND W, STOLARIK B M. Multiple UAV dynamic task allocation using mixed integer linear programming in a SEAD mission[C]∥Proc.of the Infotech@Aerospace Conference, 2005.

[145]NAYYAR A, LE D N, NHU N G. The handbook titled “advances in swarm intelligence for optimizing problems in computer science”[M]. New York: Chapman and Hall/CRC, 2018.

[146]SUN W F, TANG M, ZHANG L J, et al. A survey of using swarm intelligence algorithms in IoT[J]. Sensors, 2020, 20(5): 1420.

[147]NAGY M, AKOS Z, BIRO D, et al. Hierarchical group dynamics in pigeon flocks[J]. Nature, 2010, 464(7290): 890-893.

[148]NAGY M, VASARHELYI G, PETTIT B, et al. Con-text-dependent hierarchies in pigeons[J]. Proceedings of the National Academy of Sciences, 2013, 110(32): 13049-13054.

[149]曾子鳴, 董超, 朱小軍, 等. 面向群體快速融合的仿生無人機集群架構[J]. 電信科學, 2022, 38(8): 17-27.

ZENG Z M, DONG C, ZHU X J, et al. Bionic UAV architecture for fast swarm fusion[J]. Telecommunications Science, 2022, 38(8): 17-27.

[150]范林飛. 基于鴿群算法的多無人機協同編隊[D]. 南京: 南京航空航天大學, 2020.

FAN L F. Cooperative formation of multi-UAVs based on pigeon algorithm[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2020.

[151]楊慶, 段海濱. 仿鴻雁編隊的無人機集群飛行驗證[J]. 工程科學學報, 2019, 41(12): 1599-1608.

YANG Q, DUAN H B. Verification of unmanned aerial vehicle swarm behavioral mechanism underlying the formation of Anser cygnoides[J]. Chinese Journal of Engineering, 2019, 41(12): 1599-1608.

[152]ZHOU X, WEN X Y, WANG Z P, et al. Swarm of micro flying robots in the wild[J]. Science Robotics, 2022, 7(66): eabm5954.

[153]GUPTA A, SAVARESE S, GANGULI S, et al. Embodied intelligence via learning and evolution[J]. Nature Communications, 2021, 12(1): 5721.

作者簡介

李衛斌(1976—),男,教授,博士研究生導師,博士,主要研究方向為北斗、遙感、智能導航、大模型及應用、人工智能。

秦晨浩(2000—),男,碩士研究生,主要研究方向為北斗、遙感、智能導航。

張天一(1995—),男,博士研究生,主要研究方向為高分遙感、北斗高精定位。

毛 鑫(1999—),男,碩士研究生,主要研究方向為SLAM、無人系統自主導航。

楊東浩(1999—),男,碩士研究生,主要研究方向為SLAM、無人系統自主導航。

紀文搏(1998—),男,碩士研究生,主要研究方向為遙感、智能導航。

侯 彪(1974—),男,教授,博士,主要研究方向為遙感圖像解譯與目標識別、無人系統協同感知、人工智能芯片及系統。

焦李成(1959—),男,歐洲科學院外籍院士,俄羅斯自然科學院外籍院士,教授,博士,主要研究方向為人工智能、海量、高維、非結構化信息處理中的優化與學習、復雜影像的預處理、圖像分析和數據壓縮、深度學習FPGA系統、遙感影像大數據類腦解譯系統、類腦SAR系統。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 精品国产亚洲人成在线| 一级毛片不卡片免费观看| 一级毛片免费不卡在线| 国产视频你懂得| 久久免费看片| 69综合网| 久久精品国产亚洲AV忘忧草18| 亚洲aaa视频| 又粗又大又爽又紧免费视频| 无遮挡一级毛片呦女视频| 国产精品香蕉在线观看不卡| 亚洲性视频网站| 亚洲色图欧美在线| 91久久夜色精品国产网站| 亚洲国产综合自在线另类| 波多野结衣一二三| 国产成人区在线观看视频| 欧美国产日韩在线观看| 九九热精品视频在线| 国产精品自在在线午夜区app| 国产欧美精品一区aⅴ影院| 国产乱人免费视频| 国产性精品| 久久大香伊蕉在人线观看热2| 97国产一区二区精品久久呦| 亚洲九九视频| 亚洲国产日韩在线成人蜜芽| 欧美天天干| 日韩欧美国产精品| 国产经典在线观看一区| 国模私拍一区二区 | 久久免费视频6| 国产麻豆永久视频| 在线亚洲天堂| 综合久久五月天| 色婷婷亚洲十月十月色天| 一级爱做片免费观看久久| 亚洲天堂啪啪| 华人在线亚洲欧美精品| 四虎影视无码永久免费观看| 99在线小视频| a亚洲天堂| 国产91av在线| 精品久久国产综合精麻豆| 一本久道久久综合多人| 日韩福利在线观看| 久久综合九九亚洲一区 | 国产精品免费福利久久播放| 色婷婷在线影院| 欧美日韩资源| 亚洲色图欧美激情| 1024你懂的国产精品| 国产精品极品美女自在线网站| 久热这里只有精品6| 日韩一级二级三级| 91精品综合| 99久久人妻精品免费二区| 成人国产三级在线播放| 亚洲国产成人超福利久久精品| 日本妇乱子伦视频| 亚洲精品制服丝袜二区| 一级香蕉视频在线观看| 奇米精品一区二区三区在线观看| 天天综合网站| 日韩在线播放欧美字幕| 手机精品福利在线观看| 久久国产精品影院| 免费毛片视频| 青青久在线视频免费观看| 深夜福利视频一区二区| 国产激情无码一区二区免费| 亚洲免费三区| 成人精品免费视频| 亚洲精品国产首次亮相| 欧美不卡二区| 欧美成a人片在线观看| 久久久久久久97| 亚洲av无码片一区二区三区| 欧美日本激情| 国产精品专区第1页| 九九九精品成人免费视频7| 亚洲女人在线|