摘要:該文探討了多智時代對人工智能發展的影響,分析了其主要研究方向,包括智能模擬、群體智能、計算智能和類腦智能,并提出了優化人工智能科技創新體系的策略,強調了基礎理論創新、核心技術突破和技術融合創新的重要性。多智時代所具備的海量數據、強大算力和高度互聯的網絡基礎設施,為人工智能發展提供了前所未有的機遇,同時也帶來了新的挑戰。該文深入分析了這些機遇和挑戰,并對人工智能未來的發展路徑進行了探索。
關鍵詞:人工智能;多智時代;技術融合;創新體系
中圖分類號:TP18" " " " 文獻標識碼:A
文章編號:1009-3044(2025)19-0045-03
開放科學(資源服務) 標識碼(OSID)
0 引言
當前世界正經歷著前所未有的數字化轉型,海量數據、高速網絡和強大的計算能力共同構成了一個全新的“多智時代”。這一時代為人工智能的發展提供了前所未有的機遇和挑戰。多智時代所具備的強大計算能力、海量數據資源和高度互聯的網絡基礎設施,正在深刻地改變著人工智能的研究范式和應用場景,推動著人工智能技術以指數級的速度向前發展。
1 多智時代對人工智能產生的影響
多智時代對人工智能發展的影響體現在探索、應用和市場轉型三個相互關聯的方面。強大的算力、海量數據和高度互聯的網絡基礎設施顯著加速了人工智能的探索進程,降低了研究門檻,促進了模型訓練和算法優化,并通過國際合作與知識共享加速了技術突破。與此同時,物聯網、5G通信和移動互聯網等技術的發展,極大地擴展了人工智能的應用覆蓋面,提升了應用的精準度和可靠性,支持了實時人工智能應用的普及,拓展了市場空間和用戶群體。深度學習、強化學習等技術的進步,結合大數據分析,不僅催生了新的商業模式和產業生態,也推動了傳統產業的轉型升級,如智能制造和智慧農業,從而提升了生產效率和產品質量,形成了良性循環,進一步促進了人工智能技術的持續發展和市場規模的擴張。這種探索、應用和市場轉型的良性互動,構成了多智時代人工智能蓬勃發展的核心驅動力。
2 多智時代人工智能的主要研究方向
2.1 智能模擬
為了加速人工智能算法的研發和優化,構建高效的AI指令集模擬器至關重要。該模擬器需要提供方便易用的外部配置接口,以便研發人員進行參數設置和調用。其核心功能在于精確模擬SIMT(單指令多線程) 架構,包括模擬多線程結構的地址空間和內存管理機制,并實現高密度并行指令流的執行。模擬器必須能夠完整地模擬AI指令集中的所有指令,并對每條指令的執行結果進行嚴格的正確性驗證,以確保仿真模擬結果的可靠性。此外,為了方便調試,模擬器還需提供查看任意線程內部指令流執行信息的機制(如圖1) ,以便研發人員快速定位和解決問題。
2.2 群體智能
群體智能研究受自然界中群體行為的啟發,例如鳥群的協同飛行、魚群的集群游動以及蟻群的覓食路徑規劃。這些群體中的個體通常具備相對簡單的行為規則,但通過局部交互和信息共享,能夠涌現出復雜的全局行為,從而高效地解決問題。群體智能的核心在于利用大量簡單個體的集體智慧,實現全局優化,其效率往往遠超單個個體。
主要研究方向包括粒子群優化(PSO) 算法和蟻群算法(ACO) 。PSO算法模擬鳥群覓食行為,通過個體間的速度和位置信息更新,迭代尋找到全局最優解。它在工程優化、數據分析和機器學習領域得到廣泛應用,例如用于優化電力系統調度、設計高效的航空發動機以及訓練深度學習模型的超參數。近年來,改進型PSO算法,如自適應PSO和多群體PSO,不斷涌現,進一步提升了算法的效率和魯棒性。
蟻群算法(ACO) 則模擬蟻群尋找食物的過程,通過信息素的積累和更新,最終找到最優路徑。ACO算法在路徑規劃、車輛調度和網絡路由等方面展現出強大的優勢。例如,它被應用于城市交通流量優化、物流配送路徑規劃以及網絡安全中的入侵檢測[1]。目前,ACO算法的研究重點在于解決其易陷入局部最優解的問題,并提高算法的收斂速度和適應性。
2.3 計算智能
計算智能旨在模擬人類智能的某些方面,例如學習、推理和決策能力,并將其應用于解決實際問題。它并非試圖完全復制人腦,而是借鑒人類智能的某些特征,構建能夠處理復雜問題的計算模型。
主要研究方向包括模糊邏輯和進化計算。模糊邏輯處理不確定性和模糊信息,它不同于傳統的二元邏輯,允許變量取值范圍在0到1之間[2],從而更好地模擬現實世界中的模糊性和不確定性。模糊邏輯廣泛應用于控制系統,例如洗衣機、空調等家用電器的模糊控制,以及醫療診斷、模式識別等領域。近年來,模糊邏輯與深度學習的結合成為研究熱點,例如模糊神經網絡的應用。
2.4 類腦智能
類腦智能主要研究方向包括神經形態計算、腦機接口和認知架構。腦機接口技術連接人腦和計算機,實現人腦與外部設備的直接交互。它可以用于輔助殘疾人恢復功能,例如控制假肢或義肢,也可以用于增強人類能力,例如提高認知能力或進行更精細的操作。腦機接口技術目前正處于快速發展階段,其應用場景不斷拓展。
認知架構研究模擬人腦的認知過程,構建能夠學習、推理、規劃和決策的智能系統。它試圖構建一個完整的智能系統框架,而非僅僅關注單個認知功能。認知架構的研究對人工智能的整體發展具有重要的指導意義。目前的研究重點在于構建更通用、更魯棒的認知架構,并將其應用于更廣泛的領域。
3 優化人工智能科技創新體系
3.1 基礎理論創新
現階段的人工智能大多是專用人工智能,只能在特定任務上表現出色,缺乏泛化能力和自主學習能力。通用人工智能的目標是創造能夠像人類一樣進行學習、推理和解決問題的智能系統。實現通用人工智能需要在多個方面取得突破,包括:發展更強大的學習算法,使其能夠從少量數據中學習并快速適應新環境;構建能夠處理多種信息類型(例如文本、圖像、語音) 的混合智能系統;設計能夠進行自主規劃和決策的智能體。這需要對人工智能的基本理論進行深入研究,例如認知架構、知識表示和推理等,并探索新的計算范式,例如脈沖神經網絡[3];同時,研究神經元間的學習機制和信息編碼方式,如公式(1) 所示,該公式描述了神經元膜電位的變化。通過對神經元膜電位動態變化的建模,可以理解神經元的信息處理機制,并將其應用于神經形態芯片的設計和神經網絡模型的構建。
為了評估神經形態芯片的性能,可以通過向所有神經元發送脈沖輸入,使其產生脈沖,并統計輸出的脈沖幀總數來確定芯片實際支持的神經元數目。這需要考慮神經形態算法的具體組成部分(神經元和突觸) 以及芯片的網絡結構。這種方法可以有效地評估神經形態芯片的規模和計算能力。
[Vjt=Vjt-1+i=1NAit·Wi,j-λj]" " "(1)
式中:[Vjt]為時刻t第j個神經元的膜電位,N為軸突總數,[Ait]為t時刻第i個軸突的脈沖輸入,[Wi,j]為連接第i個軸突和第j個神經元的突觸權重,[λj] ?為神經元j的泄露值。
3.2 核心技術突破
人工智能領域的快速發展,尤其體現在大規模預訓練模型在自然語言處理和圖像識別等領域的顯著突破上[4]。近年來,這一趨勢深刻地改變了處理和理解信息的方式。自然語言處理,作為人工智能的核心分支,其進步很大程度上依賴于對知識的有效利用。可以將自然語言處理中所使用的狹義知識劃分為三大類:語言知識、常識知識和世界知識。語言知識,例如詞典和規則庫(如WordNet) ,包含了語言本身的結構和規則,為自然語言理解提供基礎框架。常識知識則更為復雜,它代表著人類普遍認知的常識性信息。這類知識通常難以直接從文本數據中挖掘,需要借助如Cyc項目等龐大的知識庫進行人工構建和維護(表1) 。與之相對,世界知識則更容易從文本數據中提取。
在算法層面,早期自然語言處理主要依賴淺層機器學習方法,例如支持向量機(SVM)和條件隨機場(CRF),這些方法需要人工提取特征,工作量大且效率有限。深度學習的興起徹底改變了這一局面,多層感知機(MLP)、循環神經網絡(RNN)和卷積神經網絡(CNN)等模型能夠自動學習并歸納特征,極大地提高了模型的性能和泛化能力。此外,一些專門針對自然語言處理任務設計的算法,例如CKY算法和MST算法(表1) ,利用語言知識來提高解析效率和準確性。
數據的質量和數量同樣至關重要。高質量地標注數據,例如通過專家標注或眾包獲得的Penn TreeBank語料庫,能夠有效地訓練監督學習模型。然而,標注數據的獲取成本高昂且耗時,因此,大量的無標注數據,例如互聯網上的海量文本,以及通過數據增廣技術生成的偽數據,也成為預訓練模型的重要訓練資源。預訓練語言模型正是充分利用了這些無標注數據,通過自監督學習的方式,學習到豐富的語言知識和世界知識,并最終在各種下游任務中取得了優異的成果。
3.3 技術融合創新
實現數據驅動下的智能決策,大數據為人工智能算法提供了豐富的訓練數據,而人工智能則為大數據的分析和利用提供了強大的工具。這種融合的核心在于構建高效的數據處理和分析框架,能夠從海量、異構的數據中提取有價值的信息,并將其用于智能決策。例如,人工智能算法能夠處理海量交易數據和用戶行為數據,例如股票交易記錄、信用卡消費記錄、貸款申請信息等,并從中提取有價值的模式和信息[5]。這些數據涵蓋了交易時間、交易金額、交易頻率、用戶地理位置、消費偏好等多個維度。通過先進的機器學習算法,如支持向量機、神經網絡和隨機森林等,系統可以識別異常交易行為,預測潛在的市場風險,例如信用違約風險、市場波動風險和欺詐風險等。為了實現上述目標,需要對數據進行預處理。
[Xi=Xi-1-Xi+12Δt]" " " " " " " (2)
[X=Xi-Xσ,i=1,2,...,N]" " " " "(3)
[Xi=Xi-minxmax-xmin,i=1,2,...,N]" " (4)
公式(2) 表示一種中心差分法,用于計算數據序列中每個點的斜率[Xi]。具體而言,對于一個數據序列xi,其第i個點的斜率近似計算,其中:Δt表示時間間隔。該方法可以有效地反映數據的局部變化趨勢,例如識別股票價格的短期波動。
公式(3) 表示對數據進行標準化處理。式中,X?表示數據的均值,σ表示數據的標準差。標準化后的數據[X]具有零均值和單位方差,這消除了不同變量之間量綱差異的影響,便于不同量綱數據的比較和分析,例如將股票價格與交易量進行比較。
公式(4) 表示對數據進行歸一化處理,將數據映射到[0,1]區間內,這通過公式實現,其中:xmin 和xmax 分別表示數據的最小值和最大值。歸一化處理在某些機器學習算法中是必要的,例如神經網絡,因為它可以提高算法的收斂速度和穩定性。這些預處理步驟對于提高模型的準確性和穩定性至關重要。進一步的研究可以探索更先進的數據預處理方法,例如小波變換和主成分分析等,以進一步提升模型的性能。
這些數據預處理方法是人工智能在金融領域應用的基礎,確保了模型能夠有效地學習和利用數據,從而提高預測精度和決策效率。
4 結束語
多智時代為人工智能發展提供了前所未有的機遇,同時也帶來了新的挑戰。本文分析了多智時代對人工智能的影響,探討了其主要研究方向以及優化人工智能科技創新體系的策略。未來,需要加強基礎理論研究,突破核心技術瓶頸,促進技術融合創新,才能更好地推動人工智能技術發展。此外,可以進一步研究提升人工智能模型的可解釋性和魯棒性,發展更具通用性和自主學習能力的智能系統,以及解決人工智能倫理和安全等問題。
參考文獻:
[1] 王濤.多智時代創新下的人工智能發展路徑探索[J].數字化用戶,2023(33):13-14.
[2] 李世龍.基于預訓練語言模型的知識表示學習[D].北京:北京交通大學,2023.
[3] 車萬翔,劉挺.自然語言處理新范式:基于預訓練模型的方法[J].中興通訊技術,2022,28(2):3-9.
[4] 耿浩昆.人工智能(AI)指令集模擬器關鍵技術研究[D].西安:西安電子科技大學,2021.
[5] 白裕彤,程輝,葉貞成.基于RNN補償器的欠驅動過程控制方法應用[J].控制工程,2024,31(10):1768-1776.
【通聯編輯:代影】