郭利榮, 童坤坤
(中數通信息有限公司大數據工作室, 廣東 廣州 510650)
隨著大數據、云計算等技術的不斷發展,數據的體量快速增長,數據的內容也越來越復雜,給傳統的數據管理和分析帶來了巨大挑戰。早期,數據管理主要依靠傳統關系型數據庫,然而這些數據庫在面對海量數據時已顯得力不從心。數據結構和模式的固定性使得關系型數據庫無法適應多變的數據形態和復雜的數據查詢需求[1]。同時,由于不同數據庫之間缺乏數據共享集成機制,導致數據孤島問題日益突出。
為了解決上述問題,數據倉庫的概念應運而生,它能夠集成各種獨立數據庫中的數據以實現數據共享和分析。然而,傳統數據倉庫模型已無法滿足半結構化和非結構化數據的存儲與分析需求。
數據湖作為一種新興的數據架構和解決方案,能夠滿足日益增長的多樣化數據需求,并且支持結構化、非結構化和半結構化數據的存儲和分析等,因此受到廣泛關注。常見的結構化數據有數據庫表數據,非結構化數據有圖像、視頻等,半結構化數據有JSON、XML等。與數據倉庫相比,數據湖更加靈活,能夠適應數據的快速變化和多樣化的查詢需求,能為企業更好地挖掘數據潛在的價值[2]。
本文旨在綜述數據湖的相關概念、與數據倉庫的關系、流行的實現框架、典型的技術架構、核心功能等,還討論了數據湖的具體應用場景,并對其未來的發展趨勢進行展望。
數據湖的概念于2010年被首次提出,旨在解決傳統數據倉庫和數據集市面臨的問題[3]。首先,數據湖通過統一的元數據存儲解決了數據集市之間的數據孤島問題,實現了數據的集中管理和協作共享。其次,數據湖存儲的是原始數據而非經過裁剪后的數據,避免了數據原始信息的丟失,從而為數據分析和挖掘提供了更全面和準確的資源[4]。數據湖是一個集中式存儲庫,可以以任意規模存儲所有結構化和非結構化數據;可以按原樣存儲數據,并運行不同類型的分析,從控制面板和可視化到大數據處理、實時分析和機器學習,以指導數據使用者做出更好的決策。
眾所周知,在數據分析的過程中,數據存儲至關重要,而隨著數據的增長及其多樣性的提升,數據存儲模型也在不斷地發生改變。在過去的數據存儲模型中,數據倉庫是一種非常流行的模型。但是,數據倉庫在存儲數據的時候要求數據必須是預定義的格式和結構,這可能會限制數據的存儲和處理[5]。與傳統的數據倉庫不同,數據湖作為一種新興的數據存儲模型,采用原始格式進行存儲。數據湖不需要進行預定義,也沒有格式和結構的要求,可以存儲各種類型的數據,包括結構化、半結構化和非結構化的數據[6]。與數據倉庫相比,數據湖具有以下優勢。
(1)靈活性和可擴展性。數據湖可以存儲各種類型的數據,并且支持異構數據的存儲方式。
(2)不需要ETL(抽取轉換加載)過程。數據湖可以直接進行數據分析和挖掘,而不需要進行ETL過程,靈活性更高。
(3)大數據的支持。數據湖能夠處理大規模和多樣化的數據,如海量的傳感器數據、日志數據等。
上文介紹了數據湖與數據倉庫之間的聯系,而兩者之間的詳細區別如表1所示。

表1 數據湖與數據倉庫的詳細區別
隨著技術的進步和需求的不斷演變,數據湖的概念和實踐也在不斷發展,陸續出現了許多新的數據湖框架和工具,例如Apache Hudi、Apache Iceberg和Delta Lake等,它們提供了更多高級功能和增強的數據管理能力。這些框架不僅支持原始數據的存儲,還提供了ACID(原子性、一致性、隔離性、持久性)的事務特性、元數據管理、數據分區和版本控制等功能,進一步增強了數據湖的一致性、可靠性和可管理性。目前,市面上流行的三大開源數據湖方案分別為Apache Iceberg、Apache Hudi和Delta Lake。
Apache Iceberg是一個由Netflix開發的開源數據湖表格格式,它提供了類似于傳統SQL數據庫中分區的功能,支持ACID事務和快照等特性。Apache Iceberg支持多種計算引擎(如 Hive、Presto、Spark)和存儲后端(如HDFS、S3),可以在不同的上層和下層系統中使用,從而實現數據的存儲、查詢和分析。核心抽象對接新的計算引擎的成本比較低,并且提供了先進的查詢優化功能和完全的schema變更。
Apache Hudi是一個開源的數據湖流式處理框架,最初由Uber公司發起并捐獻給 Apache軟件,其設計目標是支持大規模數據的增量計算和管理。Apache Hudi通過支持增量變更、臟數據刪除和寫入重試等操作,實現了快速、可靠、安全的大規模數據湖管理;它更注重于高效率的Upsert操作和近實時數據更新,提供了Merge On Read文件格式,以及便于搭建增量ETL管道的增量查詢功能。Apache Hudi還提供了多種索引適配不同的場景,每種索引都有不同的優點和缺點,因此索引的選擇需要根據具體的數據分布進行取舍,從而達到寫入和查詢的最優解。
Delta Lake是由Databricks推出的開源數據湖格式和處理引擎,它對Parquet 數據格式進行了擴展,支持ACID事務、版本控制和流表查詢等特性。Delta Lake可以與Spark、Presto等計算框架集成,適用于大規模數據處理和分析場景。此外,Delta Lake還能保證數據安全性和可靠性,能夠滿足企業級應用的需求。
數據湖可以認為是新一代的大數據基礎設施,數據湖技術發展至今,其架構也經歷了一些演進,正在逐步完善。早期數據湖架構采用的兩層架構(圖1)為臨時數據區和原始數據區[7]。臨時數據區可以作為臨時存儲區域,能夠快速接收和存儲各種類型的數據,而不用對其進行特殊的轉換或規范化處理;原始數據區作為存儲各類原始數據的持久化區域,數據在此處保留其原始狀態。臨時數據區注重靈活性和快速處理,適合實驗和即時分析;而原始數據區注重數據保留和管理,適合數據溯源和長期分析需求。這種兩層架構簡單、直接,但在大規模數據處理和復雜分析場景下存在一些問題,比如處理速度慢、數據質量控制困難和出現數據不一致性。

圖1 兩層數據湖架構Fig.1 Two-layered data lake architecture
為了克服兩層架構的局限性,引入Lambda架構(圖2)[8]。Lambda架構為三層結構,即批處理層、速度層和查詢層。批處理層負責對數據進行批處理和離線處理。數據從各個來源發送到批處理層進行數據清洗、轉換和存儲。批處理層使用分布式存儲系統(如HDFS)存儲原始數據和批處理結果,并結合大數據處理技術(如MapReduce)進行數據分析和計算。速度層負責對數據進行實時處理和流式處理。數據從源頭發送到實時處理層,經過即時處理和轉換,產生實時結果和聚合。實時處理層使用流式處理引擎(如Spark Streaming、Flink)處理連續流數據,并將結果存儲在速度層數據庫中。查詢層會使用批處理層和速度層的結果提供實時查詢和分析,以滿足不同類型的查詢需求。

圖2 Lambda架構Fig.2 Lambda architecture
總體來說,數據源被分為兩個流,一個進入批處理層進行離線處理,另一個進入速度層進行實時處理。這樣可以在保證實時性的同時,進行復雜分析和查詢。然而,Lambda架構需要維護兩套數據處理流程和代碼,并且存在數據一致性問題。
為了降低Lambda架構的復雜性,Kappa架構被提出,如圖3所示。Kappa架構取消了批處理層,只使用速度層進行數據處理和存儲。數據通過流處理方式進行實時處理,并將結果直接存儲在數據湖中。Kappa架構相較于Lambda架構,其簡化了架構和技術棧,但無法應對需要大規模離線處理和計算的場景,并且可能難以實現和保證數據的一致性。

圖3 Kappa架構Fig.3 Kappa architecture
上文介紹的架構都存在一個共同的特點,即它們都比較關注數據的存儲和計算而忽略了對數據本身的管理。數據湖作為新型大數據基礎設施,在繼承大數據平臺的存儲計算能力的基礎上,通過統一的數據接入、全面的元數據管理、精細化的數據治理等功能,實現對海量異構數據的深度管理與資產化利用,以便各類計算引擎能夠深度融合,覆蓋多種應用場景。基于上述思想,典型的數據湖架構如圖4所示。

圖4 典型的數據湖架構Fig.4 Typical data lake architecture
數據湖強調對業務數據的保真存儲,允許存儲任意格式的數據,提供完善的數據管理能力,實現數據全生命周期管理。具體來看,數據湖至少包含原始數據和處理后的數據兩類,通過統一的數據接入接口,進行數據源、連接、格式、模式等元數據管理,支持細粒度權限控制,追蹤數據從接入、存儲、處理到消費的全流程,重構數據血緣和流動過程,實現對海量異構數據的集中式、原始的存儲與可控可治理的資產化利用。
接下來,本文從數據獲取、數據存儲、數據計算、數據治理等方面詳細介紹數據湖技術。
數據湖作為一種集中存儲和管理企業各種類型和格式的原始數據的架構,其數據輸入與獲取技術對于數據湖的建設和應用至關重要。Sqoop用于將關系型數據庫中的數據導入數據湖中,支持各種常見的關系型數據庫,如MySQL、Oracle等;Flume是一個廣泛使用的分布式數據采集工具,適用于從多個數據源(如日志、消息隊列)采集、聚合和移動數據到數據湖中;相比Sqoop的批量傳輸,Kafka實現了從源端不間斷地獲取數據,使數據湖可以直接對接實時數據,支持實時分析應用[9-10]。
SeaTunnel是一種用于數據集成和數據同步的解決方案,它提供了多種功能,使用戶能夠輕松地在不同的數據源之間進行數據傳輸和同步。SeaTunnel支持各種類型的數據源,包括關系型數據庫、大數據存儲、文件系統等。無論數據源是什么類型,SeaTunnel都能夠直接連接并獲取數據。這使得用戶可以將數據源中的數據集成到一個統一的平臺上,方便進行數據分析和處理。
SeaTunnel還提供了強大的數據轉換功能。用戶可以通過使用內置的轉換規則或自定義的轉換腳本轉換數據格式和結構。例如,用戶可以將一個數據集中的列重新排列、過濾掉特定的行或進行數據分組和聚合等操作。這些功能使得用戶能夠根據自己的需求對數據進行靈活的處理,從而更好地滿足分析和業務的需求。
SeaTunnel具有高效的數據傳輸和同步功能,它使用了高性能的數據傳輸協議和壓縮算法,確保數據在傳輸過程中的安全性和高效率。同時,SeaTunnel支持增量同步,即只傳輸發生變化的數據,大大減少了數據傳輸的時間和帶寬的消耗。這使得用戶可以實時地將數據從一個數據源同步到另一個數據源,保持數據的一致性和及時性。
SeaTunnel提供了豐富的監控和管理功能。用戶可以監控數據傳輸和同步的進程和狀態,及時發現和解決問題。SeaTunnel還支持任務調度和自動化,用戶可以預先設置數據傳輸和同步的時間和頻率,減少手動操作的工作量。此外,SeaTunnel提供了數據一致性校驗和錯誤處理等功能,確保數據傳輸和同步的可靠性和準確性。
數據湖作為企業中全量數據的單一存儲,可以集成和存儲來自不同數據源的數據,包括關系型數據庫、日志文件、傳感器數據等。這種存儲方式可以使不同部門和用戶在同一個存儲中查找和訪問數據,促進數據共享和協作。數據湖的數據存儲技術作為一種集成多種存儲方式和支持多種數據格式的解決方案,旨在滿足企業對于海量數據的集中存儲和管理需求。為了具備性價比,數據湖常選用相對便宜的存儲引擎,對應的存儲技術主要包括關系數據庫存儲、HDFS存儲和對象存儲等方式[11]。關系數據庫存儲主要適用于結構化數據的存儲,可以提供高效的數據查詢和處理功能。HDFS存儲是分布式文件系統的一種,可以支持大規模數據的存儲和處理,適用于結構化和非結構化數據的存儲。對象存儲可選擇云存儲,如S3、OSS和OBS,具備彈性和按需擴容的特性[12]。對象存儲非常適用于大量非結構化數據的存儲,例如圖片、視頻、日志等。
數據湖作為一個綜合性的數據管理平臺,其中一項關鍵功能就是數據計算。數據計算在數據湖中起著至關重要的作用,它能夠處理和分析各種類型的數據,以支持各種業務需求。為了讓數據湖支持多源異構數據的聯合分析,計算框架的選擇尤為重要。現有的Spark、Flink等計算框架可以用于流批一體的數據處理,但在支持復雜SQL解析和優化方面還不夠完善。此外,不同的計算框架缺乏統一的接口標準,給多引擎集成帶來困難。Apache Kyuubi是一個開源的分布式SQL引擎,它可以優雅地解決數據湖計算的難題,提供了基于Thrift的JDBC/ODBC和REST兩種標準服務接口。Apache Kyuubi可以對接Spark、Flink、Hive等主流的分布式計算框架,以及Doris、Trino等新型的分析查詢引擎,還支持任何遵循JDBC標準的數據庫。
Apache Kyuubi具有多租戶隔離、查詢負載均衡等分布式數據庫的特性,使其能夠應對企業中的多種大數據處理場景,如數據提取轉換加載、業務智能報表等需求。Apache Kyuubi的目標是利用其框架優勢,為構建企業數據湖提供標準化和統一的SQL訪問接口;它允許用戶用常規的SQL查詢方式處理存儲在數據湖中的結構化、半結構化及非結構化數據。同時,它正在朝著一個面向無服務器化SQL分析的Lakehouse服務方向演進,可以通過對各種計算框架的標準化對接,構建一個池化、彈性的分布式SQL計算平臺,為企業級數據湖的Serverless化提供支撐。
在數據湖中,數據計算的功能可以支持離線計算、實時計算、即席查詢和機器學習等多種計算模式。離線計算是基本的計算模式,它主要是基于批量數據處理的思想對大量數據進行處理和分析。離線計算通常以天或者周為單位進行,處理的數據量比較大且計算過程可能需要耗費較長時間。在數據湖中,離線計算通常使用分布式計算框架如Hadoop和Spark等實現。
此外,還有一種重要的計算模式是實時計算,它主要是對實時流入的數據進行實時處理和分析。實時計算對于要求數據處理速度和實時性的場景非常有用,例如在線游戲、實時監控等。在數據湖中,實時計算通常使用流處理框架如Apache Kafka和Apache Flink等實現。
即席查詢是一種靈活的數據查詢方式,它可以根據不同的查詢需求進行即時的數據處理和分析。即席查詢通常用于探索性分析和業務人員的自助分析場景中,可以根據分析人員的需要靈活地選擇不同的數據集、指標和可視化方式。在數據湖中,交互式即席查詢可以通過可視化工具或Trino途徑實現。
對一個成熟的數據湖平臺來說,其計算引擎模塊應具備可擴展性與可插拔性,能夠平滑地兼容不同的機器學習框架與算法。目前,主流的TensorFlow和PyTorch深度學習框架已經原生支持直接從分布式文件系統和對象存儲中讀取數據進行模型訓練。這種靈活性使得數據湖能夠更好地支持各種機器學習任務,為數據驅動的決策提供更強大的能力。
總的來說,數據湖的數據計算功能能夠高效、靈活和可擴展地處理和分析各種類型的數據,支持各種業務需求。無論是離線計算、實時計算、即席查詢還是機器學習,數據湖都可以提供強大的數據處理和分析能力,幫助企業更好地發掘數據的價值,推動業務的創新和發展。
數據治理是數據湖的重要功能,目的是保證數據湖中的數據質量,讓數據為企業創造更高價值[13]。數據治理涵蓋了數據湖的整個生命周期,包括制定數據采集策略,從各種源系統中抽取數據,對數據進行轉換整理,將不同格式的數據集成到數據湖中。此外,數據治理會建立完備的數據目錄,記錄每一個數據集的關鍵元數據信息,方便數據的發現和利用。在數據湖運行過程中,需要持續監控數據流和數據變更,及時發現問題并做出優化。同時,通過訪問控制、加密等手段保證數據安全,避免非授權訪問以及數據泄露。數據治理還會對數據湖中的數據集進行質量檢查,識別重復、錯誤和無效數據,并進行修正和過濾。所有這些治理措施的目的都是讓數據湖成為高質量、高可靠性的基礎數據平臺,為企業的決策分析和業務創新提供可信可用的數據支持[14-16]。
4.4.1 元數據管理
元數據是描述數據的數據,主要是描述數據屬性的信息。在數據湖中,元數據管理是數據治理的重要組成部分[17-18]。通過良好的元數據管理,可以對數據湖中的數據進行有效的分類、標記和描述,使用戶能夠更快速地找到所需的數據集,并理解數據的結構、含義和質量標準[19]。元數據管理能夠提供數據湖中數據的整體視圖,幫助用戶更好地理解和利用數據。元數據管理模塊還會持續跟蹤元數據的變更,提供版本控制、血緣追蹤等功能,為企業構建知識圖譜奠定基礎,讓數據資產可追溯、可解釋。目前,實現智能化和自動化的元數據管理是數據湖建設的重要方向,可以運用機器學習、自然語言處理等技術提取數據特征和數據之間的關系,減輕手工錄入工作量,使元數據更完整、可靠。
4.4.2 數據安全管理
數據湖中的數據通常包含機密、敏感或受限制的信息。數據湖必須具備強大的數據安全管理功能,以保護數據的機密性、完整性和可用性[11,20-22]。數據治理能夠為數據湖建立訪問權限控制、數據加密和身份驗證等安全策略,確保數據在存儲、傳輸和使用過程中得到有效的保護,并遵守相關的數據保護法規和合規要求。
4.4.3 數據質量管理
數據質量是數據湖中的重要考量因素。數據湖中的數據來自不同的源頭,可能存在重復、冗余、不一致等問題。數據治理通過建立數據質量管理框架和規范,使數據湖中的數據經過驗證、清洗和標準化,確保數據的準確性、一致性和完整性。數據質量管理還可以通過監控和度量數據質量指標實時監控數據湖中數據的質量,并快速響應和修復潛在的數據質量問題。
4.4.4 數據生存周期管理
數據湖中的數據具有不同的生存周期,包括數據的創建、更新、使用、存儲和刪除等階段。數據治理可以提供數據生存周期管理策略和流程,確保在數據湖中的數據按照規定的生存周期管理方法進行管理和操作。數據生存周期管理可以幫助審計數據使用情況、規劃數據存儲需求、控制數據增長和存儲成本,并且保證數據的合規性。
4.4.5 數據標準管理
數據治理通過建立數據標準化的方法和過程,確保數據湖中的數據按照一致的標準進行管理和使用。數據湖中的數據來源廣泛且多樣,可能包含不同格式、結構和質量的數據。通過數據治理,可以建立數據規范和數據詞典,定義和標準化數據的命名約定、數據結構和數據元素等。數據標準提供了一致的數據語義和結構,使不同用戶在數據湖中能夠理解和使用數據,從而提高數據集成和數據共享的效率。
4.4.6 數據集成與共享
數據湖作為一個集成多源數據的架構,促進了數據的集成和共享。數據治理在數據湖中的數據集成和共享方面起到重要作用。數據湖中的數據來源可能包括內部和外部的多個數據源,并且以不同的格式和結構存在。通過數據治理,可以建立數據集成策略和流程,將不同來源的數據集成到數據湖中,并確保數據的一致性和可靠性。數據湖作為一個統一訪問和查詢的數據存儲,使得用戶可以共享數據,進行跨部門和跨應用的數據分析和應用開發。
在當今企業信息化建設中,高效管理應用海量、復雜數據是一項關鍵任務。只有充分利用數據資產,企業才能更好地挖掘數據的價值,提高業務運營效率,優化決策過程,從而在激烈的市場競爭中獲得優勢。數據湖的出現為企業提供了一種更好的數據管理和分析工具,使企業能夠快速、高效地管理、使用和分析數據,可以在多個領域幫助企業解決實際問題。
交易分析:金融機構可以將所有交易數據集中存儲在數據湖中,利用數據湖分析市場趨勢、分析客戶的行為模式以及幫助金融機構進行風險和欺詐檢測[23]。
客戶行為分析:通過整合不同的數據源,如交易歷史記錄、客戶反饋、社交媒體數據等,數據湖可以幫助金融機構理解客戶的行為模式,并提供個性化的產品和服務。
疾病診斷與預測:數據湖可以集中存儲患者的臨床數據、基因組數據、醫療圖像和傳感器數據等信息,通過分析這些數據,醫療機構可以提供更精確的疾病診斷、預測和保健建議[24]。
醫療研究:數據湖可以幫助醫療研究人員整合和分析大量的醫療數據,加速新藥研發和更好地開展醫學研究和臨床試驗。
消費者行為分析:通過整合顧客的交易記錄、網站瀏覽數據、社交媒體數據等,數據湖可以幫助零售商了解消費者的購買行為和偏好,進而提供個性化的產品推薦和營銷策略。
庫存管理:通過與供應鏈數據和銷售數據的整合,數據湖可以幫助零售商準確預測需求、優化庫存管理,并提高供應鏈的效率。
智能電網管理:數據湖可以集中存儲來自智能電表、傳感器和設備的大量數據,通過對數據的分析,能夠實現對能源消耗的監測、實時故障檢測和優化能源分配[25]。
風能和太陽能預測:數據湖可以整合氣象數據、能源生產數據和能源消耗數據等,通過分析這些數據,預測風能和太陽能的產生情況,幫助能源公司做出更準確的能源規劃和決策。
經營分析:整合現有數據源情況,完成營銷、物流、專賣、財務四大數據源的數據入湖,實現數據集成、數據處理、數據服務,可視化呈現BI、報表、經營分析等,幫助煙草公司全面開展數據資產化運營工作。
針對當前數據湖技術的研究進展,本文給出未來數據湖技術比較有價值的研究方向。
存算一體的數據湖架構,在資源擴展時,需要同時升級存儲和計算節點,無法對指定資源進行獨立擴展,而存算分離作為一種新興的數據處理模式,將數據的存儲和計算分離開來,使得計算能力可以彈性擴展,并可以與多個計算引擎集成。數據湖技術可以借鑒存算分離的思想,進一步發展多計算引擎集成的能力,實現高效的彈性伸縮和資源利用,降低運維成本,優化存儲和計算的協同工作,提高數據湖的處理效率和性能。
傳統數據湖通常需要大量的硬件資源,包括服務器、存儲設備、網絡設備等,成本較高,并且需要投入更多的人力和資源進行系統的配置、監控、維護和升級,增加了管理的復雜度和成本;而云原生技術是構建和部署在云平臺的應用程序的一種方法,它強調容器化、自動化。數據湖技術可以應用云原生技術,如容器化和微服務架構,實現更靈活、可擴展和高可用的數據湖部署和管理。云原生技術的發展可以使數據湖更好地適應云平臺的特性和要求。
數據湖技術具有開放性和靈活性的特點,容易將原始的、未經過驗證和清洗的數據直接存儲到數據湖中,這可能導致數據質量問題,如數據重復、缺失、不一致等。相比之下,數據倉庫更注重數據質量管理,通過清洗、轉換和整合等步驟確保數據的準確性和一致性[26]。湖倉一體化將數據湖和數據倉庫進行整合,構建統一的數據管理平臺,能夠提供統一的數據視圖。下一步的發展方向包括構建數據湖和數據倉庫的聯邦查詢和數據融合機制,實現跨數據湖和數據倉庫的數據查詢和分析。湖倉一體化還可以進一步優化數據存儲和數據處理的接口,提高數據集成和傳輸效率。
隨著數據價值的不斷提升,數據安全和隱私保護成為研究熱點,因此需要進一步研究和開發數據加密、訪問控制、數據脫敏等安全技術和措施,不斷提高保護數據安全和隱私的能力。
隨著數據湖中存儲的數據量不斷增長,元數據管理變得至關重要,元數據管理可以幫助組織對數據進行治理,包括數據的標準化、規范化、權限管理等,同時可以幫助用戶了解數據的使用情況,并實現數據的共享和重用。下一步的發展方向包括利用存儲層的元數據和計算引擎的元數據進行數據質量評估和監控,實現自動化的數據清洗和驗證,并借助相關技術實現元數據的快速采集、維護和查詢;使用機器學習、知識圖譜等技術讓元數據管理更自動化和智能化。可以根據數據內容和關系自動生成元數據,并進行持續的學習優化。
本文從多個方面介紹了數據湖技術,包括技術誕生背景、與傳統數據倉庫的區別及其核心功能未來的發展方向等。數據湖技術具有強大的數據處理和分析能力,它已經成為數字化時代企業和組織的重要工具。隨著數據湖技術的進一步研究和應用,可以期待它發揮更加重要的作用,為各個領域的發展和決策提供更加準確和實時的數據支持。