【摘 要】 隨著自然語言處理(NLP)和深度學習技術的不斷發展,人工智能(AI)已從純粹的理論構想逐漸演變為現實世界中不可或缺的技術要素。特別是像ChatGPT這樣的大型語言模型,不僅在自然語言理解和生成方面取得顯著進展,而且在多種應用場景中展示出高度的適應性。然而,當今高度數字化的商業環境中,使用人工智能(AI)可能帶來如數據安全、隱私保護和社會偏見等一系列倫理和社會挑戰問題。對AI進行審計不僅是技術進步的必要措施,而且是確保用戶信任與AI應用安全性的關鍵手段,有助于構建更安全、公平和可持續的AI生態系統。多個國際組織和政府已發布一系列AI審計框架。文章旨在探討AI審計的必要性,分析已有的多種AI審計框架優缺點,以及對企業在實踐中應當如何進行AI審計提出建議,以期為未來的研究與應用提供理論和實踐參考。
【關鍵詞】 AI; 審計; 人工智能; 內部控制; 審計框架; 人工智能治理
【中圖分類號】 F239.1" 【文獻標識碼】 A" 【文章編號】 1004-5937(2023)23-0032-06
一、人工智能對財會領域的影響:機會和威脅
近年來深度學習技術的崛起、神經網絡架構的改進、計算能力的增強以及互聯網數據的可用性,共同推動人工智能領域的技術革新。這些人工智能技術在財務和會計方面已經展示出巨大的潛力和價值[ 1 ]。
首先,在數據分析方面,AI和機器學習算法能夠處理大量復雜的財務數據,提供更及時的財務報告。這不僅提高財務報告的質量,也使得財務報告使用者的決策更快速。
其次,在風險評估和管理方面,AI技術能夠分析歷史數據和市場趨勢,預測潛在的財務風險,從而助力企業更有效地進行資本配置和風險規避。例如AI算法能夠識別信貸風險、市場風險和操作風險等多種類型的財務風險,為企業提供更全面的風險評估。
最后,在自動化和效率提升方面,AI技術也發揮重要作用。通過自動化財務流程,如發票處理、支付和收款等,AI不僅降低人力成本,還提高財務操作的準確性和效率。此外,AI還能夠自動執行復雜的財務模型和算法,從而在預算編制、資金分配和投資決策等方面提供更高水平的自動化支持。在合規和審計方面,AI技術能夠自動檢測財務報告和交易記錄中的不規范和異常行為,從而提高財務合規和審計的效率。不僅在財經方面有著廣泛的應用前景,而且在醫療診斷、代碼生成、語言翻譯等多個領域體現其優越的性能。特別是像ChatGPT這樣的大型語言模型,在某些基準測試上已經接近人類的性能水平[ 2 ]。
然而,AI技術的廣泛應用也帶來倫理和社會的挑戰。Weidinger et al.[ 3 ]指出,大型語言模型如ChatGPT存在加劇社會偏見的風險。這些模型在輸出內容中可能無意中強化對特定社會群體的偏見性描述,從而加劇現有社會的刻板印象。此外,這些模型還可能被用于惡意目的,包括生成高度復雜和個性化的欺詐行為或進行大規模的欺詐活動。同時,AI的架構存在數據泄露和敏感信息推斷的潛在風險,這嚴重威脅個人隱私。因此,從倫理角度對AI嚴格分析不僅需要擴展現有的治理框架,還需要在風險評估方法、性能基準和倫理框架方面取得革命性的進展。正是這些挑戰需要一種跨學科的方法,將數據科學、管理學、倫理學等多個學科聯合起來,以全面審視和解決這些挑戰。特別是在人工智能審計方面,需要構建一套全面而有效的審計機制,以確保AI技術的健康、可持續發展。
二、人工智能審計的必要性
隨著人工智能(AI)技術在各個領域的廣泛應用,其潛在的風險和挑戰日益凸顯。這些風險不只局限于技術層面,還涉及社會、倫理、法律和經濟等多方面。因此,對AI進行全面和深入的審計成為迫切需求,有必要通過分析未經審計的AI模型可能帶來主要問題,探討開展人工智能審計的必要性。AI模型的主要問題:
(一)數據偏見
大型語言模型通常基于大量的文本數據進行訓練。如果這些數據包含某種形式的偏見(如性別偏見、種族偏見等),模型可能會學習并在輸出中反映這些偏見。這不僅可能誤導用戶,還可能加劇社會不平等和歧視,從而對社會和倫理方面產生不良影響[ 4 ]。
(二)不準確的信息傳播
由于AI模型是基于其訓練數據進行預測和決策的,如果訓練數據包含錯誤或過時的信息,模型的輸出也可能是不準確的[ 5 ]。這在醫療、法律或金融等關鍵領域尤為危險,因為不準確的信息可能導致嚴重的后果,包括誤診、誤判或財務損失。
(三)安全性問題
未經審計的AI模型可能更容易受到對抗性攻擊[ 6 ]。這些攻擊旨在通過輸入特定的數據來誤導模型,從而產生不準確或出現誤導性的輸出。這不僅威脅到模型的可靠性和有效性,而且可能導致更廣泛的安全風險。
(四)法律和倫理風險
AI模型在生成內容時可能觸犯法律和倫理規定,如侵犯版權或涉嫌誹謗[ 6 ]。使用這些未經審計的模型的個人或組織可能因此面臨法律責任。此外,模型可能生成不道德或不合法的內容,從而引發更廣泛的倫理和社會問題。
(五)可解釋性和透明度
由于未經審計的AI模型通常缺乏可解釋性,用戶難以理解模型的決策邏輯和依據。這不僅影響用戶對模型的信任,還可能導致錯誤或不合理的決策。
(六)社會和文化影響
AI模型可能會生成與特定文化或社會觀念不一致的內容,從而引發文化沖突或誤解[ 7 ]。這不僅可能導致模型在某些文化或社會環境中的應用受限,還可能加劇社會分裂和沖突。
因此,審計在AI模型的治理體系中被認為是一個重要且務實的工具。這一觀點不僅得到學界的重視,而且受到高科技企業和政策制定者的重視。例如,歐洲委員會正在考慮將大型語言模型歸類為“高風險AI系統”,這意味著設計這些模型的技術供應商必須接受“獨立第三方參與的符合性評估”,即另一種名為審計的活動。
AI審計的早期研究主要集中在探索和緩解算法應用中可能產生的歧視及其他不良影響,特別是在決策支持系統以及對個體和組織的影響方面[ 8 ]。近年來,研究領域逐漸引入“基于倫理的自動決策系統審計”(EBA)這一概念[ 8 ]。EBA被構想成一種結構化流程,用于評估某實體(無論是現存還是歷史)的行為是否與相關原則或規范相符[ 8 ]。與此相對,Brown et al.(2021)提出的倫理算法審計更側重于評估算法對利益相關者產生的實際影響,并據此識別特定算法的情境或屬性[ 8 ]。兩者主要區別在于倫理算法審計更側重于實際影響,而EBA更注重原則和規范的一致性。此外,倫理算法審計(Brown et al.,2021)明確將算法作為審計的主要對象,而沒有保留被審計實體的開放性[ 8 ]。
以大型語言模型審計為例,AI審計可細分為模型審計、治理審計和應用審計三個關鍵階段,以全面而系統地評估與人工智能相關的各方面風險[ 9 ]。
首先,模型審計專注于預訓練但尚未發布的大型語言模型技術屬性,以揭示可能反映在歷史不公正的訓練數據集中偏見或其他歧視性做法[ 9 ]。該審計應由所有設計和傳播大型語言模型的技術供應商強制執行,并產生一份詳細報告以概述模型的屬性和局限性[ 9 ]。
其次,治理審計主要針對技術供應商在設計和傳播語言模型過程中的管理和決策機制[ 9 ]。該審計階段由獨立的第三方或內部機構執行,旨在核實技術供應商自我報告的準確性,并通常只能訪問有限的內部流程[ 9 ]。其主要目標是評估語言模型的設計和傳播流程,盡管它無法預見所有隨著AI系統與復雜環境隨時間互動而出現的風險。
最后,應用審計則是針對基于語言模型的具體應用,包括兩個子階段:功能性審計和影響審計[ 9 ]。功能性審計評估應用是否本身合法和符合倫理,并與預期用途一致;而影響審計則更關注應用輸出如何影響不同的用戶群體和自然環境[ 9 ]。這三種審計類型各自審計與語言模型相關的不同問題,并在實踐中相互關聯,構成一個多層次的審計框架,以識別和管理AI在各種應用場景中可能帶來的風險[ 9 ]。
在AI審計的概念框架和評估方法中,應綜合考慮基于原則和影響的兩種方法,而不是過早地界定該領域。以當前發展迅速的大型語言模型為例,從治理角度看,大型語言模型帶來方法論和規范方面的挑戰[ 9 ]。它們通常分兩個階段開發與應用。首先是在大型、非結構化文本語料庫上進行預訓練,其次在較小、特定任務的數據集上進行微調。這使得在沒有特定情景下很難評估大型語言模型。此外,它們在特定任務上或在規模上的表現可能是不可預測的。因此,治理和技術審計都有局限性。治理審計不能預見所有隨著AI系統與復雜環境隨時間互動而出現的風險。并且,歷史上專注于在明確定義環境中的特定功能,沒有能力捕捉大型語言模型等AI模型在許多下游應用中帶來的社會和倫理風險的全貌。因此,盡管設計針對AI模型的審計程序面臨諸多實踐性和概念性的困難,但這些困難不應成為不開展AI審計的借口。相反,這些問題應視為警示,即不能期望單一的審計機制能全面捕捉與AI模型相關的所有倫理風險。作為一種治理機制,審計能助力技術提供商識別并可能預防風險,影響AI模型的持續(重新)設計,并豐富有關技術政策的公共討論[ 9 ]。盡管面臨多重挑戰,審計在確保AI模型的準確性、可靠性和倫理性方面仍具有不可或缺的核心作用。
三、人工智能審計的框架構思
在當今高度數字化的商業環境中,如何避免使用人工智能(AI)帶來的風險是一個相對較新且日益重要的研究領域。為此有必要從AI審計的定義、實踐應用,以及在全球范圍內的法律和政策方面構建人工智能審計框架。
(一)人工智能審計的定義與范疇
審計是一種治理機制,它可以用于監控行為和績效,并且在諸如財務會計和工人安全等領域促進程序規則性和透明度的悠久歷史[ 10 ]。因此,就像財務交易可以針對真實性、準確性、完整性以及合法性進行審計一樣,AI審計中,AI系統的設計和使用也可以針對技術安全性、法律合規性或與預定義的倫理原則一致性進行審計。AI審計是一種系統性和獨立的活動,它涉及獲取和評估與特定實體(無論是AI系統、組織、流程,或是這些元素的任何組合)的行為或屬性相關的證據,并將評估結果傳達給利益相關方[ 9 ]。它強調審計活動的系統性和獨立性,突出在高度依賴數據和算法的現代商業環境中,審計在治理機制中的重要性。被審實體不局限于算法,而是開放的,可以是一個AI系統、一個組織、一個過程,或者是它們的任何組合[ 9 ]。根據其側重點,AI審計可分為狹義和廣義兩種。狹義的人工智能審計是以影響為導向,重點在于探測和評估AI系統對不同輸入數據的輸出[ 9 ]。廣義的人工智能審計則是以過程為導向,側重于評估整個軟件開發流程和質量管理流程[ 9 ]。
(二)實踐應用層面:AI審計的應用場景
紐約市的AI審計法(NYC Local Law 144)要求使用AI進行就業決策的公司必須接受獨立審計。此外,全球范圍內的專業服務公司,如普華永道(PwC)、德勤(Deloitte)、畢馬威(KPMG)和安永(EY),也提供AI審計服務,以幫助企業評估和管理與AI應用相關的風險。在法律與政策背景方面,在全球范圍內,AI審計逐漸受到法律和政策的關注[ 10 ]。盡管全球范圍內人工智能(AI)審計的實踐與學術研究呈逐漸上升的趨勢,但該領域仍然是一個復雜且至關重要的研究領域。它不僅跨越多個學科領域和研究方法論,而且受到各類法律和政策環境的深刻影響。在我國,該領域的研究處于關鍵階段。
(三)AI審計框架
隨著關于如何審計AI項目的指導方針日益普及,多個國際組織和政府已發布一系列有助于內部審計功能的AI審計框架。
COBIT框架。最新版本的COBIT框架,即COBIT 2019,由信息系統審計與控制協會(ISACA)在2018年發布,以取代其前身COBIT5。作為一個“綜合性”框架,COBIT在企業信息和技術的治理與管理方面得到了國際認可[ 11 ]。該框架包括幾乎所有IT領域的流程描述、期望結果、基礎實踐和工作產品,因此非常適合作為審計AI啟用項目時內部審計功能的初始起點。然而,COBIT 2019的綜合性也是其弱點之一。由于覆蓋范圍廣泛,該框架可能缺乏針對特定AI應用場景的深入指導。此外,其復雜性可能導致實施難度增加。
COSO ERM框架。由贊助組織委員會(COSO)在2017年更新的COSO ERM框架包括五個組成部分和20個原則,為內部審計提供一種集成和全面的風險管理方法[ 12 ]。COSO ERM的風險管理方法可以為AI的治理提供指導,并有效地管理其相關風險,以造福組織。然而,COSO ERM主要側重于風險管理,可能忽視AI治理中的其他關鍵方面,如倫理和社會責任。
美國審計署(GAO)AI框架。GAO開發并于2021年6月發布的人工智能問責框架旨在“幫助管理者確保AI在政府程序和流程中的負責任使用”[ 13 ]。盡管這一AI審計框架主要關注政府使用AI的受托責任,但由于它基于現有的控制和政府審計標準,主要適用于政府組織,可能不適用于私營企業或非營利組織。此外,它可能缺乏對特定AI技術或應用的深入分析。
國際內部審計師協會(IIA)人工智能審計框架。由IIA發布的人工智能審計框架包括三個主要組成部分和七個元素,有助于內部審計在短期、中期或長期內評估、理解和傳達人工智能對組織創造價值能力的影響。該框架主要側重于審計,可能不足以全面地解決AI治理的復雜性和多維性[ 14 ]。
新加坡個人數據保護委員會(PDPC)模型AI治理框架。由新加坡個人數據保護委員會(PDPC)與世界經濟論壇(WEF)第四次工業革命中心(4IR)共同創建的模型人工智能治理框架第二版,關注四個廣泛領域,作為組織推出AI計劃時的基礎考慮和措施[ 15 ]。該框架主要適用于新加坡的法律和文化環境,可能需要進行本地化調整才能在其他地區有效。這些框架的制定不僅有助于提高審計的準確性和可靠性,還有助于確保其在倫理和社會層面上的責任與可持續性。
四、人工智能審計的建設方向和建議
在AI審計的復雜體系中,內部審計與外部審計各自扮演著不可或缺的角色,共同構建一個多維度的審計框架。內部審計作為企業自我評估和監控的重要機制,其核心價值不僅局限于模型和算法的性能與安全性,而且延伸至對企業內部流程和決策機制的深度審查。從信息透明度和準確性的角度,內部審計有助于確保模型設計和性能的自我評估是準確和可靠的,這一點在企業商業決策和戰略規劃中具有至關重要的作用。通過內部審計,企業能更精準地了解到模型的優缺點,從而做出更明智和合理的商業決策。此外,內部審計員由于能夠訪問企業的內部流程,因此能全面評估模型從設計到應用的全過程,這不僅有助于識別和管理潛在的技術和安全風險,還確保模型的設計和實施與企業的整體戰略和目標是一致的。
然而,內部審計也面臨一系列挑戰和局限性。內部審計需要高度重視企業的商業利益和倫理風險,以避免與被審計對象之間存在潛在的利益沖突。例如,如果一個企業的AI模型是由高級管理層直接推動或批準的,內部審計員可能會面臨來自上級的壓力,隱瞞或忽略模型存在的問題。特別是在面臨激烈市場競爭和快速技術發展的環境中,任何對模型性能的負面評價都可能影響企業的市場地位和競爭力。此時,內部審計很難獨立發表審計意見,特別是當審計結果與企業的商業目標不一致時。因此,審計中缺乏第三方的問責機制可能會導致決策者忽視或淡化那些可能威脅到商業利益的審計改進建議,這可能影響模型的性能和可靠性,還可能引發一系列倫理和法律問題。例如,如果內部審計報告指出,AI模型存在數據偏見,但是要解決這一問題,將降低模型性能,那么管理層可能忽視或淡化這類問題,以維護企業利益。如果存在性別或種族偏見的信貸評估模型用于實踐中,可能觸發社會不滿,還可能導致企業面臨法律風險。
與內部審計相輔相成,外部審計作為第三方獨立評估機制,其核心價值體現在全方位、多維度的審查能力。在模型性能評估方面,外部審計不僅對模型在特定任務和數據集上的準確性進行深入評估,而且對模型在不同文化和背景上的適用性進行評價[ 9 ]。這一點明確了審計師需要具備跨學科的知識體系和視野。從安全性維度出發,外部審計致力于深度識別和評估模型可能存在的安全漏洞,這包括對抗性攻擊、數據泄露和未經授權的訪問等問題[ 9 ]。這體現了審計工作的嚴謹性和全面性。在倫理和合規性方面,通過先進的數據分析和算法檢測技術,外部審計可識別模型是否存在性別、種族、文化或其他形式的偏見和歧視,并據此提出針對性的改進建議[ 9 ]。這一環節不僅體現審計工作的社會責任感,也是對模型公平性和合規性的有力保證。除了技術和倫理兩個主要維度外,模型的可解釋性和透明度也是外部審計的重要組成部分[ 9 ]。這涵蓋了模型決策邏輯的可解釋性、模型訓練和應用過程的透明度,以及與模型相關的所有文檔和元數據的完整性和準確性[ 9 ],有助于提升模型的社會可接受度和信任度。從更為宏觀的社會和文化影響角度來看,外部審計還需關注模型可能對社會結構、公眾輿論及信息傳播等方面產生的長期和短期影響。這不僅是對模型影響力的全面評估,也是對其可持續發展性和社會責任的一種體現。
因此,內部審計與外部審計應當相互補充,與其他治理機制協同作用,以實現更全面和有效的AI模型審計。這不僅要求審計員具備跨學科的知識和視野,還要求其能全面評估和管理模型在技術、商業、倫理和社會等多個方面的風險和影響。這一多維度的審計框架為AI模型的全周期治理提供了一個全面而深入的研究基礎。
五、人工智能審計可能帶來的影響
AI審計作為綜合性的治理機制,其核心目標不會僅局限于提升模型在技術方面的準確性與可靠性,而是更廣泛地涵蓋社會、倫理、法律及經濟等多個維度的標準與期望。從技術角度出發,AI審計通過精密的數據分析和模型驗證,能有效地識別并修正模型的潛在缺陷與誤差,從而增強模型在具體應用場景中的準確性和可靠性,促使其整體性和穩健性的提升。在社會與倫理層面,AI審計具有減緩數據偏見和歧視現象的功能。通過對模型的數據處理和決策機制進行嚴格審查,審計活動能揭示潛在的偏見或歧視,并據此提出針對性的糾正措施,對緩解模型在實際應用中可能引發的社會不平等和不公具有至關重要的意義[ 6 ]。從透明度和可解釋性方面考慮,AI審計通常會產出詳實的分析報告,以明確模型的運行邏輯和決策依據,這不僅增加模型的透明度和可解釋性,也有助于提升用戶及其他利益相關方對模型的信任度[ 16 ]。在法律和合規性方面,AI審計發揮著風險規避和合規保障的作用。通過審計,能確保模型和算法的運行符合相關法律和規定,如數據保護法和版權法,從而降低AI應用可能導致的法律風險,并為構建更完善的合規體系提供堅實的基礎。從倫理和社會責任視角看,AI審計確保模型在設計和應用階段嚴格遵循公平、透明和責任等倫理原則,這不僅提升模型的社會接受度,還能促進AI的開發和應用實踐。
在經濟層面,經過審計的AI模型通常表現出更高的運行效率和準確度,從而有助于降低運營成本和提高經濟效益。此外,通過減少潛在的法律風險和提升用戶及其他利益相關方的信任,模型的經濟價值得以進一步放大。從多元利益相關者的視角來看,AI審計在企業、政府、消費者和學術界等多個層面都具有不可忽視的價值[ 17 ]。對企業而言,AI審計不僅是品牌信譽建設的有效手段,還是一種戰略性資產,能夠提供更高的投資回報率,吸引更多資本注入,進而推動企業的技術創新和市場拓展。對政府和監管機構來說,AI審計生成的數據和分析報告為政策制定提供科學依據,有助于更準確地把握AI技術的社會影響,從而制定更合理和有效的法規與政策。此外,AI審計在識別和糾正模型偏見及歧視方面具有重要作用,這不僅促進社會公平和穩定,也是構建和諧社會的必要條件。從消費者和公眾角度,AI審計增強模型的透明度和可解釋性,有助于保障消費者的知情權和選擇權,同時也增強公眾對AI應用的整體信任度。在學術界和研究人員層面,AI審計作為一種研究工具,可以深入探究AI模型在社會、倫理和法律等方面的復雜影響,這不僅推動了AI倫理和社會影響等領域的學術研究,還可能促進不同學科和領域之間的交叉合作與知識整合。
六、結論與展望
AI審計的實施,有助于確保人工智能模型、算法及其應用在技術、倫理和社會應用層面達到社會的期望。通過分析數據和檢驗模型,AI審計能有效提升模型在實際應用中的準確性和可靠性,進而優化運行效率和降低運營成本。然而,面對人工智能,尤其是強人工智能(AGI)的快速發展,審計領域將遭遇更為復雜和多維的挑戰[ 18 ]。從審計方法論角度看,傳統審計手段可能不完全適用于AI審計,因為這些方法通常針對更為簡單和專門化的系統。因此,學術界和實踐界需要多學科合作,共同研發適用于AI的新型審計方法和工具。總體而言,AI審計將面臨多層次、多維度和跨學科的技術與倫理等多方面的挑戰,這需要全球范圍內的企業、高校與研究機構的通力合作和技術創新,方能保證AI模型的安全性、可靠性和倫理合規性。綜合考慮技術、法律、倫理和社會因素,AI審計不僅是技術進步的必要條件,還是實現AI有效應用的關鍵途徑,有助于構建一個更為安全、公平和可持續的AI生態系統。
【參考文獻】
[1] 秦榮生.人工智能與智能會計應用研究[J].會計之友,2020(18):11-13.
[2] ANDERLJUNG M,BARNHART J,LEUNG J,et al.Frontier AI regulation:managing emerging risks to public safety[DB/OL]. (2023-09-04)[2023-10-03].https://arxiv.org/abs/2307.03718.
[3] WEIDINGER L,UESATO J,RAUH M,et al.Taxonomy of risks posed by language models[C]//Proceedings of the 2022 ACM Conference on Fairness,Accountability,and Transparency,2022:214-229.
[4] KIRPITSAS I K,PACHIDIS T P.Evolution towards hybrid software development methods and information systems audit challenges[J].Software,2022,1(3): 316-363.
[5] HEILINGER J C.The ethics of AI ethics.A constructive critique[J].Philosophy amp; Technology,2022,35(3):61.
[6] WINFIELD A F T,JIROTKA M.Ethical governance is essential to building trust in robotics and artificial intelligence systems[J].Philosophical Transactions of the Royal Society A:Mathematical,Physical and Engineering Sciences,2018,376(2133):20180085.
[7] RAJI I D,SMART A,WHITE R N,et al.Closing the AI accountability gap:defining an end-to-end framework for internal algorithmic auditing[C]//Proceedings of the 2020 conference on fairness,accountability, and transparency,2020:33-44
[8] MINKKINEN M,LAINE J,MANTYMAKI M.Continuous auditing of artificial intelligence:a conceptualization and assessment of tools and frameworks[J].Digital Society,2022,1(3):21.
[9] M■KDNDER J,SCHUETT J,KIRK H R,et al.Auditing large language models:a three-layered approach[J].AI and Ethics,2023:1-31.
[10] MONTASARI R.National artificial intelligence strategies:a comparison of the UK,EU and US approaches with those adopted by state adversaries[M]//Countering Cyberterrorism:The Confluence of Artificial Intelligence,Cyber Forensics and Digital Policing in US and UK National Cybersecurity. Cham:Springer International Publishing,2023:139-164.
[11] ULNICANE I.Artificial intelligence in the European Union:policy,ethics and regulation[M]//The Routledge Handbook of European Integrations.Taylor amp; Francis,2022.
[12] MOELLER R R.COSO enterprise risk management:understanding the new integrated ERM framework[M].John Wiley amp; Sons,2007.
[13] GAO U S.Artificial Intelligence:emerging opportunities,challenges,and implications[J].Report to the Committee on Science,Space,and Technology, House of Representatives.Technology Assessment. Washington,DC:United States Government Accountability Office,2018.
[14] SOIN K,COLLIER P.Risk and risk management in management accounting and control[J].Management Accounting Research,2013,24(2):82-87.
[15] PERSONAL DATA PROTECTION COMMISSION.Singapore's approach to AI governance[EB/OL].(2020-01-01)[2023-10-01].https://www.pdpc.gov.sg/help-and-resources / 2020 / 01 / model-ai-governance-framework.
[16] LANDERS R N,BEJREMD T S.Auditing the AI auditors:a framework for evaluating fairness and bias in high stakes AI predictive models[J].American Psychologist,2023,78(1):36.
[17] WACHTER S,MITTELSTADT B,FLORIDI L.Transparent,explainable,and accountable AI for robotics[J].Science Robotics,2017,2(6):eaan6080.
[18] 朱禹,陳關澤,陸泳溶,等.生成式人工智能治理行動框架:基于AIGC事故報道文本的內容分析[J].圖書情報知識,2023,40(4):41-51.