朱菁菁
關鍵詞:智能投顧;算法風險;監管現狀;完善建議
中圖分類號:F832 ? ? ? ?文獻標志碼:A ? ? ?文章編號:1673-291X(2021)31-0075-03
一、智能投顧概述
(一)智能投顧的起源
2008年金融危機的發生動搖了投資者對傳統投資活動的信賴,投資者轉而開始尋找新的投資途徑。正逢全球范圍內掀起新一輪的人工智能研究熱潮,大數據、人工智能、區塊鏈等創新科技與金融行業結合后出現了金融科技的概念,智能投顧作為金融科技的創新成果,迎合了部分投資者的想法而受到追捧。智能投顧起源于美國,在幾年時間里流行到世界其他國家或地區,并在2014年左右進入中國市場,成為金融科技發展的引領者。
(二)智能投顧的優勢
與傳統投顧相比,智能投顧用機器算法取代自然人顧問為投資者提供相應的服務,這是智能投顧的最大的特色。以機器算法為核心的智能投顧在服務對象、服務費用、服務內容等方面具有重大優勢,在我國有著廣闊的發展前景。
從服務對象來看,智能投顧降低了投資者的投資門檻,而且提供的服務高效且準確。傳統投顧主要服務于個人資產千萬元以上的高凈值人群,一般由自然人顧問提供一對一服務。在中國龐大的人口數量下,高凈值人群只占極小一部分。智能投顧的目標客戶便是高凈值群體之外的其他投資者,這些投資者資產規模不算龐大,但同樣具有投資想法。智能投顧提供服務時通過機器算法分析客戶信息,在短時間內自動篩選合適的投資組合以滿足不同收入段投資者的需求,最終實現投資者利益最大化。
在服務費用方面,智能投顧的投資門檻低,服務費用也低廉。智能投顧不必像傳統投顧一樣進行一對一服務,花費時間搜集資料、分析資料以制定合適的投資方案,算法的運算能力使得智能投顧可以同時為多個投資者提供服務,也不需要再花費大量的時間收集整理資料,整體上降低了智能投顧的服務費用。
從服務內容來看,智能投顧向投資者提供的投資建議是機器算法進行數據分析的成果。優秀的算法可以克服自然人投資顧問提供服務時的主觀情緒和客觀失誤,在復雜的投資活動中比人腦更加精準、公正。此外,具有相同特征的投資者都能通過算法計算得到同樣或類似的建議,保障提供投資建議的一致性。
(三)我國智能投顧的發展
我國對金融投資機構的資質管理較為嚴格,投資機構提供服務時需要具有相關的牌照。金融機構提供智能投顧服務時涉及投資顧問、資產管理時均需要具有相應的牌照。但國外提供智能投顧服務時只需要投資顧問牌照即可進行資產管理業務。當前智能投顧在中國市場的發展還處在起步階段,投資者對其認知有限,同時由于政府文件、法律法規等限制,投資機構更適合開展投資顧問業務。資產管理業務作為智能投顧服務的核心和重點,作為金融機構持續盈利的重要來源,當前的金融市場環境并不適合金融機構開展這方面業務。當智能投顧依托的創新科技再次突破,投資者普遍接受智能投顧、監管體系比較成熟時才是金融機構開展資產管理業務的時機。
二、智能投顧的算法風險
智能投顧是人工智能技術與金融行業結合的首個成果,機器算法又是人工智能技術的基礎,智能投顧與算法兩者緊密關聯。研究智能投顧發展中的算法問題有利于智能投顧的發展,也為其他金融科技成果提供發展經驗。
(一)資質風險
隨著智能投顧的興起,機器算法部分或全部取代自然人投資顧問,而根據我國相關法律規定,從事投資咨詢服務的相關從業人員應當取得投資咨詢服務的執業資格,并進行注冊登記。若遵循法律規定,機器算法取得相應的執業資格并進行注冊登記無疑是確認機器算法具有法律主體地位,能夠承擔相應的責任。但是在目前階段,算法并沒有發展到比肩自然人投資顧問的程度,算法的數據模型、運行邏輯等重要內容仍是由自然人研發、管理,不可避免地帶有研發人員的主觀價值判斷,影響算法的獨立運行。機器算法現在僅是金融機構提供智能投顧服務的重要工具,不適合成為責任承擔的主體。機器算法無須像自然人投資顧問一樣取得從業資格,又缺乏一些特別的關于算法的規定,若出現損害投資者利益的糾紛,將加大智能投顧主體識別和主體責任分配的難度。
(二)信用風險
金融機構負有投資者給予的信賴,在處理投資事務時必須要恪盡職守,履行誠實信用、勤勉謹慎的義務。但是僅約束金融機構并不能完全避開算法導致的信用風險,有必要擴大義務主體的范圍。若智能投顧所使用的機器算法由金融機構內部專業人員研發,算法的運行完全掌握在金融機構手中,金融機構即責任承擔的主體。若機器算法被委托給第三方研發機構,投資機構與研發機構相分離,算法的最終成果由專業的研發人員決定,第三方研發機構一定程度上也會對投資者的利益產生影響。此外,算法運行過程中儲存大量投資者的信息,研發人員在維護、更新過程中可能利用職務之便盜取信息并濫用,損害投資者的合法權益,給金融機構帶來負面影響。
(三)算法黑箱
算法的應用范圍非常廣泛,就互聯網金融領域而言,區塊鏈、廣告精準投放、智能投顧等都需要依托機器算法來發揮作用。算法應用范圍越廣,算法黑箱所造成的風險越突出。
算法黑箱的形成主要有以下幾個原因。第一,使用者在應用交互頁面并不能發現在后臺運行的算法,無法從外部直接觀察算法的狀態。第二,算法的研發使用計算機編程語言,對于沒有相關計算機知識的大多數人而言,即使算法的每一行代碼都披露出來,算法的真實含義也是無法被個人理解的。隨著智能技術發展,決策主體正逐漸由人轉向機器,機器決策的規則是普通人無法洞悉的。第三,算法由專業的研發人員編寫,編寫的過程容易受到主觀意志的影響。在科技巨頭企業參與算法開發、應用時,科技巨頭企業施加影響的范圍更廣,也更容易被忽視。第四,算法的研發、應用與商業秘密、知識產權保護等內容交織在一起,算法監督難以實施。對于以算法為競爭手段的機構而言,算法是機構招攬客戶、獲取利潤的重要手段,將算法公之于眾不利于機構發展,容易因受到其他競爭者打壓而陷入困境。基于這種考量,對算法的監督很難進行。
以智能投顧為例,算法黑箱問題引發了算法透明的爭論。支持算法透明的學者認為,隨著人工智能技術的發展,投資者與金融機構、算法研發者之間的信息不對稱將逐漸擴大,處于弱勢地位的投資者的知情權缺乏有效保障;算法的應用降低了金融投資活動的門檻,表面上投資活動更加簡單易懂,使得投資者忽視了金融投資自身的高風險,容易誤導消費者,導致投資失敗。反對算法透明的理由有:披露算法之后,優質算法模型會受到同行的模仿,大量相似算法出現之后,各個智能投顧提供的投資建議趨同的可能性較高,執行投資建議趨同的可能性也隨著提高,將造成“羊群效應”,提高投資活動的風險,影響金融市場的穩定。
三、我國機器算法的監管現狀
我國現行的法律法規中有關于機器算法的規定并不多,特別是金融投資領域內。對算法的監管需要與對智能投顧的監管相結合,但智能投顧,作為金融科技的創新成果之一,進入中國發展的時間還比較短,有關制度保障和法律保障并不完備,在實踐中或是在法律中,智能投顧并沒有明確的標準。我國目前還沒有明確規定智能投顧主體資格、業務范圍、行為規范和責任承擔等內容的法律法規,監管部門只能選擇與之相近似的規定來監管這種創新成果。當前階段,監管部門對智能投顧的監管主要依靠我國金融領域不同行業的監管規則,借助現有的規則實現對智能投顧的有效監督和管理。監管部門利用現有的法律法規主要針對智能投顧的主體和業務,對機器算法的涉及非常少,不能對機器算法進行有效監督和管理。
《關于規范金融機構資產管理業務的指導意見》(簡稱《資管新規》)首次定義了智能投顧,對金融機構的資質條件、行為規范等做出明確規定。此外,《資管新規》也對算法模型提出了具體要求:金融機構應盡職盡責,向投資者充分提示算法的固有缺陷和使用風險,并且根據智能投顧的運行情況及時采取措施干預算法模型缺陷,構建穩定的、合理的算法模型。雖然《資管新規》中規定的義務主體是金融機構,但智能投顧的算法開發主要有自主開發和委托第三方開發兩種方式,在委托第三方開發的情形下,日常的維護與更新也由第三方機構負責,第三方機構對算法的接觸更多,了解更深,義務主體的范圍應當擴大到第三方機構。《資管新規》的發布解決了智能投顧發展中的一些基礎性問題,但僅僅是初步的、原則性的規定,相關規定還需要在實踐中根據智能投顧的發展不斷進行完善。
四、完善我國智能投顧算法監管的建議
在智能投顧的發展過程中,由于算法技術自身的專業性與復雜性,以及知識產權和商業秘密的各種因素影響,外部人員進行算法審查難度高,非專業人士進行算法審查的執行成本也比較高。此外,隨著金融服務的個性化需求越來越普遍,算法風險的產生將更加隱蔽,監管部門通過傳統監管方式對算法的規制程度有限,不能滿足市場迅速發展的需求。在通過單一主體的力量無法解決算法問題的情況下,我國可以考慮在法律法規允許的范圍內聯結各方主體共同應對算法所產生的問題。
第一,政府和監管部門仍然需要發揮主導作用。政府和監管部門需要在適當的時機發布與智能投顧有關的法律法規,明確監管的主體、內容以及標準,并告知運營者。監管部門對算法的管理應貫穿于智能投顧提供服務的全過程。在金融機構開展智能投顧業務之前,金融機構應當將智能投顧所使用的算法模型向監管部門報備;在智能投顧提供服務的過程中,監管部門應當定期對市場上提供服務的智能投顧的算法模型進行抽查,確認其運行狀態,金融機構應當及時將算法模型的重大更新向監管部門匯報,并且在一定期限內保存好算法模型每一次維護和更新的記錄以備后查。考慮到科技不斷更新迭代,算法也在不斷進步,需要確認算法與市場之間的匹配度,為算法留有試錯空間,監管部門可以試點“監管沙盒”機制,通過“監管沙盒”機制實現創新與算法風險的防控兩者的平衡,推動智能投顧的發展。
第二,金融機構和第三方機構也需要進行自我約束,可以成立行業協會,通過行業規范調整成員行為。金融機構因為投資者的信賴而成為信義義務的約束主體,金融機構在處置投資者的資產時必須恪盡職守,不能謀取不正當利益。除此之外,第三方機構因為與智能投顧算法的密切接觸,對智能投顧算法的重要影響,也應當被納入信義義務的約束范圍,承擔與金融機構相當程度的信義義務,對于承擔主要算法開發工作的個人或組織可以參照適用證券從業人員的有關規定對其進行管理。在確定責任承擔的場合,確定因算法引起時,金融機構與第三方機構應按照各自的過錯程度承擔相應的責任,保障投資者的權益不受損害。市場上智能投顧發展到一定規模卻沒有明確的國家標準時,相關的金融機構可以聯合起來協商、確定行業標準并付諸實踐。
第三,投資者也是算法監管中的重要一環。投資者同樣享有知情權,能夠自由、平等地獲取真實、全面、準確的信息。投資者有權利了解自己的個人信息的利用情況,并就不理解的地方請求金融機構進行解釋。投資者行使知情權的過程就是對算法的監督過程,能夠促使金融機構和第三方機構公正對待算法。算法完全透明很難實現,所以投資者追求的是算法有限度的透明。金融機構披露信息時應當按照有利于投資者的方式進行。投資者可以要求金融機構披露算法使用的理論模型;披露第三方機構的信息,了解金融機構與第三方機構之間的關系,了解其中是否存在影響算法運行和投資建議的信息;披露智能投顧運營過程中可能對投資者產生重大影響的事件信息等等。
參考文獻:
[1] ?趙吟.智能投顧的功能定位與監管進路[J].法學雜志,2020,(1):68-73.
[2] ?袁康.社會監管理念下金融科技算法黑箱的制度因應[J].華中科技大學學報:社會科學版,2020,(1):102-110.
[3] ?徐鳳.人工智能算法黑箱的法律規制——以智能投顧為例展開[J].東方法學,2019,(6):78-86.
[4] ?陳娟,熊偉.智能投顧的業務屬性和準入監管研究[J].金融監管研究,2019,(4):46-61.
[5] ?高絲敏.智能投資顧問模式中的主體識別和義務設定[J].法學研究,2018,(5):40-57.
3195501908282