(華東政法大學(xué) 上海 200000)
2017年,ETF領(lǐng)域首次引入人工智能,全球首只人工智能ETF——AIEQ在去年10月中旬發(fā)行上市。然而,AIEQ的業(yè)績并不穩(wěn)定,起初的幾個交易日業(yè)績遙遙領(lǐng)先,在之后的幾個月內(nèi),卻大幅跑輸標(biāo)普500指數(shù),在今年的第二個季度AIEQ再次出現(xiàn)好轉(zhuǎn)。下圖為二者在10-11月走勢圖。隨后,貝萊德作為一家大型資產(chǎn)管理公司,該公司在今年也推出了7只人工智能ETF,消費,金融,醫(yī)療保健,科技,媒體等領(lǐng)域包含于這7只ETF中,因此形成了全球首個行業(yè)ETF。概括地說,一個創(chuàng)新可以導(dǎo)致更多的創(chuàng)新,因為它提供了一個框架,可以使一些互補性和相關(guān)型技術(shù)地概念創(chuàng)造,設(shè)計和工作成為可能。[1]

(一)“黑箱問題”。人工智能的發(fā)展讓我們看到了更便利的結(jié)果,然而結(jié)果所蘊含的原因往往無法解釋。技術(shù)創(chuàng)新最根本的特點,在于其工程充滿了眾多的不確定性,是指無法預(yù)計求索的結(jié)果或預(yù)先決定一條通往特定目標(biāo)最快捷的途徑。[2]縱觀AIEQ產(chǎn)品,它也不僅僅單純是靠人工智能所完成的,更多的還是人工操作。下面是AIEQ產(chǎn)品運行結(jié)構(gòu):

通過以上流程圖可以看出,雖然AI ETF 由人類設(shè)計開發(fā),但是其運行方式并不能得到很好的解釋,是計算機(jī)自動生成的結(jié)果,在數(shù)據(jù)和結(jié)果之間,存在著我們無法熟悉地“黑箱”。除了 AIEQ 的設(shè)計者,其他人無法從內(nèi)、外來透析其做出決定的原因,就使得對其所做出的結(jié)果缺乏修正理由,無法辨錯。[3]因此,法律監(jiān)管誰,如何監(jiān)管,黑箱問題仍然是無法克服的一大障礙。法律應(yīng)注意到不同個體在信息處理能力上的差異,并且以此為根據(jù),確立不同的標(biāo)準(zhǔn)和要求。[4]
(二)金融隱私權(quán)問題。人工智能的運作離不開對于大數(shù)據(jù)信息的運用,這同時包括大量的未公開信息。數(shù)字經(jīng)濟(jì)的發(fā)展如何在很大程度上取決于數(shù)據(jù)的搜集和運用,人工智能的飛速發(fā)展也正體現(xiàn)著數(shù)據(jù)的經(jīng)濟(jì)價值。大數(shù)據(jù)又稱巨量資料,指的是所涉及的資料量規(guī)模巨大,無法通過目前常用工具在合理時間內(nèi)拮取,管理,處理并整理成為有價值的資訊。大數(shù)據(jù)是一個大而復(fù)雜的數(shù)據(jù)集,而這種數(shù)據(jù)集并非是一個簡單的數(shù)據(jù)匯聚,從廣義上來說,它具有以下三個層次的內(nèi)涵:首先它是一個數(shù)據(jù)量巨大,來源多樣化和類型多樣化的數(shù)據(jù)集;其次,它是一種新型的數(shù)據(jù)處理和分析技術(shù);第三,它是一種運用數(shù)據(jù)分析技術(shù)所形成的具有價值的結(jié)果。[5]但是人工智能鎖包括的信息有公司管理,企業(yè)運營,市場行情等等內(nèi)部信息,如何處理好公司和個人權(quán)利以及數(shù)據(jù)運用是AI ETF不得不考慮的現(xiàn)實性問題。隨著社會的發(fā)展和社會觀念的變化,在現(xiàn)代信息社會中,傳統(tǒng)隱私權(quán)不斷延伸,并增加了新的實體內(nèi)容,出現(xiàn)了“金融隱私權(quán)”。傳統(tǒng)的隱私權(quán)概念及其實際內(nèi)涵正在發(fā)生著微妙的變化,承受著市場經(jīng)濟(jì)的沖擊和挑戰(zhàn)。[6]與傳統(tǒng)隱私權(quán)不同的是,金融隱私權(quán)指向的是具有財產(chǎn)利益的信息,以信用信息為核心,包括信息所有人經(jīng)濟(jì)與財產(chǎn)交易狀況方面的信息。[7]在信息與網(wǎng)絡(luò)時代,個人隱私主要是以“個人數(shù)據(jù)”形式體現(xiàn)。[8]但是數(shù)據(jù)的產(chǎn)生歸根結(jié)底要找到數(shù)據(jù)的提供方,如何規(guī)制數(shù)據(jù)提供方所提供的個人信息是法律監(jiān)管的重點。我們沒有干涉他人追求其目標(biāo)的權(quán)利,但是當(dāng)我們不尊重他人隱私的時候,恰恰是在干涉他們的自由。我們不能以犧牲個人權(quán)利而換取數(shù)據(jù)經(jīng)濟(jì)的進(jìn)步,技術(shù)的發(fā)展最終服務(wù)于人類,人類的權(quán)利和自由是終極目標(biāo)。
數(shù)據(jù)的來源多是過去數(shù)據(jù),當(dāng)面臨市場行情的變化時,如何處理數(shù)據(jù)的更新也是人工智能做出正確決定的關(guān)鍵。換言之,在數(shù)據(jù)更新的過程中,意味著舊數(shù)據(jù)與新數(shù)據(jù)的沖突,雙向的信息泄露對個人隱私的保護(hù)而言則是多一份危險。相當(dāng)程度穩(wěn)定性的信息隱私規(guī)范機(jī)制保護(hù)金融隱私權(quán),并且應(yīng)當(dāng)賦予信息持有者主動參與并控制自己信息的權(quán)利,而不僅僅是用過去的隱私救濟(jì)制度來保護(hù)處于弱勢的信息持有者。法律應(yīng)確認(rèn)金融隱私權(quán)的獨立地位,對金融隱私權(quán)進(jìn)行具體的、相對獨立的權(quán)力定位,維護(hù)市場主體的信用信息利益。相對于權(quán)利的法律實現(xiàn),權(quán)利觀念的形成則更為艱難,然而,它又是法律權(quán)利實現(xiàn)的必要條件。
(三)歸責(zé)問題。從當(dāng)前市場來看,人工智能所面臨的發(fā)展現(xiàn)狀是不平衡的,決策失敗所導(dǎo)致的投資者利益受損是不可避免的。面對大額資產(chǎn)投資,不當(dāng)投資的情況下如何保護(hù)投資著利益,規(guī)制何者的責(zé)任都是AI ETF所面臨的法律難題。人工只能無疑是人類科技發(fā)展的結(jié)果,人工智能所做出的ETF決策是對數(shù)據(jù)的自動化分析的結(jié)果。人工智能的設(shè)計者或許只是設(shè)計程序的一小部分,不能成為責(zé)任承擔(dān)者,人工智能的使用者對于信息披露也不可能做到毫無死角,更何況不透明性讓使用者承擔(dān)責(zé)任不盡合理。對于人工智能本身,僅滿足法律規(guī)制對象的有體性,不滿足有意性和有害性。人工智能本不是具有意識有思想的個體,本身不具有社會危害性思想,因此也不能承認(rèn)歸責(zé)主體。