近日,包含英國劍橋大學(xué)、牛津大學(xué),美國耶魯大學(xué)在內(nèi)的14個不同組織及26名AI專家聯(lián)合發(fā)布了長達(dá)百頁的《AI惡意使用:預(yù)測、預(yù)防與緩解》報告。
近一年里,人工智能和機器學(xué)習(xí)以前所未有的速度增長,越來越多的行業(yè)開始運用這一技術(shù)為自身賦能,未來還將有無數(shù)應(yīng)用落地使用。享受新技術(shù)帶來便捷的同時,安全隱患也逐漸浮出水面。
該項報告分別從數(shù)字安全、物理安全、政治安全三大方面闡述了未來或?qū)⒚鎸Φ陌踩{。數(shù)字安全方面,黑客將會擴大網(wǎng)絡(luò)攻擊范圍,如網(wǎng)絡(luò)釣魚。抑或是利用人類自身弱點,通過語音、圖像等合成技術(shù)來制造更加難以分辨的新型騙局。
物理安全方面黑客很有可能通過AI系統(tǒng)中存在的漏洞,將其變?yōu)榫哂泄粜缘臒o人機,發(fā)起針對性極強的攻擊。另一方面配備自動駕駛的車輛也可能面臨惡意事故的威脅。
為了避免與緩解人工智能技術(shù)帶來的威脅,專家建議立法者應(yīng)與研究人員密切合作,共謀解決之法,也呼吁AI從業(yè)人員能夠正確對待該技術(shù)的雙重面向。
(中關(guān)村在線)