近年來,人工智能(AI)技術迅猛發展,在帶來創新與便利的同時,也催生了侵權、詐騙等違法行為。去年,有詐騙分子利用AI換臉技術,騙取430萬元。此類案例警示,AI技術正加速向網絡詐騙等領域滲透。
AI換臉技術是通過深度學習算法,精準捕捉并復制人臉特征,將一個人的臉部形象無縫替換到另一個人的臉上,生成的視頻效果逼真,非專業人士難以辨識。此外,AI擬音技術同樣令人咋舌,僅需幾秒的聲音樣本,人工智能大模型便能迅速克隆出高度相似的人聲,且操作簡便,相關軟件與教程在網絡上泛濫成災。隨著AI技術門檻降低,合成效果愈發逼真,逐步向全身、3D合成發展。
技術的雙刃劍效應日益凸顯。AI技術的濫用,不僅可能假冒公眾人物,還可能規模化發送虛假信息,嚴重擾亂社會秩序。今年4月,北京互聯網法院宣判的全國首例“AI聲音侵權案”,為AI技術的濫用敲響了警鐘,法院通過判決為新業態新技術劃定了應用邊界,彰顯了保護人格權益與引導技術向善的司法態度。
目前,我國法律法規對AI深度偽造作出了一定規制。2023年1月施行的《互聯網信息服務深度合成管理規定》明確,“提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意”“可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識”等。
如何識別并防范AI換臉呢?相關專家指出,AI換臉生成的假人往往存在牙齒邊緣過于整齊、眼睛瞳孔顏色不一致、眨眼頻率異常等破綻。同時,民眾應增強個人信息保護意識,不輕易提供人臉、指紋等生物信息,避免在社交平臺發布正面照片或視頻,妥善保管身份證、銀行卡等敏感信息,及時卸載和注銷不常用的手機App。
公安部門也提醒公眾,面對電信網絡詐騙,應牢記“三不一多”原則:未知鏈接不點擊,陌生來電不輕信,個人信息不透露,轉賬匯款多核實。一旦發現詐騙行為,應立即報警,以最大限度減少財產損失。
(綜合福州新聞網、《天津日報》)