AI深度造假技術為何防不勝防?
深度造假(Deepfake)是英文“Deep learning”(深度學習)和“Fake”(偽造)的混成詞,指利用深度學習技術生成合成圖像、音頻或視頻的技術。由於公眾人物的視頻、音頻、圖片資料的公開性,為AI訓練提供了大量素材,因此名人經常成為AI造假的受害者。
互聯網安全組織“網絡尖刀”的一位匿名技術專家告訴澎湃科技(www.thepaper.cn),深度造假技術製作的內容在視覺、聽覺上非常逼真,很難單憑肉眼或傳統的技術手段辨別真偽。攻擊者可以利用技術手段隱藏深度造假的痕跡和特徵,使其難以被檢測到。現在互聯網上存在大量圖片和視頻數據,這些數據用於訓練深度學習模型,從而也被深度造假技術利用,“可用的數據集越多,模型的質量就越高,深度造假的結果離真人越近。”
在傳播過程中如何加強對此類視頻的監管?中國社會科學院大學互聯網法治研究中心執行主任劉曉春在接受澎湃科技採訪時建議,語音克隆公司研發App時,對於跟名人有關、誤導性較強、傳播風險較大的視頻,可以在傳播過程中加強顯性標識的設計,明確標明這是一個合成內容,提醒受眾。
劉曉春強調,在顯性標識之外,技術層面上也可以設計隱性標識,這樣在追蹤溯源時,也能從技術層面識別來源或合成的渠道。“如果能夠清楚地標明它是由哪些渠道的技術合成,這樣風險也能控制住。”劉曉春說。
前述“網絡尖刀”技術專家稱,深度造假識別技術比人類更敏銳,深入動作、光線、分辨率上的破綻,在源頭發現造假內容,通過識別偽造的特徵和異常模式,可以盡早發現和阻止深度造假內容的傳播。 |