紐約州立大學奧爾巴尼分校計算機工程系呂思偉副教授
隨著人工智能技術的發(fā)展,虛假新聞特別是深偽(Deepfake)音視頻的制作已進入低成本、低技術知識的階段。有分析認為,世界或將進入一個信息真假難辨的階段。
“虛假音視頻帶來的最大問題是信任體系的崩壞,將給政治、經濟和社會造成極大的危害。人工智能技術雖已能鑒別部分的虛假音視頻,但道高一尺魔高一丈,同虛假音視頻的斗爭必將是一場持久戰(zhàn)?!奔~約州立大學奧爾巴尼分校計算機工程系副教授、計算機視覺與機器學習實驗室主任呂思偉近日在接受科技日報記者專訪時如是說。
人工智能驅動的虛假新聞催生信任危機
電子媒體的興起和普及,使人們每日接受的新聞信息量要比10年前增加數百倍。但泥沙俱下,各種自媒體和社交媒體中也充斥著各種各樣的虛假信息。人工智能技術的快速發(fā)展,進一步讓虛假視頻新聞的制作門檻越來越低,逼真度卻越來越高。人工智能“換臉術”去年曾將《神奇女俠》女主角蓋爾·加朵的臉嫁接到一個成人電影女星的身上,引起轟動。
呂教授指出,大部分非專業(yè)制作的虛假視頻新聞其實都非常粗糙,稍有知識的受眾都可以甄別出來,但由于傳播平臺的指數級增加,信息如洪水猛獸般涌向受眾,快速分散著受眾的注意力,加之視頻本身的質量和分辨率等因素,受眾在很短的時間內根本難辨真假。受眾基于自身興趣,條件反射般地進行轉發(fā),也對虛假音視頻的傳播起到推波助瀾的作用。哥倫比亞大學心理學研究表明,注意力經濟(眼球經濟)的結果是人們的注意力被分割得越來越小,對信息的專注時間甚至已經短于金魚。
事后補救雖能起到一定的正本清源作用,但虛假音視頻傳播所造成的巨大負面影響業(yè)已造成,很難在短時間內消除。而且虛假音視頻的不斷涌現(xiàn),使政府或當事人疲于奔命澄清事實,久而久之,整個社會的信任體系就會分崩瓦解,形成公眾對任何新聞事實都不相信的情形。
今年6月初,美國紐約媒體實驗室召集媒體界、學術界的相關從業(yè)人員舉辦了一場虛假新聞恐怖展,就人工智能等新技術可能產生的虛假宣傳和錯誤信息進行研討。實驗室執(zhí)行主任賈斯汀·亨德里克斯說:“只需要幾個大騙局就能讓公眾相信沒有什么是真實的?!眳谓淌谝舱J為,虛假新聞造成的最大問題是,當新聞可以虛假時,真實新聞也會變得“不真實”,最終造成受眾無法相信任何新聞的窘境,對社會來說,這是一場史無前例的信任危機。
利用機器學習弱點找到虛假視頻破綻
呂教授表示,“換臉術”的機器算法是利用大量的臉部圖像訓練出來的,這有點像機器翻譯,可把一種文字翻譯成另一種文字,而換臉虛假視頻的算法“翻譯”的對象是人臉,把原始人臉的表情特征提取出來,然后用另外一張臉去表達相同的表情特征。
為了找到鑒別虛假音視頻的技術解決方案,呂教授團隊對機器學習生成的虛假視頻的算法代碼進行分析,建立了數百個虛假視頻模型,并嘗試用各種方法進行檢測。他們最終發(fā)現(xiàn),虛假視頻中的人物基本都不眨眼,而正常生理現(xiàn)象是,人類在面對面交流時眼神會進行互動,眨眼是一種不受主觀控制的無意識行為,每隔兩三秒鐘一般會眨一次眼。
呂教授進一步解釋說,機器學習學的并不是真正的“知識”,其得到的全部信息來自訓練數據。而機器學習并不知道眨眼是人類的正常生理特征,第一代虛假視頻大量使用的是網絡靜態(tài)人物圖片,這些圖片中的人物都是睜眼的,因為沒有人愿意把閉眼的形象展示給公眾。
同虛假視頻人工智能大戰(zhàn)任重道遠
呂教授團隊正是利用機器學習的這一弱點開發(fā)了一種深度學習新算法來檢測虛假視頻,成功率非常高。但呂教授坦言,在機器學習領域可謂道高一尺魔高一丈,虛假視頻的制作者同樣可以專門針對新算法設計出具有眨眼特征的更加逼真的視頻。
呂教授說,虛假視頻的制作過程一般來說是見不得光的,不會公之于眾,其背后有巨大的政治或經濟利益驅動,因此造假技術往往存在一定優(yōu)勢,領先于檢測技術的發(fā)展。呂教授指出,其最新研發(fā)的算法目前來說具有一定的優(yōu)勢,這是因為考慮了虛假視頻制作者尚未考慮到的數據訓練問題。論文公開發(fā)表后,有黑客直接向呂教授發(fā)出挑戰(zhàn),要求其檢測融合了眨眼的虛假視頻,但這些虛假視頻均未逃過新算法的“法眼”。
為在虛假視頻檢測技術研發(fā)上先人一步,呂教授團隊目前已開始將深度學習算法的訓練數據,從靜態(tài)圖片升級為動態(tài)視頻,并通過建立紅白隊進行對抗訓練,來提升高質量虛假視頻的檢測水平。呂教授透露,谷歌旗下Jigsaw公司已同開發(fā)團隊接洽進行合作。
除了不斷提升技術手段,呂教授認為,同虛假視頻的斗爭最重要的還是需要公眾具有獨立思考的精神,不隨意轉發(fā),不為虛假視頻的廣泛傳播推波助瀾,無論是主流媒體還是自媒體,都要恪守底線,堅持求真。