2019年8月14日,新美國安全中心(CNAS)網(wǎng)站轉(zhuǎn)發(fā)科學(xué)美國人網(wǎng)站題為“Why Are Deepfakes So Effective?It's because we often want them to be true.”的評(píng)論文章,作者是技術(shù)與國家安全項(xiàng)目高級(jí)研究員馬丁·拉瑟。文章主要觀點(diǎn)如下:
輿論轉(zhuǎn)變、選舉結(jié)果扭曲、群體混亂、種族暴力、戰(zhàn)爭,所有這些事件都可以很容易地通過偽造的逼真表現(xiàn)來觸發(fā),但偽造的音頻和視頻是用AI技術(shù)制作的。政府和工業(yè)界的領(lǐng)導(dǎo)者以及廣大公眾都有理由感到震驚。由于人工智能的進(jìn)步和社交媒體的觸角蔓延,深度造假可能被證明是幾代人所面臨的最不穩(wěn)定的力量。
很快就不可能再用肉眼或耳朵來判斷視頻或音頻片段是否真實(shí)了。宣傳雖然并不是什么新鮮事,但聲音和影像的內(nèi)在即時(shí)性賦予了深度造假前所未有的深刻影響和權(quán)威;結(jié)果,政府和工業(yè)界都在爭先恐后地開發(fā)可靠檢測它們的方法。例如,硅谷初創(chuàng)公司Amber正在研究如何檢測最復(fù)雜的偽造視頻。您可以想象有一天我們可以通過數(shù)字水印來驗(yàn)證視頻的真實(shí)性和出處。
開發(fā)深度造假檢測技術(shù)很重要,但它只是解決方案的一部分。這是我們?nèi)祟愋睦韺W(xué)中的人為因素弱點(diǎn),而不是他們的技術(shù)尖端性使得深度造假如此有效。新的研究暗示了問題的根本所在。
在展示了3000多名成年人偽造的影像并附上捏造的文本后,一個(gè)研究團(tuán)隊(duì)得出了兩個(gè)結(jié)論。首先,評(píng)估信息的人對(duì)數(shù)字?jǐn)z影的在線體驗(yàn)和熟悉程度越高疑心就越重。其次,確證偏誤(指選取新信息以支持我們先前存在的信念的傾向)是決定人們?nèi)绾闻袛嘈畔⒄鎮(zhèn)蔚囊粋€(gè)重要因素。