在互聯(lián)網(wǎng)上沖浪的時(shí)候,你可能看過(guò)這樣的視頻
范冰冰換臉韓國(guó)女團(tuán)
也有可能看過(guò)這樣的視頻:
換臉惡搞視頻
這樣的技術(shù)叫做深度偽造,英文叫做deepfake。它不只包括AI換臉,甚至連聲音都能偽造。
隨著技術(shù)一步步的提升,你真的能分清一個(gè)視頻究竟有沒(méi)有換臉嗎?我們挑選了幾個(gè)難以辨別的偽造過(guò)的視頻和沒(méi)有偽造過(guò)的視頻混在一起,來(lái)自我檢驗(yàn)一下辨別能力吧~

答案:NO.2和NO.6是沒(méi)有偽造過(guò)的,你答對(duì)了嗎?(歡迎在評(píng)論區(qū)分享你的答案,以及判斷依據(jù))
那究竟一個(gè)深度偽造視頻是如何被生產(chǎn)出來(lái)的?
深度偽造來(lái)源于“深度學(xué)習(xí)(Deep learning)”和“偽造(fake)”。其操作過(guò)程為將圖像、視頻、音頻片段進(jìn)行合并、替換或疊加,從而創(chuàng)建出作者需要的看起來(lái)是真實(shí)的,但事實(shí)上從未說(shuō)過(guò)和做過(guò)的假的音頻、視頻等。
深度偽造技術(shù)主要基于“生成式對(duì)抗網(wǎng)絡(luò)”(Generative Adversarial Networks,簡(jiǎn)稱 GAN)的機(jī)器學(xué)習(xí)模型的人工智能技術(shù)。同時(shí)搭載生成模型和判別模型兩大神經(jīng)網(wǎng)絡(luò)。簡(jiǎn)單來(lái)說(shuō)就是一個(gè)生成,一個(gè)反饋,兩種算法在零和博弈中不斷改進(jìn)。這使得 deepfakes 難以對(duì)抗,因?yàn)樗鼈冊(cè)诓粩喟l(fā)展,任何時(shí)候確定一個(gè)缺陷,它都可以被糾正。
用魔法打敗魔法?那我們?cè)诒O(jiān)測(cè)方面的技術(shù)進(jìn)步呢?
2020年臉書(shū)(Facebook)公司贊助并發(fā)起了一項(xiàng)人臉視頻深度偽造檢測(cè)挑戰(zhàn)賽(DFDC)。最優(yōu)的算法模型在已知的訓(xùn)練數(shù)據(jù)集中識(shí)別偽造視頻的準(zhǔn)確率達(dá)80%以上,但是,在更真實(shí)的、不可預(yù)見(jiàn)的黑盒測(cè)試中,最優(yōu)算法模型的識(shí)別準(zhǔn)確率只有65%,遠(yuǎn)低于在已知訓(xùn)練數(shù)據(jù)集中的識(shí)別準(zhǔn)確性。Facebook公司發(fā)言人表示:“比賽結(jié)果顯示的較低準(zhǔn)確率強(qiáng)調(diào)了一點(diǎn),即建立一套能夠概括歸納深度偽造技術(shù)未知領(lǐng)域的系統(tǒng),仍然是一個(gè)亟待解決的難題。”
南洋理工ROSE Lab: Deepfake檢測(cè)
深度偽造對(duì)我們的生活又有什么影響呢?
深度偽造的力量借助名人的面孔和聲音被放大。2018年,美國(guó)網(wǎng)媒媒體Buzzfeed發(fā)布一段短視頻,利用人工智能技術(shù)來(lái)模仿前總統(tǒng)奧巴馬,在視頻中批評(píng)時(shí)任美國(guó)總統(tǒng)特朗普“是個(gè)完完全全的蠢豬”。今年6月24日,有人用“深偽”假扮成烏克蘭首都基輔市長(zhǎng),先后與歐洲三個(gè)城市柏林、馬德里和維也納市長(zhǎng)進(jìn)行了視頻通話,但柏林市長(zhǎng)在通話15分鐘后發(fā)現(xiàn)此人是假冒。
模仿奧巴馬的深度偽造視頻
當(dāng)然“雙刃劍”也有好的一方面:2018 年 2 月 14 日,在校園槍擊案中失去生命的華金在深度偽造技術(shù)的幫助下起死回生,以鼓勵(lì)人們支持槍支安全立法。
2020年10月29日,金·卡戴珊在她的生日發(fā)布了她已故父親羅伯特·卡戴珊的深度偽造祝福視頻,說(shuō)這是她收到過(guò)最感動(dòng)的禮物。我們?cè)趪?guó)內(nèi)的短視頻平臺(tái)上也會(huì)看到將逝者的面孔復(fù)活的正面案例。
深度偽造后的華金鼓勵(lì)人們支持槍支安全立法
金卡戴珊發(fā)推表達(dá)對(duì)于坎爺送她父親“死而復(fù)生”視頻的感謝
深度偽造技術(shù)最初興起時(shí)技術(shù)門檻較高,且需要依賴海量源素材進(jìn)行機(jī)器學(xué)習(xí),因此初始階段深度偽造技術(shù)惡意使用的受害者主要是政客及明星等公眾人物。如今隨著深度偽造技術(shù)的不斷成熟,機(jī)器學(xué)習(xí)模型僅需少量素材,甚至只需一張照片或一段音頻即可進(jìn)行樣本分析,并完成高精準(zhǔn)度的模擬成果輸出。而且相關(guān)應(yīng)用工具能夠免費(fèi)獲取、簡(jiǎn)單易操作,技術(shù)工具愈加智能,所有個(gè)體都有可能成為深度偽造技術(shù)的使用者和受害者。
深度偽造也帶來(lái)了很多法律、道德和倫理層面的問(wèn)題。犯罪分子利用AI換臉和AI語(yǔ)音合成技術(shù)進(jìn)行詐騙的案例屢見(jiàn)不鮮,未經(jīng)本人允許創(chuàng)作或傳播的色情視頻更是一個(gè)巨大威脅。而對(duì)社交網(wǎng)絡(luò)而言,深度偽造技術(shù)可能傳播錯(cuò)誤信息、影響公眾輿論,進(jìn)而降低公眾對(duì)互聯(lián)網(wǎng)內(nèi)容的信任度,并醞釀著更大的信任危機(jī)。想象這樣的場(chǎng)景,如果你站在法庭上,錄音錄像若不能形成證據(jù),那我們的真實(shí)證據(jù)又來(lái)自哪里?
即便牽扯到種種錯(cuò)綜復(fù)雜的問(wèn)題也并不影響一個(gè)趨勢(shì)即將成為事實(shí):在不遠(yuǎn)的未來(lái),“深度偽造”技術(shù)將走進(jìn)千家萬(wàn)戶,每個(gè)人說(shuō)不定都可以通過(guò)AI合成克隆自己的人臉和聲音,并用于短視頻、直播、交互媒體等更廣闊的領(lǐng)域。然而,無(wú)限接近于真實(shí),卻依然不是真實(shí),在這宏偉藍(lán)圖背后可能暗藏的隱患和還未浮現(xiàn)的新挑戰(zhàn),仍然有待書(shū)寫(xiě)和填補(bǔ)。
參考文獻(xiàn):
田少波,田騫.深度偽造技術(shù):倫理挑戰(zhàn)與反思
毛寧,楊會(huì).深度偽造技術(shù)的監(jiān)管困境及其法律應(yīng)對(duì)
文字:李欣怡 皮尹婷
視頻剪輯:付光圓
圖片素材來(lái)源于網(wǎng)絡(luò)





暫無(wú)評(píng)論,快來(lái)評(píng)論吧!