長按識別二維碼,收看2018《麻省理工科技評論》區(qū)塊鏈技術峰會
使用深度學習將一個人的臉真實地疊加到另一個人的身體上,這個點子聽起來還算有趣。不幸的是,它也有邪惡的一面,比如說,由各色名人主演的“深度偽造”的色情片。另外,虛假新聞以及尖端技術可以輕易地被用于欺騙也引起了人們的廣泛擔憂。
然而,來自德國慕尼黑技術大學的研究人員想要解決這一問題 —— 他們開發(fā)了一種名為 “XceptionNet” 的算法,它能快速發(fā)現(xiàn)發(fā)布在網上的偽造視頻。具體而言,它可以用來識別互聯(lián)網上的誤導性視頻,以便在必要時將其刪除,或者,至少向視頻中涉及的人員透露他們被“偽造”了。
圖丨偽造了蓋爾·加朵的視頻
“理想情況下,我們的目標是將人工智能算法集成到瀏覽器或社交媒體插件中,本質上,該算法將在后臺運行,如果它識別出被操縱的圖像或視頻,它將給用戶發(fā)布警告信息。”該校視覺計算小組的教授 Matthias Niessner 透露。
研究小組首先訓練了一個由 1000 多個視頻和 50 萬張圖片組成的深度學習神經網絡。通過向計算機顯示修改過的和未修改過的圖像,即使在人類很難識別的情況下,機器學習工具也能夠找出兩者之間的區(qū)別。
Niessner 說:“對于壓縮過的視頻,我們的用戶研究參與者無法區(qū)分假數據和真實數據”。但人工智能能夠很容易地區(qū)分這兩者。
在 50% 的情況下人類可以正確區(qū)分的,但這其實是隨機猜測,而卷積神經網絡可以在 87 %到 98 %的情況下正確區(qū)分壓縮視頻。這個表現(xiàn)尤其令人驚嘆,因為壓縮圖像和視頻比未壓縮的圖片更難區(qū)分。
與其他欺騙性的圖像檢測算法相比,XceptionNet 遠遠走在了前面。這其實也證明了人工智能的力量。
-End-
編輯:LXQ 校審:黃珊
參考:
https://www.digitaltrends.com/cool-tech/face-swap-recognition-algorithm/amp/