Home >> Blog >> 什麼是深度偽造?您需要了解的有關 AI 驅動的虛假媒體的所有資訊
什麼是深度偽造?您需要了解的有關 AI 驅動的虛假媒體的所有資訊
- Deepfakes 使用深度學習人工智能在視頻和其他數字媒體中用另一個人替換一個人的肖像。
- 有人擔心 deepfake 技術可用於製作假新聞和誤導性的假冒視頻。
- 這是關於 deepfakes 的入門指南——它是什麼,它是如何工作的,以及它是如何被檢測到的。
計算機在模擬現實方面越來越好。例如,現代電影在很大程度上依賴於計算機生成的佈景、場景和角色,而不是曾經常見的實際場景和道具,而且大多數時候這些場景與現實幾乎沒有區別。
最近,Deepfake技術上了頭條。計算機圖像的最新迭代是,當人工智能 (AI) 被編程為在錄製的視頻中用另一個人的肖像替換一個人的肖像時,就會創建深度偽造。
什麼是 deepfake,它是如何工作的?
“deepfake”一詞來自底層技術“深度學習”,它是人工智能的一種形式。深度學習算法在給定大量數據時自學如何解決問題,用於交換視頻和數字內容中的面孔,以製作逼真的假媒體。
有幾種創建深度偽造的方法,但最常見的依賴於使用涉及採用面部交換技術的自動編碼器的深度神經網絡。您首先需要一個目標視頻作為 deepfake 的基礎,然後是您想要插入目標的人的視頻剪輯集合。
視頻可以完全不相關;例如,目標可能是好萊塢電影的剪輯,而您要插入電影中的人的視頻可能是從 YouTube 下載的隨機剪輯。
自動編碼器是一個深度學習 AI 程序,其任務是研究視頻片段,從各種角度和環境條件下了解人的樣子,然後通過尋找共同特徵將該人映射到目標視頻中的個人。
另一種類型的機器學習被添加到組合中,稱為生成對抗網絡 (GAN),它可以在多輪內檢測並改進 deepfake 中的任何缺陷,從而使 deepfake 檢測器更難解碼它們。
GAN 也被用作創建 deepfake 的流行方法,依靠對大量數據的研究來“學習”如何開發模仿真實事物的新示例,並獲得令人痛苦的準確結果。
一些應用程序和軟件即使對於初學者也可以輕鬆生成深度偽造,例如中國應用程序 Zao、DeepFace Lab、FaceApp(內置 AI 技術的照片編輯應用程序)、Face Swap 以及已被刪除的 DeepNude,一個特別危險的生成假冒女性裸體圖像的應用程序。
在軟件開發開源社區 GitHub 上可以找到大量的 deepfake 軟件。其中一些應用程序用於純粹的娛樂目的——這就是為什麼 deepfake 創建不被禁止的原因——而其他應用程序更有可能被惡意使用。
許多專家認為,在未來,隨著技術的進一步發展,深度偽造將變得更加複雜,並可能對公眾造成更嚴重的威脅,包括選舉干預、政治緊張和其他犯罪活動。
如何使用深度偽造?
雖然自動換臉以創建可信和逼真的合成視頻的能力有一些有趣的良性應用(例如在電影和遊戲中),但這顯然是一種危險的技術,有一些令人不安的應用。實際上,deepfakes 的第一個實際應用之一是創建合成色情內容。
2017 年,一位名為“deepfakes”的 reddit 用戶創建了一個以換臉演員為特色的色情論壇。從那時起,色情(尤其是複仇色情)一再成為新聞,嚴重損害了名人和知名人士的聲譽。根據根據 Deeptrace 的一份報告,色情內容佔 2019 年在線發現的 deepfake 視頻的 96%。
Deepfake視頻也被用於政治。例如,2018年,比利時某政黨發布了一段唐納德·特朗普發表演講呼籲比利時退出巴黎氣候協定的視頻。然而,特朗普從未發表過那種演講——那是一場深度偽造。這不是第一次使用 deepfake 來製作誤導性視頻,精通技術的政治專家正在為未來的假新聞浪潮做準備,這些假新聞具有令人信服的真實 deepfake。
當然,並非所有 deepfake 視頻都對民主構成生存威脅。不乏用於幽默和諷刺的 deepfakes,例如回答諸如Nicolas Cage 出現在“奪寶奇兵”中會是什麼樣子之類的問題的芯片?
deepfakes 只是視頻嗎?
Deepfake 不僅限於視頻。Deepfake 音頻是一個快速發展的領域,擁有大量的應用程序。
現在可以使用深度學習算法製作逼真的音頻深度偽造,只需幾個小時(或在某些情況下,幾分鐘)的語音被克隆的人的音頻,一旦製作了語音模型,就可以製作該人可以說任何事情,例如去年使用 CEO 的假音頻進行欺詐時。
Deepfake 音頻以語音替換的形式具有醫療應用,以及計算機遊戲設計——現在程序員可以允許遊戲中的角色實時說出任何內容,而不是依賴於遊戲之前錄製的有限腳本集發表。
如何檢測深度偽造
隨著 deepfake 變得越來越普遍,整個社會很可能需要適應發現 deepfake 視頻,就像在線用戶現在習慣於檢測其他類型的假新聞一樣。
通常,與網絡安全一樣,必須出現更多的深度偽造技術以檢測並防止其傳播,這反過來又會引發惡性循環並可能造成更多危害。
有一些指標可以證明 deepfakes:
- 當前的 deepfakes 難以真實地為面部動畫製作動畫,結果是視頻中的主體從不眨眼,或者眨眼過於頻繁或不自然。然而,在奧爾巴尼大學的研究人員發表了一項檢測閃爍異常的研究後,發布了不再存在此問題的新 deepfakes。
- 尋找皮膚或頭髮的問題,或者看起來比他們所處的環境更模糊的面孔。焦點可能看起來不自然地柔和。
- 燈光看起來不自然嗎?通常,deepfake 算法會保留用作假視頻模型的剪輯的照明,這與目標視頻中的照明匹配不佳。
- 音頻可能看起來與人不匹配,特別是如果視頻是偽造的,但原始音頻沒有經過仔細處理。
用技術打擊深度造假
雖然隨著技術的進步,深度偽造只會隨著時間的推移變得更加真實,但在對抗它們時,我們並非完全沒有防禦能力。許多公司正在開發識別深度偽造的方法,其中一些是初創公司。
例如, Sensity開發了一個檢測平台,該平台類似於用於深度偽造的防病毒軟件,當用戶觀看帶有 AI 生成的合成媒體的明顯指紋的內容時,該平台會通過電子郵件提醒用戶。Sensity 使用與創建假視頻相同的深度學習過程。
Operation Minerva採用更直接的方法來檢測 deepfake。該公司的算法將潛在的深度偽造與已經“數字指紋識別”的已知視頻進行比較。例如,它可以通過識別 deepfake 視頻只是 Minerva 行動已經編入目錄的現有視頻的修改版本來檢測復仇色情的例子。
去年,Facebook 舉辦了Deepfake 檢測挑戰賽,這是一項開放的協作計劃,旨在鼓勵創造用於檢測 deepfake 和其他類型被操縱媒體的新技術。比賽的獎金高達 500,000 美元。