譯者 | 晶顏
審校 | 重樓
在過去的幾年里,由于深度偽造(Deepfakes)技術的出現,數字領域的現實與虛擬之間的界限已經緩慢而穩步地變得越來越模糊。
復雜的、人工智能驅動的合成媒體(Synthetic Media)已經從好萊塢的一個新奇概念發展成為一種實用工具,被政治動機驅動的威脅行為者和網絡犯罪分子用于合成虛假信息和實施欺詐。
如今,隨著人工智能的應用能力爆炸式增長,深度偽造和合成媒體的威脅也隨之增長。我們對網絡信息真實性的信任度從未如此之低,也從未如此脆弱。
在這篇文章中,我們將深入研究今天所看到的深度偽造世界,探索其本質、風險、對現實生活的影響以及應對這些高級威脅所需的措施。
什么是深度偽造?
深度偽造是人工創造的媒體,通常是視頻和音頻,旨在展示從未發生過的事件或人們參與的行為。它們利用復雜的人工智能(AI)和機器學習(ML)技術,特別是生成式對抗網絡(GAN)。
GAN涉及兩個AI模型:一個生成內容(生成器),另一個評估其真實性(鑒別器)。生成器生成越來越逼真的假視頻或假音頻,而鑒別器不斷評估內容的逼真度,導致生成的假視頻的質量和可信度迅速提高。
最初,深度偽造在娛樂和社交媒體上找到了自己的位置,提供了創作內容的新穎方式,比如在視頻中將名人的臉疊加到不同的身體上,或者實現逼真的聲音模仿。然而,這項技術創造高度令人信服的贗品的潛力,很快就從單純的新奇事物轉變為虛假信息和被操縱的有力工具。
深度偽造的網絡安全風險
從政治虛假信息到金融欺詐,深度偽造的后果是深遠且多方面的。下面,我們將探討一些關鍵的例子,以了解這些風險的廣度和深度。
政治性虛假信息
深度偽造通過傳播虛假言論和操縱公眾輿論,對政治穩定構成重大風險,特別是當它們被用來制造對政治人物的誤導性陳述時。第一個引人注目的例子發生在2018年,當時BuzzFeed發布了一張奧巴馬總統的深度偽造照片。
從那以后,許多其他的案件被曝光;烏克蘭總統弗拉基米爾·澤倫斯基(Volodymyr Zelensky)的一段深度偽造視頻錯誤地將他描繪成承認失敗并敦促烏克蘭人向俄羅斯投降,旨在誤導和打擊公眾士氣。最終,由于發現澤倫斯基的頭部和身體大小不匹配等不符之處,該視頻被認定為假視頻。
商業間諜活動
在業界,深度偽造已經成為實施欺詐的有效工具,有可能造成巨額的經濟損失。這種騙局在冒充高級管理人員時尤為有效。一家英國能源公司損失了22萬歐元,因為人工智能軟件被用來模仿該公司德國母公司首席執行官的聲音,并指示英國首席執行官緊急轉移資金。
個人身份盜竊和騷擾
當虛假媒體被用來進行身份盜竊和騷擾時,個人權利和隱私極易受到傷害。惡意媒體的創造可能遠比我們以為的更嚴重。在德國,政府非常擔心深度偽造的威脅,以至于發布了一場廣告宣傳活動來強調這些危險,警告家長注意與這些技術相關的風險。
操縱金融市場
除了對個人或組織造成傷害之外,深度偽造還可以通過虛假陳述影響投資者決策和市場情緒,擾亂整個金融市場。一個示例是攻擊者曾在一段深度偽造視頻中描述了五角大樓附近發生的假想爆炸,該視頻短暫地影響了美國股市。
法律和司法濫用
在法律領域,深度偽造可以用來偽造證據,可能導致司法不公,破壞司法程序的完整性。雖然在法律環境中尚未出現具體的廣泛實例,但以這種方式使用深度偽造的可能性,引起了人們對法庭上視聽證據的可靠性和加強核查措施以確保司法公正的必要性的關切。
深度造假的檢測與打擊
與任何工具一樣,人工智能可以用于好的方面,也可以用于壞的方面。目前,業界正在努力開發人工智能驅動的方法來檢測和打擊深度偽造威脅。其中許多工作都集中在分析面部表情和語音生物識別技術上,以發現人眼和耳朵無法察覺的細微異常。這涉及到使用機器學習模型,并在包含真實和操縱媒體的廣泛數據集上訓練它們,以便有效區分兩者。
通常與加密貨幣相關的區塊鏈技術也正在成為這場斗爭中的有用工具。區塊鏈提供了一種方法來驗證媒體文件的來源和真實性,并確認它們是否被更改。所謂的“智能合約”既可以用來驗證數字內容的真實性,也可以用來追蹤它是如何與其他對象交互的,包括任何修改。與可以標記媒體內容真實性的人工智能相結合,智能合約可以觸發審查過程或提醒相關當局或利益相關者。
此外,業界還在開發其他工具,以確保人工智能平臺創建的內容可以被檢測為人為的。例如,谷歌的SynthID可以在人工智能生成的音頻內容中嵌入聽不見的“水印”。像SynthID這樣的方法旨在確保人工智能工具生成的內容即使在被人類或其他編輯軟件操縱后仍然被可靠地檢測為人工生成。
與其他網絡安全領域一樣,教育和宣傳活動在打擊深度偽造威脅方面也發揮著重要作用。教育個人和組織了解深度偽造,如何發現它們,以及它們的潛在影響將是至關重要的。技術公司、網絡安全專家、政府機構和教育機構之間的合作在未來幾年將被證明是至關重要的,因為我們將努力制定更全面的戰略來打擊用于不良目的的人工生成內容。
深度偽造時代組織和個人的最佳實踐
隨著深度偽造造成的威脅形勢不斷演變,采取策略來減輕與人工智能技術濫用相關的風險變得越來越重要。下述最佳實踐可以幫助組織和個人增強對深度偽造相關安全威脅的認知。
提高認識和培訓
教育是防范深度偽造的基石。定期對員工進行識別深度偽造的培訓,可以顯著降低被欺騙的風險。該培訓應側重于合成媒體的微妙之處,并與深度偽造技術的最新發展保持同步。
在組織內部培養一種核查文化,任何不尋常或可疑的交流(特別是涉及敏感信息的交流)都要通過多種渠道進行交叉核查。
實現強大的驗證過程
對于關鍵通信,特別是在金融和法律環境中,實施多因素身份驗證和嚴格的驗證流程是必不可少的。例如,對于高風險交易或敏感信息共享進行語音和視頻通話確認可能是有效的。這種做法可以防止類似于前面提到的CEO偽造聲音進行欺詐活動的事件。
利用先進的網絡安全解決方案
我們可以通過將先進的網絡安全解決方案與深度偽造檢測能力相結合,利用人工智能來擊敗人工智能。使用人工智能和機器學習來分析和標記潛在深度偽造的工具增加了重要的安全層。
定期軟件和安全更新
維護最新的軟件,包括安全解決方案,對網絡安全至關重要。更新通常包含針對新發現的漏洞的補丁,這些漏洞可能被深度偽造和其他網絡威脅利用。積極主動地進行軟件更新可以顯著降低發生安全漏洞的可能性。
與外部專家合作
對于那些內部網絡安全能力有限的組織來說,與外部安全專家合作可以提供增強的保護。這些專業人員可以提供有關最新威脅的信息,并協助制定專門針對深度偽造和其他新興網絡風險的策略。
個人警惕
作為個人,我們所有人在與媒體接觸時必須保持警惕,這包括對聳人聽聞或有爭議的內容保持一定的懷疑態度,在分享或根據這些信息采取行動之前核實來源。
利用有助于檢測深度偽造的工具和瀏覽器擴展也有助于加強個人網絡安全實踐。
同樣值得注意的是,與任何其他創作一樣,深度偽造的質量也會因創作者的能力和對細節的把控而良莠不齊。這意味著在某些情況下,仍然有可能發現不那么先進或復雜的深度偽造。在鑒別視頻過程中需要特別注意的事情包括:
- 不自然的眼球運動:人工智能生成的圖像或視頻可能無法準確地復制復雜而自然的眼球運動。這種差異可以表現為不尋常的眨眼模式或缺乏自然的眼球運動。
- 音頻-視頻同步問題:一些深度造假可能無法同步語音和嘴唇動作,導致明顯的差異。
- 顏色和陰影不一致:人工智能經常在持續渲染顏色和陰影方面表現不佳,特別是在不同的照明條件下。注意膚色或背景顏色的不一致,陰影可能會出現錯位等情況。
- 不尋常的身體動作:人工智能也可能難以保持身體形狀的一致性,導致明顯的扭曲或不規則。這可能包括突然的、不自然的動作或表情,與一個人通常的動作或反應不一致。
簡而言之,打擊深度偽造需要多方面的方法,結合教育、強大的驗證過程、先進的技術、軟件維護、專家協作和個人警惕。這些做法是應對網絡安全領域日益復雜的深度偽造的綜合戰略的組成部分。此外,它們還將有助于抵御其他類型的網絡安全威脅,鼓勵個人和組織在當今以數字為中心的世界中必備所需要的安全思維。
深度偽造和網絡安全的未來
“潘多拉的魔盒”已經打開,我們不能奢望深度偽造消失。相反地,隨著深度偽造變得越來越普遍、越來越微妙,我們將需要制定有效的應對措施,并在某些關鍵領域取得突破。
除了繼續開發先進的身份驗證工具外,包括OpenAI和網絡安全公司等人工智能開發商在內的行業領導者還需要引導人工智能技術的開發和應用,以建立道德準則,并確保針對深度偽造威脅的強大防御機制。
此外,還需要新的立法和法規來禁止和懲罰為有害目的制作和傳播深度偽造的媒體。由于數字媒體的跨國性質,還需要在法律框架方面進行國際合作,以有效打擊深度偽造。
正如我們上面提到的,教育公眾提高深度偽造認知和媒體素養是應對此類威脅的一個組成部分。在這場涉及廣泛網絡面(這些面都可能傳播錯誤信息)的斗爭中,僅靠技術和監管無法贏得勝利。深度偽造不可避免地擴散需要一種多維的防御方法來應對,結合技術創新、道德行業實踐、明智的立法措施和公眾教育。
原文標題:Beyond Illusion | Addressing the Cybersecurity Impact of Deepfakes and Synthetic Media,作者:Migo Kedem