Deepfake視頻正在快速傳播,也許區塊鏈能夠阻止這波“瘟疫”
“假新聞”一詞已經成為當下的熱門話題,而Deepfake(即看似真實,但實為偽造的視頻操縱行為)則會進一步加劇民眾與媒體之間的不信任危機。技術人員希望利用區塊鏈的天然特性重建信任體系,以幫助公眾再度獲得對所見、所聞的信任感。
時至今日,真相正逐漸變成一種相對成立的表達。當每個人都有屬于自己的一套真相時,民主將變得毫無意義。Deepfake的出現,則又給整個社會一記沉重的打擊——越來越多的人可以輕松根據自己的觀點及目標制造事實。短短幾年之內,我們的肉眼與耳朵已經無法分辨視頻或者音頻內容是否屬實。換言之,人類社會正面臨一個新的難題。
將“深度學習”與“偽造”結合起來,我們得到的就是deepfake——大家可以理解成人工智能支持下的超級PS技術。只要能夠提供與現有主題相關的充足數據(或者素材),deepfake算法完全可以被用于操縱視頻內容,人類幾乎無法看出其中的破綻。
Deepfake的社會影響
Deepfake有可能改變輿論、左右選舉結果或者引發種族暴力。在人身攻擊層面采取偽造宣傳方法早已不再新鮮,但隨著deepfake的出現,信息的偽造手段提升到了新的層面。在AI技術快速發展以及社交媒體病毒式傳播的雙重作用下,deepfake可能會成為困擾人類發展的最可怕技術之一。
Deepfake還擁有著改變游戲規則的力量,其原因有二。第一,deepfake代表著目前AI技術所能達到的復雜性高度。第二,也是更重要的一點,其技術獲取途徑正在快速民主化。
Deepfake的意義甚至與社會性無關,而可能表現為一種非常個人的行為。某個匿名Reddit賬戶就因利用deepfake技術大肆制作名人偽造視頻而廣為人知——主要是色情視頻。雖然這位作者的subreddit早在2018年2月就被封禁,但其視頻作品目前仍在網絡上廣泛傳播。
然而,deepfake的流行又催生出新的應用方向。名人不再是唯一的潛在受害者,如今極為廣泛的獲取途徑以及更低的上手門檻,使得任何人都可以制作“報復性”視頻。
軟件生態
自此之后,市場上出現了多家致力于解決deepfake騙局的初創企業,Ambervideo.co當數其中的佼佼者之一。考慮到偽造視頻使得真實記錄越來越難以成為合法的證物,Amber公司希望構建起一套中間層,用于檢測惡意變更。此外,他們還努力開發出檢測與驗證技術方案。
為了進行檢測,Amber擁有一款軟件工具,能夠查看視頻與音頻軌道以及其中的種種元素,從而找到一切可能的修改跡象。Amber公司還在訓練自己的AI模型,用于適應視頻修改過程中所留下的種種特定模式。
這種方法的問題在于其嚴重依賴于反應機制,因為AI只能從以往出現過的模式出發進行學習。這種識別方式幾乎無法檢測出較新的deepfake算法,因此人們普遍認為這種檢測思路將長期落后于最先進的生成技術。
為了解決這個問題,Amber又開發出了驗證技術:加密指紋會在錄制后立即被添加在視頻之上。Amber Authenticate利用區塊鏈基礎設施每隔30秒進行一次哈希存儲,因此對這些哈希產生影響的任何活動都有可能代表著篡改行為。
除了Amber這類軟件解決方案之外,應對deepfake難題還需要硬件解決方案的支持。Signed at Source等企業正在通過為利益相關方提供攝像機集成產品的方式,自動對捕捉到的數據進行簽名。Deepfake視頻幾乎無法提供與自動捕捉數據相同的簽名信息,這意味著我們能夠證明是哪臺攝像機錄制了這段視頻,從而完成溯源以及偽造識別工作。
現實用例
2019年10月3日,美國執法部門技術供應商Axon Enterprise公司宣布,他們正在探索對便攜攝像機的全新數據跟蹤技術,并將利用區塊鏈技術驗證警員隨身設備拍下的視頻的真實性。
Axon并不是唯一致力于解決deepfake相關問題的組織。國防高級研究計劃局(DARPA)的媒體取證計劃正在開發“用于自動評估圖像或視頻完整性的技術。”為了幫助證明視頻是否經過篡改,Factom Protocol公司提出了一種新的解決方案,名為Off-Blocks。Factom Protocol市場營銷總監Greg Forst表示:
“在對新聞、內容以及文檔的準確性進行嚴格審查時,deepfake技術的興起無疑給我們的社會帶來了重大威脅。隨著這種現象的興起以及使用門檻的下降,我們可能將很難信任任何以視頻形式呈現的信息。這是一種危險的趨勢,模糊了數字身份的界線,因此我們需要在最嚴格的安全措施當中考慮到這項挑戰。”
Forst認為,開發人員、區塊鏈布道者以及網絡安全專家還應著力探索不同的途徑,嘗試緩解deepfake造成的危害。數字解決方案的真實性證明能力對于消除偽造內容至關重要。遺憾的是,此類解決方案目前仍無法提供對數字媒體歷史與出版的跟蹤功能。
區塊鏈能否拯救一切?
以Axiom的執法隨機攝像機為例,視頻在源記錄器中即被添加進指紋信息。這些指紋被寫入至不可變區塊鏈之上,并可由設備下載并上傳至云端。這些事件都將被記錄在智能合約當中,并由合約負責整理出審計跟蹤索引。
Axiom公司使用的技術被稱為“受控捕捉系統”,其應用范圍當然不止于警用攝像機。它能夠從內容源中提取簽名,并利用加密方式進行簽名,從而實現視頻記錄的可驗證性。
但是,由于視頻往往會經過編碼,因此即使在理想情況下,我們也很難獲取到原始數據。另外,就算對視頻進行極小的修改,簽名也將不再有效。而且編碼也不是唯一的問題——如果有人使用原始攝像機之外的設備進行視頻轉錄,我們將同樣無法訪問到原始視頻數據。
谷歌的Content ID可能代表著一種可行的解決方案。該服務最初是為了揪出盜版活動所開發,但后來人們發現其可被用于檢測deepfake行為。在投入1億多美元進行系統開發之后,谷歌公司成功創建出一種算法,能夠將用戶上傳的視頻與一組注冊在案的參考視頻進行匹配,從而消除部分匹配或者小幅修改造成的真實性影響。
但只有在deepfake內容與原始副本非常相似時,該算法才能發揮作用。此外,保留大量指紋并調整變更算法,會對數據以及計算要求產生重大影響。在談論區塊鏈技術能否應對由deepfake帶來的威脅時,Factom公司的Frost補充道:
“談到deepfake,區塊鏈技術有望帶來獨特的解決方案。通過在區塊鏈之上創建視頻內容,再配合驗證標簽或圖形,其能夠給deepfake行為設置更高的門檻。……數字身份必須強調內容的來源與創作者。我們可以看到,新聞與電影行業可能正在尋求這種解決方案;不過潛在的操縱者完全可以注冊為合法用戶并在系統當中插入deepfake文件,因此情況仍然相當棘手。即使是在區塊鏈之上,不良數據仍然是不良數據。因此我傾向于使用一整套解決方案組合。”
通常情況下,由于傳播與影響的起效速度很快,因此現有檢測技術往往根本就找不到施展的舞臺。由deepfake視頻帶來的公眾形象損失可能難以修復,種族或民族之間的矛盾也會快速升級,甚至讓個人間的關系在事件得到驗證前就徹底崩潰。換言之,最大的問題在于如今的信息傳播速度已經失控。
齊心協力打擊deepfake
Purple Quarter公司首席運營官、搜索業務技術主管Roopa Kumar認為必須強調技術本身的危害性:
“以核能為例,其既可被用于為數百萬居民供電,也有可能落入惡人手中在瞬間抹殺上百萬條人命。技術本身沒有任何道德觀念,但人類有。Deepfake可以被用于制作有趣的應用,以供每個人在手機上使用。但是,如果被惡意人士所掌握,同樣的應用程序也有可能顛覆我們所熟悉的日常生活乃至社會結構。”
如今,很多人對政府及銀行等大規模中央機構已經不再信任。而區塊鏈的核心原則,也正是強調這種不信任心態。然而,區塊鏈(乃至整個技術生態)并不足以承擔起與deepfake斗爭的全部責任。
因此,各方必須齊心協力,共同打擊deepfake。從事deepfake技術研究的開發人員必須在線發布代碼,以便第三方能夠交叉檢查。此外,監管機構還應探索如何更好地監督這一領域。最重要的是,要讓民眾充分了解這種技術,并確保在接納一切信息前都首先進行理性判斷。
【編輯推薦】
- 解碼技術社區:Github區塊鏈代碼庫超5萬 這個最受關注
- 銀行解鎖區塊鏈應用 欲破行業寒冬
- 全國性區塊鏈服務網絡發布 服務新型智慧城市建設
- 區塊鏈與大數據不得不說的互補關系
- 區塊鏈可促進無人駕駛的發展?寶馬、通用、福特都在嘗試了