AI照妖鏡一眼判真假:網頁圖像視頻都能鑒,邊播邊識別,清華獨角獸成果
每個人都能擁有有檢測AI造假的“照妖鏡”了!
清華系獨角獸初創公司,發布了面向個人的產品級檢測工具,可以讓AI偽造的圖像、音頻和視頻現出原形。
而且無需上傳素材,在網頁和視頻會議中就能主動探測內容和人臉真偽,并實時給出提示。
該工具由清華大學朱軍教授與學生田天博士等一同創立的瑞萊智慧(RealAI)打造,名字叫做“尊嘟假嘟”,英文名RealBelieve。
隨著視頻生成模型質量的不斷提高,辨別AI造假也越來越困難,為此,團隊基于深度學習技術,構建了一整套多模態、多角度的AIGC檢測技術體系。
“尊嘟假嘟”正是在這套技術之上建立,目前已開啟內測招募,通過申請后即可體驗。
吃瓜群眾的“AI照妖鏡”
從背景和人臉的替換,到利用AI模型讓人做出指定的表情或動作,AI造假可謂是防不勝防。
一方面,不法分子利用AI炮制虛假內容,對受害者個人聲譽和社會輿論都帶來了極大的不良影響;
另一方面,AI造假也被用于詐騙活動,不僅損害被冒充者的信譽,也給受騙者帶來巨大的財產損失。
今年年初,就有不法分子利用深度偽造制作了一場假的視頻會議,騙走了一家公司1.8億元的巨款。
除了正確引導和加大打擊力度,讓用戶能夠更好地判別信息真偽,也是一種重要的防護手段。
過去的AI造假檢測工具主要面向專業人士,而且往往需要將內容提取后上傳到檢測平臺中,才能進行判別。
但如果只是普通的網絡視頻,讓吃瓜群眾用這樣的流程去鑒別真偽,難免顯得有些繁瑣。
所以在支持上傳檢測的同時,“尊嘟假嘟”還能主動進入視頻流,用戶一邊吃瓜,系統就能一邊判斷這瓜到底“保不保熟”。
比如一進入Sora的宣傳頁面,系統就會針對網頁里的Demo視頻做出提示標注,提醒瀏覽者該視頻“AI含量”極高。
另外針對AI詐騙日益猖獗的情況,尊嘟假嘟也支持視頻通話當中進行AI合成實時監測防護。
在視頻通話時,同樣無需截取視頻上傳,尊嘟假嘟會及時主動給用戶發出預警內容,提示視頻對方的人臉是否存在AI合成的風險。
實時的風險提示可以幫助用戶及時調整聊天方式,快速確認對方的身份,減少不必要的損失,讓用戶隨時隨地在“AI安全保障”下進行視頻通話。
AI造假與防偽的“貓鼠游戲”
針對“尊嘟假嘟”背后的技術原理,瑞萊智慧聯合創始人、算法科學家蕭子豪透露,該產品背后的檢測模型基于貝葉斯深度學習技術開發。
團隊構建了一整套多模態AIGC檢測技術體系,能夠挖掘并建模多模態、多層次、多角度的AI合成線索,度量真假差異,并進行不確定性推理決策。
實際上,造假手段與防御方式之間,一直在進行著一場“貓鼠游戲”。
起初的AIGC內容還是“一眼假”,然后再“進化”一些之后,多加注意也依然能夠通過常識進行肉眼判別,比如視頻中人物的眨眼頻率不合常理、部分區域的銜接不夠自然等等。
但隨著AIGC能力的升級,這些“常識”也逐漸被模型所掌握,靠肉眼鑒別也越來越困難了,于是檢測手段也在進化,人們開始研究用機器學習的手段進行分析。
比如通過對目標內容的信號頻譜進行分析,或者對圖像中的噪聲進行檢測,挖掘內容當中的“AI痕跡”。
但這場你追我趕的爭斗從未停止,一方面的原因是,用來檢測AI的模型本身也是個AI,偽造者可以通過對抗訓練的方式規避檢測、見招拆招。
相對于造假而言,鑒別的手段似乎往往是滯后的。所以,瑞萊智慧在研究檢測算法的同時,也會針對自己的方法進行防御性攻擊,爭取讓檢測走在造假的前面。
實際上,瑞萊智慧團隊早在2018年成立之初,主要的研究目標就是AI合成檢測技術,先后推出面向專業人士的AI內容檢測平臺DeepReal、人臉AI安全防火墻RealGuard等相關產品并持續迭代升級。
縱觀整個行業,AI安全問題都備受關注,深度學習教父Hinton,還有ChatGPT的發明者、OpenAI前首席科學家Ilya,都一直在呼吁人們關注AI安全。
就在這兩天,Ilya剛剛宣布創立了一家公司,研究的就是安全超級智能。
不過相比之下,Ilya的公司,似乎更加關注的是AI的未來,而在現在,對AI造假的判別和檢測依然是一項緊迫的任務。