黑客用AI換臉技術應聘 人工智能安全問題不容忽視
美國在疫情后,很多企業都采用“在家工作”(Work From Home,WFH)模式。美國聯邦調查局(FBI)的犯罪投訴中心表示,他們近期接到許多企業雇主的投訴,在招聘過程中,有求職者盜用他人的身份,并且利用Deepfake技術參加遠程面試。
這些職位涉及資訊技術、計算機程序、數據庫與軟件相關領域,有些求職者企圖利用他人的背景與專長來獲取工作,通過Deepfake技術來偽造視頻。
他們發現,當與求職者進行線上面試時,求職者的動作或嘴唇的開合,與其說話的聲音并不一致,例如當出現打噴嚏或咳嗽的聲音時,畫面并未同步。
當他們對這些求職者進行背調時發現,有些求職者其實在利用他人的身份來謀職。如果僅僅謀職還是小問題,但如果是黑客,一旦他們成功簽約,就能夠成功進入企業內部,接觸到機密數據。
你是不是也很好奇,這軟件這么好用嗎?
答案是,的確很高級。
Deepfake利用生成對抗網絡(GAN)強大的圖像生成能力,可以將任意的現有圖像和視頻組合并疊加到源圖像和視頻上,它可以記錄一個人面部的細節。經過多年的發展,Deepfake技術已經可以進行實時換臉,并且毫無違和感。
不過,在視頻時, Deepfakes 難以為面部動態表情制作高置信度動畫,視頻中的要么就從不眨眼,或者眨眼過于頻繁或不自然。而且音頻與假人圖像也會配合的不夠自然。
所以這種視頻持續10秒就會讓人懷疑,面試全程時間會比較長,更加容易露出破綻。
科學技術的進步和變革是一把雙刃劍。
人工智能技術雖然為我們提供了海量的便利,但同時也可能帶來的安全、倫理、隱私等一系列問題。
人工智能發展的本質是通過算法、算力和數據去解決完全信息和結構化環境下的確定性問題。在這個數據支撐的時代,人工智能面臨諸多的安全風險,
首先,有可能面對毒化攻擊。
也就是黑客注入惡意數據來降低AI系統的可靠性和精確度,從而導致人工智能決策錯誤。在訓練數據里加入偽裝數據、惡意樣本等,破壞數據的完整性,進而導致訓練的算法模型決策出現偏差。
這種操作如果用于自動駕駛領域,很可能導致車輛違反交通規則甚至造成交通事故。
其次,會存在數據泄露的問題。
逆向攻擊可導致算法模型內部的數據泄露,現在各種智能設備例如智能手環、智能音箱生物特征識別系統、智能醫療系統被廣泛的應用,個人信息采集被全方位采集。包括人臉、指紋、聲紋、虹膜、心跳、基因等,這些信息具有唯一性和不變性,一旦泄露或者濫用將產生嚴重后果。
比如曾被曝光的,國內大量門店在不經用戶同意的情況下,采集的大量的人臉照片被泄露,這些人臉照片或多或少已經在黑產上流出,就會存在詐騙或者金融安全的風險。
再次,會面臨網絡風險。
人工智能不可避免地會引入網絡連接,人工智能技術本身也能夠提升網絡攻擊的智能化水平,進而進行數據智能竊取和數據勒索攻擊或者自動生成大量虛假威脅情報,對分析系統實施攻擊。
那么主要的攻擊手段則包括:繞過攻擊、推斷攻擊、后門攻擊、模型抽取攻擊、歸屬推斷攻擊木馬攻擊、模型逆轉攻擊、反水印攻擊、重編程攻擊。
我們要清楚的認識到,人工智能的時代數據安全也面臨了很多新的挑戰。保護數據安全保護算法安全,對于企業來說成為重中之重。