AI語音劫持:你能多相信你的耳朵?
你有多確定自己能識別出AI克隆的聲音?如果你認為自己完全有把握,那你可能錯了。
為何其威脅日益加劇
只需三秒鐘的音頻,犯罪分子現在就能克隆某人的聲音,而這些音頻很容易從網上或社交媒體上分享的視頻中獲取。
一位美國母親差點成為虛擬綁架騙局的受害者,騙子用克隆的聲音逼真地模仿了她女兒的求救聲,這一案例顯示了犯罪分子為達目的不擇手段的殘忍程度。
AI語音劫持騙局常針對老年人,冒充其家人或信任的人,但現在,這些騙局也開始對企業構成威脅。
“AI驅動的語音騙局利用企業的安全漏洞,如安全協議薄弱、缺乏認證方法以及員工培訓不足。”Visa北美區高級副總裁兼首席風險官Mike Lemberger表示。
AI語音劫持的財務影響
如果一名能接觸公司財務的員工接到一個自認為是CEO打來的電話,尤其是當這些騙局利用制造緊迫感和需要迅速行動的心理時,該員工可能會上當受騙。
一旦成功,這種攻擊可能導致重大財務損失,并失去客戶、投資者和合作伙伴的信任,這可能會對企業的長期發展造成損害。德勤金融服務中心預測,到2027年,GenAI可能導致美國的欺詐損失達到400億美元。
意大利警方最近凍結了與一起利用AI生成語音進行深度偽造的騙局相關的近100萬歐元。騙子冒充意大利國防部長,向該國頂級大亨索要錢財,以解救被綁架的記者。
AI進展超越語音生物識別技術
盡管方便,但隨著AI的進步,語音生物識別技術作為公司和行業驗證用戶的方法已顯得力不從心,尤其是在金融領域。雖然這些行業依賴這項技術來驗證客戶,尤其是在呼叫中心,但這也使它們更加脆弱。
為了保持領先,企業必須在語音認證的基礎上集成多因素認證(MFA)和AI驅動的欺詐檢測,如果沒有這些額外的保護層,僅憑語音生物識別技術將無法抵御GenAI的崛起。
“由于AI能夠模仿人類,我們將看到比以往更逼真、更危險的釣魚郵件。如果你將其與能夠創建深度偽造音頻和視頻的多模態AI模型相結合,我們可能需要對與他人的每一次虛擬互動都進行兩步驗證。”SecurityPal的CEO Pukar Hamal指出。
如何防范AI語音劫持
升級語音認證:基本的語音系統容易被AI欺騙,因為它們往往只依賴單一的語音特征,使用能夠檢查個人語音多個方面的技術,如音調和節奏,這些系統更難被欺騙。
添加行為生物識別:將語音識別與行為分析相結合,觀察如停頓、語調變化和壓力等語音模式,這些細微的線索AI很難模仿,因此更容易識別出虛假或篡改過的聲音。
教育員工:培訓員工,特別是像高管這樣的關鍵決策者,讓他們能夠識別AI驅動的社會工程策略。確保他們了解騙子可以利用AI復制聲音并操縱他們采取行動。鼓勵他們對任何不尋常的請求,特別是涉及金錢或敏感信息的請求,保持質疑態度。
限制在網上分享的個人信息:如果可能的話,限制在網上分享的個人信息,包括語音錄音。犯罪分子可以利用這些信息克隆聲音并實施有針對性的騙局。