虛擬綁架:人工智能正在助長勒索詐騙
如果你的配偶或子女打來電話,哭著告訴你他們被綁架了,你有多大可能會以冷靜、審慎的懷疑態度來面對呢?
在人工智能時代的背景下,網絡攻擊者能將從網絡入侵、社交媒體信息搜集等渠道獲得的數據與AI相結合,用逼真的手法制造“某人被綁架”的網絡騙局。
虛擬綁架如何運作
趨勢科技首席威脅防御架構師克雷格·吉布森 (Craig Gibson) 表示,網絡攻擊者在開始虛擬綁架時首先要確定“被綁架者”的身份信息,以便進一步確定與之關聯的父母及其他親屬信息。
在信息搜集方面,攻擊者主要通過社交媒體泄露或暗網的數據獲取目標信息,而社交媒體情報還有助于確定何時發動攻擊,并填充相關細節,使攻擊更加逼真。
今年4月,美國CNN就曾報道過一起攻擊者利用人工智能合成一位15歲女孩的聲音,并向其母親詹妮弗·德斯蒂法諾 (Jennifer DeStefano) 稱“女兒被綁架,需要100萬美元贖金”的新聞。這位母親稱,她在“綁匪”打來的未知電話中清楚聽到了來自女兒的求救聲,其聲音、語調和她女兒如出一轍,直到后來女兒本人向她打來電話,這一騙局才被識破。事后,德斯蒂法諾仍對那個虛假但逼真的女兒聲音感到恐懼。
人工智能助長綁匪技能
在上述這起案例中,針對德斯蒂法諾的攻擊者設法識別出她富有的家庭背景,以及她女兒什么情況下不在她身邊,比如案發時她的女兒正在北方參加滑雪比賽訓練。
雖然這種手法存在容易被識破的可能,但虛擬綁架仍可以在更多領域進行改進。例如,攻擊者可能會利用經典的 SIM 卡交換,如果攻擊者封鎖了德斯蒂法諾女兒的手機,他們可以在她意識到這是場騙局之前就拿到贖金。
趨勢科技的研究人員在今年 6 月份的一篇博客文章中寫道:“通過使用 ChatGPT,攻擊者不僅可以將潛在受害者的大型數據集與音視頻信息融合在一起,還可以將其他信號數據(例如通過API連接的地理位置)融合起來。”
理論上,ChatGPT 還可以與文本轉語音和自動化軟件配合使用,以從人工智能生成的受害者中生成近乎實時的響應。Jolly Roger Telephone 公司曾做過一個實驗,該公司使用了一個類似于魯比-戈德堡(Rube Goldberg)的人工智能和非人工智能軟件集合,只使用自動機器人就能方便地與電話推銷員通話。
如何防止虛擬綁架
網絡犯罪分子選擇虛擬綁架而不是傳統的網絡勒索,其原因就是為了規避自身被發現的風險。目前除了屏蔽未知電話號碼或嘗試用第二語言說話來迷惑人工智能語音生成器之外,虛擬綁架幾乎沒有真正的技術解決方案。
吉布森打比方地說道:“你可以把傳統的安全架構想象成一個圓圈,圓圈內的一切都受傳統安全產品的控制。圈外的一切都是沒有安全產品的人類社會。虛擬綁架攻擊的是人類社會,因此被抓的幾率要小得多。"