安全研究人員在蘋果虐待兒童圖片掃描系統(tǒng)中發(fā)現碰撞攻擊漏洞
研究人員在iOS的內置散列函數算法中發(fā)現了碰撞攻擊漏洞,引起了人們對蘋果公司CSAM掃描系統(tǒng)的新關注,但蘋果公司表示,這一發(fā)現并沒有威脅到該系統(tǒng)的完整性。
該漏洞影響了名為NeuralHash的散列算法,該算法允許蘋果公司在不擁有任何圖片或收集任何非匹配圖片信息的情況下,檢查圖片與已知的虐待兒童圖像是否完全匹配。周二,一個名為Asuhariet Ygvar的GitHub用戶發(fā)布了一個重建的Python版本的NeuralHash代碼,他聲稱已經從以前的iOS版本中逆向開發(fā)了這個版本。
該GitHub帖子還包括如何從當前macOS或iOS構建中提取NeuralMatch文件的說明。由此產生的算法是NeuralHash的通用版本,而不是擬議的CSAM系統(tǒng)部署后將使用的具體算法,但它仍然給出了該算法的優(yōu)勢和劣勢的總體概念。
早期測試表明,它可以容忍圖像的大小和壓縮,但不能容忍裁剪或旋轉。Asuhariet Ygvar在Reddit上分享了新代碼,希望這能幫助外界更好地理解NeuralHash算法,并在它在所有iOS設備上啟用之前知道它的潛在問題。此后不久,一個叫Cory Cornelius的用戶在算法中發(fā)現了碰撞攻擊漏洞,可以產生兩張相同哈希值的圖片。這是一個重要的發(fā)現,因為蘋果公司說其CSAM系統(tǒng)的額外保護措施將防止它被不法利用。
8月5日,蘋果公司推出了一個新系統(tǒng),用于阻止iOS設備上的虐待兒童圖像。在新系統(tǒng)下,iOS將根據國家失蹤和被剝削兒童中心(NCMEC)生成和維護的虐待兒童圖像的哈希值檢查本地存儲的文件。該系統(tǒng)包含許多隱私保護措施,將掃描范圍限制在iCloud照片上,并設置了一個閾值,即在生成警報前發(fā)現多達30個匹配項。然而,隱私倡導者仍然擔心掃描本地存儲文件的影響,新的發(fā)現加劇了人們對該系統(tǒng)可能被利用的擔憂。
蘋果公司表示,鑒于感知散列算法的已知局限性,其CSAM掃描系統(tǒng)在構建時已考慮到碰撞攻擊問題。該公司強調了一個獨立于NeuralHash的二級服務器端散列算法,其具體細節(jié)沒有公開。如果一張由NeuralHash碰撞攻擊的圖片被系統(tǒng)標記出來,它將被送二級服務器檢測,并在人工審核之前被確定為誤報。