谷歌TensorFlow被爆安全漏洞 或嚴重損害開發者利益
近日,TensorFlow首個安全風險被中國開發者發現。據悉,利用該風險,攻擊者可以生成TensorFlow的惡意模型文件,對AI用戶進行攻擊,對使用者自身的AI應用進行竊取或篡改、破壞。目前,Google官方已經確認了該漏洞,并表示TensorFlow官網將在網站創建安全公告頁面,及時披露和修復安全漏洞。
據悉,有用戶研究TensorFlow模型文件時發現該漏洞,隨后深入挖掘TensorFlow API文檔及源碼過程中確認漏洞。據介紹,雖然該漏洞還未被“有心之人”利用,但是它的風險危害面非常大,一方面攻擊成本低,普通攻擊者即可實施攻擊;另一方面迷惑性強,大部分AI研究者可能毫無防備。
此外,由于TensorFlow自身的機制,一旦漏洞被攻擊,其在PC端和移動端的最新版本均會受到影響。AI模型被竊取,損失的是開發者的心血;而一旦被篡改,造成AI失控,后果更難以想象。
有專業人士表示,雖然TensorFlow漏洞尚未造成攻擊事件,但該漏洞不僅存在于TensorFlow最新版本中,老版本也存在,而且存在時間較長,早已使用TensorFlow開發的開發者需要引起重視。
近年來,由于AI框架剛開始被大范圍使用,截至首個安全風險被報告,業內對此類安全問題關注度還不夠。但TensorFlow可能是目前使用范圍最廣的AI框架了。除了谷歌以外,Ebay、Airbnb、Twitter、Uber等國際企業都在使用TensorFlow進行AI模型訓練和開發。在中國,小米、中興、京東等公司也在使用TensorFlow的開源框架。
在TensorFlow中,AI研究者可以復用他人建好的模型來進行AI訓練,或直接使用其提供的AI服務,大大提高開發效率。這些公開的模型通常以文件形式提供,也普遍被認為是無害的。但這次的漏洞事件也為廣大開發者敲響警鐘,未來開發者在使用開源框架時需要更加小心,比如謹慎使用外部提供的TensorFlow模型。
此前,有媒體報道,TensorFlow、Caffe、Torch三個深度學習框架中包括很多第三方軟件包,存在安全風險。一項初步研究顯示,三個框架中發現了15個漏洞,類型包括:DoS拒絕服務攻擊、躲避攻擊等。研究者表示:“深度學習框架是復雜的,重度依賴大量開源軟件包。”這些依賴庫,也正是漏洞的根源。
實際上,AI安全的問題不只涉及普通開發者,更牽扯到國家信息安全問題,業界和學界早已開始關注。今年7月,哈佛大學肯尼迪政治學院貝爾弗科學與國際事務中心發布《人工智能與國家安全》報告,分析人工智能(AI)對美國家安全的巨大影響,為美政府AI政策提供建議。
報告指出,如今的AI技術能力在國家安全方面擁有巨大潛力,如機器學習技術可使衛星圖像分析和網絡防御等勞動密集型活動實現高度自動化。同時,AI的每一種技術都能為國家安全機構的戰略、組織、優先事項和資源分配帶來重大變革,由此可見,AI安全也變得至關重要重要,任何一點安全漏洞都有可能導致國家的巨大損害。
我國對人工智能的安全問題同樣持謹慎態度。《新一代人工智能發展規劃的通知》中曾明確指出,人工智能發展的不確定性帶來新挑戰。在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。
此次TensorFlow漏洞事件就像是給AI開發者的一次預警,AI時代的風險攻擊,可能還在造成線上線下一體化影響,開發者在使用開源框架時要“長點心”,務必謹慎挑選。同時,這也為國家敲響警鐘,在“AI強國”時代,AI的快速迭代無疑重要,但安全問題更加嚴峻,任何一點隱患都可能造成無法彌補的后果。