IEEE:新興人工智能網絡安全的挑戰和解決方案
合成現實
(1) 挑戰
人工智能可以生成超現實的圖像和視頻,顯示人們在做或說他們從未做過或說過的事情。這樣的“深偽技術”會使虛假信息的傳播更加難以察覺。
(2) 解決方案
IEEE高級會員Carmelo José AlbanezBastos Filho表示:“人工智能算法經過訓練,可以識別深偽技術特有的模式和特征。這些算法分析視覺和音頻特征,尋找不規則或與正常模式的偏差。”
數據泄露
(1) 挑戰
你輸入聊天機器人的信息可以用來訓練它。這可能會導致模型泄露敏感或私人信息。
(2) 解決方案
對于聊天機器人數據隱私問題,IEEE會員汪齊齊教授指出:“將敏感數據存儲在私有環境中可以有效避免數據被添加到公共的全球數據庫中。”
虛假數據
(1) 挑戰
有偏見、不準確或虛假的數據可能會被注入人工智能模型,從而產生錯誤的結果和有缺陷的系統。人工智能威脅檢測技術已經在現實世界中被用來重新培訓“垃圾郵件”過濾器。
(2) 解決方案
IEEE終身高級會員Raul Colcher表示:“這種形式的攻擊,可以采用更加嚴格的數據過濾和審查機制,確保模型的學習和訓練不受不當干擾。先進的過濾、監控和人工監督系統已經對其進行了反擊。”
高級網絡釣魚
(1) 挑戰
網絡釣魚詐騙涉及使用欺詐電子郵件誘騙人們或公司匯款或共享敏感數據。人工智能使創建更真實但仍然具有欺騙性的電子郵件和語音郵件變得更容易。
(2) 解決方案
IEEE會員Yale Fox表示:“組織可考慮投入先進的威脅檢測技術,及時發現和攔截惡意嘗試。這些技術利用機器學習和人工智能來識別和標記潛在的網絡釣魚企圖。”
躲避系統防護
(1) 挑戰
人工智能開發人員通常會創建防護欄,以防止他們的創作產生攻擊性或非法內容。
(2) 解決方案
IEEE會員Rebecca Herold表示:“總有人會努力破解系統。阻止它們的最好方法是進行更嚴格地開發,然后全面測試大型語言模型算法。”
AI VS AI
(1) 挑戰
人工智能正被用來利用或對抗其他人工智能系統——通過對抗性人工智能等技術來欺騙通常具有關鍵安全要求的系統。
(2) 解決方案
IEEE高級會員Amol Gulhane表示:“通過在訓練過程中將模型暴露在各種攻擊場景中,它將變得更加完善,能夠識別和拒絕惡意輸入。”