美軍打響人工智能武器化第一槍
近日,美國國防部承認今年在伊拉克和敘利亞的85次空襲行動中使用了機器學習算法來識別目標,這是美國軍方首次承認人工智能技術被用于實戰。
人工智能首次用于實戰
據彭博社報道,負責中東、中亞和部分南亞地區的美國中央司令部在今年2月2日的7次空襲行動中使用了軍用人工智能項目Maven中的目標識別算法,覆蓋了伊拉克和敘利亞的多個地點。
美國中央司令部首席技術官舒勒·摩爾(Schuyler Moore)表示,軍方是在去年哈馬斯出其不意襲擊以色列后開始在實戰行動中部署“Maven項目”的計算機視覺系統。
“10月7日一切都發生了變化,”摩爾告訴彭博社,“我們立即開始高速運轉,比以往的行動節奏要快得多。”
這些對象識別算法用于識別潛在目標,最后由人工操作武器系統。據報道,美國使用該軟件識別敵人的火箭、導彈、無人機和民兵設施。
事實上,早在2017年五角大樓就開始著手開發代號為“Maven“的軍用人工智能項目,并尋找能夠為無人機拍攝的畫面開發對象識別軟件的供應商。2017年,美國海軍陸戰隊上校德魯·庫克爾(Drew Cukor)曾表示,五角大樓希望將Maven軟件與政府平臺集成,以便收集情報。
雖然谷歌因員工抗議將人工智能用于戰爭而退出該項目,但其他硅谷科技公司卻樂于提供幫助推動Maven項目開發。
用大語言模型改變戰場態勢
美軍并不滿足用目標識別機器學習算法提高空襲的精度和效率,基于大語言模型的“戰場大腦”才是真正能夠改變戰場態勢的關鍵技術。大語言模型分析和生成文本的能力可以提高五角大樓收集情報、規劃行動的能力,從而指導戰場決策。
2023年,隨著大語言模型的橫空出世,美國軍方加快了人工智能技術的軍事化速度。
2023年8月,美國國防部成立了利馬特遣部隊,負責研究生成人工智能可以為軍隊做什么,其既定目標是保護國家安全。該工作組由國防部副部長凱瑟琳·希克斯組建,由首席人工智能辦公室領導。它將分析大型語言模型等不同的工具,并找出如何將它們集成到軍隊的軟件系統中。
2023年10月,美國國家安全局設立人工智能安全中心來監督人工智能開發并將其整合到國防和國家安全系統中。據美國國防部稱,人工智能安全中心將集中管理關鍵系統人工智能應用最佳實踐以及評估和風險框架。
美國國防部首席人工智能官克雷格·馬特爾(Craig Martell)上周在“2024年國防部優勢:國防數據和人工智能研討會”上描繪了大語言模型指導作戰決策的場景:“想象一個世界,戰斗指揮官可以看到他們做出戰略決策所需的一切,(戰場)態勢感知的周轉時間從一兩天縮短到10分鐘。”?
雖然馬特爾的構想足夠誘人,但美國軍方的“大模型作戰”計劃似乎并不順利。“在過去的60到90天里,我們的目標識別機會更多了,”摩爾透露:美國中央司令部還嘗試運行一個人工智能推薦引擎,看看它是否可以建議在軍事行動中使用最佳武器組合并制定攻擊計劃。然而,這項技術“經常達不到要求”。
軍用大語言模型的挑戰
軍用大語言模型的最大障礙是:目前的大語言模型的準確性還遠遠達不到可獨立可靠運行的“軍用級別”。“沒有任何算法可以完全自主運行,得出結論然后推進到下一步,”摩爾指出:“每個涉及人工智能的步驟最終都有人工檢查。”
數據安全也是美國軍方重點關注的人工智能安全問題。雖然ChatGPT是目前最強大的大語言模型應用(且OpenAI一個月已經修改使用政策,默許軍方使用),但美國國防部顯然無法接受ChatGPT這種通用大語言模型普遍存在的數據安全問題。據報道,美軍已經禁止在內部使用ChatGPT之類的工具。例如,美國太空軍告訴工作人員不要使用ChatGPT,因為擔心軍事機密可能被泄露或提取。
由于軍事數據通常高度敏感,美軍官員們擔心,如果數據進入大語言模型,即時注入攻擊或API濫用可能會導致數據泄露。
為了尋找ChatGPT的理想替代品,美國國防部正在加大努力整合和測試人工智能的作戰能力。例如,美國國防部正在與初創公司Scale AI合作,測試軍用生成式人工智能模型。
軍用大語言模型進入實戰的最大安全問題是容易產生不準確或虛假的信息,即所謂的機器幻覺。五角大樓認為,通過引入Scale AI,可以測試不同模型的性能,以識別潛在風險,然后再考慮使用它們來支持作戰或情報。
ScaleAI負責為五角大樓開發一個工具和數據集框架,用于評估軍用大語言模型。該框架的功能包括“測量大模型性能,為作戰人員提供實時反饋,以及創建專門的公共部門評估集來測試軍事應用領域的人工智能模型。
“美國國防部有責任在追求生成式人工智能模型的同時,采取適當的保護措施,并減輕因訓練數據管理不善等問題可能帶來的國家安全風險,”美國國防部首席人工智能官馬特爾表示,“我們還必須評估對手將在多大程度上使用人工智能技術,以及破壞美軍人工智能技術的能力。”