英國網絡安全機構警告AI大語言模型風險
英國國家網絡安全中心(NCSC)概述了為企業集成人工智能驅動的大語言模型(LLM)的風險,并警告開發人員仍未完全掌握系統的弱點和漏洞。
在一篇博文中,該安全機構承認,自2022年OpenAI的ChatGPT發布以來,大語言模型一直吸引著全球的興趣和好奇心,導致所有行業的組織都在研究將該技術用于他們的業務。
然而,作為一個快速發展的領域,NCSC專家發現,在一個不確定的市場中模型是不斷更新的。這可能意味著一家現今提供服務的初創企業可能在兩年后就不復存在了。
因此,使用大語言模型構建業務的組織需要考慮這樣一個事實,即模型可能會在所使用的API背后發生變化,從而導致集成的關鍵部分在某個時候停止存在。
該機構進一步指出,大語言模型在嵌入組織的業務流程時可能會帶來一定的風險,研究人員發現大語言模型“本質上無法區分指令和為幫助完成指令而提供的數據”。
NCSC舉例稱,如果輸入的提示結構正確,銀行使用的AI聊天機器人可能會被騙向攻擊者匯款或進行未經授權的交易。
“使用大語言模型構建業務的組織需要小心,就像他們使用處于測試階段的產品或代碼庫一樣。”NCSC補充道。