微軟向美國政府提供GPT大模型,如何保證安全性?
生成式人工智能的熱潮已經席卷到了美國聯邦政府,微軟宣布推出Azure OpenAI服務,允許Azure政府客戶訪問GPT-3、 GPT-4以及Embeddings。
微軟在一份聲明中說,政府機構將通過此項服務獲得ChatGPT用例,而且不會犧牲“他們為了滿足政府對敏感數據的要求所需要的、嚴格的安全和合規標準。”
微軟聲稱,它已經開發了一種架構,讓政府客戶“能夠從Azure Government安全地訪問商業環境中的大語言模型”。微軟表示,通過Python SDK REST APIs或者 Azure AI Studio進行訪問,所有這一切都不會將政府數據暴露在公共互聯網上。
微軟承諾稱:“只有提交給Azure OpenAI服務的查詢才會轉入商業環境中的Azure OpenAI模型。”“Azure Government直接與微軟Azure商業網絡對等,而不直接與公共互聯網或者微軟企業網對等。”
微軟報告稱,它使用IEEE 802.1AE——或MACsec——網絡安全標準對所有Azure流量進行加密,而且所有的流量都駐留在全球骨干網中,該骨干網由超過25萬公里的光纖和海底電纜系統構成。
Azure OpenAI Service for government已經全面推出,對于經過批準的企業或者政府客戶,已經可以使用了。
政府用的ChatGPT到底能有多保密?
微軟一直希望贏得美國政府的信任——但它也出過紕漏。
有消息稱有超過1兆字節的政府敏感軍事文件被暴露在公共互聯網上——國防部和微軟就這個問題互相指責。
微軟子公司、ChatGPT的創建者OpenAI在安全方面也不盡如人意,3月份,一個糟糕的開源庫讓一些用戶的聊天記錄被曝光。從那個時候起,一些知名的公司——包括蘋果、亞馬遜和幾家銀行——因為擔心ChatGPT可能暴露內部機密信息,已經禁止內部使用它。
英國的間諜機構GCHQ甚至對這種風險發出了警告。那么,即使這些秘密顯然不會被傳輸到一個不受信任的網絡,但美國政府把自己的秘密交給微軟是否正確?
微軟表示,它不會專門使用政府數據來訓練OpenAI模型,所以絕密數據很可能不會在給其他人的回復中被泄露。但是這并不意味著它可以被默認安全。微軟在公告中委婉地承認,當政府用戶使用OpenAI模型的時候,一些數據仍將被記錄下來。
微軟表示:“微軟允許具有額外限定訪問資格并證明特定用例的客戶申請修改Azure OpenAI的內容管理功能。”
它補充說:“如果微軟批準了客戶修改數據記錄的請求,就不會存儲與已批準的Azure訂閱相關的任何提問和回復,在Azure商業中的數據記錄也會被設置為關閉。”這意味著,除非政府機構符合某些特定的標準,否則提問和回復——由人工智能模型返回的文本——將被保留。