微軟向美國政府提供GPT的大模型,安全性如何保證?
微軟公司在6月7日發布了一篇博客,宣布將向美國政府機構提供OpenAI人工智能大模型,利用其Azure云服務的能力。這是微軟首次將GPT技術引入政府機構,同時也是全球首個將以GPT代表AI大模型引入政府的案例。此舉傳遞出一個不同尋常的信號,特別是在全球各國機構和大型企業紛紛以“安全”為由禁用GPT大模型的背景下。
Azure政府客戶可以使用微軟Azure OpenAI服務,利用OpenAI的兩個大型語言模型,分別是最新的GPT-4和早期的GPT-3大模型。微軟表示,聯邦、州和地方政府的客戶可以通過這兩個模型完成各種服務,例如生成研究問題的答案、生成計算機代碼和總結現場報告等。此外,語言模型還可以針對特定任務進行調整,包括內容生成、語言到代碼的翻譯和摘要等。
微軟在其商業云計算空間中托管OpenAI模型,并與Azure政府客戶使用的云分開。后者遵守各種特定的安全和數據遵從規則,來自Azure政府客戶的數據不會用于訓練模型。
OpenAI是聊天機器人ChatGPT的開發公司,旗下擁有大語言模型GPT-3以及多模態模型GPT-4等產品。微軟是OpenAI最大的投資者,于2019年向其投資了10億美元,2023年1月又追加了第二筆多年投資,投資據稱高達100億美元。
自從OpenAI推出ChatGPT以來,AI大模型迎來了一股無與倫比的發展浪潮,包括谷歌、阿里、百度在內的大型企業紛紛發布了自己的AI大模型。其中微軟、谷歌相繼推出了網絡安全領域的AI產品,引起了業界的廣泛關注和討論。
微軟已向其商業客戶提供了OpenAI模型,并且Azure OpenAI服務增長迅速。截至今年5月,已有4500名客戶,包括沃爾沃、宜家、梅賽德斯-奔馳集團和殼牌等集團。
當今世界上,人工智能技術正在迅速發展,而大型語言模型作為其中的重要組成部分,具有廣泛的應用前景。在這種背景下,微軟公司的舉動被視為是對AI技術發展的全新探索。
然而,隨著大型語言模型的逐漸成熟和應用,其所帶來的安全問題也不容忽視。有關專家指出,大型語言模型可能存在的風險包括隱私泄露、人類價值觀偏差、誤導性信息生成等多個方面。針對這些問題,目前還需要進一步的研究和探索,以確保人工智能技術的安全和可靠性。
除了安全問題,大型語言模型的高昂成本也是制約其應用普及的一個因素。目前,大型語言模型的訓練成本和運行成本都非常高,這也限制了其在一些領域的應用。因此,在未來的發展過程中,如何提高模型的效率和降低成本,將成為一個重要的研究方向。
總的來說,微軟公司利用Azure云服務向政府機構提供OpenAI人工智能大模型的舉動,為人工智能技術的發展帶來了新的探索和機遇。同時,在應用這一技術的過程中,我們也需要密切關注安全和成本等問題,以確保其能夠為社會帶來更多的價值和福利。