整理丨諾亞
微軟給它們的用戶發了個通知,大意是:不要把它們的AI服務太當真,這一立場與其先前針對特定服務發布的免責聲明相一致。
根據這家IT巨頭最新的服務協議更新,從2024年9月30日起生效的新條款中,微軟明確表示其輔助性人工智能服務并不適用于處理關鍵任務或重要決策。
“我們的人工智能服務可不是為了替代專業建議而設計的。”這是微軟在其修訂后的法律條款中的明確表述。
此次規則調整涉及多項具體服務,例如提醒Xbox用戶不應該預期從平臺合作伙伴處獲得隱私保護。
在Xbox這部分,服務協議明確指出:“如果你通過非Xbox的第三方平臺玩Xbox游戲工作室的游戲,這些平臺可能會要求你分享內容和個人數據。這些第三方平臺可能會追蹤并分享你的數據,而這些操作將遵循它們自己的條款。”
此外,還有一些關于Microsoft Cashback(現金返還)和Microsoft Rewards(獎勵計劃)的說明進行了澄清。
但最重要的改動是新增了一個專門針對人工智能服務的章節。這個章節緊跟在提及Copilot AI體驗受Bing使用條款管轄的部分之后。對于使用Microsoft Copilot并涉及商業數據保護的用戶,會有一套獨立的條款。
對于那些曾仔細閱讀過管理微軟Bing及其相關人工智能產品合同條件的人來說,這種面向消費者的調整并不會令人感到意外。例如,現在有一個服務協議明確禁止使用人工智能服務來“提取數據”。
協議中寫道:“除非明確允許,否則你不得使用網頁抓取、網頁采集或網頁數據提取的方法來從人工智能服務中提取數據。”
Bing的Copilot AI體驗的要求雖然表述上沒有那么明確,但也涵蓋了類似的禁止行為,明確規定用戶不得“從事對在線服務有害的活動,包括但不限于機器人的抓取行為、技術攻擊、過度使用、基于提示的操控、‘越獄’以及其他非平臺內的濫用行為。”
自從2023年2月Bing集成了AI功能以來,其搜索引擎的條款中就包含了關于在線服務可靠性的免責聲明:“在線服務僅供娛樂目的使用;在線服務并非無錯誤,可能不會按預期工作,并可能生成不正確的信息。你不應依賴在線服務,也不應將在線服務用于任何形式的專業咨詢。你使用在線服務的風險自負。”
修訂后的服務協議對不允許的行為進行了更為詳細的說明。例如,對于“反向工程”的禁令特別強調了不得試圖確定微軟所使用的人工智能模型中的權重。
新的條款中提到:“你不得使用人工智能服務來發現模型、算法和系統的底層組成部分。例如,你不得嘗試確定并移除模型的權重,或者從你的設備中提取人工智能服務的任何部分。”
此外,現在明確規定禁止使用微軟的人工智能服務或從中獲取的數據來創建、訓練或改進(不管是直接還是間接地)任何其他的人工智能服務。
另一項重要的合同變更涉及對集體仲裁程序的簡化。近年來,一些大公司試圖通過友好型的仲裁程序來避免昂貴的法庭糾紛,但面對大規模的集體仲裁索賠時,卻發現這并不符合它們的利益。因此,爭議解決機構制定了規則修訂,旨在簡化涉及25人或以上群體的仲裁案件。
微軟的服務協議修訂明確了涉及至少25位具有相似索賠且由同一律師或協調律師代表的客戶的爭議,屬于其定義的“相關案件”——這類案件將遵循美國仲裁協會的大規模集體仲裁補充規則進行處理。
參考資料:https://www.theregister.com/2024/08/14/microsoft_services_agreement_update_warns