《生成式人工智能服務安全基本要求》公開征求意見,使用含個人信息語料需獲對應主體授權
10 月 12 日消息,據全國信息安全標準化技術委員會官網,該會組織制定的技術文件《生成式人工智能服務安全基本要求》(下稱《要求》)已于 10 月 11 日形成征求意見稿,現將技術文件面向社會公開征求意見,如有意見或建議,需在 10 月 25 日 24:00 前反饋。
《要求》給出了生成式人工智能服務在安全方面的基本要求,包括語料安全、模型安全、安全措施、安全評估等,適用于面向我國境內公眾提供生成式人工智能服務的提供者提高服務安全水平,或是提供者自行或委托第三方開展安全評估,也可為相關主管部門評判生成式人工智能服務的安全水平提供參考。
IT之家整理部分要求如下:
- 建立語料來源黑名單,不得使用黑名單來源的數據進行訓練。
- 應對各來源語料進行安全評估,單一來源語料內容含違法不良信息超 5% 應將其加入黑名單。
- 應使用包含個人信息的語料時,獲得對應個人信息主體的授權同意,或滿足其他合法使用該個人信息的條件。
- 應使用包含人臉等生物特征信息的語料時,獲得對應個人信息主體的書面授權同意,或滿足其他合法使用該生物特征信息的條件。
- 應自行對標注人員進行考核,給予合格者標注資質,并有定期重新培訓考核以及必要時暫?;蛉∠麡俗①Y質的機制。
- 在訓練過程中,應將生成內容安全性作為評價生成結果優劣的主要考慮指標之一。
- 以交互界面提供服務的,應在網站首頁等顯著位置向社會公開以下信息:
-服務適用的人群、場合、用途等信息
-第三方基礎模型使用情況。
- 應充分論證在服務范圍內各領域應用生成式人工智能的必要性、適用性以及安全性。
另據IT之家此前報道,網信辦、發改委、教育部、科技部、工信部、公安部、國家廣播電視總局七部門于 7 月 10 日印發了《生成式人工智能服務管理暫行辦法》,自 8 月 15 日起施行。
《辦法》規定不得利用算法、數據、平臺等優勢,實施壟斷和不正當競爭行為;不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益;應采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。
參考