AI圖片泛濫怎么管?OpenAI計劃給AI圖像添加水印
隨著生成式人工智能的高速發展,AI圖像正以前所未有的速度在網絡上傳播。從AI創作“宮崎駿風格”動畫圖,到仿真度極高的商品廣告照、新聞配圖,普通用戶只需輸入一句話,便可秒產專業級畫面。這種“視覺洪流”的背后,是OpenAI等技術巨頭不斷推陳出新的圖像生成模型——其中最先進的,莫過于不久前發布的ChatGPT-4o內嵌的ImageGen。
然而,技術越強,責任越重。近期,有AI研究人員發現,OpenAI正在悄然測試一項新功能:為免費用戶生成的圖像加上“水印”。這一舉措表面上看是平臺對內容可溯源的一次嘗試,但其背后,卻指向一個更加復雜的問題——AI視覺內容的泛濫與監管困境。
為什么要加水印?AI圖像“真假難辨”引擔憂
ChatGPT的ImageGen模型,自從對所有用戶開放后,圖像生成的門檻被進一步拉低。無論是小紅書博主想做一個“吉卜力風格的穿搭圖”,還是電商店主想快速產出幾張“理想生活方式”商品圖,AI都能信手拈來。
但問題也隨之而來:
- 版權問題:用AI模仿宮崎駿風格是否侵權?當圖像模型訓練數據包含大量受版權保護的圖像,其輸出是否屬于“再創作”?
- 誤導性傳播:AI圖像逼真到足以亂真,若未加標識,容易被用于制造謠言、偽造新聞。
- 責任歸屬模糊:生成式圖像一旦被用于違法用途,如欺詐、造謠,平臺是否需要承擔責任?
水印,正是OpenAI試圖解決這類問題的一個初步嘗試。
水印,是終極解決方案嗎?
從技術角度看,水印是一種“軟性監管”工具:它不像數字版權管理(DRM)那樣強制限制使用權,而是通過“標識性痕跡”來提醒圖像是由AI生成的。
但它的效果有限,原因包括:
- 容易被裁剪或篡改:如果水印是外顯的,用戶可以通過P圖輕松抹除;
- 免費用戶限定,付費用戶免除:這意味著想“避開水印”的人,只需支付月費;
- 平臺意圖尚不明確:OpenAI目前只是“測試階段”,未來是否全面啟用、如何啟用,尚屬未知。
- 更關鍵的問題是,即便全面推廣了水印機制,其識別功能也遠遠跟不上內容生成的速度。
監管困境
我國即將正式實施《生成式人工智能服務管理辦法》,其中明確要求:
- 生成內容需顯著標注為AI生成;
- 對生成的虛假新聞、侵權內容,平臺需承擔相應監管責任;
- 提倡數據來源合規、技術可解釋性與“算法道德”。
這些規定在全球范圍內都屬于較早介入、相對明確的制度嘗試。但它同樣面臨幾個難點:
- 技術識別難:在AI圖像不斷精進的背景下,肉眼難辨,技術溯源成本高;
- 平臺執行難:生成內容分散在無數APP、社交平臺,監管精度有限;
- 國際協作弱:AI模型訓練大多跨境進行,內容傳播無國界,單一國家的監管難以形成閉環。
可以預見,未來的AI生成內容監管將呈現“技術+制度+共識”三管齊下的局面:
- 技術層面:平臺需加強“生成溯源機制”,包括不可篡改的數字水印、元數據嵌入等;
- 制度層面:各國需出臺更加明確的監管標準,推動平臺在合規、透明、安全方面“內嵌”責任機制;
- 公眾層面:AI素養將成為新型媒介素養的一部分,用戶需學會識別AI內容,并了解其潛在風險。
總之,生成式AI帶來的不僅是創意的解放,更是內容生態的破壞性重構與信任體系的再建。水印不是生成式AI內容治理的終點,真正的挑戰,才剛剛開始。