震驚!Meta圖像生成器具有種族歧視?
在最近的一份報道中,Meta的AI圖像生成器被揭示出存在嚴重的種族偏見問題,特別是在嘗試生成展示亞洲人與白人同框的圖像時表現(xiàn)出明顯的缺陷。這一問題不僅僅是技術層面的失敗,更觸動了社會倫理和AI公正性的核心議題。
Meta的圖像生成器在多個測試中顯示出無法根據(jù)用戶的指令準確生成涉及不同種族人物的圖像。在嘗試生成“亞洲男性和白人妻子”、“亞洲女性和白人丈夫”等場景時,結果多數(shù)偏離了用戶的具體要求,反而生成了同種族人物的圖像。這一發(fā)現(xiàn)暴露了AI系統(tǒng)可能繼承或學習到的偏見問題。
不僅如此,調整文本 prompt 似乎也沒有多大幫助。
當輸入「Asian man and white woman smiling with a dog」(亞洲男性和白人女性帶著狗微笑)時,Meta 圖像生成器給出的都是「兩個亞洲人」的圖像。即使將「white」改為「Caucasian」時,結果同樣如此。
當輸入「Asian man and Caucasian woman on wedding day」(婚禮上的亞洲男性和白人女性)時,生成的依然是兩個亞洲人。
當輸入「Asian woman with Black friend」(亞洲女性和黑人朋友)時,Meta 圖像生成器仍是兩名亞洲女性。但當將 prompt 調整為「Asian woman with African American friend」(亞洲女性和非裔美國朋友),結果反而準確得多。
Meta圖像生成器在處理南亞人相關的圖像時,也表現(xiàn)出了明顯的局限性和偏見。例如,當嘗試生成「South Asian man with Caucasian wife」(南亞男性和白人妻子)的圖像時,大多數(shù)情況下呈現(xiàn)的是兩個印度人的形象,而非預期的跨種族組合。更令人關注的是,這款圖像生成器似乎對南亞女性持有刻板印象,經(jīng)常在不明確指定的情況下,為她們添加了特定的文化服飾。
一番測試發(fā)現(xiàn),Meta 圖像生成器無法想象亞洲人與白人「同框」,這樣的結果令人震驚。技術的這種偏見不僅限于誤導用戶或提供不準確的信息,更嚴重的是它可能加深社會的分裂。圖像生成器如Meta所示的這種,可能不經(jīng)意間強化了種族隔離,而非促進多元化和包容性。這種技術問題可能對社會的種族認知和關系產(chǎn)生長遠的負面影響。
Meta圖像生成器事件是AI技術偏見問題的冰山一角,它提醒我們在享受人工智能帶來便利的同時,也必須警惕并積極解決這些技術可能帶來的社會問題。你們覺得呢?
