一個關于AI好惡的統一場論
我們今天說一個特別有意思的話題:我們到底應該在多大程度上信任AI?
你可能覺得,人對AI的態度無非就兩種。一種是技術樂觀派,覺得AI是未來,無所不能,應該全面擁抱;另一種是技術恐懼者,總擔心AI搶走工作、做出可怕的決定,對AI充滿疑慮,甚至有點像當年的“盧德分子”。
這兩種人確實都存在,但大部分普通人似乎處在這兩者之間。比如,如果一個AI工具能幫你精準預測股票走勢,你可能會很樂意使用它。但反過來,如果你去一家公司求職,而人力資源部用一套AI系統來篩選你的簡歷,你心里是不是就有點打鼓了?
為什么會有這種矛盾的心理?長久以來,學術界對這個問題的研究也充滿了矛盾。2015年有篇影響很大的論文叫《算法厭惡》,說人們對AI犯的錯誤比對人犯的錯誤更不能容忍。可到了2019年,又有一篇流傳很廣的論文叫《算法欣賞》,說人們其實更喜歡聽AI的建議。
這到底是怎么回事?我們對AI到底是“厭惡”還是“欣賞”?
麻省理工學院(MIT)的學者廉·杰克遜(Jackson Lu)和他同事們的一項最新研究,給出了一個極其漂亮的解釋框架,可以說是一舉統一了之前那些看似矛盾的發現。我愿稱之為 “能力—個性化”雙軸模型。
這個模型非常簡單,它說我們對AI的態度,取決于我們在兩個維度上的判斷:
- 能力(Capability):在當前這個任務上,AI的客觀能力是不是比人類強?
- 個性化(Personalization):這個任務需不需要“特殊關照”?也就是說,它是否需要充分理解我這個人的獨特性和具體情況?
這個框架的結論是什么呢?只有當一個任務同時滿足“高能力”和“低個性化”這兩個條件時,我們才會心甘情愿地擁抱AI。只要有一個條件不滿足,我們就會傾向于選擇人類。
這個洞見太重要了。它告訴我們,光有強大的能力并不能保證AI被我們所接受。
我們來看例子。像金融欺詐檢測、對海量數據進行分類整理,這些任務的特點是什么?首先,AI的能力遠超人類,又快又準。其次,這些任務幾乎不需要任何個性化,它就是個客觀的、標準化的工作。所以,在這些領域,我們對AI是“欣賞”的,甚至可以說是熱烈歡迎。
但換個場景就不一樣了。比如心理治療、工作面試,甚至是醫生診斷。在這些場景里,“個性化”的需求就變得至關重要。
研究者說,我們每個人內心都有一種根深蒂固的愿望,就是希望自己被看作一個“獨特的個體”(unique and distinct)。我們希望治療師能理解我獨一無二的情感困境,希望面試官能看到我簡歷之外的閃光點,希望醫生能考慮到我個人的特殊身體狀況。
AI呢?即便它學習了海量的病例和數據,我們總覺得它是“一視同仁”的,是按照一套固定的、冷冰冰的邏輯在運作。它無法真正“看見”我這個活生生的人。所以在這些需要高度個性化關懷的領域,哪怕AI的診斷準確率可能更高,我們依然會產生“AI厭惡”,寧愿相信一個有血有肉的人。
廉·杰克遜教授和他的團隊為了驗證這個框架,做了一次“元分析”(meta-analysis),把過去163項相關研究、超過82000個反饋數據全部整合起來分析。結果發現,這個“能力—個性化”框架完美地解釋了絕大多數情況。
更有意思的是,研究還發現了兩個影響我們判斷的額外因素:
- 形態的影響:我們對一個看得見、摸得著的實體機器人,比對一個看不見的抽象算法,天然更有好感。這也許是因為實體機器人給了我們一種更直觀的交互感和控制感。
- 經濟環境的影響:在一個國家的失業率越低,人們對AI的欣賞和接受度就越高。這個道理很直白:如果你的飯碗隨時可能被AI端掉,你自然很難對它產生什么好感。
所以你看,我們對AI的態度,既不是盲目崇拜,也不是無腦抵制。我們其實都是非常精明的“情境主義者”。
我們每個人的心里都有一把尺子,在面對一個具體的AI應用時,我們會不自覺地在這兩個維度上進行評估:它的能力比人強嗎?這事兒需要對我特殊照顧嗎?
只有當答案是“是”和“否”的時候,我們才會放心地把任務交給AI。這個來自MIT的“能力—個性化”框架,為我們理解這個復雜的人機時代,提供了一個異常清晰的思考工具。
本文轉載自????草臺AI????,作者:RangerEX
