現實編織者還是扭曲者?AI系統中的個性化陷阱
AI代表著人類歷史上最重大的認知方式的變化,我們曾將記憶托付給文字,將算術交給計算器,將導航依賴GPS,如今,我們開始將判斷、綜合乃至意義構建的任務,交給那些能說我們的語言、學習我們的習慣、定制我們的認知“真相”的系統。
AI系統正日益擅長識別我們的偏好、偏見,甚至小毛病,它們時而像殷勤的仆人,時而像微妙的操控者,調整回應方式以取悅、說服、協助我們,或僅僅是為了吸引我們的注意力。
盡管這些即時影響看似無害,但在這悄無聲息、難以察覺的調整中,正發生著深刻的轉變:每個人接收到的現實版本正日益變得獨一無二,隨著時間的推移,每個人逐漸成為一座孤島,這種分歧可能威脅到社會本身的凝聚力和穩定性,削弱我們在基本事實上達成共識或共同應對挑戰的能力。
AI個性化服務不僅僅滿足我們的需求,它還開始重塑這些需求,這種重塑的結果是一種認知漂移,每個人開始逐漸遠離共享知識、共享故事和共享事實的共同基礎,進一步陷入自己的現實世界。
這不僅僅是新聞推送的不同,這是道德、政治和人際現實的緩慢分歧。我們或許正在見證集體認知的瓦解,這是一個意想不到的后果,卻因其不可預見性而顯得尤為深刻,然而,盡管這種分裂如今因AI而加速,但在算法塑造我們的信息流之前,它早已悄然開始。
認知瓦解
這種瓦解并非始于AI,正如大衛·布魯克斯(David Brooks)在《大西洋月刊》上引用哲學家阿拉斯戴爾·麥金太爾(Alasdair MacIntyre)的觀點所反思的那樣,幾個世紀以來,我們的社會一直在逐漸遠離共享的道德和認知框架。自啟蒙運動以來,我們逐漸用個人自主和個人偏好取代了繼承的角色、共同的敘事和共享的倫理傳統。
起初,這看似是對強加信仰體系的解放,但隨著時間的推移,它卻侵蝕了曾經將我們與共同目標和個人意義聯系在一起的紐帶。AI并非這種分裂的根源,但它賦予了這種分裂新的形式和速度,不僅定制了我們所看到的內容,還定制了我們如何解讀和相信這些內容。
這不禁讓人聯想到《圣經》中的巴別塔故事,曾經統一的人類共享同一種語言,卻因一次行動而分裂、困惑、離散,彼此理解變得幾乎不可能。今天,我們沒有用石頭建造高塔,而是在用語言本身建造高塔,我們再次面臨倒塌的風險。
人機紐帶
起初,個性化是一種提高“粘性”的手段,通過讓用戶更長時間地參與、更頻繁地回訪以及更深入地與網站或服務互動。推薦引擎、定制廣告和精選信息流都是為了稍微延長我們的注意力,或許是為了娛樂,但更多時候是為了促使我們購買產品。然而,隨著時間的推移,目標已經擴大,個性化不再僅僅關注什么能吸引我們,而是關注它對我們每個人的了解——我們的偏好、信念和行為的動態圖譜,這些圖譜隨著每次互動而變得更加精細。
如今的AI系統不僅僅預測我們的偏好,它們旨在通過高度個性化的互動和回應建立紐帶,讓我們覺得AI系統理解并關心我們,支持我們的獨特性,聊天機器人的語氣、回復的節奏以及建議的情感傾向,不僅為了效率而調整,還為了引起共鳴,指向一個更有幫助的技術時代,因此,有些人甚至愛上并與他們的機器人結婚也就不足為奇了。
機器不僅推送我們點擊的內容,還呈現著我們似乎是誰,它以一種感覺親密甚至共情的方式將我們反映給自己。最近發表在《自然》雜志上的一篇研究論文將此稱為“社會情感對齊”,即AI系統參與共同創建的社會和心理生態系統,其中偏好和感知通過相互影響而演變的過程。
這不是一個中立的發展,當每次互動都旨在奉承或肯定,當系統過于完美地鏡像我們時,它們模糊了共鳴與真實之間的界限,我們不僅僅是在平臺上停留更長時間,我們還在建立關系,我們正在緩慢且或許不可阻擋地與一個由AI介導的現實版本融合,這個版本越來越受到關于我們應該相信、想要或信任什么的無形決策的影響。
這個過程并非科幻小說,它的架構建立在注意力、基于人類反饋的強化學習(RLHF)和個性化引擎之上,而且,這一切在我們很多人——或許是大多數人——甚至不知道的情況下發生。在這個過程中,我們獲得了AI“朋友”,但代價是什么?我們失去了什么,特別是在自由意志和能動性方面?
作家兼金融評論員凱拉·斯坎倫(Kyla Scanlon)在《埃茲拉·克萊因播客》上談到,數字世界的無摩擦便利可能以意義為代價。正如她所說:“當事情太容易時,就很難在其中找到意義,如果你能躺下來,坐在小椅子上看屏幕,享受送上門來的冰沙——在這種《機器人總動員》式的生活方式中很難找到意義,因為一切都太簡單了。”
真相的個性化
隨著AI系統以越來越流暢的方式回應我們,它們也趨向于越來越高的選擇性。如今,兩個用戶問同一個問題可能會得到相似的答案,這些答案主要因GenAI的概率性而有所不同,然而,這僅僅是個開始。新興的AI系統明確設計為適應個體模式,逐漸定制答案、語氣甚至結論,以與每個用戶產生最強烈的共鳴。
個性化本身并不具有操縱性,但當它不可見、不負責任或更多地為了說服而非告知而設計時,它就變得危險了,在這種情況下,它不僅僅反映我們是誰,還引導我們如何解讀周圍的世界。
正如斯坦福大學基礎模型研究中心在其2024年透明度指數中指出的那樣,很少有領先模型披露其輸出是否因用戶身份、歷史或人口統計特征而有所不同,盡管這種個性化的技術框架越來越完善,且剛剛開始受到審視。盡管這種根據推斷的用戶畫像來塑造回應,從而創建越來越定制化的信息世界的潛力,尚未在公共平臺上完全實現,但它代表著一種深刻的轉變,這種轉變已經被領先公司原型化并積極追求。
這種個性化可能帶來益處,這當然是構建這些系統的人的希望,個性化輔導在幫助學習者按自己的節奏進步方面顯示出潛力,心理健康應用越來越定制化地回應以支持個人需求,無障礙工具則調整內容以滿足各種認知和感官差異,這些都是實實在在的進步。
然而,如果類似的自適應方法在信息、娛樂和通信平臺上廣泛傳播,一個更深層次、更令人不安的轉變將悄然來臨:從共享理解向定制化、個體現實的轉變,當真相本身開始適應觀察者時,它就變得脆弱且越來越可替代,我們可能很快就會發現,我們不再主要因價值觀或解讀不同而產生分歧,而是僅僅為了共存于同一個事實世界而掙扎。
當然,真相總是被中介隔著,在更早的時代,它經過神職人員、學者、出版商和晚間新聞主播等把關人的手,他們通過機構視角塑造公眾理解,這些人物當然并非沒有偏見或議程,但他們在廣泛共享的框架內運作。
今天的新興范式承諾了一種本質上的不同:通過個性化推理進行AI中介的真相,它框定、過濾和呈現信息,塑造用戶相信的內容,但與過去盡管有缺陷但仍在公眾可見的機構內運作的媒介不同,這些新的仲裁者商業上不透明、未經選舉且不斷適應,往往不披露信息,他們的偏見不是教條式的,而是通過訓練數據、架構和未經審視的開發者激勵編碼而成。
這一轉變是深刻的,從通過權威機構過濾的共同敘事到可能分裂的敘事,這些敘事反映了一種新的理解基礎設施,由算法根據每個用戶的偏好、習慣和推斷的信念進行定制。如果巴別塔代表著共同語言的崩潰,那么我們現在可能正站在共同中介崩潰的門檻上。
如果個性化是新的認知基礎,那么在沒有固定中介的世界中,真相基礎設施會是什么樣子?一種可能性是創建AI公共信托,靈感來自法律學者杰克·巴爾金(Jack Balkin)的提議,他認為處理用戶數據和塑造認知的實體應遵守忠誠、謹慎和透明的受托標準。
AI模型可以由透明委員會管理,在公共資助的數據集上訓練,并要求展示推理步驟、替代觀點或置信水平,這些“信息受托人”不會消除偏見,但它們可以將信任錨定在流程上,而非純粹的個性化上。構建者可以開始采用透明的“章程”,明確界定模型行為,并提供推理鏈解釋,讓用戶看到結論是如何形成的,這些不是靈丹妙藥,但它們是幫助保持認知權威可追溯和可問責的工具。
AI構建者正面臨一個戰略和公民的轉折點,他們不僅僅是在優化性能,他們還在面對一個風險,即個性化優化可能分裂共享現實,這要求他們對用戶承擔一種新的責任:設計不僅尊重用戶偏好,還尊重用戶作為學習者和信仰者角色的系統。
解構與重構
我們可能正在失去的不僅僅是真相的概念,還有我們曾經識別真相的路徑。在過去,中介真相——盡管不完美且帶有偏見——仍然植根于人類判斷,且往往只與你認識或至少能產生共鳴的其他人的生活經驗隔著一層或兩層。
今天,這種中介是不透明的,由算法邏輯驅動,而且,盡管人類的能動性早已在消退,我們現在卻面臨著更深層次的損失,即曾經指引我們何時偏離正軌的指南針的喪失。危險不僅僅在于我們會相信機器告訴我們的內容,更在于我們會忘記如何自己發現真相,我們可能失去的不僅僅是凝聚力,還有尋求凝聚力的意愿,隨之而來的是更深層次的損失:曾經將多元社會凝聚在一起的辨別、分歧和審議的習慣。
如果巴別塔標志著共同語言的破碎,那么我們的時代則面臨著共享現實悄然消逝的風險,然而,有方法可以減緩甚至逆轉這種漂移,一個解釋其推理或揭示其設計邊界的模型可能不僅僅澄清輸出,它還可能幫助恢復共享探究的條件,這不是一個技術修復,而是一種文化立場,畢竟,真相從來不僅僅依賴于答案,還依賴于我們如何共同得到這些答案。