編輯|云昭
出品 | 51CTO技術棧(微信號:blog51cto)
昨天發生一個蠻有意思的“小概率”事件,可以說是人類被 ChatGPT 的幻覺打敗了。
當一個 AI 說你的產品有某項功能,用戶就會相信你有。即使你從沒做過,甚至從沒想過做。
以至于,創始人被倒逼著連夜找員工,趕工實現這個“產品經理根本沒提過”的產品需求。
就這么一段“抓馬”且帶著某種科幻味道的橋段,真實發生在一家創業公司身上。
ChatGPT 整活,把一公司人整懵逼
故事發生的主角 Soundslice,是一家專注于“樂譜掃描識別”的小團隊產品。用戶只需拍一張樂譜照片,系統就能識別其中的音符,生成可以播放、編輯的數字樂譜。
注意:這家公司的創始人,相信大家更為熟悉。他就是大名鼎鼎的開源項目 Django(非常流行的Python Web框架)的創始人之一 Adrian Holovaty。2012 年,他創立了 Soundslice。
這原本是一個非常垂直、清晰的工具。但從某天開始,后臺的錯誤日志頻繁出現一種奇怪的上傳圖片。(ps:作為創始人,Holovaty 非常關注該功能的錯誤日志,以查看出現了哪些問題以及需要在哪里進行改進。)
一般來講,用戶都會反饋常見的真實的樂譜照片——
圖片
而這會收到的全是一張張的 ChatGPT 的聊天截圖,內容中包含了 ASCII 吉他譜。
圖片
ASCII 吉他譜,是一種用純文字(比如 E|--0--1--3--|
)記錄吉他演奏指法的極簡譜。
Soundslice 團隊一頭霧水:這不是我們支持的格式,為什么會有這么多用戶上傳?
直到創始人 Holovaty 自己去 ChatGPT 試了一把,謎底才揭曉——
ChatGPT 正式而自信地告訴用戶:“想聽你寫的吉他譜?去 soundslice.com 上傳 ASCII 吉他譜吧。”
嗯,AI 硬說你能干這事,用戶竟然也真的信了。
功能還沒開發,用戶卻已經用上了
從嚴格意義上說,ChatGPT 這是在“胡說八道”。事實上,Soundslice 從沒支持過 ASCII 吉他譜的識別與播放,這完全是 AI 杜撰的幻覺。
但有趣的是——幻覺造成的用戶需求,卻是真需求。
后來在采訪中 Holovaty 表示,主要的代價是聲譽受損:Soundslice 的新用戶帶著錯誤的期望加入。他們被自信地告知我們會做一些我們實際上不會做的事情。
一大批用戶帶著 ChatGPT 的“建議”注冊 Soundslice,上傳 ASCII 吉他譜的截圖,試圖獲得預期中的播放體驗。
這導致產品團隊陷入一種前所未有的尷尬:
- 不做這個功能吧,用戶涌入發現“被騙了”,影響品牌聲譽;
- 做這個功能吧,是不是太被動、太離譜,甚至有點“被 AI 綁架”的味道?
Holovaty 最終下了決心:
既然用戶來都來了,那我們干脆把這個功能真做出來吧。
于是,一個原本根本不在 roadmap 上的功能,被突擊開發、上線,并寫入了 UI 提示中。
他自己也調侃說:“這可能是有史以來,第一起公司因為 ChatGPT 幻覺而開發新功能的案例。”
AI 的幻覺,正在改變產品世界的運行邏輯
眾所周知,大模型的幻覺問題一直存在,ChatGPT 也不例外。
但萬萬沒想到,這次 ChatGPT 的離譜程度竟然超出了想象。
據了解,ChatGPT 并沒有 API 連接 Soundslice,也不是 Soundslice 的合作伙伴。但它僅憑一段文本生成的“幻覺描述”,就反向影響了用戶行為,塑造了產品認知,最終逼迫團隊做出真實回應。
過去我們相信的是:需求來自真實用戶的真實意圖。
但在 AI 大規模進入人類知識交互系統的當下,有一種新的路徑正在形成:
- AI 幻覺 → 用戶信任 → 市場預期 → 產品被迫跟進
也就是說,產品團隊不再完全掌控“自己是誰”這個問題,AI 在用戶心中幫你“定義”了你是誰。
如果說搜索引擎時代,用戶靠 Google 發現你;
那么在 AI 對話時代,用戶靠 ChatGPT“想象”你。
所以,結果就是:如果 AI 說你能做——那你最好真的能做,不然你就掉粉了。
重新認識AI幻覺:不信它,但不能不應對它
Soundslice 的決定看似無奈,其實是非常明智:與其急著辟謠,不如先聽清幻覺背后的真實渴望。
用戶并不真的關心你是不是“原生支持” ASCII 吉他譜,他們關心的只是:我寫了一段譜子,有沒有辦法聽到它的聲音?
ChatGPT 的“胡說”恰好暴露了用戶的真實痛點,也提供了一個方向。
你可以抵觸它、忽略它,但你無法否認:
AI 正在重塑產品定義、產品傳播,甚至產品規劃的順序。
在這個新范式下,我們做的每個功能,可能不是來源于用戶調研或競品分析,而是來自一場你沒參與的 AI 對話。
網友:這才是AI的終極用法
現在聽起來,之前有不少大佬提倡的“我們應該利用AI的幻覺”的“鬼故事”,的確成真了。
Hackernews 上不少網友也都對這個真實的故事驚到了:這才是AI的終極用途!
有時候它想出來的做法比我還好。
我覺得這才是 AI 最終極的用途——從 Google Maps 到 Grammarly 都是這樣。
我寫書的最后階段才開始用 Grammarly,大概接受了它三分之一的修改建議。考慮到這本書我已經自我編輯了幾十遍,還請了專業編輯,這比例已經相當高了。
不過如果我照單全收它的建議,這本書反而會變差。它對于清理廢話和被動語態很有用,但不理解幽默、上下文、刻意重復這些寫作技巧。
此外,這位網友認為,現在最大的問題在于:高層總想把人完全踢出流程,但這樣幾乎總是會帶來災難。
但,這并不表示,幻覺可以從危險名單上除名了。
另一位網友 @Sophira 則談了自己對于GPT時代的感受:
GPT 生成的文本確實比 SEO 時代的垃圾內容“看起來”更像樣,但也正因為它太像“權威發言”,所以更危險。
它聽起來像是對的,但你看到的可能完全是它編出來的。
開放麥:下一次,誰還會被“逼”上線功能?
諸位,不妨大膽設想一下:
- ChatGPT 會告訴你 Notion 支持語音播客轉寫,然后用戶開始“理所當然地”上傳音頻;
- 它會建議你在 Canva 里做 PPT 一鍵成片,哪怕 Canva 根本沒有這個功能;
- 它會說你的視頻平臺能分析用戶表情并自動生成視頻腳本——你甚至都沒寫過這個 PRD。
簡直不能再想了。吊軌程度有點太大。AI 不是你的 PM,但它卻影響了你的用戶,最終也決定了你的 roadmap。
Soundslice 的案例只是開端。或許越來越多公司,會在 ChatGPT 的“幻覺”中,找到通往現實的新方向。
甚至小編在想,OpenAI 甚至會推出一個“按幻覺收費”的功能。
所以,以后大家也別問“AI 胡說怎么辦?”,不如反向思考:“我們準備好在這些幻覺中,看見新的真實需求了嗎?”
畢竟通過這個案例,給所有產品開發者們上了一課:
“未來的產品需求文檔,可能早已藏在 ChatGPT 的回答里,就等各位大佬的慧眼去發現了。”
歡迎各位在評論區“開放麥”:大模型的幻覺真有用嗎?如何處理的呢?