生成式人工智能泡沫將于2024年破滅
由于法律挑戰、技術限制以及概念框架根本性轉變的需要,生成式人工智能泡沫將在2024年破滅。
像ChatGPT這樣的項目因其改變人類生活各個方面的潛力而聞名,但由于預期的破壞似乎難以捉摸,因此面臨著審查。
隨著技術行業尋求克服眾多挑戰,有必要進行重新調整,從過度炒作轉向實際功效,確保以道德考慮為核心的生成式人工智能的可持續發展。
生成人工智能的承諾與現實之間的差異
雖然生成式人工智能(GenAI)合成大量數據并在科學、經濟和社會服務領域帶來突破的潛力受到吹捧,但觀察到的結果卻被商業過度炒作。
圖片來源:McKinsey
深度造假、虛假信息和表面互動的盛行,引發了人們對生成式人工智能對這些領域的實際影響的質疑。
生成式人工智能需要范式轉變
當我們展望2024年時,有一個令人信服的論點認為,GenAI的概念基礎將發生范式轉變。
模仿人類智能(包括身體、大腦、行為和商業)的概念假設存在缺陷,這阻礙了生成式人工智能的真正潛力。從模仿向理解和利用“世界知識”過渡的呼吁變得勢在必行。
生成式人工智能依賴死記硬背和模式匹配,缺乏真正的智能、學習、類比或演繹,限制了其能力。
呼吁超越數學歸納和統計推斷,對于真正的進步至關重要。
像ChatGPT這樣的生成式人工智能系統,在未經許可的材料上進行訓練,在尋找原始來源材料方面面臨著嚴峻的挑戰。潛在的訴訟,和解金額從數百萬美元到數十億美元不等,對GenAI的可持續性構成了威脅。
圖片來源:Medium
這種有缺陷的商業模式,再加上訴訟所涉及的法律費用,給(Microsoft或Google等大型技術企業造成了難以維持的局面。ChatGPT API的定價模式,盡管有預期的代幣利潤,但引發了對GenAI領域經濟可行性的擔憂。
從詞嵌入到世界嵌入的轉變引入了跨人工智能的概念,其中實體嵌入(EE)發揮著至關重要的作用。EE代表分類或序數變量,增強了人工智能與世界有效交互的能力,超越了以代幣為中心的表示。
世界嵌入使AI/ML/LLM模型能夠更有效地與世界交互,了解標記之間的語義和句法關系。世界知識的整合,對于生成可理解的內容很有幫助。
生成式人工智能并不完美
GenAI的承諾面臨著現實的考驗,促使人們重新評估其基本概念和業務戰略。當我們進入2024年時,對世界嵌入的范式轉變和對世界復雜性的更深入理解的呼吁,成為生成式人工智能可持續發展的關鍵一步。從過度宣傳到實際效果的過程需要重新調整,包括真正的創新和道德考慮。
圖片來源:Everest Group
雖然生成式人工智能取得了顯著的進步,但重要的是要承認其并不完美。盡管其功能強大,但該技術仍存在固有的局限性和挑戰。需要考慮的一些關鍵方面包括:
1、偏見和公平問題
生成式人工智能模型可能會無意中延續其訓練數據中存在的偏見。如果訓練數據反映了社會偏見,人工智能可能會產生有偏見或不公平的結果,引發道德擔憂。
2、缺乏常識
生成式人工智能可能會與常識推理發生沖突,導致輸出缺乏上下文或連貫性。這種限制可能會影響該技術在復雜的現實場景中的實際適用性。
3、情境理解薄弱
理解情境仍然是生成式人工智能的一個挑戰。該技術可能會生成情境不合適的內容或誤解細微的信息,從而影響其輸出的準確性。
4、道德問題
生成式人工智能的道德使用帶來了挑戰,特別是在該技術可被利用來創建深度偽造或誤導性內容的情況下。在創新和負責任的使用之間取得平衡是一個持續關注的問題。
5、對訓練數據的依賴
訓練數據的質量和代表性顯著影響生成式人工智能的性能。訓練數據不充分或有偏差可能會導致結果不理想,并限制模型在不同場景中泛化的能力。
6、缺乏可解釋性
許多生成式人工智能模型都以黑匣子的方式運行,因此很難理解其輸出背后的基本原理??山忉屝詥栴}阻礙了透明度,并可能在某些監管或安全關鍵領域帶來挑戰。
7、對抗性攻擊的脆弱性
生成式人工智能模型可能容易受到對抗性攻擊,其中惡意輸入旨在誤導模型。防范此類攻擊需要不斷研究和開發安全措施。
8、訓練數據過度擬合
生成式人工智能模型可能會過度擬合訓練數據中的特定模式,從而限制其適應新的或未見過的場景的能力。這種過度擬合可能會導致輸出非常模仿訓練數據,但可能缺乏泛化性。
認識到這些缺陷對于負責任地部署和管理生成式人工智能技術至關重要。持續的研究和開發工作,對于應對這些挑戰并增強生成式人工智能在各種應用中的穩健性、公平性和道德使用至關重要。