AIGC前行道路上的七個“減速帶”
當AI 聊天機器人破繭而出時,很多人感到驚喜或驚訝。
這些大型語言模型擅長自我學習,并且能用各種語言和風格與人類進行交流。其生成的藝術模型幾乎可以生成人們能想到的任何事物;能夠回答人們可以提出各種問題,甚至越古怪越好;科學家們正在訓練AI作曲、探索太空,以及執行傳統上由人類完成的重復性任務(這讓很多人擔心他們的工作崗位會被替代)。
盡管取得了驚人的成果,但AI呈現出來的嚴重問題卻只是冰山一解。也許人們還沒有注意到,也許仍然處于敬畏的狀態。然而別無選擇,我們只能努力解決AI帶來的現實和道德困境。當AI帶來的奇跡和夢想開始消退時,人們不能忽視阻礙AI發展的七個“減速帶”。
1、資源稀缺
大多數大型AI模型依賴于大規模并行計算,這些計算可以通過GPU或TPU專用芯片來加速。充分發揮AI模型的潛力需要采用大量IT硬件,但成本高昂。
每家廠商及個人都希望采用更多的IT硬件,在過去的幾年,由于供不應求,芯片和IT硬件的成本飆升。更糟糕的是,越來越多的人正在使用云計算服務,導致云計算平臺容量擴展的速度難以滿足需求。
硬件并不是成功推出AI所需的唯一稀缺資源。運行大型AI模型還需要大量電力,但并不是每個國家或地區都能充分供應。在地緣政治沖突和主要采用可再生能源電力的地區,能夠以可預測的價格獲得足夠的電力是一項挑戰。為了彌補損失,一些云計算提供商正在提高某些地區的云服務價格。
2、AI倫理
人類總是知道在某些場合避免爭論一些問題,然而AI需要學習如何在各種情況下處理此類問題。一些大型語言模型被編程為對提出的問題轉移話題或者拒絕回答,但一些用戶總是很執著,當這樣的用戶注意到AI在回避一些棘手的問題,例如引發種族或性別偏見的問題時,他們會立即尋找繞過這些護欄的方法進行提問。
隨著時間的推移,AI數據偏差和數據不足是可以糾正的問題,但與此同時,惡作劇和濫用的可能性也是巨大的。雖然讓AI發表仇恨言論很糟糕,但當人們開始使用AI來探索現實生活決策的道德含義時,就會變得更加復雜。
3、AI勞動力待遇不平等
許多AI項目依靠人類的反饋來指導它們的學習。通常情況下,一個大規模的AI項目需要大量的人員來構建訓練集,并隨著模型規模的增長調整大型語言模型的行為。對于許多項目來說,只有在貧窮國家向訓練人員支付更低工資的情況下,才能在經濟效益上可行。
這引發了人們對于AI公平和公正的深入辯論,但沒有人能夠為開發大型AI項目找到經濟可行的解決方案。正如寶石行業人士并不考慮從事采礦這一棘手而危險的工作一樣,AI行業也沒有簡單可行的勞動力成本解決方案。
4、糟糕的反饋循環
以虛假新聞和評論的形式出現的虛假信息已經存在了一段時間,無論是處于政治考量還是獲取利潤目的,虛假信息總有市場生存空間。然而阻止不良行為者的AI算法異常復雜,需要大量維護,大模型供應商不見得會花大力氣來解決這個問題。
可以想象一下,當AI開始被用來制造虛假信息時會發生什么情況:一方面,虛假信息的數量將呈指數級增長;另一方面,有的AI系統很有可能會選擇假信息并將其反饋到訓練語料庫中。如此,病毒式傳播的錯誤信息將會對人們的社交網絡帶來不利影響,糟糕的反饋循環可能會破壞知識和信息。
5、法律法規
AI通過復制大量的文本和圖像來學習它們所知道的一切。在大多數情況下,創造這些數據的人類從未被告知,他們的成果可能被價值數十億美元的AI模型所盜用。
當這些人的工作被AI取代時會發生什么?他們可能去找律師處理許可、版權和剽竊知識的問題。人們可能會通過訓練AI學習相關的判例法規,但是,可以在幾毫秒內做出裁決的AI法官要比一個需要數年時間權衡問題的人類法官更可怕。
還有另外一種場景:當AI錯誤地評價某一歷史事件或當今流行文化時,可能只會令人反感,但不會直接傷害到任何人。但是當AI說出一些貶損某人的話時,實際上成為了一種誹謗。很容易想象,如果AI誹謗某人時,假設這個人雇傭律師進行訴訟,那么AI本身需承擔責任嗎?還是擁有它的公司承擔責任?
6、死亡與毀滅
現在好像并沒有顯著的例子表明,被壞人利用的AI就像科幻電影中的惡棍那樣邪惡。眾所周知,自動駕駛汽車和工廠的機器會犯錯,但到目前為止,似乎還沒有惡意事件發生。然而對于AI來說,人們似乎還不知道如何解釋它造成嚴重傷害或死亡的可能性,以至于AI威脅論始終縈繞在人們的耳邊。
7、期望值過高
人們通常認為AI的思維方式可能和人類一樣,但這可能是錯誤的。真正的問題是,AI具有截然不同的智能形式,還沒有被人們理解。作為一個新物種,人們對AI的獨特優勢和劣勢還有很多需要了解的地方。
與此同時,AI也被人們的樂觀情緒所炒作和鼓舞,以至于它永遠無法實現人們的夢想。只要是人們的想法和希望超越現實,那么AI領域的發展注定會讓人失望,這可能會極大地阻礙AI的持續發展。