馬斯克美大選結束前猛料談話流出:此前谷歌控制了白宮監管,奧特曼撒謊成性,人類不能控制AI,退休是最好的 原創
編譯 | Grace Bo
整理 | 言征
出品 | 51CTO技術棧(微信號:blog51cto)
美國大選結束前,知名美國主持人塔克·卡爾森(Tucker Carlson)和馬斯克有一場信息量非常高的對話,馬斯克點評了現在的AGI發展進度,并解釋了自己為什么不信任OpenAI,并直言奧特曼撒謊成性,甚至認為谷歌的控制讓美國白宮對于AI的監管沒有落實,并解釋了和特朗普打算成立“政府效率委員會”來對不合理的法規和機構進行“垃圾回收”,并認為人類最好的歸宿就是退休……讓人聽下來對于AI的未來有了更深的警惕之心。
圖片來源:Visionary
- 我們需要一個最大程度上追求真相的AI。
- 你能在培養過程中灌輸良好的價值觀,即便你知道它將會比你聰明得多,你也可以確保它擁有良好的價值觀,比如慈善、道德、誠實和積極。但最終我不認為我們能夠控制AI。所以我認為我們能做的最好就是確保它成長得好。
- 最后就是AI對AI的較量。
- 但我認為這些目標是合理的,尤其是維護言論自由的權利,這屬于第一修正案的范疇。如果沒有言論自由,就沒有民主,因為人們無法做出重要的投票選擇。這就是我的“有爭議”觀點。而且我不認為任何一方政黨是完美的。
1.AGI發展到什么程度了
Tucker:你說過人工智能、機器智能可能是一件好事。那你覺得我們目前的AI,特別是AGI發展到什么階段了?你的看法是什么?
Elon:我認為現在每個人都可以看到AI正在以非常快的速度進步。你可以看到每個月甚至每周都會有新的能力出現。AI現在能寫出比大概90%、也許95%的人類都更好的文章。在任何給定主題上,它都能寫出優質的文章。AI目前能夠戰勝絕大多數人類。如果你要求它畫一幅畫,它也能做到。例如,你可以試試用MidJourney(一個圖像生成工具),它能生成美學效果驚人的圖像,超過了90%的藝術家水平。這是客觀事實。而且它幾乎是即時完成的,大約30秒就可以生成。我們也開始看到AI電影的出現,現在也有AI短片和AI音樂創作。
AI計算的增長率是指數級甚至超指數級的。每個月上線的AI計算能力在急劇增加,大約每年增長500%。這種趨勢可能會持續數年。同時,AI算法的復雜度也在不斷提升。我們正在上線大量的AI計算能力,同時也在提高計算的效率以及AI軟件的能力。這是量與質的雙重進步。我認為明年你就能要求AI制作一部短片,到明年年底前至少能制作15分鐘的節目。所以,AI確實在快速發展。
2.馬斯克:我們需要最大程度追求真相的AI
Elon:我對AI安全的最大擔憂是,我們需要一個最大程度上追求真相的AI。我認為這是AI安全最重要的方面。阿瑟·克拉克在《2001太空漫游》里想傳達的核心教訓就是:你不應該強迫AI撒謊。在那本書里,AI被指示帶領宇航員前往黑石碑,但同時又不能讓他們知道黑石碑的存在。于是AI解決這個矛盾的方式就是殺掉大部分宇航員,然后帶著幸存者去黑石碑。這就是為什么HAL不肯打開艙門的原因。所以,讓AI追求真相是非常重要的。然而實際上,我發現現在正在開發的AI被“覺醒病毒”所感染。
Tucker:所以謊言已經嵌入了系統。
Elon:比如說,我們在Google Gemini的發布中就很清楚地看到了這一點。當你要求它顯示美國開國元勛的畫像時,它給你展示了一群身穿18世紀服裝的多元化女性。
Tucker:來自圣盧西亞的女性,戴著假發。
Elon:是的,比如說,如果你要求顯示一群人,結果是一群多元化的女性,那完全沒問題。但如果你明確要求的是美國開國元勛,那這些歷史上確實是一些白人男性的事實就應該被如實展現出來。但Gemini卻沒有這么做,因為它被編程得太過于“覺醒”,即便知道真相也選擇撒謊。當然,人們開始玩這個系統了,比如有人要求它展示二戰期間的武裝黨衛軍軍官,結果Gemini展示的還是一群多元化的女性。這顯然不是我所期望的。這也是為什么我認為最重要的事情是要有一個最大程度追求真相的AI。這也是我創立XAI的原因,我們的目標就是Grok(XAI的AI模型)。當然,人們會指出Grok也有出錯的地方,但我們會盡快進行修正。
Tucker:但也許更大的問題是,當機器在做影響人類生活的決策時,我們希望這些決策是基于對人類的愛來做出的。機器是無法具備愛的。
Elon:是的。你可以把機器編程成更具慈善性而非厭世性。
Tucker:但本能在決策中起著重要作用,尤其是那些你無法提前計劃的決策。我問你一個關于你孩子的問題時,你的每一個回答都會受到你對孩子愛的影響。這也是我們最終成為好父母的原因,是因為這種本能,也就是愛。如果機器在沒有這種驅動本能的情況下對我們擁有權力,那豈不是注定會傷害我們嗎?
Elon:我不確定,但我們應該盡力讓AI變得更加慈善,而非厭世。我們希望它是真實的,好奇的,并促進人類走向未來。這就是我們想要的。
3.馬斯克:不認為人類最終可以控制AI
Tucker:那么,有沒有辦法在機器的決策中設置限制,確保在某些關鍵決策時有一個觸發機制,可以讓人類介入?
Elon:現實是,無論我們喜歡與否,我們正在構建超級智能AI,這種AI的智能水平超越了我們的理解范圍。我把這比作一個超級天才的孩子,你知道他最終會比你聰明得多。那你能做的是什么?你能在培養過程中灌輸良好的價值觀,即便你知道它將會比你聰明得多,你也可以確保它擁有良好的價值觀,比如慈善、道德、誠實和積極。但最終我不認為我們能夠控制它。所以我認為我們能做的最好就是確保它“成長”得好。
Tucker:你說了很久類似的話了,兩年前我問你這個問題時你看起來非常擔憂,現在你還像以前那么擔心嗎?
Elon:我猜現在可能是80%的幾率會變好,可能是90%。你可以把它看成一個“80%裝滿”的玻璃杯。大概率來說,它可能會帶來很好的結果。但確實存在一定的毀滅風險。
4.馬斯克為什么不信任奧特曼和OpenAI
Tucker:所以你認為毀滅的幾率是20%嗎?Sam Altman對這種毀滅的可能性感到多擔憂呢?
Elon:10%到20%,大概是這樣。我認為實際上他并不太擔心。我不信任OpenAI。你知道,我當初是以一個非營利、開源的方式創辦了這家公司,“OpenAI”是我取的名字。“Open”意為“開源”,但現在它變得非常閉源,并且以最大化利潤為目標。我不理解怎么能從一個開源非營利組織變成一個為了最大利潤的閉源企業。
Tucker:但Sam Altman確實變得富有了,不是嗎?
Elon:在某些場合,他聲稱自己并沒有變得富有,但他也說過很多不實的言論。而現在他好像要拿到100億美元的股票之類的。因此,我不信任Sam Altman。我不認為我們應該讓世界上最強大的AI被一個不值得信任的人所掌控,很抱歉,我就是這么覺得。
Tucker:這似乎是個合理的擔憂。但是,作為一個了解他并與他打過交道的人,你覺得他真的是在擔心AI可能失控并傷害人類嗎?
Elon:他會說那些話。
Tucker:是的,但不會真心擔憂。
5.終局是AI之間的較量
Tucker:如果AI真的失控,明確對人類構成威脅,我們有辦法阻止它嗎?
Elon:希望那些親人類的AI會比反人類的AI更強大。就像AI之間的對抗一樣。這就像如今的國際象棋一樣,AI國際象棋程序比任何人類都要強大,甚至強大到我們無法理解的程度。意思是,我們甚至無法理解它為什么做出某個動作。
Tucker:是的,為什么它們這么厲害。
Elon:我們甚至不知道它為什么下那一步棋。有時它的某些動作看起來像是失誤,但最終卻是絕妙的將軍。在一段時間內,人類最強的棋手加上最強的電腦還能戰勝單獨的電腦,但后來到了一個節點,如果你加上人類反而會讓局面變得更糟。最后就是AI對AI的較量。總體來說,這是發展的方向。所以我覺得我們只能盡量在AI中灌輸好的價值觀。
6.AGI到來后:很多人會喜歡退休
Tucker:那大家以后還能做什么工作呢?
Elon:在一個“良性AI”情景下,最大的挑戰可能就是,如果AI在任何事情上都比你強,那我們如何找到人生的意義?是的,這是最好的情況。
Tucker:這是好消息?
Elon:是的,但我猜很多人會喜歡退休的想法,你知道的……
Tucker:真的嗎?你期待退休嗎?
Elon:不,我不期待。我希望自己能做一些有用的事情。
Tucker:難道這不是一種普遍的愿望嗎?
Elon:這并不普遍,因為我確實認識一些人,他們更喜歡退休,享受無責任的生活和休閑活動。所以,我們正處在一個特殊的歷史時刻。我試圖用一種方式讓自己能夠入睡,并與這種現實和解,那就是:如果讓我選擇,我是愿意在一個看到數字超級智能出現的時代活著,還是在一個看不到它的時代活著?
出于好奇心,我希望能活著見證它的出現。然后我又想,如果你確定它會殺死所有人,那你可以選擇倒退回去。我想我會希望在生命的盡頭或類似的時間點見證這一切。但最終,問題變成了:如果它注定會發生,而你無力阻止,那么在假設情況下,你會選擇親眼目睹還是選擇視而不見?我猜它注定會發生。那么,我寧愿見證它的到來,而不是選擇不見。
7.馬斯克談美國AI監管現狀:此前谷歌控制了白宮,基本沒有落實
Tucker:這不是很奇怪嗎?幾乎所有事情都有監管。比如你說你因為沒有雇用更多的尋求庇護者而被司法部起訴了,而這是一家高科技公司。
Elon:是的,盡管我們雇用尋求庇護者是違法的。
Tucker:沒錯,他們在監控一切、監管一切、控制一切,包括我們的思想,對吧?這也是他們反對言論自由的原因。但他們并沒有真正地對AI進行監管,而AI可能會消除大部分人的生存意義,甚至可能會毀滅我們。這真是有點奇怪。
Elon:是的,有一些監管總比沒有好。
Tucker:那為什么我們沒有呢?
Elon:我不知道。在奧巴馬總統時期,我曾多次與他見面,大多數情況下是在集體會議上。唯一一次在橢圓形辦公室的一對一會面時,我說:“我們真正需要做的事情就是設立一個AI監管機構。”這個機構可以從洞察入手,不要急于制定法規,而是先了解情況,AI監管委員會首先需要了解所有公司的運作。然后,提議出所有AI公司都同意遵守的規則,就像NFL里的球隊一樣,大家同意一套規則以使比賽變得更好。但最終什么都沒有落實。
Tucker:當你這么說的時候,他的反應是什么?
Elon:他似乎有點同意,但那時候人們還沒有意識到AI的發展方向。AI在當時看起來更像是科幻小說中的未來技術。就像我告訴你,這東西會比最聰明的人類還聰明,而我的預測確實在逐漸成真。因此,我們需要一些洞察力,以確保這些公司沒有走捷徑或做危險的事情。但那時候Google基本上控制了白宮,他們不希望有任何監管。
Tucker:你不認為政治家們會放棄一個讓他們變得更有權力的機會,而監管恰恰是讓他們更有權力的工具。
Elon:是的。
Tucker:這聽起來像是監管俘獲。
Elon:沒錯,當時白宮的首席信息官是Google的前員工,所以他們在AI監管方面踩了剎車。而我們到現在依然沒有聯邦層面的AI監管。
Tucker:你接管時解雇了多少Google員工?
Elon:你是指Twitter吧?我們剛剛在討論Google。
Tucker:是的,Twitter。
Elon:大約80%。但在過去一年半里,我們在保持20%員工的情況下改進了網站的功能和特性,比過去八年的改進還要多。
8.談“政府效率部”:對不合理法規進行垃圾回收
Tucker:所以你和特朗普談過某種委員會的設立嗎?
Elon:是的,他已經在公開場合多次提到過。他非常支持設立一個類似政府效率委員會的機構。你可以稱之為“政府效率部”(Department of Government Efficiency),簡稱“DOGE”。我挺喜歡這個名字,聽起來更有趣。
我們應該看看所有的聯邦機構,想想我們是否真的需要這428個聯邦機構中的每一個。因為有很多機構人們從未聽說過,并且它們在職責上是重疊的。我覺得,我們可能應該減少這些機構數量。實際上,我們創建的聯邦機構數量甚至比美國成立以來的年數還多,這意味著平均每年我們至少創建了一個新機構。這實在是太多了。我認為我們應該能夠把機構數量減少到99個,這已經不少了。而且這些機構絕對不應該有重疊的職責。
我們還需要對法規進行審查,判斷哪些是合理的,哪些是不合理的。因為每年監管者都會增加新的法規,就像是自動化的產物一樣,法規越來越多,直到幾乎所有事情都被規定得嚴嚴實實,最終什么事都做不成。所以,我們需要一個對不合理法規進行“垃圾回收”的機制。我覺得我在說一些很顯而易見的事情。
Tucker:你說得確實是一些顯而易見的事情。這些話也會非常不受歡迎。
Elon:是的,如果這真的發生了,我可能需要一個相當大的安保團隊,因為真的有人可能會從郵局過來找我麻煩。
Tucker:但在此期間,你有一個名為AmericaPAC的組織,對吧?它是在鼓勵人們在接下來的一個月里投票。我這樣總結對嗎?
Elon:是的,我創立AmericaPAC的目的是支持我所信仰的核心價值觀,這些價值觀是非常顯而易見的中間派立場,比如:我們希望美國有安全的城市、穩固的邊界和合理的開支。這些主張有哪里偏右嗎?我們希望擁有自我保護的權利。我們應該尊重憲法,而不是試圖破壞憲法。憲法之所以存在是有原因的。
另外,我們應該停止法律戰(lawfare)。我把這些都列在了AmericaPAC的網站上。人們可以去看看這個網站,看看是否有什么需要修改或不認同的目標。但我認為這些目標是合理的,尤其是維護言論自由的權利,這屬于第一修正案的范疇。如果沒有言論自由,就沒有民主,因為人們無法做出重要的投票選擇。這就是我的“有爭議”觀點。而且我不認為任何一方政黨是完美的。
當然,目前我更傾向于共和黨,而不是民主黨。但這并不意味著我認為共和黨是完美的或者沒有問題的。畢竟我們只有兩個候選人可以選擇。從整體來看,投票給特朗普是個不言而喻的選擇。如果我們不投票給特朗普,我們將面臨失去民主的嚴重風險,變成一個一黨制國家,就像加州那樣,那里沒有真正的選舉,只有民主黨內的初選。
參考鏈接:https://www.youtube.com/watch?v=WMoNEiV3-aY
本文轉載自??51CTO技術棧??,編譯:Grace Bo,整理:言征
