人類會因人工智能而滅亡嗎?霍金的最后一篇論文可能會有一些線索
“完整的人工智能發展可能意味著人類的終結.......它會自行發展,并以不斷增長的速度重新設計自己。"世界著名的物理學家斯蒂芬霍金在接受采訪時表示,由生物進化緩慢限制的人類將無法參與競爭并被取代。
霍金(1942年1月- 2018年3月),雖然他的職業是理論物理學家和宇宙學家,但他經常在全球變暖、政治和哲學等許多其他問題上發表自己的觀點。但他過去的大多數有爭議的言論都是關于科技對人類未來的危害。人工智能對人類的威脅曾經是他的警告之一。霍金的最后一篇文章于今年10月16日發表,由他的家人與同事合作完成。在他的最后一篇文章中,霍金談到了他認為技術可能會給人類帶來的風險,以及其他一些問題。
霍金預言背后的真相
霍金是無數理論天體物理學家和宇宙學家的靈感來源,他總是警告我們人工智能的威脅。在他的最后一本書《對大問題的簡明回答》(Hodder&Stoughton,2018)中,他講述了從人工智能到外星人的一切。
“超人”
但他談到的最重要的事情之一是超人取代普通人。超人,他的意思是“基因重新設計”人類。他談到了未來人類的基因編輯,并完全摧毀了當前的人類。我們已經有CHRISPR-Cas9來改變我們基因的水平。他認為人們會想辦法通過使用基因工程的奇跡來修改像智力和攻擊這樣困難的東西,并且不需要很長時間才能實現這一目標。它還可以增強抗病性和延年益壽。我們還進行了一項研究,該研究顯示了遺傳修飾胚胎治療心臟病的可能性。
基因工程的所有這些進步使霍金擔心人類的未來,他認為他們最終將成為對普通人類世界的威脅。他寫道:“一旦出現這樣的超人,就會出現未經改善的人類的重大政治問題,他們將無法參與競爭。據推測,他們會死亡,或變得不重要。相反,將會有一群自我設計的生物正以不斷增長的速度進步。“
人工智能引發的自然災害?
他的論文還說,人工智能在未來建立自己意志的可能性,這種意志將沖突我們人類的填滿,在未來1000年,重大環境災難或核戰爭將“削弱地球”。今天許多計算機科學家相信,意識將從人工智能中產生。
超級智能
過去,谷歌在其名為AutoML的項目中創建了一個人工智能系統,該系統創建了自己的子人工智能,其性能超過了自己的創造者。這需要人工智能去理解它是如何工作的,因為這是一種可能性,我們可以很好地關注未來人工智能意識的來臨。
霍金關注的是超人類人工智能的出現,它不僅能夠描繪人類的智力,而且能夠擴展人類的智力。他說,這項技術將超越人類,使他們不僅能做人類能做的事情,而且還能學習和成長,最終在能力上超越人類。他在書中說,人工智能將在未來100年超越人類的智力。但人類需要確保人工智能必須與我們擁有同樣的目標。
在電影《我,機器人》(I, Robot)中,描繪了一個留給機器人的未來世界。這部電影對人工智能控制世界以及它如何奴役人類有著負面的看法。
其他警告過我們人工智能的人
企業家埃隆•馬斯克(Elon Musk)也認為人工智能對人類構成了威脅,他與霍金一起簽署了一封公開信,希望能阻止機器人的崛起。據Rolling Stone報道,在給自己的神經技術公司Neuralink的員工看了一段關于人工智能的紀錄片后,他對他們說:“(讓人工智能安全)或許有5%到10%的幾率。”
萬維網的發明者Tim Berners-Lee在一次會議上談到了一個可怕的場景:人工智能可以通過創建和運營自己的公司,成為新的“宇宙主人”。一個很好的例子是美國電視節目《Black Mirror》中有一集叫《Metalhead》。
比爾·蓋茨在接受BBC采訪時分享了他對人工智能潛在威脅的看法。“幾十年后,盡管情報足夠強大,足以令人擔憂。我同意Elon Musk和其他一些人的觀點,我不明白為什么有些人不關心這個問題。”他說。
AI的未來
我們人類在整個歷史上創造的任何技術都有好的或壞的影響。是威脅還是幫助取決于我們。但人工智能的世界完全是另一個世界?;艚鹛岢龅耐{是真實存在的,作為一個文明,我們需要特別注意,不要讓它發展到我們自己也無法再控制它的地步。