成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Sam Altman預警:AI滅絕人類!375+大佬簽署22字聯名信,LeCun唱反調

人工智能 新聞
AI真的要滅絕人類嗎?375+大佬共同簽署了22字聯名信。

3月,千名大佬簽署暫停「超級AI」研發的聯名信,讓整個業界為之震驚。

就在昨天,一封只有22個字的聯名信再次引起軒然大波。

寥寥數語,把AI類比為了傳染病和核戰爭,分分鐘滅絕人類的那種。

圖片

簽名者中,有Hinton和Bengio兩位人工智能的「教父」,還有硅谷巨頭的高管,Sam Altman、Demis Hassabis等在人工智能領域工作的研究人員。

截止目前,已經有370多名從事人工智能高管都簽署了這份聯名信。

然而,這封信并不是得到所有人的支持。

「圖靈三巨頭」中的一位LeCun直言:我不同意。

「人工智能放大了人類的智慧,這在本質上是一件好事,與核武器和致命的病原體不同。我們甚至沒有一個可靠的藍圖來創造接近人類水平的人工智能。一旦我們做到了,我們會想出讓它安全的方法。」

圖片

這封聯名信究竟說了啥?

「致命」公開信

22字,言簡意賅:

「降低AI給人類帶來滅絕的風險,應該被提到全球級別的優先程度。就像我們應對傳染病、核戰爭這種社會危機一樣。」

圖片

而簽署這封公開信的AI界人士一眼根本望不到頭。

圖片

赫然映入眼簾的就是Geoffrey Hinton,Yoshua Bengio,谷歌DeepMind的CEO Demis Hassabis,OpenAI的CEO Sam Altman,Anthropic的CEO Dario Amodei。

圖片

這里面Hinton的含金量不用多說,前谷歌副總裁、深度學習泰斗、神經網絡之父,以及圖靈獎獲得者。

Yoshua Bengio同樣也是圖靈獎獲得者,和Hinton,LeCun被合稱為圖靈獎三巨頭。(然而LeCun在這件事上和另兩個巨頭態度截然相反)

除了在科技巨頭公司任職的大佬,還不乏知名AI學者。比如UC伯克利的Dawn Song,清華大學的張亞勤。

而在這些耳熟能詳的名字下面,就是數不勝數的AI界人士了。

甚至,每個人都可以參與簽署這封公開信。

只要填寫姓名、郵箱、職位等等信息,就可以參與簽署了。

圖片

不過,可以選擇的身份并不多。(狗頭)

圖片

反對:滅絕人類純扯淡

當然,Meta首席科學家LeCun還是一如既往地「唱唱反調」。

他一向的觀點都是:現在的AI發展剛哪兒到哪兒啊,就天天把威脅和安全掛在嘴邊。

他表示,所列出的威脅,根本不是現在AI發展的水平能達到的,因為壓根不存在。在我們基本設計出狗級別的人工智能(更不用說人類級別)之前,討論如何使其安全還為時過早。

圖片

斯坦福大學的吳恩達立場和LeCun相同,但理由卻有點不同。

他認為,不是AI會導致各種各樣的問題,而是我們將會遇到的各種各樣的問題只能靠AI來解決。

比如:下一次傳染病爆發,氣候變化導致的人口減少,小行星撞地球等等。

他表示,人類想繼續生存、繁榮下去,得加速AI的發展,而不是減慢。

圖片

也有網友評論,你說的這個不是AI,而是MAGIC(魔法)吧。

圖片

AI風險面面觀

那么,這些大牛們所宣稱的足以滅絕人類的風險包括什么呢?

他們總結了以下8個方面。

武器化

部分人可能會將AI用于帶有破壞性的地方,會導致人類生存的風險,加劇政治動蕩。

比方說,現在深度強化學習的技術已經可以應用于空戰了,機器學習能用于制造化學武器(已有論文表明,GPT-4可以在實驗室中自主進行實驗、合成化學品)。

此外,近年來研究人員一直在開發用于自動進行網絡打擊的AI系統,還有軍方領導人想要讓AI控制核發射井。

因此,未來AI強國會占據戰略優勢,各國之間的軍備競賽會轉向AI領域。就算大部分國家都確保各自構建的系統是安全的,且不會威脅他國安全,仍然可能有國家蓄意用AI做壞事,造成傷害。

這給人的感覺就像核武器,有一個不聽話不老實的就全白玩兒。

因為數字領域的危害傳播速度很快。

信息誤傳

信息誤傳這個事情大家早就有所耳聞。遠的不說,前一陣子美國律師用ChatGPT打官司,結果舉的案例有6個都是杜撰的例子,現在還熱乎著。

而有影響力的集體,比如國家、政黨、組織,有能力用AI來影響(通常是潛移默化地)并改變普通人的政治信仰、意識形態等等。

同時AI本身也有能力生成非常有煽動性(或者說有說服力)的觀點,激起用戶強烈的情緒。

而這些預想的可能后果是完全不可預料的,不得不防。

代理「把戲」

AI系統根據具象的目標進行訓練,而這些目標只是我們人類所重視的東西的間接代理。

就好像AI經過訓練,就可以給用戶推送他們愛看的視頻或文章一樣。

但并不代表,這種方式就是好的。推薦系統可能會導致人們的想法越來越極端,也更容易預測每個用戶的偏好。

而隨著未來AI的性能越來越強、影響越來越大,我們拿來訓練系統的目標也必須更加仔細的確認。

圖片

人類「退化」

如果看過「機器人總動員」這部電影,我們就能想象未來時代,機器越來越強,人類是一副什么樣子。

大腹便便、身體素質低下、毛病一堆。

就是因為,什么都交給AI了,人類自然就要「退化」了。

尤其是,在大量崗位被AI的自動化所取代的未來圖景下,這種場面更成為可能中的很可能。

不過,按LeCun的觀點,估計又得批駁一番。咱離「機器人總動員」想象的場景還差得遠。

圖片

技術壟斷

與技術本身無關,這一點強調的是可能會出現的「技術壟斷」。

也許有一天,最強大的AI由越來越少的利益相關者所掌控,使用權也被他們牢牢地捏在手心。

而真到了那一步的話,剩下的普通人就只能處在一個任人擺布的狀態,因為根本反抗不了。

想想大劉的科幻小說「贍養人類」吧。

一個終產者靠著AI統治著全球的everybody,多可怕。

圖片

不可控的發展

這點主要想說明,AI系統發展到某一步,可能結果會超出設計者的想象,且無法再進行控制。

實際上這也是主流的擔心所糾結的地方。

總會有人擔心,AI發展到最后,會像「終結者」里的「天網」一樣,或者「鋼鐵俠」里的「奧創」一樣,不受掌控,試圖毀滅人類。

或者換句話說,有些風險只有在發展的進程中才能發現,而真到發現的時候就已經晚了。甚至還可能會出現新的目標。

圖片

欺騙

這點有一些抽象,簡單來說,就是AI系統可能會「欺騙」人類。

這種「欺騙」并不是故意的,只是因為AI為了實現代理人的目標是處的手段而已。

通過「欺騙」獲得人類的認可,要比通過正常渠道獲得人類的認可更高效,而效率才是AI首要考慮的要素。

尋求權力的行為

這點和技術壟斷之間有相關性。

正因為會出現技術壟斷的情況,各國就會追求壟斷技術的權力。

而這種「追求」,很可能是會帶來難以預料的后果的。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-11-02 13:40:45

AI智能

2020-12-18 09:51:33

Google AI技術

2009-10-22 09:14:40

2023-10-25 12:44:47

2023-11-03 13:07:34

模型訓練

2023-11-22 11:20:22

2013-06-19 14:49:10

Google眼鏡谷歌眼鏡隱私保護

2023-06-01 17:51:24

2023-10-17 13:33:00

AI數據

2023-03-13 13:41:57

BasedGPT機器人人工智能

2024-12-30 14:12:28

AIAGI預測

2020-11-04 17:49:22

Python開發編程語言

2021-01-23 19:22:46

互聯網數據技術

2017-11-02 12:59:46

windows 10windows 7微軟

2023-10-31 12:53:33

2025-02-10 09:35:06

2025-05-13 09:05:35

2009-05-28 09:15:34

暴雪丁磊魔獸

2024-03-28 16:09:36

2023-11-07 16:10:18

OpenAIGPTAI
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一级大片 | 久久久精品一区二区三区 | v亚洲| 精品亚洲一区二区三区 | 欧美黄a | 色综网 | 日韩精品免费在线观看 | 逼逼网 | 国产精品久久久久久久岛一牛影视 | 在线不卡 | 亚州成人 | 久久99精品久久久久久秒播九色 | 在线亚洲电影 | 亚洲国产精品日本 | 欧美中文字幕一区二区三区 | 久久最新 | 一区二区在线 | 久久九精品 | 欧美日韩国产精品激情在线播放 | 久久亚洲精品视频 | 婷婷久久五月天 | 韩国av网站在线观看 | 色爱区综合 | 国产精品99久久久久久宅男 | 亚洲啪啪 | 久久久亚洲一区 | 午夜在线观看视频 | 久久久免费在线观看 | www.黄色片视频 | 中文字幕视频在线观看 | 成人欧美日韩一区二区三区 | 亚洲三区在线观看 | 日韩在线观看一区 | 中文字幕亚洲欧美日韩在线不卡 | 毛片99| 欧美午夜在线 | 国产91丝袜在线18 | 精品久久久久久亚洲精品 | 国产精品久久久久久久久免费相片 | 91高清视频 | 91黄在线观看 |