成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

ChatGPT之父舌戰國會山!OpenAI欲與政府聯手,權力通天

人工智能 新聞
Sam Altman也迎來「周受資時刻」了,在國會山聽證會上,他備受議員尊敬。OpenAI和政府一聯合,他是要成為rulemaker、登頂硅谷之王了?

上次是周受資,這次,輪到了Sam Altman。

不過這一次,國會議員對他的態度截然不同——友好,耐心,做足了功課,虛心請教。

北京時間昨晚,OpenAI CEO Sam Altman在美國參議院就AI技術的潛在危險作證,并敦促立法者對制造先進AI的組織實施許可要求和其他法規。

圖片

Sam Altman不用接受刁鉆的問話,他坐在席位上游刃有余、侃侃而談,再次向世界證明:作為全世界最受矚目的初創公司CEO,他在書寫著科技世界的規則和未來。

面對美國國會,Sam Altman再次斬釘截鐵地保證:在未來六個月內,OpenAI堅決不會訓練GPT-5。

同時, 他也對全世界發出警告:AI有可能會對世界有害,為了應對日益強大的AI風險,我們需要加強監管和立法,而政府的干預極為重要。

為啥Altman對政府監管如此積極呢?

顯然,只要成為規則制定者,就能在競爭中贏者通吃。

而對于在硅谷靠著「社?!箤傩躁J出一片天地的Altman,和政府打交道,簡直輕松得如同探囊取物。

用AI生成的開場演講

作為科技界異軍突起的新力量,OpenAI在成立8年后,在今年以迅雷不及掩耳之勢攪動了全世界,逼得所有科技公司都參與進了一場以ChatGPT為起點的全球內卷。

這場全球AI軍備競賽,讓不少專家警鈴大作。

不過這次聽證會,參議院的議員們并沒有批評OpenAI的技術帶來的混亂,而是謙遜地就ChatGPT的潛在規則征求了證人們的意見,對Sam Atlman的態度是肉眼可見的友好和尊敬。

圖片

聽證會一開始,參議員Richard Blumenthal使用了聲音克隆軟件復制自己的音色,讓ChatGPT寫了一段開場白,使用數小時的演講訓練了一個文本到語音生成器。

此舉證明,國會「擁抱AI」的態度旗幟鮮明。

AI危險,請監管我們

這一場聽證會上,立法者明顯非常興奮,與他們曾經對小扎和周受資步步緊逼的質疑形成了鮮明對比。

參議員們沒有喋喋不休地談論過去的錯誤,而是對AI可能帶來的好處充滿渴望。

而Altman開門見山地告訴參議院:AI技術可能會出錯。

圖片

他表示,自己很擔心人工智能行業對世界造成重大傷害(cause significant harm to the world)。

「如果AI技術出錯,造成的后果不堪設想。我們需要對此發聲:我們希望與政府合作,防止這種情況發生?!?/span>

「我們認為,政府的監管干預對于減輕日益強大的AI模型的風險,至關重要。比如,美國政府可以考慮將許可和測試的要求結合起來,以開發和發布超過能力閾值的AI模型。」

Altman表示,自己非常擔心選舉會受到AI生成內容的影響,因此在這方面需要有足夠的監管。

對此,參議員Dick Durbin表示,大公司來到參議院「懇求我們的監管」,是很了不起的行為。

Altman提出三點方案:

怎么監管?Altman早就替政府想好了。

在聽證會上,他提出一個成體系的方案。

1. 成立一個新的政府機構,負責為大型 AI 模型頒發許可,撤銷不符合標準的模型的許可。

而對于能力遠達不到最先進的大模型的技術,他認為不需要使用這種許可監管制度。國會可以「定義能力閾值」,免除小型公司和研究人員可能遇到的監管負擔,鼓勵創新。

2. 為 AI 模型創建一套安全標準,包括對其危險能力的評估。

例如,模型必須通過安全測試,比如它們是否可以「自我復制」和「流出到監管之外」。

3. 要求獨立專家對模型在各種指標上的表現進行獨立審計。

當參議員問他是否愿意擔任這個角色時,Altman說:我對目前的工作感到滿意,不過他很愿意提供一個名單供國會挑選。

Altman說,因為AI模型可以「說服、操縱、影響一個人的行為、信仰」,甚至「創造新的生物制劑」,因此,非常需要許可。

對所有超過一定計算能力閾值的系統進行許可會更簡單,但Altman表示,自己更愿意根據特定能力劃定監管線。

圖片

那OpenAI自己的模型安不安全呢?

Altman一再表示,大家可以放心。

他說,GPT-4模型比其他任何類似模型做出的回應都會更有意、更真實,并且一定會拒絕有害的請求,因為GPT-4經過了廣泛的預發布測試和審計。

「在發布任何新系統之前,OpenAI 會進行廣泛的測試,聘請外部專家進行詳細審查和獨立審計,改進模型的行為,并實施強大的安全和監控系統?!?/span>

「在發布GPT-4之前,我們花了六個多月的時間進行廣泛的評估、外部紅隊和危險能力測試?!?/span>

并且在上個月,ChatGPT的用戶已經可以關閉聊天記錄,防止自己的個人數據被用來訓練AI模型了。

不過呢,也有眼尖的群眾發現了「華點」,Altman的提議中,并沒有涉及到公眾熱議的兩點——

1. 要求AI模型為其訓練數據公開來源。

2. 禁止AI模型使用受到知識產權保護的作品進行訓練。

嗯,就是說,Altman非常巧妙地回避了這兩個爭議點。

Altman對于AI安全規則的提議,議員們大為贊許,并且偶爾會對他的證詞表示感謝。參議員R-LA甚至向Altman拋出了橄欖枝,問他是否有意在國會創建的監管機構工作。

國會決心監管人工智能,早有前兆。本月初,Altman同谷歌、微軟和英偉達的CEO一同在白宮會見了副總統Kamala Harris,討論了負責任AI的發展。

而早在去年,白宮就曾提出「人工智能權利法案」,向業界提出各種要求,比如防止歧視。

類比原子彈,建議成立類似國際原子能機構的國際組織

參議員提出,把AI比作原子彈的說法。

而Altman參考世界各國政府監管核武器的做法,提出了組建一個類似于國際原子能機構的機構,來為該行業制定全球規則的想法。

OpenAI在未來六個月內不會訓練GPT-5

在4月份Lex Fridman的第2輪訪談中,Sam Altman言之鑿鑿地說:「我們現在并沒有訓練GPT-5,目前只是在GPT-4的基礎上進行更多的工作而已?!?/span>

圖片

這次聽證會上,Altman更是直接承認,OpenAI在未來6個月內,沒有訓練可能成為GPT-5的新模型的計劃。

而這應該意味著,谷歌將在今年晚些時候擁有其迄今為止最強大的人工智能系統——Project Gemini。

據說,Gemini專為存儲和調度等未來創新而設計,不僅從一開始就是多模態的,而且在集成工具和API方面效率很高。目前正由新成立的Google Deepmind團隊研發。

馬庫斯:OpenAI自稱為了全人類,可數據不透明

紐約大學心理學和神經科學教授Gary Marcus也出現在了證人席上。

圖片

他的打擊性甚至比國會議員們還要強。

他對Sam Altman發出的提問,可謂「招招致命」。

OpenAI成立的宗旨不是造福全人類么,如今為什么跑去和微軟結盟?

OpenAI不Open,GPT-4的訓練數據不透明,到底是幾個意思?

圖片

馬庫斯總結道:我們擁有前所未有的機會,但我們也面臨著企業不負責任、廣泛部署、缺乏適當監管和不可靠的可怕風險

在馬庫斯看來,Open和微軟的行事都大有問題。

曾經微軟的必應AI悉尼,表現出了一系列令人震驚的行為。

「悉尼的問題很大,如果是我,會馬上把它從市場上撤下,但微軟并沒有?!?/span>

馬庫斯表示,這件事給自己敲響了警鐘——即使是像OpenAI這樣的非盈利組織,也可能被大公司買下,然后想做什么就做什么。

但現在,人們的觀點和生活都在潛移默化地被AI塑造和改變,如果有人故意利用AI技術,用于不良的目的呢?

馬庫斯對此表示非常擔心。

圖片

「如果讓一種技術官僚和寡頭政治相結合,那少數公司就可以影響人們的信仰,這是真正的風險所在......讓少數玩家使用我們根本不知道的數據來做到這一點,這讓我感到害怕」

Altman表示AI界并不存在壟斷

針對一些常見的法律監管方面的問題,看得出來Altman早就成竹在胸,給各位參議員們安排得明明白白的。

參議員說,他對人工智能的「最大擔憂」之一是「這種大規模的企業壟斷」。

他舉了 OpenAI 與科技巨頭微軟的合作為例。

Altman表示,他認為能夠制造大模型的企業數量相對較少,反而可能會更加方便監管。

例如,大型的生成式 AI,只有少數公司能夠制造,但是競爭一直是存在的。

給大模型建立法律責任

美國國會 1996 年通過的第 230 條促進了社交媒體的興起,該條款保護網站免于對用戶的帖子承擔責任。

Altman認為:大模型現在沒有辦法受到230條的法律保護。應該制定新的法律保護大模型不會因為輸出內容而承擔法律責任。

巧妙回避最致命的問題

奧特曼最初回避了參議員提出的「AI可能造成最嚴重的后果」。

但在馬庫斯友好地提醒 Altman 沒有回答問題后,這位參議員重復了他的問題。

Altman最終也沒有正面回答這個問題。

圖片

他說,OpenAI 曾試圖非常清楚人工智能的風險,這可能會以「很多不同的方式」對「世界造成重大傷害」。

他再次闡明。應對這個問題就是OpenAI成立的原因?!溉绻@項技術出了問題,它可能會大錯特錯。」

其實,在今年早些時候接受「StrictlyVC」采訪時,Altman稱人類滅絕是最壞的情況。

最終,就連馬庫斯似乎也對奧特曼軟化了。

在聽證會快結束時,坐在Altman旁邊的馬庫斯說,「他在談論恐懼時的誠意非常明顯,這種誠意在透過電視屏幕是沒法感受到的?!?/span>

老練的科技領袖

跟小扎相比,Altman此次聽證會的表現十分老練,想來他作為社牛,對與政客們打交道早已游刃有余。畢竟,Altman可是多年前就曾考慮過競選加州州長的人物。

而且對比去聽證會前因為數據隱私和貨幣已經「捅了大簍子"的小扎,Altman背后的OpenAI不但幾乎沒有受到任何公眾的指責,還是目前AI領域「萬物竟發」局面的最主要開創者。

面對一上來就示好,呼吁對AI進行監管的Altman,這些幾乎都是「技術素人」的立法者自然在這位「權威」面前會顯得溫柔和藹很多。

所以同樣場合之下,Altman身上的壓力與小扎相比完全不是一個數量級。

大模型的商業模式

有參議院提出這種擔心,如果像互聯網社交平臺一樣,AI產品如果采用廣告為主的商業模式,會讓操縱性的產品設計和令人上癮的算法被濫用。

Altman說自己「非常喜歡」訂閱模式。

但是OpenAI 確實考慮過在 ChatGPT 免費版中投放廣告來從其免費用戶那里賺錢的可能性。

責任編輯:張燕妮 來源: 新智元
相關推薦

2021-03-12 15:16:02

谷歌FBI嫌疑人

2021-12-08 11:21:48

穩定幣加密貨幣貨幣

2011-06-07 10:32:05

iPad黑莓

2021-01-22 10:23:21

科學計算機技術

2010-09-25 09:48:10

2023-05-17 16:13:41

AIChatGPTOpenAI

2023-05-24 09:32:46

AI微軟

2023-08-30 08:27:12

AI峰會AI

2024-07-15 13:22:52

2024-02-19 14:47:47

2023-01-05 13:50:37

ChatGPT

2012-07-30 11:15:41

2023-10-23 15:27:09

OpenAIChatGPT

2023-11-14 08:08:00

2023-03-02 12:32:36

2023-07-14 14:27:16

2009-10-23 09:35:37

北電退休工人

2023-04-28 15:06:41

AI技術

2011-11-29 12:07:39

2025-04-27 09:17:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲综合无码一区二区 | 在线一区观看 | 粉嫩在线 | 久久99精品久久久久子伦 | 久久久www成人免费无遮挡大片 | 久久www免费视频 | 免费激情| 久久精品视频一区二区三区 | 九一在线 | 国产伦精品 | 国产黄色在线观看 | av一级久久 | 欧美日韩一区在线观看 | 99国产精品久久久久老师 | av大片在线 | 亚洲经典一区 | 一区二区不卡 | 亚洲a一区二区 | 日日噜 | 精品不卡 | 精品一区二区三区四区外站 | 成人av免费在线观看 | 欧美一级黄色网 | 日韩毛片免费看 | 日日噜噜噜夜夜爽爽狠狠视频97 | 久久99国产精品 | 成人在线欧美 | 精品免费视频一区二区 | 精品区 | 国产精品久久毛片av大全日韩 | 欧美性生活网 | 欧美日韩精品免费观看 | 欧美情趣视频 | 一级在线观看 | 精品欧美一区二区三区精品久久 | 精品国产91乱码一区二区三区 | 91精品国产91久久久久久吃药 | 午夜精品久久久久久久久久久久 | 九九视频在线观看 | 国产精品成人一区二区三区夜夜夜 | 日韩国产在线 |