成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

麻省理工科技評論:六個問題將決定生成人工智能的未來

人工智能
“生成式人工智能在 2023 年席卷全球。它的未來以及我們的未來將取決于我們下一步的行動。”

“生成式人工智能在 2023 年席卷全球。它的未來以及我們的未來將取決于我們下一步的行動。”

麻省理工科技評論的人工智能高級編輯Will Douglas Heaven近日發布文章《These six questions will dictate the future of generative AI》,介紹了生成型人工智能(generative AI)在2023年的發展和影響,以及未來面臨的六個關鍵問題。這篇文章是一篇很有價值的科技評論,它對生成型人工智能的現狀和未來進行了全面和深入的探討,提出了一些重要的問題和建議。

生成人工智能(generative AI)是能夠自動創造出新的內容和產品的人工智能技術,它利用了深度學習、神經網絡、自然語言處理等先進的算法和模型,能夠模仿和超越人類的創造力和智慧。生成人工智能已經在各個領域展現了驚人的能力和潛力,比如音樂、藝術、文學、設計、游戲、醫療、教育、商業等,它為人們提供了更多的便利和樂趣,也為社會帶來了更多的價值和創新。

生成人工智能面臨著許多的挑戰和問題,比如數據的質量和來源,模型的可靠性和可解釋性,以及倫理和法律的約束和保護。這些問題不僅影響著生成人工智能的發展和應用,也關系到人類的利益和未來。因此,我們需要對生成人工智能有一個全面和深入的了解,探討它的優勢和劣勢,分析它的機遇和風險,制定合理的規則和標準,以確保它的負責任使用和可持續發展。

1.我們會讓生成人工智能減輕偏見的問題嗎?

文章首先指出,生成人工智能中的偏見是由于使用了反映了社會歧視的真實數據來訓練模型,導致模型在生成內容時也會重現和加劇這些歧視,比如在聊天機器人、圖像生成器、面部識別、招聘算法等方面。要從根本上解決偏見問題,需要新的數據集或新的訓練方法,但這些都需要很長的時間和工作。文章介紹了一些目前的研究方向,比如使用人類反饋的強化學習、使用合成數據集、使用多樣化和跨領域的數據等,來減少生成人工智能中的偏見。

偏見已經成了人工智能帶來的傷害的代名詞,這是有道理的。現實中的數據,特別是從網上抓取的文本和圖片,都充滿了偏見,從性別刻板印象到種族歧視。用這些數據訓練的模型就會學習這些偏見,然后在使用的時候又會加強這些偏見。

聊天機器人和圖像生成器往往把工程師描繪成白人男性,護士描繪成白人女性。黑人有被警察部門的面部識別程序誤認的風險,導致被錯誤逮捕。招聘算法偏向于男性而不是女性,使得原本想要解決的偏見更加深入。

如果沒有新的數據集或新的訓練方法(這兩者都需要很多年的工作),偏見問題的根源就會一直存在。但這并沒有阻止它成為研究的熱門話題。OpenAI就試圖用一些技術,比如人類反饋的強化學習(RLHF),來讓它的大型語言模型變得更少偏見。這樣就可以讓模型的輸出更接近人類測試者喜歡的文本。

其他的技術涉及到使用合成數據集。比如Runway,一個為視頻制作提供生成模型的創業公司,就用一些合成數據,比如人工生成的不同種族、性別、職業、年齡的人的圖片,來訓練一個受歡迎的圖像生成模型Stable Diffusion的一個版本。這家公司報告說,用這個數據集訓練的模型可以生成更多的深膚色的人和女性的圖片。如果請求一個商人的圖片,輸出就會包括戴頭巾的女性;如果請求一個醫生的圖片,輸出就會包括膚色和性別多樣的人。

批評者認為這些解決方案只是在破損的基礎模型上貼上創可貼,掩蓋而不是修復問題。但是Geoff Schaefer,Smith在Booz Allen Hamilton的同事,也是這家公司的人工智能責任主管,認為這樣的算法偏見可以以一種有益的方式暴露社會偏見。

舉個例子,他指出,即使從數據集中刪除了關于種族的明確信息,種族偏見仍然可以影響數據驅動的決策,因為種族可以從人們的地址推斷出來,揭示了隔離和住房歧視的模式。“我們把一堆數據放在一起,這種相關性就變得非常明顯,”他說。

Schaefer認為這一代的人工智能也會發生類似的事情:“這些社會上的偏見都會顯現出來。”他說,這將導致更有針對性的政策制定。

但是很多人會對這種樂觀態度感到不滿。問題暴露出來并不意味著它一定會得到解決。政策制定者仍然在努力解決多年前就暴露出來的社會偏見,比如在住房、招聘、貸款、警察等方面。與此同時,個人還要承受后果。

偏見將繼續是大多數生成人工智能模型的固有特征。但是通過一些變通方法和提高意識,可以幫助政策制定者解決最明顯的例子。

2.人工智能將如何改變我們應用版權的方式?

AI將如何改變我們對版權的運用?許多藝術家和作家(還有編程人員)不滿科技公司未經同意就從他們的作品中獲利,于是對OpenAI、微軟等公司提起集體訴訟,指控他們侵犯版權。Getty也起訴了Stability AI,這是一家制作圖像的公司,它的產品叫Stable Diffusion。

莎拉·西爾弗曼和喬治·R.R.馬丁等名人的訴訟引起了媒體的關注。這些案件將重新定義在美國,什么算是對他人作品的合理使用,什么不算。但是別急著看結果。專門從事知識產權許可的律師事務所Gunderson Dettmer的合伙人凱蒂·加德納說,法院要做出最終判決還需要幾年時間。她說到那時,“這項技術已經在經濟中根深蒂固,無法逆轉。”

與此同時,科技行業正以驚人的速度利用這些涉嫌侵權的技術。加德納說:“我不認為公司會等著看。”“雖然有一些法律風險,但是如果不跟上,風險會更大。”

一些公司已經采取措施,限制侵權的可能性。OpenAI和Meta聲稱已經推出了一種讓創作者從未來的數據集中刪除他們的作品的方法。OpenAI現在禁止DALL-E的用戶請求以活著的藝術家的風格生成圖像。但是,加德納說,“這些都是為了支持他們在訴訟中的論點。”

谷歌、微軟和OpenAI現在提供保護他們的模型用戶免受潛在法律訴訟的服務。微軟的GitHub Copilot生成式編程助手,就是因為使用了一些軟件開發者的代碼而被起訴的,它的賠償政策原則上會保護那些在法院審理期間使用它的人。“我們會承擔這個負擔,讓我們的產品用戶不用擔心,”微軟CEO薩提亞·納德拉告訴《麻省理工科技評論》。

與此同時,新的許可協議也在出現。Shutterstock和OpenAI簽訂了一份為期六年的協議,允許后者使用其圖像。Adobe也聲稱,它自己的圖像生成模型Firefly,只使用了經過許可的圖像,或者來自其Adobe Stock數據集的圖像,或者已經不受版權保護的圖像。但是,一些Adobe Stock的貢獻者說,他們沒有被征求意見,對此很不滿。

怨氣很大。現在藝術家們用自己的技術反擊。有一種工具叫Nightshade,它可以讓用戶以一種人類無法察覺的方式改變圖像,但是對機器學習模型卻是致命的,讓它們在訓練過程中錯誤地分類圖像。預計在線分享和重用媒體的規范會發生很大的調整。高調的訴訟仍將引起關注,但這不太可能阻止公司繼續開發生成式模型。圍繞道德數據集的新市場將出現,公司和創作者之間的貓鼠游戲也將展開。

3.它將如何改變我們的工作?

生成人工智能正在威脅我們的工作,不僅是藍領,也包括白領,比如數據分析師、醫生、律師和記者。生成人工智能可以通過大型語言模型來完成一些需要高水平的考試、總結、寫作等任務。但這并不意味著生成人工智能真的很聰明,也不意味著它們可以取代所有的專業角色。

Will Douglas Heaven在文章中介紹了一些使用生成人工智能的案例,比如波士頓咨詢集團的顧問實驗,Air Street Capital 的分析報告,以及Runway 的視頻制作。文章展示了生成人工智能可以幫助工作人員提高效率、質量、創新和滿意度。文章也提到了一些使用生成人工智能的注意事項,比如要避免過度依賴、要檢查錯誤、要尊重版權等。

生成人工智能對辦公桌工作以外的影響,比如圖像和視頻制作模型可以在不需要人類參與的情況下制作大量的圖片和電影。文章指出,這將引發一些版權、道德和社會的問題,比如2023年的美國作家和演員的罷工。

生成人工智能對工作的總體影響,生成人工智能不是取代工人,而是賦予工人權力。技術變革會帶來新的就業機會,而不是造成大規模失業,技術變革會帶來一些痛苦和不平等,需要我們思考我們想要的工作的意義和價值。

生成人工智能會影響哪些類型的工作,取決于工作的性質和特點,以及生成人工智能的能力和局限。一般來說,生成人工智能會影響那些需要大量的重復和規范的工作,比如數據的收集、處理、分析、可視化等,因為這些工作可以很容易地被生成人工智能的算法和模型所實現和優化,而且生成人工智能可以比人類更快、更準、更全地完成這些工作。生成人工智能也會影響那些需要高度的創造力和智慧的工作,比如音樂、藝術、文學、設計、游戲、醫療、教育、商業等,因為這些工作可以很好地利用生成人工智能的生成能力和生成潛力,而且生成人工智能可以比人類更多、更新、更好地創造出這些內容和產品。生成人工智能還會影響那些需要跨領域和跨媒介的工作,比如從文本生成圖像,從圖像生成音頻,從音頻生成視頻等,因為這些工作可以很方便地使用生成人工智能的生成技術和生成工具,而且生成人工智能可以比人類更靈活、更自由、更精確地生成出這些內容和產品。

4.AI造假的風險有多大?

2023年,生成式AI引起了廣泛的關注和擔憂。一些用AI制造的假照片在網上瘋傳,有些甚至涉及教皇、特朗普和五角大樓等敏感人物和地點。這些虛假信息不僅難以辨別,而且可能影響選舉結果。OpenAI自己也承認,它的技術可能被用于制造有害的宣傳。為了應對這些問題,拜登政府和歐盟都出臺了相關的規定和措施,要求AI生成內容加上標識和水印,并保護用戶免受聊天機器人的欺騙。同時,美國還將對可能危及國家安全的AI進行審計。但是,這些措施是否有效,是否及時,是否合理,還有待觀察。一些AI專家和企業家對AI的未來和風險有不同的看法,有些擔心AI會導致人類滅絕,有些認為這是荒謬的,有些認為應該放慢AI的發展,有些認為應該加快AI的創新。他們之間的爭論還沒有結束,而生成式AI的使用和濫用也還在繼續。

2023年最火的三張照片是:教皇穿著Balenciaga的羽絨服,特朗普被警察摁倒在地,五角大樓爆炸。全都是假的,但卻被數百萬人看到和轉發。

用生成式模型制造假文本或假圖像比以往更容易。很多人警告說,虛假信息泛濫。OpenAI參與了一項研究,揭示了它自己的技術可能被用于假新聞活動的多種濫用方式。在2023年的一份報告中,它警告說,大型語言模型可能被用來制造更有說服力的宣傳,而且難以識別,而且規模龐大。美國和歐盟的專家已經表示,選舉面臨風險。

拜登政府在10月份發布的關于人工智能的行政命令,將AI生成內容的標注和檢測作為重點,這并不令人意外。但是,這項命令沒有法律上強制要求工具制造商將文本或圖像標記為AI的創作。而且最好的檢測工具還不夠可靠。

歐盟的AI法案本月達成一致,并且走得更遠。這項全面的立法的一部分要求公司給AI生成的文本、圖像或視頻加上水印,并在人們與聊天機器人互動時明確告知。而且AI法案有牙齒:規則是有約束力的,違反者將面臨高額罰款。

美國也表示,它將審計任何可能對國家安全構成威脅的AI,包括選舉干預。這是一個很好的步驟,Benaich說。但是,就連這些模型的開發者也不知道它們的全部能力:“政府或其他獨立機構能夠強制公司在發布模型之前進行全面測試的想法似乎不現實。”

問題在于:在技術被使用之前,我們不可能知道它會被濫用的所有方式。“2023年有很多關于放慢AI發展的討論,”Schaefer說。“但是我們持相反的觀點。”

除非這些工具被盡可能多的人以盡可能多樣的方式使用,否則我們無法使它們變得更好,他說:“我們不會理解這些奇怪的風險會以怎樣的細微方式顯現,或者什么事件會引發它們。”

隨著使用的增加,新的濫用形式將繼續出現。可能會有一些引人注目的例子,可能涉及選舉操縱。

5.我們會認真對待它的成本嗎?

生成式AI的開發不僅需要大量的數據和算力,還需要大量的人工干預和審核。這些工作往往由一些看不見的、低收入的工人來完成,他們的勞動條件和心理健康都受到了忽視。2023年,OpenAI因為雇傭肯尼亞的工人來過濾它的生成式模型的有害內容而受到了媒體的曝光和批評。這引起了公眾對生成式AI的人力成本的關注和質疑。另一方面,生成式AI的開發也消耗了大量的能源,導致了環境污染和氣候變化。英偉達等公司因為提供了訓練AI模型的硬件而獲得了巨大的收益,但也面臨著節能和創新的壓力。公眾對AI的勞動和環境成本的認識將增加,給科技公司帶來壓力。但是,在這兩方面取得顯著的改善還需要時間和努力。

AI的代價有多高?生成式AI的開發代價,無論是人力還是環境,都不容忽視。看不見的工人問題是一個公開的秘密:我們免受了生成式模型能產生的最糟糕的東西,部分原因是有一群隱藏的(通常報酬很低的)勞工,他們給訓練數據打標簽,還要在測試過程中清除有毒的、有時是創傷性的輸出。這些是數據時代的血汗工廠。

2023年,OpenAI在肯尼亞的工人使用情況受到了《時代》和《華爾街日報》等主流媒體的關注。OpenAI想要通過建立一個過濾器來改進它的生成式模型,這個過濾器可以隱藏仇恨的、淫穢的和其他冒犯性的內容,不讓用戶看到。但是,要做到這一點,它需要人們找到并標記大量這樣的有毒內容的例子,以便它的自動過濾器能夠學會識別它們。OpenAI雇傭了外包公司Sama,而Sama據稱又使用了在肯尼亞的低薪工人,而且給他們的支持很少。

隨著生成式AI成為一個主流的問題,人力成本將更加突出,迫使建造這些模型的公司解決全世界被雇傭來幫助改進他們技術的工人的勞動條件。另一個巨大的成本,就是訓練大型生成式模型所需的能源,這個數字在情況好轉之前還會上升。8月份,英偉達宣布2024年第二季度的收入超過135億美元,比去年同期翻了一番。其中大部分收入(103億美元)來自數據中心,換句話說,就是其他公司使用英偉達的硬件來訓練AI模型。

“需求非常驚人,”英偉達CEO黃仁勛說。“我們正處于生成式AI的起飛階段。”他承認能源問題,并預測這次繁榮甚至可能推動計算硬件的類型發生變化。“世界上絕大多數的計算基礎設施都必須節能,”他說。

公眾對AI的勞動和環境成本的認識將增加,給科技公司帶來壓力。但是不要指望在這兩方面很快有顯著的改善。

6.AI末日論會影響政策制定嗎?

AI末日論——認為智能機器的創造可能帶來災難性,甚至是世界末日的后果——一直是AI的一個暗流。但是高潮迭起的炒作,加上AI先驅杰弗里·辛頓在5月份宣布他現在害怕他自己幫助建造的技術,讓它浮出水面。

2023年,幾乎沒有什么問題比這個更有爭議。像辛頓和另一位圖靈獎得主、創立Meta AI實驗室的雅恩·勒昆這樣的AI名人,對AI末日論持不同的看法,他們在社交媒體上公開爭吵,相互挖苦。

辛頓、OpenAI CEO薩姆·奧爾特曼等人建議,(未來的)AI系統應該有類似于核武器的安全措施。這樣的話引起了人們的注意。但是在7月份他與人合寫的一篇《Vox》文章中,美國科學家聯合會核信息項目的項目經理馬特·科達,譴責了這些“混亂的類比”和它們引發的“不消耗卡路里的媒體恐慌”。

我們很難分辨真假,因為我們不知道發出警告的人的動機,Benaich說:“看起來很奇怪,很多人靠這些東西發了大財,而且很多人還是那些主張更大控制的人。就像是說,‘嘿,我發明了一種很強大的東西!它有很多風險,但我有解藥。’” 有些人擔心這種恐嚇的影響。在X上,深度學習的先驅吳恩達寫道:“我對AI未來的最大擔憂是,如果被夸大的風險(比如人類滅絕)讓科技說客通過了壓制開源和扼殺創新的嚴苛法規。”這場辯論也讓資源和研究人員從更緊迫的風險,比如偏見、就業動蕩和虛假信息轉移了注意力。

“有些人推動存在風險,因為他們認為這會讓他們自己的公司受益,”谷歌的有影響力的AI研究員弗朗索瓦·喬萊說。“談論存在風險既突出了你有多么有道德意識和責任感,又轉移了對更現實和緊迫問題的關注。”

Benaich指出,有些人一邊敲響警鐘,一邊為他們的公司籌集1億美元。“你可以說,末日論是一種籌款策略,”他說。

恐嚇將會平息,但對政策制定者的議程的影響可能會持續一段時間。呼吁重新關注更直接的危害將繼續。

7.附加問題:人工智能的殺手級應用還沒出現

OpenAI推出了一款聊天機器人ChatGPT,它基于OpenAI之前的大型語言模型GPT-3.5,但做了一些改進,使它更適合對話和回答問題。這款聊天機器人引起了很多人的興趣和好奇,被認為是人工智能領域的一次突破。OpenAI的聯合創始人兼首席科學家Ilya Sutskever說,他和他的團隊經常用ChatGPT來做各種事情,比如查單詞、查事實、規劃假期、學編程等。他說,人工智能是最火的東西,也是科技和經濟的核心。但是,OpenAI沒有給ChatGPT設定一個明確的用途,而是讓用戶自由發揮。這讓很多人感到困惑和失望,因為他們發現ChatGPT并沒有什么驚人的功能,也沒有什么殺手級的應用。谷歌的員工也對他們自己的聊天機器人Bard表示懷疑,不知道它有什么價值。投資公司紅杉資本的數據顯示,生成式人工智能的應用還沒有達到YouTube和Instagram等流行服務的水平,用戶的忠誠度很低。生成式人工智能還面臨著很多問題和挑戰,比如利基市場、競爭對手、技術變革等。正如OpenAI的另一位聯合創始人兼首席執行官Sam Schaefer所說,我們必須用前所未有的方式來解決這些問題。

ChatGPT 本來差點沒上線。OpenAI 的聯合創始人兼首席科學家 Ilya Sutskever 對它的準確性不滿意。其他人覺得它沒什么進步。其實,ChatGPT 只是把 OpenAI 之前開發的大型語言模型 GPT-3.5 和一些有趣的改進(比如更有對話感和更貼切的回答)結合起來,做成一個方便的包。“它很強大,也很好用,”Sutskever 說。“這是人工智能領域第一次讓外行人看到人工智能的進步。”

ChatGPT 的炒作還沒結束。“人工智能是最火的東西,”Sutskever 說。“它是科技和經濟的核心。我覺得我們會一直對人工智能的能力感到驚訝。”

但既然我們知道了人工智能能做什么,那么它的用途是什么呢?OpenAI 沒有考慮這項技術的實際用途。他們發布 ChatGPT 時就說,隨你怎么用。從那以后,大家都在想這個問題。

“我覺得 ChatGPT 很有用,”Sutskever 說。“我常用它來做各種事。” 他說他用它來查單詞,或者幫他表達得更清楚。有時他用它來查事實(雖然它不一定對)。OpenAI 的其他人用它來規劃假期(“世界上最好的三個潛水地點是哪里?”)或者學編程或者找 IT 支持。

有用,但不夠驚艷。大部分例子都可以用現有的工具(比如搜索)來做。同時,據說谷歌的員工對他們自己的聊天機器人 Bard(現在由谷歌的 GPT-4 對手 Gemini 支持)的實用性有疑問。“我還在想,對于法學碩士來說,Bard 真的有什么用?” 巴德的用戶體驗主管 Cathy Pearl 8 月份在 Discord 上寫道。“就像真的有改變。還不知道!”

沒有殺手級應用,就沒有“哇”效應。投資公司紅杉資本的數據顯示,雖然 ChatGPT、Character.ai 和 Lensa 等人工智能應用可以讓用戶制作自己的風格化(和性別歧視)頭像,但它們還是比 YouTube 和 Instagram 等流行的服務更容易失去用戶。抖音也是。

“消費科技的規律還是一樣,”貝奈奇說。“會有很多試驗,炒了幾個月就死了。”

當然,互聯網的早期也有很多失敗的嘗試。在改變世界之前,互聯網經歷了一場泡沫。今天的生成式人工智能也可能會失敗,被下一個大事所取代。

不管怎樣,既然人工智能已經成為主流,利基問題也變成了大家的問題。正如謝弗所說,“我們必須用前所未有的方式來解決這些問題。”

責任編輯:華軒 來源: 大噬元獸
相關推薦

2023-12-26 07:46:35

2020-08-17 17:12:07

戴爾

2023-06-19 14:00:00

數字化轉型

2025-02-17 11:16:28

2019-02-28 09:47:24

技術研發指標

2018-02-25 14:10:33

2018-01-03 09:17:56

2018-02-23 10:02:25

技術阿里巴巴基因

2020-04-29 09:34:54

人臉識別技術安全

2017-02-24 07:37:30

2020-02-27 09:27:21

技術研發指標

2015-11-16 09:54:02

大數據機器人技術趨勢

2022-01-26 11:09:46

人工智能量子數字世界

2020-07-21 10:55:42

技術研發指標

2023-09-18 10:21:35

生成式人工智能GenAI

2015-04-16 09:41:01

2011-05-23 14:16:32

2020-10-11 20:10:59

技術人工智能麻省理工

2018-03-15 22:32:47

谷歌CPU深度學習
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 男人的天堂中文字幕 | 日本在线免费看最新的电影 | 亚洲情综合五月天 | 日韩欧美久久 | 久久成人国产 | 美女黄网| 日本在线视频一区二区 | 香蕉视频黄色 | 国产精品成人一区 | 99久久精品免费看国产四区 | 亚洲精品在线视频 | 日本在线你懂的 | 久久精品一区二区三区四区 | 亚洲欧美一区二区三区国产精品 | 天天操网| 91在线第一页 | 欧美日韩福利视频 | 国产一级免费视频 | 伊人伊人网 | 亚洲国产伊人 | 日韩一级不卡 | 草草草影院 | 毛片久久久 | 日韩精品一区在线观看 | 国产丝袜一区二区三区免费视频 | 亚洲精品欧美一区二区三区 | 免费播放一级片 | 国产亚洲一区二区三区在线观看 | 亚洲欧美精品 | 日韩一区二区三区在线播放 | 国产a视频| 日本a视频| 久久成人午夜 | h视频免费在线观看 | 欧美国产激情二区三区 | 成年人精品视频 | 色在线免费| 一区二区三区四区电影视频在线观看 | 亚洲一区二区在线视频 | 国产精品福利视频 | 久久久久久艹 |