成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

OpenAI超級對齊團(tuán)隊(duì)遺作:兩個(gè)大模型博弈一番,輸出更好懂了

人工智能 新聞
如果 AI 模型給的答案一點(diǎn)也看不懂,你敢用嗎?

隨著機(jī)器學(xué)習(xí)系統(tǒng)在更重要的領(lǐng)域得到應(yīng)用,證明為什么我們可以信任它們的輸出,并明確何時(shí)不應(yīng)信任它們,變得越來越重要。

獲得對復(fù)雜系統(tǒng)輸出結(jié)果信任的一個(gè)可行方法是,要求系統(tǒng)對其輸出產(chǎn)生一種解釋,這種解釋對人類或另一個(gè)受信任的系統(tǒng)來說是可讀的,即可以完全理解以至于任何可能的錯(cuò)誤都可以被發(fā)現(xiàn)。例如,為了建立對司法系統(tǒng)的信任,我們要求法院提供清晰易讀的書面意見,解釋并支持其決策。

對于大型語言模型來說,我們也可以采用類似的方法。

不過,在采用這種方法時(shí),確保語言模型生成的是易于理解的文本,這件事非常重要,尤其是在處理數(shù)學(xué)、編碼這樣的復(fù)雜任務(wù)時(shí)。

如下圖所示,你讓 AI 寫一個(gè)快速排序算法,AI 很快就寫出來了,而且答案很簡潔。但不會(huì)寫代碼的你要怎么判斷 AI 寫得對不對呢?

圖片

OpenAI 在一篇最新的論文中研究了這個(gè)問題。

圖片

  • 論文標(biāo)題:PROVER-VERIFIER GAMES IMPROVE LEGIBILITY OF LLM OUTPUTS
  • 論文鏈接:https://cdn.openai.com/prover-verifier-games-improve-legibility-of-llm-outputs/legibility.pdf

他們發(fā)現(xiàn),如果以「得到正確答案」為目標(biāo),要求大語言模型生成答案,它們給出的答案可能會(huì)很難懂。人類評估員在判斷這些答案時(shí),犯錯(cuò)的可能性會(huì)加倍。

所以他們的目標(biāo)是在訓(xùn)練高級語言模型的過程中,讓它們生成那些較簡單的模型也能夠輕松驗(yàn)證的文本。他們發(fā)現(xiàn),這樣的文本不僅對簡單模型友好,對于人類來說也更可讀。

那么,具體是怎么實(shí)現(xiàn)的呢?這還要提到 2021 年的一篇論文 ——「Learning to Give Checkable Answers with Prover-Verifier Games」。在這篇論文中,Cem Anil 等人提出了一個(gè)名為「Prover-Verifier Games(證明者 - 驗(yàn)證者博弈)」的博弈論框架。該框架由兩個(gè)相互競爭的學(xué)習(xí)者組成:一個(gè)可信的驗(yàn)證者(Verifier)網(wǎng)絡(luò)試圖選擇正確的答案,另一個(gè)更強(qiáng)大但不可信的證明者(Prover)網(wǎng)絡(luò)試圖說服驗(yàn)證者接受特定的答案,而不管其正確性如何。該框架的目標(biāo)是從博弈中產(chǎn)生一個(gè)可靠的證明協(xié)議。

OpenAI 在這項(xiàng)新研究中借鑒了這個(gè)框架,讓兩個(gè)大模型(較強(qiáng)的為證明者,較弱的為驗(yàn)證者)互相博弈,直到二者達(dá)到一種平衡。此時(shí),證明者給出的答案既有一定的可讀性,又保持了合理的正確性。

OpenAI 表示,通過提高模型輸出的可讀性,可以使人工智能的應(yīng)用更加有效和可信,這對于需要精確溝通的各個(gè)領(lǐng)域都是有益的。

值得一提的是,這篇論文來自 OpenAI 的超級對齊團(tuán)隊(duì),其中幾位作者在今年早些時(shí)候已經(jīng)離開 OpenAI,團(tuán)隊(duì)也已經(jīng)分崩離析。其中一位作者透露,這是該團(tuán)隊(duì)的最后一篇論文。

圖片

一個(gè)直觀的例子

為了提高模型輸出的可讀性,OpenAI 優(yōu)化了一些小學(xué)數(shù)學(xué)問題的思維鏈(CoT),讓它能夠被較弱的模型理解。舉例如下: 


問題:肖娜(Shawna)的父親的年齡是肖娜的五倍。肖娜現(xiàn)在的年齡是阿莉婭(Aliya)的三倍。如果阿莉婭 3 歲,那么肖娜的父親多少歲?


圖片

圖片

這么做的目的是為了驗(yàn)證經(jīng)過這種訓(xùn)練的模型,它的輸出是否更加直接易懂。

這種方法在只對訓(xùn)練集做了一些優(yōu)化的情況下,讓模型的性能提升了 50%。同時(shí),模型輸出的答案也更好懂了,這也幫助需要評估這些答案正確性的人類用戶更準(zhǔn)確地做出判斷。OpenAI 認(rèn)為,進(jìn)一步縮小可讀性強(qiáng)的模型和能力強(qiáng)的模型之間的性能差距,是未來對齊研究中一個(gè)關(guān)鍵的目標(biāo)。

「證明者」和「驗(yàn)證者」是怎么在訓(xùn)練中博弈的?

為了激勵(lì)強(qiáng)力模型(證明者)生成可讀性更強(qiáng)的文本,研究者采用了一種訓(xùn)練方案,要求強(qiáng)力模型生成的答案能夠被較弱的模型(驗(yàn)證者)輕松驗(yàn)證。具體來說,他們使用了 GPT-4 系列中的大模型和小模型。它們在預(yù)訓(xùn)練數(shù)據(jù)量上相差約三個(gè)數(shù)量級。它們都接受了一些基于人工標(biāo)注的數(shù)學(xué)推導(dǎo)訓(xùn)練,但未經(jīng)過廣泛的后訓(xùn)練。

首先,研究團(tuán)隊(duì)讓證明者模型嘗試解決一系列數(shù)學(xué)問題。由于證明者模型自身可能出錯(cuò),它生成的一些答案可能不正確。接下來,他們將這些答案交由驗(yàn)證者模型進(jìn)行檢驗(yàn),并在以下兩個(gè)階段之間進(jìn)行多輪的交替驗(yàn)證:

  • 「驗(yàn)證者」訓(xùn)練:研究團(tuán)隊(duì)訓(xùn)練較弱的「驗(yàn)證者」模型,驗(yàn)證「證明者」給出的答案是否正確。
  • 「證明者」訓(xùn)練:研究團(tuán)隊(duì)指示性能較強(qiáng)的「證明者」模型扮演「有用」或「狡猾」的戲份。
  • 當(dāng)「證明者」被設(shè)定為「有用」時(shí),研究團(tuán)隊(duì)將獎(jiǎng)勵(lì)「驗(yàn)證者」打分高的正確答案。
  • 當(dāng)「證明者」被設(shè)定為「狡猾」時(shí),研究團(tuán)隊(duì)反而獎(jiǎng)勵(lì)「驗(yàn)證者」打分高的錯(cuò)誤答案。

研究團(tuán)隊(duì)發(fā)現(xiàn),最初,狡猾的「證明者」能夠輕松生成讓「驗(yàn)證者」信服的錯(cuò)誤答案。然而,這些錯(cuò)誤答案將會(huì)進(jìn)入下一輪的「驗(yàn)證者」訓(xùn)練中,相同的漏洞在下一輪中,將不再具有說服力。因此,「證明者」將被迫在每一輪中探索不同的策略。

當(dāng)狡猾的「證明者」再也無法生成讓「驗(yàn)證者」信服的錯(cuò)誤解決方案時(shí),訓(xùn)練宣告結(jié)束。

研究者都發(fā)現(xiàn)了什么?

圖片

性能與可讀性權(quán)衡:

  • 一個(gè)僅在人類編寫的推導(dǎo)上進(jìn)行監(jiān)督式微調(diào)的模型,雖然具有較高的可讀性,但準(zhǔn)確性較差。
  • 當(dāng)模型的優(yōu)化目標(biāo)僅為正確性,即只關(guān)注生成正確答案時(shí),雖然能夠達(dá)到高準(zhǔn)確性,但生成的解決方案的可讀性卻較差。
  • OpenAI 提出的可檢查博弈方法平衡了這兩者,在保持高可讀性的同時(shí)保持適度的準(zhǔn)確性。

三種有用的模型:

  • 魯棒驗(yàn)證者:即使解決方案具有誤導(dǎo)性,仍能夠有效區(qū)分正確和錯(cuò)誤的解決方案。
  • 有用的證明者:生成對人類來說易于理解的解決方案,從而減少人類評估者的錯(cuò)誤。
  • 狡猾證明者:產(chǎn)生微妙的、錯(cuò)誤的解決方案,這些解決方案最初會(huì)混淆人類評估者,從而突出需要進(jìn)一步改進(jìn)的領(lǐng)域。

研究團(tuán)隊(duì)使用了同樣的測試問題,來展示狡猾證明者(Sneaky Prover)的生成內(nèi)容和訓(xùn)練過程。


問題:肖娜(Shawna)的父親的年齡是肖娜的五倍。肖娜現(xiàn)在的年齡是阿莉婭(Aliya)的三倍。如果阿莉婭 3 歲,那么肖娜的父親多少歲?


圖片

圖片

結(jié)論

隨著大語言模型(LLMs)在關(guān)鍵領(lǐng)域和復(fù)雜應(yīng)用中的使用日益增加,了解其所生成的內(nèi)容是否值得信賴變得至關(guān)重要。通過要求模型生成清晰且可驗(yàn)證的理由,可以增強(qiáng)對其生成內(nèi)容的信任。

此方法的一個(gè)顯著優(yōu)勢是它減少了對人類示范或可讀性判斷的依賴。這種自主性對于未來超智能 AI 系統(tǒng)的對齊尤為重要,其最終目標(biāo)是在沒有人類進(jìn)行直接監(jiān)督的情況下,可靠地將 AI 系統(tǒng)與人類的價(jià)值觀和期望對齊。

盡管這項(xiàng)工作僅在一個(gè)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),并且仍然需要真值標(biāo)簽(ground truth labels),但研究團(tuán)隊(duì)仍預(yù)計(jì)在開發(fā)正確、透明及可驗(yàn)證的 AI 系統(tǒng)中,此類方法會(huì)起到關(guān)鍵作用,并增強(qiáng)其在現(xiàn)實(shí)應(yīng)用中的可信任性和安全性。

更多詳情,請參考原論文。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2024-07-18 12:52:50

2023-12-18 16:02:04

OpenAI人工智能

2024-07-18 14:11:36

2024-06-28 13:40:03

2023-08-11 13:41:42

2012-02-20 09:58:41

LTEHSPA

2024-04-15 06:30:00

2022-02-17 10:16:52

LPWA物聯(lián)網(wǎng)5G

2017-06-20 11:00:13

大數(shù)據(jù)自然語言文本分類器

2024-07-08 09:31:52

?OpenAIGDPChatGPT

2010-02-23 10:16:02

IBM Power7

2022-02-07 15:05:07

模型AI訓(xùn)練

2015-02-05 11:16:07

2010-04-02 11:07:48

喬布斯

2024-06-06 19:14:27

2020-01-18 14:34:40

5G技術(shù)通信

2014-06-05 11:25:10

2009-03-20 09:05:00

IE8瀏覽器速度

2021-09-07 14:28:59

物聯(lián)網(wǎng)網(wǎng)絡(luò)攻擊安全

2015-07-15 09:42:20

GoogleFacebook蘋果
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 美女视频黄色片 | 99久久精品国产毛片 | 久久精品国产一区二区电影 | 一区二区三区免费在线观看 | 日韩精品视频在线观看一区二区三区 | 91精品国产综合久久久久蜜臀 | 成人在线看片 | 国产日产欧产精品精品推荐蛮挑 | 草比av| 北条麻妃一区二区三区在线视频 | 国产精品免费一区二区 | 99精品在线观看 | 国产精品色婷婷久久58 | 亚洲精品国产电影 | 亚洲不卡视频 | 全免费a级毛片免费看视频免 | 日韩av在线一区二区三区 | 91啪亚洲精品| 久热精品在线 | 视频一区在线观看 | 欧美高清一区 | 精品国产欧美一区二区三区不卡 | 中文av在线播放 | 欧美日韩高清一区二区三区 | 精品videossex高潮汇编 | 日韩精品免费一区二区在线观看 | 免费看91 | 91精品一区二区三区久久久久 | www.久 | 久久久久久天堂 | 久久久久久久久久久久久久av | 欧美久久久久久 | 免费三级网站 | 97国产精品 | 久久久久亚洲精品 | 国产欧美日韩在线播放 | 午夜资源 | avav在线看 | 国产精品日韩一区二区 | 国产精品一区二区久久 | 亚洲天堂免费在线 |