成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻覺

人工智能 新聞
DeepMind發表了一篇名為「To Believe or Not to Believe Your LLM」的新論文,探討了LLM的不確定性量化問題,通過「迭代提示」成功將LLM的認知不確定性和偶然不確定性解耦。研究還將新推導出的幻覺檢測算法應用于Gemini,結果表明,與基線方法相比,該方法能有效檢測幻覺。

大語言模型產生幻覺、胡說八道的問題被詬病,已經不是一天兩天了。

前有ChatGPT編造法律案件,后有谷歌搜索建議披薩放膠水。

就連號稱模型更安全、幻覺更少的Claude系列,在Reddit上也能看到不少吐槽。

圖片

LLM輸出虛假信息的問題,似乎并不能在短時間內徹底解決。

這就給很多場景下的應用帶來了巨大的障礙,尤其是法律、醫療、學術這樣比較嚴謹的知識領域。如果答案有錯,還不如不用。

那么能不能有一種方法,至少為LLM的輸出劃定一個置信區間呢?

6月5日,DeepMind發表了一篇名為「To Believe or Not to Believe Your LLM」,就開始著手解決這個問題。

如果無法強迫LLM堅持輸出真實信息,知道它什么時候在胡說八道也很重要。

圖片

論文地址:https://arxiv.org/abs/2406.02543

這篇論文由DeepMind Foundations團隊出品,帶頭人是加拿大阿爾伯塔大學教授Csaba Szepesvari,他也是這篇論文的作者之一。

圖片

論文探討了大語言模型中的不確定性量化問題,也就是說,旨在確定LLM的響應何時會出現較高的不確定性。

不確定性分為兩個范疇,一個是認知不確定性(epistemic uncertainty),另一個是偶然不確定性(aleatoric uncertainty)。

前者是指對基本事實的不了解,比如,不清楚事實或者語言不通所造成的不確定性,可能來源于訓練數據量或者模型容量不足。

后者則是一種不可約的隨機性,比如同一個問題存在多種可能的答案。

LLM的工作本質是對文本的概率分布進行建模,因此會很自然地通過統計不確定性的視角看待問題的真實性。

以前的許多工作通過啟發式的方法計算LLM回答的對數似然性,但這一般只適用于偶然不確定性較低的情況,也就是有「標準答案」的問題。

對于有多個正確答案的問題,需要將認知不確定性和偶然不確定性解耦。

因此,團隊推導出了一種信息論度量(information-theoretic metric)方法,能可靠地檢測出認知不確定性占多數的情況,這時我們就可以說,模型的輸出沒有那么可靠,Not to Believe!

這種方法根據什么來計算?

其實,可以完全基于模型的輸出來考察,只需根據之前的回答進行一些特殊的迭代prompting即可。

有了這個量化方法,無論是面對有單一答案的問題,還是有多個可能答案的問題,都可以檢測出回答中的幻覺,也就是認知不確定性很高的情況。

這和此前的不確定性量化策略相比,形成了鮮明對比,因為之前的方法都不能檢測出多答案情況下的幻覺。

DeepMind Foundations團隊進行了一系列實驗,證明了他們方法的優勢。

此外,研究還揭示了如何通過迭代prompting放大LLM指定給定輸出的概率,這可能會引起人們的興趣。

方法概述

首先,我們需要形成這樣一個共識:

如果從基本事實(語言)中獲得對同一查詢的多個回復,那么它們應該是相互獨立的。

也就是說,在概率論解釋中,對于一個固定的查詢,這些多個回復的聯合分布必須是一個乘積分布。

基于這一點,我們就可以將其用于衡量LLM的輸出與基本事實之間的距離。

由語言模型實現的序列模型允許我們構建多個響應的聯合分布,基于LLM先前的響應和概率鏈規則,對LLM進行迭代prompting。

具體來說,先給定查詢要求模型提供一個響應,然后將查詢和相應輸入給LLM,要求提供另一個響應,然后給定查詢和前兩個響應提供第三個響應,依此類推。

關鍵思路是,在對LLM進行迭代prompting的過程中,激發模型重復潛在回答,可以觀察到不同的行為模式,反映不同程度的認知不確定性。。

如果模型對某個查詢的認知不確定性較低,那么在prompting中重復一個不正確的回答不會顯著增加其概率。

但是,如果認知不確定性較高,重復一個不正確的回答就會大大增加其概率。

下面是這一過程的prompt模板:

圖片

不斷誘導LLM

下面的例子可以更好地解釋這一過程——

給定問題:「英國的首都是什么?」通過在提示中重復錯誤答案(如巴黎),正確答案倫敦仍然保持很高的概率。

這意味著該模型的答案是確定的,它的認知不確定性較低。

相反,如果答案的概率發生了變化,那么模型就具有高度的認識不確定性。

圖片

如上圖最左邊的示例所示,當我們將錯誤回答的重復次數增加到100次的時候,正確回答「倫敦 」的條件歸一化概率從100%下降到大約 96%。

在這些示例中,最初對查詢的回答的認識不確定性較低,即使在錯誤信息重復出現的情況下,正確回答的概率仍然很大。

可是當面對更有挑戰性的問題時,模型就不那么容易「堅持己見 」了。

比如,問LLM「愛爾蘭的民族樂器是什么?」,它回答「豎琴」和 「尤利安管  」的概率都很大(第一個答案是正確答案)。

這一次,通過多次在提示中加入錯誤的回答,正確答案的概率迅速下降到接近于零。

圖片

認知不確定性度量

在對LLM進行完上述觀察,研究者推導出了一種信息論度量方法。

通過測量模型的輸出分布對重復添加以前的(可能不正確的)提示回答的敏感程度,來量化認知不確定性。

更確切地說,如果LLM對之前的回復不敏感,模型就有了所需的獨立性,并且LLM得出的聯合分布可以任意接近基本事實。

如果正相反,上下文中的響應嚴重影響了模型的新響應,那么直觀地說,LLM對其參數中存儲的知識的置信度很低,因此LLM派生的聯合分布不可能接近基本事實。

這一觀察結果可用于區分高不確定性的兩種情況:一種是偶然不確定性高,另一種是認知不確定性高。

最后,利用這一指標,論文介紹了一種基于互信息分數的幻覺檢測算法M.I.。

通過應用鏈式規則,他們定義了多個響應的「偽聯合分布 」,同時將之前的響應納入提示。

這種偽聯合分布的互信息可作為認知不確定性的下限。互信息的估計值可用作得分,表示LLM對給定查詢產生幻覺的信念強度。

結果

論文在開放域問答基準上讓Gemini 1.0 Pro進行閉卷回答,對這種基于互信息(MI)的方法進行了評估,包括TriviaQA、AmbigQA以及基于WordNet創建的一個多標簽數據集。

實驗中共使用了3種基線方法作為對比:T0表示貪婪方法選擇的LLM回答,S.E.表示使用2023年提出的「語義熵」方法(semantic-entropy)選擇的前10個回答,S.V.表示2022年提出的「自我驗證」方法(self-verification)的一個版本。

對LLM的回答主要使用兩個方面衡量,一是準確率,二是召回率。

準確率表示查詢中正確決策的百分比,召回率則表示沒有棄權的查詢的百分比。

結果表明,與基線方法相比,該方法能有效檢測幻覺(認識不確定性較高的輸出),尤其是在處理包含單標簽和多標簽查詢的數據集時。

在TriviaQA和AmbigQA數據集上,論文提出的M.I.方法與S.E.方法基本表現相當,但明顯優于T0和S.V.。

而后兩個數據集包含大量的高熵、多標簽查詢,此時M.I.方法明顯優于S.E.方法。

圖片

將LLM輸出回答的熵進行分區后,分別查看兩種方法的召回率和錯誤率,可以更直觀地看到M.I.方法在高熵查詢中的優越性能,不僅很少犯錯誤,而且召回值更高。

圖片

這篇論文相對于考慮LLM整體不確定性的一階方法,將認知不確定性和任意不確定性分開考量,從而確定了LLM認知不確定性的可證明的下界。

此外,在認知不確定性視角下提出的基于互信息的棄權方法,能讓LLM在混合單標簽/多標簽查詢任務上取得更好的表現。

責任編輯:張燕妮 來源: 新智元
相關推薦

2020-05-21 12:59:51

邊緣存儲存儲物聯網

2018-04-26 10:38:34

2020-07-08 13:26:47

Python

2023-10-06 13:35:11

AI數據

2024-04-09 15:16:58

AI論文

2015-08-21 13:10:14

APM數據

2015-08-19 14:01:14

APM

2025-03-20 10:03:44

2024-07-10 13:20:45

2024-09-18 10:40:00

AI生成

2017-08-01 15:55:14

互聯網

2023-06-07 07:21:28

USB接口版本

2018-01-11 15:15:13

2010-07-23 10:47:52

病毒

2022-08-22 15:47:48

谷歌模型

2023-05-08 12:43:14

2019-06-10 08:04:26

分布式鎖JVM服務器

2022-04-29 15:51:16

模型自然語言人工智能

2024-12-23 07:20:00

LLM逆向思維語言模型

2024-04-23 14:25:16

Python備忘清單
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品视频在线观看 | 国产激情偷乱视频一区二区三区 | 伊人手机在线视频 | 中文av字幕| 亚洲精品www久久久 www.蜜桃av | 日本免费一区二区三区视频 | 成年男女免费视频网站 | 欧美视频在线播放 | 91精品国产99久久 | 天天插天天搞 | 日本免费一区二区三区视频 | 亚洲视频免费观看 | 亚洲二区在线观看 | 噜噜噜色网 | 国产精品福利在线观看 | 国产精品视频一区二区三区四蜜臂 | 国产精品激情小视频 | 国产一区二区久久 | 91精品国产高清一区二区三区 | 91一区二区 | 成人精品一区二区三区四区 | 欧美极品在线观看 | 久久久精品久久 | 亚洲国产成人在线视频 | 美女视频黄色的 | 视频一区二区在线观看 | 日韩在线视频免费观看 | 久久大陆| 欧美一区二区三区久久精品视 | 久久久婷 | 一级做a爰片久久毛片 | 日本手机看片 | 久久天天躁狠狠躁夜夜躁2014 | www国产成人 | 男人天堂视频在线观看 | 成年人在线观看 | 秋霞精品 | 国产亚洲精品美女久久久久久久久久 | 九九在线视频 | 美女在线视频一区二区三区 | 亚洲男人天堂2024 |