成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

首個可保留情感的音頻LLM!Meta重磅開源7B-Spirit LM,一網打盡「音頻+文本」多模態任務

人工智能 新聞
Meta最近開源了一個7B尺寸的Spirit LM的多模態語言模型,能夠理解和生成語音及文本,可以非常自然地在兩種模式間轉換,不僅能處理基本的語音轉文本和文本轉語音任務,還能捕捉和再現語音中的情感和風格。

在純文本大模型取得進展的同時,其他模態數據,如語音與文本結合的語言模型(SpeechLMs)也成為了一個熱門的研究領域,但現有的模型要么在僅包含語音的數據上進行訓練,要么是關注特定任務,如文本轉語音(TTS)、自動語音識別(ASR)或翻譯,在其他模態數據和任務上的泛化能力十分有限。

在大型語言模型(LLM)性能不斷提升的情況下,一個常用的方法是先用ASR模型將語音轉錄成文本,然后用文本模型來生成新的文本,最后再用TTS模型將文本轉換成語音,這種流程的一個顯著缺陷就是語音表達性不佳,語言模型無法建模并生成富有表現力的語音數據。

最近,Meta開源了一個基礎多模態語言模型Spirit LM,基于一個70億參數的預訓練文本語言模型,交錯使用文本和語音數據進行訓練,使模型能夠自由地混合文本和語音,在任一模態中生成語言內容。

圖片

項目主頁:https://speechbot.github.io/spiritlm/

論文鏈接:https://arxiv.org/pdf/2402.05755

代碼鏈接:https://github.com/facebookresearch/spiritlm

開源鏈接:https://huggingface.co/spirit-lm/Meta-spirit-lm

將語音和文本序列拼接成一條token流,并使用一個小型的、自動整理(automatically-curated)的語音-文本平行語料庫,采用逐詞交錯的方法進行訓練。

Spirit LM有兩個版本:基礎版(Base)使用語音音素單元(HuBERT),表達版(Expressive)還額外使用音高和風格單元來模擬表達性,以增強模型在生成語音時的表現力,也就是說模型不僅能夠理解和生成基本的語音和文本,還能在表達情感和風格方面表現得更加豐富和自然。

對于兩個版本的模型,文本都使用子詞BPE標記進行編碼,最終得到的模型既展現了文本模型的語義能力,也具備語音模型的表達能力;模型還能夠在少量樣本的情況下跨模態學習新任務(例如自動語音識別、文本轉語音、語音分類)。

不過需要注意的是,和其他預訓練模型一樣,Sprit LM也可能會生成一些不安全的內容,所有基于該技術的應用都需要進行額外的安全測試和調整。

Spirit LM

圖片

模型的架構比較簡單,訓練過程就是基本的「預測下一個詞」,不過「詞」是通過編碼器從語音或文本中提取的,然后通過解碼器以原來的模態進行重新呈現;訓練數據包括三種:僅包含文本的序列、僅包含語音的序列以及交錯的語音-文本序列的混合數據。

基礎版

語音編碼器

使用的HuBERT模型,該模型在多個數據集的混合上進行訓練,包括多語言的LibriSpeech、Vox Populi、Common Voice、Spotify以及Fisher,最后得到一個包含501個音素語音token的詞匯表。

語音和文本分詞器

使用LLaMA默認的分詞器來處理文本,使用前述的HuBERT分詞器來處理語音;為了提高模型的質量,對HuBERT的token進行了去重處理;對于單模態數據集(僅文本和僅語音),在分詞后的數據前加上相應的模態標記。

文本數據:[TEXT]這是一個文本句子

音頻數據:[SPEECH][Hu262][Hu208][Hu499][Hu105]

交錯語音和文本(Interleaving Speech and Text)

對于對齊的語音+文本數據集,通過在單詞級別交錯語音和文本來混合:[TEXT]the cat [SPEECH][Hu3][Hu7]..[Hu200][TEXT]the mat

研究人員認為,交錯訓練可以幫助模型學習語音和文本之間的對應關系,從而實現更好的文本到語音的轉換;在每個訓練步驟中,句子中的語音和文本部分是隨機采樣的。

語音解碼器

在從語音token進行語音合成方面,研究人員在Expresso數據集上訓練了一個HifiGAN聲碼器,其依賴于HuBERT語音token和Expresso特定說話人的嵌入向量。

在訓練期間,HifiGAN模型會輸入重復的token,但同時也會訓練一個時長預測模塊,可以更準確地知道每個語音token在實際語音中應該持續多久,最終生成一個語音波形。

表達版

HuBERT能夠從語音中捕獲良好的音素信息,但在表達性方面表現不佳。

研究人員的目標是在不依賴生物特征識別的情況下,模型依然能夠理解和保留輸入語音中的情感,所以需要用額外的音高token和風格token來補充HuBERT的音素語音token,并將其包含在語言模型訓練中,以便訓練后的Spirit LM Expressive模型能夠捕獲并生成更具表現力的語音。

pitch(音高) token

在語音合成和處理中,音高是一個關鍵因素,決定了聲音的高低,對人類理解語句的情感和語氣來說非常關鍵。音高token可以用來捕捉音高變化。當我們說話時,聲音的高低起伏不僅可以表達不同的情感,比如興奮時聲音高亢,悲傷時聲音低沉,還可以幫助我們在口語交流中區分不同的詞語和句子的意圖。

研究人員在Expresso數據集上訓練了一個VQ-VAE模型,碼本大小為64,下采樣率為128,即每秒可以產生12.5個音高token;在訓練音高量化器時,使用pyaapt8提取基頻(F0);使用FCPE9,一個基于Transformer的快速音高估計器,來提高推理速度。

style(風格) token

研究人員提取了語音風格特征來捕捉輸入語音的表達風,在輸入片段上進行平均池化處理,每秒生成一個特征,然后在Expresso數據集上微調特征來預測表達風格,從而進一步從語音風格特征中去除說話人信息,最后在Expresso數據集的規范化特征上訓練了一個有100個單元的k均值聚類。

表達性語音分詞器(Expressive Speech Tokenization)

圖片

將三種類型的標記(每秒25次的HuBERT標記、每秒12.5次的音高標記和每秒1次的風格標記)按照對應的時間戳進行排序,混合成一個單一的token序列。

與Spirit LM基礎版相同,表達版同樣對HuBERT的token和音高token進行去重,最后輸入序列類似于:[SPEECH][St10][Pi0][Hu28][Hu22][Pi14][Hu15][Pi32][Hu78][Hu234][Hu468]

表達性語音解碼器(Expressive Speech Decoder)

研究人員訓練了一個HifiGAN模型,依賴于HuBERT token、音高token、風格token以及來自Expresso聲音的1-hot說話人嵌入向量。同時還訓練了一個時長預測器來預測HuBERT token持續時間。在推理過程中,將每個HuBERT token與相應的音高token和風格標記token,并根據需要進行重復。

實驗結果

Spirit LM能夠在接收語音token或文本token的提示時,生成語義和表達上一致的內容,將通過定量評估一系列需要生成文本或語音token的基準測試,特別評估Spirit LM在單模態和跨模態場景中的語義能力。

圖片

自動語音識別(ASR)和文本轉語音(TTS)

與文本語言模型類似,SPIRIT語言智能體可以通過少量樣本提示來執行特定任務。

圖片

可以看到,Spirit LM使用10個樣本的提示能夠獲得最佳性能,最佳模型在Librispeech清潔數據上的詞錯誤率為21.9,文本轉語音的字符錯誤率為45.5

圖片

在訓練中加入平行的ASR和TTS樣本可以極大提高性能,但加入ASR和TTS數據對其他任務的影響非常有限。

在執行語音意圖分類(IC)任務時可以發現,隨著樣本數量的增加,準確率也提高了,模型準確率達到了79%

跨模態對齊

為了更好地理解模型在僅在交錯數據和原始語音和文本上訓練的情況下,如何實現良好的跨模態性能的隱藏機制,研究人員查看了模型特征的token級相似性,其中特征來自于HuBERT token的輸入序列和相應的BPE token,計算了從不同層提取的語音和文本特征的相同單詞的最大相似性。

結果發現,模型內部口語和書面序列之間的相似性從第2層和第20層開始增加,并且在早期到中間層中,在用單詞級轉錄訓練的模型中效果較差,表明模態混合可以對齊語音和文本,使模型能夠將語音序列與相應的文本序列映射起來。

表達性建模

當不給智能體任何先前的樣本,直接根據語音或文本提示生成內容(零樣本)時,可以發現帶有額外音高和風格token的表達版模型在大多數情況下都比基礎版模型的表現更好,只是在文本內容生成(文本到文本)方面兩者表現差不多。

圖片

當給模型少量樣本來學習時,可以發現這種方法對于除了語音內容生成(語音到語音)之外的所有情況都有幫助。無論是零樣本還是少量樣本,保持情感的連續性在相同類型的數據(比如文本到文本或語音到語音)中比在不同類型的數據(比如語音到文本)中做得更好;在所有測試中,語音到文本的方向得分最低。

此外,研究人員還直接評估了模型對輸入提示的處理能力,結果發現,無論是哪種提示,模型都能得到很高的評分,表明還有很大的空間來進一步提高模型在保持情感表達方面的能力,也意味著,智能體在理解和生成情感豐富的內容方面還有很大的潛力可以挖掘。

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-04-26 00:25:52

Rust語法生命周期

2021-08-05 06:54:05

流程控制default

2024-02-27 10:11:36

前端CSS@規則

2021-10-11 07:55:42

瀏覽器語法Webpack

2013-08-02 10:52:10

Android UI控件

2024-04-07 08:41:34

2024-08-26 10:01:50

2024-06-12 00:00:05

2010-08-25 01:59:00

2011-12-02 09:22:23

網絡管理NetQos

2016-09-20 12:28:52

2019-07-24 15:30:00

SQL注入數據庫

2020-02-21 08:45:45

PythonWeb開發框架

2013-10-16 14:18:02

工具圖像處理

2023-04-06 09:08:41

BPM流程引擎

2021-05-20 11:17:49

加密貨幣區塊鏈印度

2021-10-29 09:32:33

springboot 靜態變量項目

2023-09-06 18:37:45

CSS選擇器符號

2024-11-14 10:17:38

2023-04-03 08:30:54

項目源碼操作流程
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人免费在线小视频 | 亚洲一二三区在线观看 | 日本在线播放一区二区 | 精品视频一区二区 | 逼逼网| 91污在线| 羞羞视频免费观看入口 | 日本午夜免费福利视频 | 国产精品成人一区二区三区 | 日韩视频一区二区三区 | 国产精品自产av一区二区三区 | 伊伊综合网 | 精品成人一区 | 亚州综合在线 | 国产一区二区在线视频 | 你懂的av| 伊人免费网 | 久久天堂 | 久久99精品久久久久久国产越南 | 国产精品一区网站 | 国产99久久精品 | 特黄视频 | 午夜精品在线观看 | 性高湖久久久久久久久3小时 | 91精品久久久久久久久 | 亚洲最色网站 | 中文字幕在线国产 | 天天干天天操天天射 | 日韩精品一区二区三区中文字幕 | 人人干人人超 | 日本aa毛片a级毛片免费观看 | 精品国产乱码久久久久久蜜臀 | 日韩影院在线观看 | 中文字幕二区 | 天天干天天玩天天操 | 网色 | 成人3d动漫一区二区三区91 | 欧美视频网 | 紧缚调教一区二区三区视频 | 国产一区二区欧美 | 日本一区二区影视 |