成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一篇學會大模型浪潮下的時間序列預測

人工智能
這篇文章介紹了大模型浪潮下的時間序列預測研究思路,整體包括直接利用NLP大模型做時間序列預測,以及訓練時間序列領域的大模型。無論哪種方法,都向我們展現了大模型+時間序列的潛力,是一個值得深入研究的方向。?

今天跟大家聊一聊大模型在時間序列預測中的應用。隨著大模型在NLP領域的發展,越來越多的工作嘗試將大模型應用到時間序列預測領域中。這篇文章介紹了大模型應用到時間序列預測的主要方法,并匯總了近期相關的一些工作,幫助大家理解大模型時代時間序列預測的研究方法。

1、大模型時間序列預測方法

最近三個月涌現了很多大模型做時間序列預測的工作,基本可以分為2種類型。

第一種是直接用NLP的大模型做時間序列預測。這類方法中,使用GPT、Llama等NLP大模型進行時間序列預測,重點是如何將時間序列數據轉換成適合大模型的輸入數據。

第二種是訓練時間序列領域的大模型。這類方法中,使用大量的時間序列數據集,聯合訓練一個時間序列領域的GPT或者Llama等大模型,并用于下游時間序列任務。

針對上述兩類方法,下面給大家分別介紹幾篇相關的經典大模型時間序列代表工作。

2、NLP大模型應用到時間序列

這類方法是最早出現的一批大模型時間序列預測工作。

紐約大學和卡內基梅隆大學聯合發表的文章Large Language Models Are Zero-Shot Time Series Forecasters中,對時間序列的數字表示進行了tokenize的設計,以此轉換成GPT、LLaMa等大模型可以識別的輸入。由于不同大模型對于數字的tokenize方式不一樣,因此使用不同的大模型時,也需要個性化的進行處理。例如GPT會把一串數字分割成不同的子序列,影響模型學習,因此本文將數字之間強行加入一個空格來適配GPT的輸入形式。而對于LLaMa等最近發布的大模型,一般對單獨的數字都進行分割,因此不再需要加空格操作。同時,為了避免時間序列數值太大,使輸入序列太長,文中進行了一些縮放操作,將原始時間序列的值限定在一個比較合理的范圍內。

圖片圖片

上述處理后的數字字符串,輸入到大模型中,讓大模型自回歸的預測下一個數字,最后再將預測出的數字轉換成相應的時間序列數值。下圖中給出了一個示意圖,利用語言模型的條件概率建模數字,就是根據前面的數字預測下一位為各個數字的概率,是一種迭代的層次softmax結構,加上大模型的表征能力,可以適配各種各樣的分布類型,這也是大模型可以以這種方式用于時間序列預測的原因。同時,模型對于下一個數字預測的概率,也可以轉換成對不確定性的預測,實現時間序列的不確定性預估。

圖片圖片

另一篇文章TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS提出了一種reprogramming方法,將時間序列映射到文本,實現時間序列和文本這兩種模態之間的對齊。

具體實現方法為,首先將時間序列分成多個patch,每個patch通過MLP得到一個embedding。然后,將patch embedding映射到語言模型中的詞向量上,實現時間序列片段和文本的映射和跨模態對齊。文中提出了一種text prototype的思路,將多個詞映射到一個prototype,以此來表示一段時間序列patch的語義。例如下圖例子中,shot和up兩個詞映射到紅色三角,對應時間序列中短期上升形式子序列的patch。

圖片圖片

3、時間序列大模型

另一個研究思路是,借鑒NLP領域大模型的思路,直接構建一個時間序列預測領域的大模型。

Lag-Llama: Towards Foundation Models for Time Series Forecasting這篇文章搭建了時間序列中的Llama模型。核心包括特征層面和模型結構層面的設計。

在特征方面,文中提取了多尺度多類型的lag feature,主要是原始時間序列不同時間窗口的歷史序列統計值。這些序列作為額外的特征輸入到模型中。在模型結構方面,NLP中的LlaMA結構,核心是Transformer,對其中的normalization方式和position encoding部分做了優化。最后的輸出層,使用多個head擬合概率分布的參數,例如高斯分布就擬合均值方差,文中采用的是student-t分布,輸出freedom、mean、scale三個對應參數,最后得到每個時間點的預測概率分布結果。

圖片圖片

另一篇類似的工作是TimeGPT-1,構建了時間序列領域的GPT模型。在訓練數據方面,TimeGPT應用了海量的時間序列數據,總計100billion的數據樣本點,涉及多種類型的domain數據。在訓練過程中,使用更大的batch size和更小的學習率來提升訓練的魯棒性。模型主體結構為經典的GPT模型。

圖片圖片

通過下面的實驗結果也可以看出,在一些零樣本學習任務中,這種時間序列預訓練大模型相比基礎的模型都取得了顯著的效果提升。

圖片圖片

4、總結

這篇文章介紹了大模型浪潮下的時間序列預測研究思路,整體包括直接利用NLP大模型做時間序列預測,以及訓練時間序列領域的大模型。無論哪種方法,都向我們展現了大模型+時間序列的潛力,是一個值得深入研究的方向。

責任編輯:武曉燕 來源: 圓圓的算法筆記
相關推薦

2022-01-02 08:43:46

Python

2021-08-01 07:19:16

語言OpenrestyNginx

2022-06-30 22:53:18

數據結構算法

2023-10-13 15:34:55

時間序列TimesNet

2021-10-18 10:54:48

.NET內存管理

2022-02-07 11:01:23

ZooKeeper

2021-05-11 08:54:59

建造者模式設計

2021-07-02 09:45:29

MySQL InnoDB數據

2021-07-06 08:59:18

抽象工廠模式

2023-01-03 08:31:54

Spring讀取器配置

2022-08-26 09:29:01

Kubernetes策略Master

2021-07-05 22:11:38

MySQL體系架構

2023-11-28 08:29:31

Rust內存布局

2022-08-23 08:00:59

磁盤性能網絡

2024-11-29 18:37:07

2021-10-26 10:40:26

代理模式虛擬

2022-05-17 08:02:55

GoTryLock模式

2021-12-04 22:05:02

Linux

2022-01-12 07:36:01

Java數據ByteBuffer

2021-07-02 08:51:29

源碼參數Thread
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品美女在线观看 | 在线看一区二区 | 亚洲顶级毛片 | 国产在线不卡视频 | 99久久婷婷国产综合精品电影 | 日韩电影中文字幕 | 成人免费在线观看视频 | 欧美视频精品 | 日韩欧美国产不卡 | 中文字幕亚洲视频 | 亚洲国产一区二区三区在线观看 | 精品国产综合 | 91美女视频 | 精品国产乱码久久久久久丨区2区 | 成人天堂 | 黄色av网站免费看 | 成人精品一区二区三区中文字幕 | 91性高湖久久久久久久久_久久99 | 欧美精品一区二区免费 | 国产精品一区二区三区四区五区 | 亚洲乱码国产乱码精品精98午夜 | 久久新 | 日韩av一区二区在线观看 | 999精品视频 | 亚洲三区在线播放 | 黄色香蕉视频在线观看 | 中文字幕一区二区三区精彩视频 | 久久免费高清 | 久久久久亚洲 | 日韩精品极品视频在线观看免费 | 日本精品视频 | 亚洲精品一区二区三区蜜桃久 | 爱爱视频在线观看 | 一区二区国产精品 | 精品无码久久久久久国产 | 欧美另类视频在线 | 久久久久国产一区二区三区 | 一级毛片免费视频 | 欧美性一区二区三区 | 日本精品一区二区三区视频 | 国产精品一区久久久 |