成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果

發(fā)布于 2024-10-31 14:21
瀏覽
0收藏

今天給大家介紹一篇清華大學(xué)發(fā)表于NIPS2024中的大模型時(shí)間序列預(yù)測(cè)工作AutoTimes,使用大模型進(jìn)行自回歸形式的時(shí)間序列預(yù)測(cè),并結(jié)合In-Context Learning提升預(yù)測(cè)效果。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

論文標(biāo)題:AutoTimes: Autoregressive Time Series Forecasters via Large Language Models

下載地址:??https://arxiv.org/pdf/2402.02370??

1.背景

大模型在時(shí)間序列預(yù)測(cè)中的應(yīng)用已經(jīng)有了一些研究工作。之前的大模型時(shí)序預(yù)測(cè),主要講大模型當(dāng)成一個(gè)表征抽取器,將時(shí)間序列對(duì)齊大模型表征空間后輸入LLM,生成的編碼經(jīng)過(guò)映射得到預(yù)測(cè)結(jié)果。

然而,本文認(rèn)為這種建模方法沒(méi)有充分利用大模型自回歸的能力。因此,本文提出采用自回歸的方式將大模型應(yīng)用到時(shí)間序列預(yù)測(cè)中。并結(jié)合NLP中的prompt、in-context learning等技術(shù),提升大模型時(shí)序預(yù)測(cè)的效果。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

2.實(shí)現(xiàn)方法

本文的建模方法主要可以分為時(shí)序信息處理、大模型預(yù)測(cè)、時(shí)序in-context learning三個(gè)部分。整體的建模流程圖圖所示。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

時(shí)序信息處理:LLM輸入時(shí)間序列編碼和位置編碼兩種類型的信息。對(duì)于時(shí)間序列,將其分解成多個(gè)不重疊的segment,每個(gè)segment通過(guò)一個(gè)Embedding層映射成一個(gè)token embedding。對(duì)于每個(gè)時(shí)間步的具體信息,取每個(gè)片段最后一個(gè)時(shí)間戳的文本信息,直接用其對(duì)應(yīng)的LLM文本編碼作為position embedding。每個(gè)片段的序列編碼和位置編碼拼接到一起,作為L(zhǎng)LM的輸入。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

大模型預(yù)測(cè):AutoTime整體建模采用自回歸的方式。時(shí)間序列信息輸入到LLM后,LLM參數(shù)固定不變,生成segment對(duì)應(yīng)的編碼。然后使用一層網(wǎng)絡(luò),將每個(gè)segment的編碼映射成時(shí)間序列值,使用MSE計(jì)算loss進(jìn)行模型優(yōu)化。訓(xùn)練任務(wù)采用next item prediction的形式,循環(huán)的根據(jù)前面的時(shí)序token預(yù)測(cè)下一個(gè)時(shí)序token,和LLM的優(yōu)化方式對(duì)齊。

時(shí)序In-context Learning:借鑒NLP中的In-context Learning思路,文中在進(jìn)行目標(biāo)數(shù)據(jù)集的預(yù)測(cè)時(shí),利用源數(shù)據(jù)集中的時(shí)間序列構(gòu)建prompt,拼接到當(dāng)前待預(yù)測(cè)的數(shù)據(jù)中。通過(guò)在源數(shù)據(jù)集中,抽取幾對(duì)歷史序列+未來(lái)序列數(shù)據(jù),轉(zhuǎn)換成token embedding后,拼接到當(dāng)前樣本前面,作為context信息,幫助大模型對(duì)當(dāng)前樣本的預(yù)測(cè)。

3.實(shí)驗(yàn)效果

文中在短周期時(shí)序預(yù)測(cè)、長(zhǎng)周期時(shí)序預(yù)測(cè)等任務(wù)上都進(jìn)行了實(shí)驗(yàn),取得了大模型時(shí)序預(yù)測(cè)方法中的最優(yōu)效果,相比傳統(tǒng)的PatchTST等建模方法也有優(yōu)勢(shì)。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

文中也進(jìn)一步驗(yàn)證了In-context Learning的效果。相比Zero-shot Learning,In-context Learning在引入例子作為prompt信息后,使得模型的預(yù)測(cè)效果取得了進(jìn)一步提升。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

通過(guò)case分析也可以看出,In-context Learning的預(yù)測(cè)結(jié)果更加準(zhǔn)確。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

本文轉(zhuǎn)載自??圓圓的算法筆記??,作者:Fareise ????

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: av在线成人 | 欧美国产激情二区三区 | 久久99精品久久久久久青青日本 | 欧美激情视频一区二区三区免费 | 人人干在线视频 | 亚洲成人免费视频 | 午夜影视大全 | 99热视 | 久久久久无码国产精品一区 | 夜夜夜操| 免费看黄视频网站 | 久久久成人免费视频 | 欧美国产精品一区二区三区 | 在线观看www | 国内精品视频一区二区三区 | 99久久99热这里只有精品 | 精品久久久久久亚洲精品 | 国产高清视频在线播放 | 精品久久久久久久久久久久久久久久久 | 国产日韩欧美一区 | 色欧美综合 | 色偷偷噜噜噜亚洲男人 | 拍真实国产伦偷精品 | 中文字幕久久久 | 自拍偷拍第一页 | www.888www看片 | 国产欧美一区二区久久性色99 | 精品99久久| 国产精品影视在线观看 | 欧美一区二区免费视频 | 二区亚洲 | 午夜视频一区二区三区 | 国产精品久久久久久久久久 | 亚洲欧洲成人av每日更新 | 国产成人精品高清久久 | 国产精品免费看 | 国产高清视频在线观看 | 欧美成人自拍视频 | h视频在线播放 | 奇米超碰| 国产精品精品视频 |