成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用時間序列語言模型徹底改變預測分析現(xiàn)狀 原創(chuàng)

發(fā)布于 2024-9-3 08:12
瀏覽
0收藏

本文介紹了如何利用ARIMA和GARCH等高級時間序列模型來發(fā)掘新的洞察力,并提高預測準確性。

ChatGPT和Bard等大語言模型(LLM)的興起已極大地改變了許多人的工作、交流和學習方式,這已不是什么秘密。但除了取代搜索引擎外,LLM還有其他應用。最近,數(shù)據(jù)科學家已重新改造LLM用于時間序列預測。

時間序列數(shù)據(jù)在從金融市場到氣候科學的各個領(lǐng)域無處不在。在人工智能進步的推動下,LLM 正在徹底改變我們處理和生成人類語言的方式。本文深入研究時間序列語言模型如何提供創(chuàng)新的預測和異常檢測模型。

什么是時間序列模型?

大體上說,時間序列語言模型被重新改造后用于處理時間序列數(shù)據(jù),而不是處理文本、視頻或圖像數(shù)據(jù)。它們將傳統(tǒng)時間序列分析方法的優(yōu)點與語言模型的高級預測功能相結(jié)合。當數(shù)據(jù)與預測或預期結(jié)果有明顯偏差時,可以使用強大的預測來檢測異常。時間序列語言模型和傳統(tǒng)LLM之間的一些顯著差異如下:

  • 數(shù)據(jù)類型和訓練:ChatGPT 之類的傳統(tǒng) LLM 用文本數(shù)據(jù)進行訓練,但時間序列語言模型用連續(xù)的數(shù)值數(shù)據(jù)進行訓練。具體來說,預訓練針對大型、多樣化的時間序列數(shù)據(jù)集(實際數(shù)據(jù)集和合成數(shù)據(jù)集)進行,這使模型能夠很好地適用于不同的領(lǐng)域和應用。
  • 詞元化:時間序列語言模型將數(shù)據(jù)分解為塊而不是文本詞元(塊是指時間序列數(shù)據(jù)的連續(xù)段、塊或窗口)。
  • 輸出生成:時間序列語言模型生成未來數(shù)據(jù)點的序列,而不是單詞或句子。
  • 架構(gòu)調(diào)整:時間序列語言模型結(jié)合特定的設計選擇來處理時間序列數(shù)據(jù)的時間特性,比如可變上下文和范圍長度。

與分析和預測時間序列數(shù)據(jù)的傳統(tǒng)方法相比,時間序列語言模型具有多個顯著優(yōu)勢。不像ARIMA 等傳統(tǒng)方法通常需要廣泛的領(lǐng)域?qū)I(yè)知識和手動調(diào)整,時間序列語言模型則利用先進的機器學習技術(shù)自動從數(shù)據(jù)中學習。這使得它們在傳統(tǒng)模型可能不盡如人意的眾多應用領(lǐng)域成為強大且多功能的工具。

  • 零樣本性能:時間序列語言模型可以對未見過的新數(shù)據(jù)集進行準確預測,而無需額外的訓練或微調(diào)。這尤其適用于新數(shù)據(jù)頻繁出現(xiàn)的快速變化的環(huán)境。零樣本方法意味著用戶不必花費大量資源或時間來訓練模型。
  • 復雜模式處理:時間序列語言模型可以捕獲數(shù)據(jù)中復雜的非線性關(guān)系和模式,ARIMA 或 GARCH等傳統(tǒng)的統(tǒng)計模型可能發(fā)現(xiàn)不了這些關(guān)系和模式,尤其是對于未見過或未預處理的數(shù)據(jù)。此外,調(diào)整統(tǒng)計模型可能很棘手,需要深厚的領(lǐng)域?qū)I(yè)知識。
  • 效率:時間序列語言模型并行處理數(shù)據(jù)。與通常按順序處理數(shù)據(jù)的傳統(tǒng)模型相比,這大大縮短了訓練和推理時間。此外,它們可以在單單一個步驟中預測更長序列的未來數(shù)據(jù)點,從而減少所需的迭代步驟數(shù)。

時間序列語言模型的實際運用

一些用于預測和預測分析的最流行的時間序列語言模型包括:谷歌的TimesFM、IBM的TinyTimeMixer和AutoLab的MOMENT。

谷歌的TimesFM可能最容易使用。使用pip安裝它,初始化模型,并加載檢查點。然后,你可以對輸入數(shù)組或Pandas DataFrames執(zhí)行預測。比如:

<span style="font-weight: 400;">```python</span>
import pandas as pd
# e.g. input_df is
#       unique_id  ds          y
# 0     T1         1975-12-31  697458.0
# 1     T1         1976-01-31  1187650.0
# 2     T1         1976-02-29  1069690.0
# 3     T1         1976-03-31  1078430.0
# 4     T1         1976-04-30  1059910.0
# ...   ...        ...         ...
# 8175  T99        1986-01-31  602.0
# 8176  T99        1986-02-28  684.0
# 8177  T99        1986-03-31  818.0
# 8178  T99        1986-04-30  836.0
# 8179  T99        1986-05-31  878.0

forecast_df = tfm.forecast_on_df(
    inputs=input_df,
    freq="M",  # monthly
    value_name="y",
    num_jobs=-1,
)

谷歌的TimesFM還支持微調(diào)和協(xié)變量支持,這是指模型能夠結(jié)合和利用額外的解釋變量(協(xié)變量)以及主要時間序列數(shù)據(jù),以提高預測的準確性和穩(wěn)健性。你可以在此論文(??https://arxiv.org/pdf/2310.10688??)中詳細了解谷歌的TimesFM工作原理。

IBM的TinyTimeMixer包含用于對多變量時間序列數(shù)據(jù)執(zhí)行各種預測的模型和示例。此筆記本(??https://github.com/ibm-granite/granite-tsfm/blob/main/notebooks/hfdemo/ttm_getting_started.ipynb??)重點介紹了如何使用TTM(TinyTimMixer)對數(shù)據(jù)執(zhí)行零樣本預測和少樣本預測。下面的屏幕截圖顯示了TTM生成的一些估計值:

用時間序列語言模型徹底改變預測分析現(xiàn)狀-AI.x社區(qū)

最后,AutoLab的MOMENT擁有預測和異常檢測方法,并附有一目了然的示例。它擅長長范圍預測。舉例來說,該筆記本表明了如何通過先導入模型來預測單變量時間序列數(shù)據(jù):

```python
from momentum import MOMENTPipeline

model = MOMENTPipeline.from_pretrained(
    "AutonLab/MOMENT-1-large", 
    model_kwargs={
        'task_name': 'forecasting',
        'forecast_horizon': 192,
        'head_dropout': 0.1,
        'weight_decay': 0,
        'freeze_encoder': True, # Freeze the patch embedding layer
        'freeze_embedder': True, # Freeze the transformer encoder
        'freeze_head': False, # The linear forecasting head must be trained
    },
)
```

下一步是使用你的數(shù)據(jù)訓練模型進行正確的初始化。在每個訓練輪次之后,都會針對測試數(shù)據(jù)集評估模型。在評估循環(huán)中,模型使用output = model(timeseries, input_mask) 這一行進行預測。

```python 
while cur_epoch < max_epoch:
    losses = []
    for timeseries, forecast, input_mask in tqdm(train_loader, total=len(train_loader)):
        # Move the data to the GPU
        timeseries = timeseries.float().to(device)
        input_mask = input_mask.to(device)
        forecast = forecast.float().to(device)
 
        with torch.cuda.amp.autocast():
            output = model(timeseries, input_mask)
```

結(jié)語

時間序列語言模型是預測分析領(lǐng)域的重大進步,它們將深度學習的強大功能與時間序列預測的復雜需求結(jié)合在一起。它們能夠執(zhí)行零樣本學習、整合協(xié)變量支持,并高效處理大量數(shù)據(jù),這使它們成為各行各業(yè)的革命性工具。隨著我們見證這一領(lǐng)域的快速發(fā)展,時間序列 語言模型的潛在應用和優(yōu)勢只會不斷擴大。

若要存儲時間序列數(shù)據(jù),請查看領(lǐng)先的時間序列數(shù)據(jù)庫InfluxDB Cloud 3.0。你可以利用InfluxDB v3 Python客戶端庫和InfluxDB來存儲和查詢時間序列數(shù)據(jù),并運用時間序列LLM進行預測和異常檢測。你可以查看下列資源開始上手:

原文標題:??Transform Predictive Analytics With Time Series Language Models??,作者:Anais Dotis-Georgiou

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關(guān)推薦
主站蜘蛛池模板: 精品一级电影 | 国产视频一区二区在线观看 | 亚洲视频免费播放 | 亚洲精品视频在线观看免费 | 91在线精品视频 | 国产日韩精品视频 | 亚洲欧洲在线观看视频 | 欧美日韩在线播放 | av网站在线免费观看 | 精品久久久久久久久久 | 91精品国产99| 91精品国产乱码麻豆白嫩 | 国产成人精品久久二区二区91 | 国产精品久久久久久久久久 | 精品视频在线一区 | 亚洲精品一区二区在线观看 | 久久久久久91香蕉国产 | 一区在线播放 | 91色网站| 高清视频一区二区三区 | 日韩av第一页 | 天天操夜夜操 | 伊色综合久久之综合久久 | www.四虎.com| 国产一伦一伦一伦 | 成人在线国产 | 国产乱码久久久 | 黄网站涩免费蜜桃网站 | 成人免费在线播放视频 | 亚洲综合视频 | 久久1区 | 岛国在线免费观看 | 欧美精品tv| 亚洲精品久久视频 | 欧产日产国产精品视频 | 中文字幕在线观看一区二区 | 精品一区二区三区在线观看 | 久久久久亚洲精品 | 久久国产欧美一区二区三区精品 | 精品国产一级 | 一区二区三区免费在线观看 |