成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

結構化表格也成模態!浙大TableGPT2開源,最強表格AI問世

人工智能 新聞
當結構化數據也變成一個模態,哪家的大語言模型能脫穎而出呢?

現在正是多模態大模型的時代,圖像、視頻、音頻、3D、甚至氣象運動都在紛紛與大型語言模型的原生文本模態組合。而浙江大學及其計算機創新技術研究院的一個數十人團隊也將結構化數據(包括數據庫、數倉、表格、json  等)視為了一種獨立模態。

基于這一視角,依托 Qwen,他們研發了 TableGPT 系列模型。現如今,這個模型已經更新到了第 2 代,性能表現較之前代已有大幅提升:在某些基準上,TableGPT2 能夠媲美甚至優于 GPT-4o!或者按團隊負責人趙俊博博士的說法:「目前通用大模型在許多結構化數據相關的任務上的表現仍然較弱,TableGPT2 在相關任務的榜單上鐵腕刷榜 —— 各類相關任務刷出去平均 40 個點。」

圖片

  • 論文標題:TableGPT2: A Large Multimodal Model with Tabular Data Integration
  • 論文地址:https://arxiv.org/pdf/2411.02059
  • TableGPT 智能體:https://github.com/tablegpt/tablegpt-agent
  • Hugging Face:https://huggingface.co/tablegpt/TableGPT2-7B

該團隊表示:「提出 TableGPT2 的關鍵動機是解決當前 LLM 在數據驅動型真實世界應用中的限制。」

當今的許多 LLM 的設計目標就是以端到端的方式運行,而沒有整合外部數據。但該團隊認為這種方法存在固有缺陷。舉個例子,如果你想用 LLM 來幫助你挑選股票,但如果不給它提供實時的市場信息,它的建議就根本不可能靠譜;更別說必需病人病歷和各類過往的指標數據才能做出準確判斷的醫療 AI 應用了。具身智能中的靈巧手的觸覺信號以及多個傳感器中的各類 「覺」 也都是結構化信息。

同時,即便 LLM 已經整合了外部數據源(如數據庫),其性能也往往無法達到最優。目前常見的整合思路包括通過工具(如 natural-language-to-sql / NL2SQL)來調用外部數據源以及通過更長的長下文和新架構來納入外部數據源。但這些方法要么難以用于復雜場景,要么就效率低下,不實用。

基于這些思考,該團隊認為在整合外部數據源時需要根本上的范式轉變。TableGPT2 也由此而生,該模型的設計目標是直接且高效地整合和處理表格數據,克服當前 LLM 的固有限制,進而實現生產級部署。

之前 LLM 和 VLM 方面的研究已經證明了大規模多樣化數據集的重要性。其實表格數據也同樣多,并且也同樣重要。據估計,全球超過 70% 的數據都是以結構化的表格形式存儲的,包括數據庫和電子表格。

所以,資源浩瀚,也因此,開發大規模表格模型極具潛力!該團隊表示:「通過使用大規模表格及其 schema 元數據的數據集,我們的目標是探索能否有效地建模這些數據格式,從而得到可用于商業智能等應用的功能強大的模型。」

TableGPT2 的表格數據編碼器是該團隊全新設計的,其重在建模表格數據的結構和內容。這讓 TableGPT2 可以捕獲 schema 層面和單元格層面的信息,從而有望為表格大模型帶來文本模型和視覺模型所經歷過的那種巨大提升。

TableGPT2 是什么

從名稱也能看出,TableGPT2 是 TableGPT 的新一代版本。初始版本的 TableGPT 就已經引入了結構化特定領域語言(DSL)和專用表格編碼器等方法,可以管理復雜的基于表格的查詢。在此基礎上,TableGPT2 實現了巨大的改進。他們不僅擴大了數據和訓練協議的規模,還重新設計了每個組件,同時也引入了一些提升穩健性、擴大適用性以及優化商業智能應用性能的技術。

最終,大規模多模態模型 TableGPT2 誕生了!它有兩種配置:7B 和 72B 版本。它們全都基于 Qwen2.5 系列模型。訓練過程中,該團隊使用了超過 860 億 token 來進行持續預訓練(CPT)、超過 43.75 萬個表格 - 語言交織的樣本來訓練編碼器、236 萬多個高質量「查詢 - 表格 - 輸出」元組來進行監督式微調。

在相關研究中,這種規模是前所未有的,足以保證 TableGPT2 滿足涉及結構化或表格數據的現代應用的嚴格要求。

TableGPT2 經歷的持續預訓練(CPT)、監督式微調(SFT)和支持生產級能力的智能體框架不同于傳統 LLM,因為這里的預訓練和微調更加注重編程、多輪推理和工具使用。這些特點可確保模型不僅擅長自然語言處理,而且能夠很好地處理與表格相關的復雜任務。

此外,該團隊還初步探索了表格數據的多模態對齊。具體來說,TableGPT2 創新性地加入了一個單獨的模態模塊,專門用于讀取和解釋表格數據。類似于視覺 - 語言模型(VLM),TableGPT2 包含一個表格數據讀取模塊,其作用是生成與來自文本輸入的 token 嵌入相連接的專用嵌入。這個新增模塊可讓 TableGPT2 更好地捕獲表格數據的結構和語義,從而在復雜的商業智能場景中實現更準確的表格理解。圖 1 描繪了其整體模型框架。

圖片

TableGPT2 是如何煉成的

持續預訓練

為了實現 TableGPT2 的目標,該團隊首先是通過持續預訓練(CPT)來提升模型的編程和推理能力。

具體來說,80% 的 CPT 數據都是標注良好的代碼,從而確保 TableGPT2 具有穩健的編程能力,這與 DeepSeek-v2 采用的方法是一致的。此外,該團隊還做了補充;他們收集整理了大量包含多種領域知識(如金融、制造業、生物技術、市場技術)的推理數據和一般教科書,以保持數據比例平衡,增強推理能力。表 1 展示  CPT 過程中使用的數據分布和總 token 數。

圖片

在數據處理方面,他們采用了一種兩級過濾策略。

在文檔層面,他們使用 54 個不同的類別對數據進行了標注,以確保全面覆蓋不同的文檔類型。下表展示了一些重要的過濾標簽。

圖片

在 token 層面,則是利用了 RHO-1 來微調對高質量 token 的選擇。

此外,他們還引入了一種可將代碼長度和上下文窗口設置納入考慮的新方法,這可優化模型有效處理多種不同代碼段的能力。

經過徹底過濾后,最終的 CPT 數據包含 86B token,這種穩健強大的預訓練可確保 TableGPT2 具備必要的編程和推理能力,足以應對復雜的商業智能和其他相關任務。

有監督微調

在 TableGPT2 中,監督式微調(SFT)的作用是解決在用于商業智能任務和場景時的局限。

為此,該團隊編排了一個數據集,其中包含范圍廣泛的近乎現實的關鍵場景,包括多輪對話、復雜推理、工具使用和針對具體業務的查詢。

這個數據集的構建過程既包括人工標注,也包含一個專家驅動的自動化標注流程,從而可以保證數據的質量和相關性。總體而言,SFT 過程涉及 236 萬個樣本, token 數量達數十億,足可用于進一步微調模型,使其滿足商業智能和其他涉及表格的環境的特定需求。

圖片

更具體地說,TableGPT2 的 SFT 流程有一個關鍵差異,即這 236 萬個指令樣本的組成非常平衡且多樣化。如此一來,就可以滿足表格相關任務的需求:既需要通用的模型能力,也需要針對表格的技能。

該數據集包含的表格專有任務包括代碼生成(Python 和 SQL)、表格查詢、數據可視化、統計測試和預測建模。此外,其中還有表格理解、表格生成、缺失值插補和基于表格的問答等多種任務,幾乎涵蓋了表格使用的所有階段。輸入格式加上隨機排列的表格元數據(如字段描述、schema 信息和值枚舉),可以產生超過 20 種不同的「表格 - 信息」輸入組合,組可確保全面覆蓋。

為了保證數據質量,他們還實施了一個多步驟的數據過濾流程:

  • 首先,使用一組基于規則的過濾器,包括使用 Python 和 SQL 執行器檢查代碼的可執行性和正確性,從而消除常見錯誤(例如鍵錯誤和類型轉換問題)。此外,還會使用正則表達式和其他規則來丟棄異常輸出。
  • 然后,使用多個模型(如 GPT-4o)對過濾后的數據進行評分;這里使用的提示詞是專門設計的,可以保證得到更為細致的評估。只要當樣本在所有評分組合上都超過閾值時,該樣本才會被保留下來。
  • 之后,通過人工檢查進行樣本校準。如果樣本準確率低于 95%,就重新審查并優化其數據生成和過濾腳本。
  • 最后,執行評估,這會用到一個包含約 94.9K 個案例(包括現有案例和新構建的案例)的固定驗證集,如此可確保生成的結果是可執行且準確的。同時還會執行進一步的手動驗證來抽查任何不一致之處并檢測潛在的數據問題,例如缺少函數調用或多輪對話能力較差。

用于表格數據的數據增強

為了提升 TableGPT2 的性能(尤其是商業智能任務性能),該團隊采用了多種查詢增強技術,包括

  • 在查詢內引入字段時進行模糊化處理
  • 通過匿名化字段名和類別值來實現表格數據增強
  • 通過結合單輪和多輪問答任務來增強模型的多功能性
  • 使用變動的提示詞格式和輸出結構來降低 TableGPT2 對某些提示詞模板的敏感度
  • 在數據生成過程中應用后處理增強來提升訓練數據的多樣性

語義表格編碼器

由于 NL2SQL 等傳統工作流程存在局限性,該團隊為 TableGPT2 設計了新的語義編碼器。

圖片

這種新的表格編碼器的輸入是整張表格。基于此,它可為每一列生成一組緊湊的嵌入。

該架構是根據表格數據的獨特屬性專門設計的,畢竟表格與文本、圖像和其它數據類型存在根本性差異。

表格的語義來自四個關鍵維度:單元格、行、列和表格整體結構。這些維度都存在排列不變性(permutation invariance)。基于這一觀察,該團隊實現了一個沒有位置嵌入的二維注意力機制以及一個分層特征提取過程。這能確保行方向和列方向的關系都被捕獲并被有效理解。

此外,他們還采用了一種逐列式對比學習方法,以鼓勵模型學習有意義的、對結構有感知的表格語義表征。

該團隊使用了 Q-former 式的適應器(配備了一組可學習的查詢)來將列嵌入與文本嵌入對齊。

他們還引入了兩個特殊 token <tab> 和 </tab>,以區分表格特征和原生文本,讓模型可以同時處理這兩種模態,并且不產生混淆。

為進一步增強文本信息、列嵌入和 schema 元數據之間的對齊程度,他們還使用了聯合指令微調。此過程有助于優化模型對表格數據的理解,使其能夠更有效地集成和解讀各種輸入。

順帶一提,目前這個編碼器部分還尚未開源。至于原因,趙俊博博士表示:「一方面保護下團隊學生們未來的小論文,另外一方面確實 VLM 和特定領域的適配沒弄好,解碼器可以獨立使用,效果仍在。」

智能體框架

該團隊在開源庫中提供了一個全面的智能體工作流程運行時間框架,其設計目標是將 TableGPT2 無縫地集成到企業級數據分析工具中。該框架包含三個核心組件:

  • 運行時間的提示詞工程
  • 一個安全的代碼沙箱
  • 一個智能體評估模塊

它們加在一起,可以提升智能體的能力和可靠性。這個工作流程具有模塊化的步驟,因此可支持復雜的數據分析。這些步驟包括輸入規范化、智能體執行(可選擇 VLM 支持)、工具調用。

再結合檢索增強式生成(RAG,用于高效上下文檢索)和代碼沙箱(用于安全執行),該框架可確保 TableGPT2 為實際問題提供準確、與上下文相關的見解。

下圖展示了智能體的完整工作流程:首先通過一個提示詞工程模塊來準備和處理輸入查詢。再基于一個外部知識庫使用 RAG 模塊后,將經過處理的輸入送入主模型。然后,TableGPT2 會與一個視覺 - 語言模型(VLM)合作生成工具調用、代碼等相關動作。通過觀察中間結果,可以根據需求選擇是否迭代,以利用該智能體的反思能力。通過智能體與工具之間的無縫交互,這個迭代過程最終可得到最終輸出。

圖片

TableGPT2 效果怎么樣

在實驗部分,團隊此次針對表格相關任務進行了全面的基準測試,不僅涵蓋了已有的一些數據集,還加入了一個新收集的、面向真實任務的復雜表格數據集,從而提供了一個嚴格的評估平臺。

為了進行全面的比較,團隊選擇了多樣化的基線大語言模型。第一類是最先進的開源通用 LLM,包括 DeepSeek-Coder-V2-Lite-16B、 YiCoder-9B-Chat 以及 Qwen2.5-Coder-7B-Instruct、Qwen2.5-7B-Instruct。

第二類是針對表格相關任務進行微調或專門開發的模型,比如針對表格分析設計和優化的 TableLLM、為處理電子表格和文檔設置中各種真實表格操作而微調的 CodeLlama-13B。

基準概覽

下表 4 匯總了現有的表格理解和推理基準,共涵蓋了 27.7K 個表格和 88.9K 個測試樣本。團隊將這些基準劃分為了以下 6 項主要的表格分析任務,以全方位評估模型在不同類型任務中的性能:

  • 表格理解
  • 表格問答(TableQA)
  • 表格事實驗證
  • 表格到文本生成(Table2Text)
  • 自然語言到 SQL(NL2SQL)
  • 整體評估

圖片

除了表 4 中已有的基準,團隊構建了一個新基準 RealTabBench。現有基準大多側重于簡單的任務,不符合實際使用場景。為了克服這一局限性,團隊構建了這個更具挑戰性、更能反映實際應用場景的新基準,從商業智能(BI)場景中的真實表格中收集了 360 個復雜數據表格,并在此基礎上制定了 6000 個真實、復雜的查詢語句。

在評估模型性能時,團隊采用了兩個在實際應用中特別難處理的表格特征,分別是:

  • 模糊性,表格中潛在的形似「A1」、「A2」等難以確認實際含義的匿名字段會對自動分析構成很大的挑戰;
  • 不規則性,在生產環境中,表格數據通過包含普遍的合并操作和不規則的結構,比如合并單元格和非均勻布局。

同時,針對新基準 RealTabBench,團隊又從三個關鍵維度對生成的結果進行了評估,即一致性、信息完整性和安全性

為了保證權威性,團隊采用人工評審員與評估 LLM 結合的混合系統來生成最終的分數,并已經公開了整個評估流程中的部分樣本。

圖片


  • 項目地址:https://github.com/tablegpt/tablegpt-agent/tree/main/realtabbench

評估結果

下表 5 展示了 TableGPT2 (7B 和 72B 版本)與最先進基線模型的比較結果。值得注意的是,在沒有對任何特定基準訓練集進行大量訓練的情況下,TableGPT2 顯著優于幾乎所有其他 LLM 方法。并且在某些基準上,TableGPT2 能夠媲美甚至優于 GPT-4o。

另外,在涉及分層結構表格的復雜數據基準(如 HiTab)上,當前大多數 LLM 方法表現不佳。相反,TableGPT2 有了明顯改進,與 Qwen2.5 系列模型相比,執行準確率實現了 60% 以上的絕對增長。

圖片

同樣地,對于 RealTabBench 數據集,TableGPT2(7B)在多項任務上均達到了新 SOTA。

圖片

為了更直觀地展示 TableGPT2 的效果,團隊選擇了幾個比較案例(vs Qwen2.5 系列模型),涵蓋了不規則表格、一般表格和模糊表格的場景。具體結果如下圖 4 所示。

圖片

最后,針對表格相關任務對 LLM 微調不應損害其整體性能。為了驗證這一觀點,團隊在下表 7 中對流行的基準展開評估,包括 MBPP、HumanEval、CMMLU 和 MMLU。

結果顯示,TableGPT2 在這些基準上保持了強大的性能,并沒有出現通用能力的下降。

圖片

未來改進方向

不過,團隊也表示,盡管 TableGPT2 在評估中實現了 SOTA,但尚未完全解決在實際 BI 環境中部署 LLM 的挑戰。因此距離將該模型可靠地用于生產系統仍有一些差距。團隊提出可以采用以下幾種關鍵的技術與方法來解決。

一是針對特定領域進行編碼

團隊雖然利用 Python 和 SQL 數據對 TableGPT2 進行了微調,但考慮到安全和效率等因素,特定領域通常需要專門的編碼。這就面臨一個關鍵挑戰:如何使 LLM 能夠快速適應企業特定的 DSL 或偽代碼?拿 TableGPT2 來說,雖然它可以生成代碼,但問題在于如何有效地彌合這些代碼與企業數據基礎設施特定需求之間的差距?

在 TableGPT2 中,團隊采用了一種混合輸出方法,結合使用了結構 DSL 輸出和標準編程代碼。這使得模型流暢地生成結構化和非結構化代碼,在提供靈活性的同時可以保持領域特定應用所需的結構。

這些領域特定語言可以提供更好的可解釋性,允許通過用戶友好的界面更直接地與 LLM 輸出進行交互。同時,這些語言可以最大限度地減少潛在的安全風險和錯誤,從而帶來更安全、更強大的解決方案。

團隊認為,生產環境中的編碼不單單是簡單的代碼生成,需要仔細考慮領域特定的需求、基礎設施兼容性以及靈活性與安全性之間的平衡,在混合使用 DSL 和通用代碼時更要如此。

二是多智能體設計

盡管 TableGPT2 在表格相關任務中取得了 SOTA 性能,但仍然不能指望單個端到端 LLM 能夠獨立地完全解決復雜的真實任務。因此,團隊最近在密切關注一項新的研究 —— 自動化智能體系統設計,它遵循了 LLM 工作流的自動化編排原則。

其中多個 LLM 被組織成有向無環圖(DAG)結構,這樣輸入查詢可以根據圖的拓撲順序自動路由到一系列 LLM 中。每個 LLM 執行一項專門的功能。DAG 流程由系統本身決定,并根據手頭任務決定要用到哪些 LLM。這種自動化流程工程創建了一個靈活的模塊化工作流程,并根據問題需求動態調整,正如 AutoML 系統自動配置機器學習模型以獲得最佳性能一樣。

這樣的例子還有很多,比如用于股票和基金推薦的小型自然語言應用,它需要將 LLM 與實時市場數據連接起來。在這種多智能體架構中,通常需要為不同的 LLM 分配不同的角色,每個 LLM 都要在針對其功能專門定制的數據上進行微調。每個 LLM 還要根據輸入來配置不同的提示詞模版和 RAG 設置,并在輸出階段應用不同的編碼和對話邏輯。這樣一來,每個階段的定制微調可以確保整個 pipeline 提供精準和上下文感知的響應,從而解決真實應用的復雜性。

一個足夠先進的單一基礎模型最終能不能取代鏈接多個模型的需要呢?團隊認為這在很大程度上仍是理論上可行。這種模型需要擁有足夠的通用智能來處理統一框架內的各種任務。但從自身經驗出發,團隊表示通常需要兩個以上的 LLM 才能解決真實應用的全部復雜性。因此,團隊認為,單一模型何時能夠熟練、無縫地解決跨多個領域的問題仍不確定,在生產階段尤為如此。

三是充分利用表格的多功能性

盡管 TableGPT2 主要關注 BI 應用 —— 在這些應用中,結構化數據的上游來源是數據庫或數據倉庫;不過,表格數據還有另一個非常常見的來源,即 Apple Pages 或 Microsoft Excel 等應用程序。

這些表格與數據庫等基礎設施中的表格往往差異巨大,因為人們日常使用的表格常常并不規則。舉個例子,Pages 或 Excel 中的表格常常有合并單元格、不一致的行列結構、非標準的數據格式。這些不規則會讓此類表格的處理復雜度更高。另外,不同組織機構使用的表格形式差異也很大,比如有些單元格可能會包含自由形式的文本、有些單元格沒有填充等等。

在 TableGPT2 模型所在的智能體工作流程中,該團隊還專門為規范不規則表格微調了一個單獨的 LLM,并將其集成到一個整體系統中。然而,處理不規則表格仍有很大的改進空間,尤其是考慮到其巨大的商業生產潛力。

因此,該團隊猜想,要處理這種不規范,就應該從預訓練階段開始,以確保模型能夠熟練處理表格的各種格式。

當前的許多 LLM 以及 RAG 過程都無法充分地處理這些非標準表格結構。此外,許多現有的語料庫也常常忽視這類數據。這一有待填補的空白是值得研究者未來探索的寶貴機會。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2020-10-18 07:49:40

開源在線表格Excel前端表格庫

2018-04-03 14:00:03

結構化數據非結構化數據數據庫

2024-11-11 17:37:27

2021-12-12 08:37:18

結構化數據非結構化數據數據

2025-01-10 13:56:28

2021-02-24 16:50:07

LaTex排版表格

2021-12-29 10:51:19

JavaSPL架構

2024-05-27 00:32:45

2023-12-25 15:00:18

結構化布線光纖

2011-03-01 09:39:51

結構化布線

2009-10-21 15:20:28

結構化布線技術

2009-10-15 13:49:23

結構化布線系統

2023-07-25 17:21:20

綜合布線結構化布線

2022-07-04 22:08:52

結構化數據谷歌

2012-02-08 15:54:05

ibmdw

2009-10-16 12:55:27

結構化布線系統

2023-10-27 09:47:22

模態框架

2010-05-24 19:17:12

SNMP對象

2013-05-03 11:37:16

結構化布線布線技術布線系統
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 99热热热热| 国产精品我不卡 | 免费精品视频在线观看 | 国产精品高清一区二区 | 亚洲一一在线 | 婷婷久久网| 国产成人福利视频 | 欧美aⅴ | 欧美福利影院 | 涩涩导航| 久久99蜜桃综合影院免费观看 | 围产精品久久久久久久 | 日韩三级精品 | 国产精品久久久久一区二区三区 | 中文字幕国产一区 | 亚洲视频在线观看 | 国产精品电影网 | 久久综合激情 | 日韩成人在线播放 | 日本精品视频 | 欧美日产国产成人免费图片 | 亚洲成av | 久久99精品久久久 | av在线免费观看网址 | 综合久 | 国产精品五区 | 在线观看h视频 | 在线国产中文字幕 | 国产精品777一区二区 | 91色在线 | 国产精品久久久久久久午夜片 | 国产成人精品一区二 | 在线国产一区 | 婷婷久久网 | 久久久久久国产精品 | 国产一区二区三区色淫影院 | 久久精品国产一区二区三区 | 婷婷福利视频导航 | 成年人视频免费在线观看 | 一级欧美 | 欧美专区在线 |