清華系千億基座對話模型ChatGLM啟動內測,開源單卡版模型
ChatGPT 的發布,攪動了整個 AI 領域,各大科技公司、創業公司以及高校團隊都在跟進。近段時間,機器之心報道了多家創業公司、高校團隊的研究成果。
昨日,又一國產 AI 對話大模型重磅登場:由清華技術成果轉化的公司智譜 AI 基于 GLM-130B 千億基座模型的 ChatGLM 現已開啟邀請制內測。
值得一提的是,此次智譜 AI 也開源了中英雙語對話模型 ChatGLM-6B,支持在單張消費級顯卡上進行推理使用。
內測申請網址:chatglm.cn
據了解,ChatGLM 當前版本模型的能力提升主要來源于獨特的千億基座模型 GLM-130B。它是不同于 BERT、GPT-3 以及 T5 的架構,是一個包含多目標函數的自回歸預訓練模型。
2022 年 8 月,清華大學聯合智譜 AI 向研究界和工業界開放了擁有 1300 億參數的中英雙語稠密模型 GLM-130B,該模型有一些獨特的優勢:
- 雙語:同時支持中文和英文;
- 高精度(英文):在公開的英文自然語言榜單 LAMBADA、MMLU 和 Big-bench-lite 上優于 GPT-3 175B(API: davinci,基座模型)、OPT-175B 和 BLOOM-176B;
- 高精度(中文):在 7 個零樣本 CLUE 數據集和 5 個零樣本 FewCLUE 數據集上明顯優于 ERNIE TITAN 3.0 260B 和 YUAN 1.0-245B;
- 快速推理:首個實現 INT4 量化的千億模型,支持用一臺 4 卡 3090 或 8 卡 2080Ti 服務器進行快速且基本無損推理;
- 可復現性:所有結果(超過 30 個任務)均可通過我們的開源代碼和模型參數復現;
- 跨平臺:支持在國產的海光 DCU、華為昇騰 910 和申威處理器及美國的英偉達芯片上進行訓練與推理。
如今, 參考 ChatGPT 的設計思路,ChatGLM 在千億基座模型 GLM-130B 中注入了代碼預訓練,通過有監督微調(Supervised Fine-Tuning)等技術實現人類意圖對齊。
機器之心獲得了內測邀請碼,這里簡單和 ChatGLM 進行了對話,效果如下:
它能夠理解「站 CP」的實際涵義:
給 ChatGLM 一個數學問題試試:
自從學會了二元一次方程,像這種基礎的「雞兔同籠」問題就再也難不倒它了:
開源 ChatGLM-6B
ChatGLM-6B 是一個開源的、支持中英雙語問答的對話語言模型,并針對中文進行了優化。該模型基于 General Language Model (GLM) 架構,具有 62 億參數。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。ChatGLM-6B 使用了和 ChatGLM 相同的技術,針對中文問答和對話進行了優化。經過約 1T 標識符的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的 ChatGLM-6B 雖然規模不及千億模型,但大大降低了推理成本,提升了效率,并且已經能生成相當符合人類偏好的回答。
模型開源地址:https://github.com/THUDM/ChatGLM-6B
具體來說,ChatGLM-6B 具備以下特點:
- 充分的中英雙語預訓練:ChatGLM-6B 在 1:1 比例的中英語料上訓練了 1T 的 token 量,兼具雙語能力。
- 優化的模型架構和大小:吸取 GLM-130B 訓練經驗,修正了二維 RoPE 位置編碼實現,使用傳統 FFN 結構。6B(62 億)的參數大小,也使得研究者和個人開發者自己微調和部署 ChatGLM-6B 成為可能。
- 較低的部署門檻:FP16 半精度下,ChatGLM-6B 需要至少 13 GB 的顯存進行推理,結合模型量化技術,這一需求可以進一步降低到 10GB(INT8) 和 6GB(INT4),使得 ChatGLM-6B 可以部署在消費級顯卡上。
- 更長的序列長度:相比 GLM-10B(序列長度 1024),ChatGLM-6B 序列長度達 2048,支持更長對話和應用。
- 人類意圖對齊訓練:使用了監督微調(Supervised Fine-Tuning)、反饋自助(Feedback Bootstrap)、人類反饋強化學習(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人類指令意圖的能力。輸出格式為 markdown,方便展示。
不過由于 ChatGLM-6B 模型的容量較小,不可避免的存在一些局限和不足,包括:
- 相對較弱的模型記憶和語言能力。在面對許多事實性知識任務時,ChatGLM-6B 可能會生成不正確的信息,也不太擅長邏輯類問題(如數學、編程)的解答。
- 可能會產生有害說明或有偏見的內容:ChatGLM-6B 只是一個初步與人類意圖對齊的語言模型,可能會生成有害、有偏見的內容。
- 較弱的多輪對話能力:ChatGLM-6B 的上下文理解能力還不夠充分,在面對長答案生成和多輪對話的場景時,可能會出現上下文丟失和理解錯誤的情況。
GLM 團隊表示,ChatGLM 距離國際頂尖大模型研究和產品還有一定差距,未來將持續研發并開源更新版本的 ChatGLM 和相關模型。GLM 團隊也歡迎大家下載 ChatGLM-6B,基于它進行研究和(非商用)應用開發。