騰訊云上架 Llama 3.1模型,支持在 TI 平臺精調和推理
7 月 23 日,Meta 正式發布 Llama 3.1 模型,包含 8B、70B 和 405B 三種參數規模。其中 405B 是目前最大開源模型之一,擁有 4050 億參數,支持多語言輸入輸出,在復雜數學和即時生成內容方面表現出色。
為了給企業、開發者提供更多元的模型選擇,騰訊云 TI 平臺迅速響應,國內首批完成Llama 3.1的適配和上架,支持一鍵發起精調和推理。騰訊云對該系列模型進行了精調、推理測試驗證,保障模型的可用性、易用性,可覆蓋智能對話、文本生成、寫作等多個不同場景。
此前,騰訊云 TI 平臺除了內置自研的騰訊混元大模型、行業大模型之外,也已廣泛接入了Llama 3、Baichuan、Falcon、Dolly、Vicuna、Bloom等市場主流開源大模型,支持快速發起訓練任務或部署推理服務,使用流程簡單,開發效率高。企業、開發者可以根據不同細分場景的業務需求,靈活選擇各類大模型,降低模型使用成本。
打造面向實戰的大模型精調工具鏈,助力企業智能化升級
騰訊云TI平臺致力于構建面向實戰的大模型精調工具鏈,幫助用戶訓練出真正可用的大模型,并縮短模型開發周期,提升研發效率與資源利用率。
平臺在數據準備階段提供極致靈活高效的數據構建與標注能力,包括3大類數據處理pipeline,覆蓋有監督多輪問答、單輪問答和無監督預訓練,以及5大高質量處理環節,如原始數據分析、數據清洗、數據去重等。代碼完全開源,支持用戶按需靈活修改。此外,平臺還基于騰訊云的實戰經驗,沉淀了覆蓋12大類LLM應用場景的100多萬條精調配比數據,智能分配配比數據量,解決過擬合或能力遺忘問題,有效提升模型效果。
在數據標注方面,騰訊云TI平臺升級面向LLM和多模態大模型的數據標注能力,首創基于Schema定義數據標注結構及組件,提供個性化標注操作臺,實現業內最極致的多模態數據標注靈活性。
精調訓練階段,騰訊云TI平臺提供易用、穩定、高效的訓練工具。內置主流開源大模型及騰訊混元等自研模型,支持一鍵啟動精調任務。通過3層機制保障大規模訓練穩定運行,包括硬件容錯、容器調度、任務斷點續訓。基于自研的Angel訓練框架,整體提升30%的訓練性能,部分模型如baichuan2模型相比deepspeed加速70%,顯著提升任務成功率及資源利用率。
模型驗證評測階段,騰訊云TI平臺貼合算法真實使用流程,提供輕量體驗、客觀評測、主觀評測三階段評測能力。輕量體驗通過在線問答形式體驗模型效果,確保模型訓練過程不出現大偏差;客觀評測使用業界主流開源評測集進行自動化評估;主觀評測則通過業務人員人工標注打分,保障最終模型效果。
同時,為了簡化開發流程,騰訊云TI平臺還對外開放API接口和豐富的SDK,開發者可以輕松地將Llama 3.1等模型集成到自己的應用中,無需進行復雜的配置和改動,顯著提升了開發效率和應用的迭代速度。
持續推動大模型生態建設,加速模型應用場景落地
目前,騰訊在大模型領域已經構建了一套全鏈路產品矩陣,涵蓋從底層豐富基礎設施到頂層多元智能應用。包括自研通用大模型、模型開發平臺、智能體開發平臺,以及針對不同場景定制的智能應用解決方案等。通過這些產品和方案,致力于助力企業客戶高效地將大模型技術應用到實際業務場景中,實現快速部署和價值創造。
在醫療行業,騰訊云攜手上海市數字醫學創新中心,共研醫學大模型,目前在瑞金醫院實現了總檢報告和電子病歷生成等相關項目的落地應用。以體檢報告生成為例,平均每5秒即可自動生成一份總檢報告,為醫生節約50%+的撰寫時間。
在文娛行業,閱文集團一直利用大模型能力持續提升其用戶寫作和插圖制作效率,但面臨模型迭代快、更新復雜和推理成本高昂等問題。騰訊云TI平臺的應用簡化了模型訓練配置,通過加速框架提升了推理速度,同時提供了易于使用的管理工具,助力持續解決上述難題。
大模型時代,算力、網絡、數據構成了底層基礎設施的“鐵三角”。除了提供一站式AI大模型服務之外,騰訊云還為客戶提供了HCC高性能計算集群、星脈高性能計算網絡以及向量數據庫等基礎設施服務。
不斷為千行百業打造行業大模型解決方案的同時,騰訊云也在積極參與行業大模型標準的制定。在金融領域,騰訊云與信通院合作,發布了國內首個金融行業大模型標準,為智能化發展和大模型的安全合規提供了支持;在醫療健康領域,騰訊參與編寫的《人工智能大模型賦能醫療健康產業白皮書(2023年)》已發布,旨在推動醫療健康大模型的發展并提出標準建議。
與此同時,騰訊還被選舉為全國信標委人工智能分委會委員兼副秘書長單位,作為核心成員,承擔了更多標準制定工作以及技術引領作用。未來,騰訊云將持續優化技術,推動大模型生態建設,加速千行百業應用落地,為各行業的數字化轉型提供有力支持。