WAIC 2025大黑馬,一個「謝耳朵AI」如何用分子式超越Grok-4
自從去年 AI 預測與設計蛋白質結構獲得諾貝爾獎,AI for Science 這一領域關注度達到了新高度。
特別是近兩年在大模型強大能力加持下,我們期待能夠出現幫助我們作科研的 AI 利器。
現在,它來了。
7月26日,上海人工智能實驗室(上海AI實驗室)發布并開源『書生』科學多模態大模型Intern-S1,多模態能力全球開源第一,文本能力比肩國內外一流模型,科學能力全模態達到國際領先,作為融合科學專業能力的基礎模型,Intern-S1綜合性能為當前開源模型中最優。
基于 Intern-S1 的『書生』科學發現平臺 Intern-Discovery 亦于近日上線,助力研究者、研究工具、研究對象三者能力全面提升、協同演進,驅動科學研究從團隊單點探索邁向科學發現 Scaling Law 階段。
- Intern-S1 體驗頁面:https://chat.intern-ai.org.cn/
- GitHub 鏈接:https://github.com/InternLM/Intern-S1
- HuggingFace 鏈接:https://huggingface.co/internlm/Intern-S1-FP8
- ModelScope 鏈接:https://modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1
中國開源模型通過算法優化(如動態精度調節、MoE架構)和開源協作生態,在性能接近甚至超越國際上領先閉源模型的同時,大幅降低算力需求。如,DeepSeek-R1以開源模式對標OpenAI的閉源o1模型,憑借獨創的強化學習技術和群組相對策略優化(GRPO),在數學推理等任務上達到相近性能,但訓練成本遠低于后者;Intern-S1在科學推理任務上超越xAI的Grok 4,同時訓練算力消耗僅為Grok 4的1%,展現了更高的計算效率。
性能領先的開源科學多模態模型
重構科研生產力
Intern-S1以輕量化訓練成本,達成科學/通用雙維度性能突破。
在綜合多模態通用能力評估上,Intern-S1 得分比肩國內外一流模型,展現跨文本、圖像的全面理解力。該評估為多項通用任務評測基準均分,證明其多場景任務中的魯棒性與適應性,無懼復雜輸入組合挑戰。
在多個領域專業評測集組成的科學能力評測中,Intern-S1領先Grok-4等最新閉源模型。評測覆蓋了物理、化學、材料、生物等領域的復雜專業任務,驗證了模型在科研場景的強邏輯性與準確性,樹立行業新標桿。
當大模型在聊天、繪畫、代碼生成等場景中持續取得突破時,科研領域卻仍在期待一個真正“懂科學”的AI伙伴。盡管當前主流模型在自然語言處理、圖像識別等方面表現出色,但在面對復雜、精細且高度專業化的科研任務時,依然存在明顯短板。一方面,現有開源模型普遍缺乏對復雜科學數據的深度理解,難以滿足科研場景對精度、專業性和推理能力的嚴苛要求。另一方面,性能更強的閉源模型存在部署門檻高、可控性弱等問題,導致科研工作者在實際應用中常面臨高成本、低透明的現實挑戰。
在2025世界人工智能大會(WAIC 2025)科學前沿全體會議上,上海AI實驗室發布了『書生』科學多模態大模型Intern-S1。該模型首創“跨模態科學解析引擎”,可精準解讀化學分子式、蛋白質結構、地震波信號等多種復雜科學模態數據,并具備多項前沿科研能力,如預測化合物合成路徑,判斷化學反應可行性,識別地震波事件等,真正讓 AI 從“對話助手”進化為“科研搭檔”,助力全面重構科研生產力。
得益于強大的科學解析能力,Intern-S1在化學、材料、地球等多學科專業任務基準上超越了頂尖閉源模型Grok-4,展現出卓越的科學推理與理解能力。在多模態綜合能力方面,Intern-S1同樣表現亮眼,全面領先InternVL3、Qwen2.5-VL等主流開源模型,堪稱“全能高手”中的“科學明星”。
基于Intern-S1強大的跨模態生物信息感知與整合能力,上海AI實驗室聯合臨港實驗室、上海交通大學、復旦大學、MIT等研究機構協同攻關,共同參與構建了多智能體虛擬疾病學家系統——“元生”(OriGene),可用于靶標發現與臨床轉化價值評估,已在肝癌和結直腸癌治療領域上分別提出新靶點GPR160和ARG2,且經真實臨床樣本和動物實驗驗證,形成科學閉環。
體系化的技術創新為Intern-S1的能力突破提供了有效支撐。自書生大模型首次發布以來,上海AI實驗室已逐步構建起豐富的書生大模型家族,包括大語言模型書生·浦語InternLM、多模態模型書生·萬象InternVL、強推理模型書生·思客 InternThinker等。Intern-S1融合了『書生』大模型家族的優勢,在同一模型內實現了語言和多模態性能的高水平均衡發展,成為新一代開源多模態大模型標桿。
Intern-S1在國際開源社區引發了關注,不少知名博主紛紛為其點贊,并稱“幾乎每天都能看到來自中國的新開源Sota成果——紀錄每天都在被刷新。”
創新科學多模態架構,深度融合多種科學模態數據
受數據異構性壁壘、專業語義理解瓶頸等因素制約,傳統的通用大模型在處理科學模態數據時面臨顯著挑戰。為了更好地適應科學數據,Intern-S1新增了動態Tokenizer和時序信號編碼器,可支持多種復雜科學模態數據,實現了材料科學與化學分子式、生物制藥領域的蛋白質序列、天文巡天中的光變曲線、天體碰撞產生的引力波信號、地震臺網記錄的地震波形等多種科學模態的深度融合。通過架構創新,Intern-S1還實現了對科學模態數據的深入理解與高效處理,例如,其對化學分子式的壓縮率相比DeepSeek-R1提升70%以上;在一系列基于科學模態的專業任務上消耗的算力更少,同時性能表現更優。
“通專融合”合成科學數據,一個模型解決多項專業任務
科學領域的高價值任務往往高度專業化,不僅模型輸出可讀性差,且不同任務在技能要求與思維方式上差異顯著,直接混合訓練面臨此消彼長的困境,難以實現能力的深度融合。為此,研究團隊提出通專融合的科學數據合成方法:一方面利用海量通用科學數據拓展模型的知識面,另一方面訓練眾多專業模型生成具有高可讀性、思維路徑清晰的科學數據,并由領域定制的專業驗證智能體進行數據質量控制。最終,這一閉環機制持續反哺基座模型,使其同時具備強大的通用推理能力與多項頂尖的專業能力,真正實現一個模型解決多項專業任務的的科學智能突破。
聯合優化系統+算法,大規模強化學習成本直降10倍
當前,強化學習逐漸成為大模型后訓練的核心,但面臨系統復雜度和穩定性的重重挑戰。得益于訓練系統與算法層面的協同突破,Intern-S1研發團隊成功實現了大型多模態MoE模型在FP8精度下的高效穩定強化學習訓練,其強化學習訓練成本相比近期公開的MoE模型降低10倍。
在系統層面,Intern-S1研究團隊采用了訓推分離的RL方案,通過自研推理引擎進行FP8高效率大規模異步推理,利用數據并行均衡策略緩解長思維鏈解碼時的長尾現象;在訓練過程中同樣采用分塊式FP8訓練,大大提升訓練效率。后續,訓練系統也將開源。
在算法層面,基于Intern·BootCamp構建的大規模多任務交互環境,研究團隊提出Mixture of Rewards混合獎勵學習算法,融合多種獎勵和反饋信號,在易驗證的任務上采用RLVR訓練范式,通過規則、驗證器或者交互環境提供獎勵信號;在難驗證的任務上(如,對話和寫作任務)采用獎勵模型提供的獎勵信號進行聯合訓練。同時,訓練算法還集成了上海AI實驗室在大模型強化學習訓練策略上的多項研究成果,實現了訓練效率和穩定性的顯著提升。
工具鏈全體系開源,免費開放
打造更懂科學的AI助手
書生大模型自2023年正式開源以來,已陸續迭代升級多個版本,并持續降低大模型應用及研究門檻。書生大模型首創并開源了面向大模型研發與應用的全鏈路開源工具體系,覆蓋數據處理、預訓練、微調、部署、評測與應用等關鍵環節,包含低成本微調框架XTuner、部署推理框架LMDeploy、評測框架OpenCompass、高效文檔解析工具MinerU,以及思索式AI搜索應用MindSearch等在內的核心工具全面開源,已形成涵蓋數十萬開發者參與的活躍開源社區。
近期,上海AI實驗室進一步開源了多智能體框架Intern·Agent,可廣泛應用于化學、物理、生物等領域的12種科研任務,在大幅提升科研效率的同時,亦初步展現出多智能體系統自主學習、持續進化的潛力,為人工智能自主完成算法設計、科學發現等高端科研任務開辟了全新探索路徑。
基于Intern-S1的『書生』科學發現平臺Intern-Discovery亦于近日上線,助力研究者、研究工具、研究對象三者能力全面提升、協同演進,驅動科學研究從團隊單點探索邁向科學發現Scaling Law階段。
未來,在研究范式創新及模型能力提升的基礎上,上海AI實驗室將推進Intern-S1及其全鏈條工具體系持續開源,支持免費商用,同時提供線上開放服務,與各界共同擁抱更廣闊的開源生態,攜手打造更懂科學的AI助手。