成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GPT-4.1深夜登場,中科大校友領隊!百萬上下文編程驚人,GPT-4.5三個月后淘汰

人工智能
OpenAI重磅發布的GPT-4.1系列模型,帶來了編程、指令跟隨和長上下文處理能力的全面飛躍!由中科大校友Jiahui Yu領銜的團隊打造。與此同時,備受爭議的GPT-4.5將在三個月后停用,GPT-4.1 nano則以最小、最快、最便宜的姿態強勢登場。

就在剛剛,OpenAI專為開發者重磅推出了三款全新模型:GPT-4.1、GPT-4.1 mini和GPT-4.1 nano!

它們均擁有最高100萬Token的超大上下文窗口,在代碼、指令跟隨等核心能力上全面超越GPT-4o及GPT-4o mini,并且知識截止日期也已更新至2024年6月。

值得注意的是,GPT?4.1系列將僅通過API提供,并已向所有開發者開放。

圖片圖片

GPT-4.1 nano是OpenAI首個nano模型,也是他們目前可用模型中最快、最便宜的一款。

別看它體積不大,性能一點不弱:MMLU得分80.1%,GPQA得分50.3%,Aider多語言編碼基準9.8%,完勝GPT-4o mini!

GPT-4.1 mini在多項基準測試超越GPT-4o,速度快一倍的同時成本驟降83%,效率拉滿!

作為其中旗艦模型的GPT?4.1更是強的可怕:

  • 最強編碼:GPT?4.1在SWE-bench Verified上的得分為54.6%,比GPT?4o提高了21.4%,比GPT?4.5提高了26.6%。
  • 指令跟隨:在Scale的MultiChallenge?上,GPT?4.1的得分為38.3%,比GPT?4o提高了10.5%。
  • 長上下文:在Video-MME上,GPT?4.1取得了新的SOTA——在長視頻、無字幕類別中得分72.0%,比GPT?4o提高了6.7%。

圖片圖片

自此,謎語人奧特曼口中的「quasar」也終于得到了確認——就是GPT-4.1!

圖片圖片

而隨著能力更強、成本延遲更低的GPT-4.1的推出,一直以來都飽受爭議的GPT?4.5 Preview也將在3個月后(7月14日)從API中下架。

對此OpenAI表示,GPT?4.5原本就是作為研究預覽版推出的,目的是探索和實驗一個大規模、計算密集型的LLM。

雖然模型即將停用,但OpenAI會把開發者喜愛的創造力、寫作質量、幽默感等特點,繼續融入未來的API模型中。

現場Demo實測

首先,當然就是編程能力。

在這個demo中,研究者要求GPT-4.1做一個在線抽認卡網頁應用,提出了許多相當具體的要求。比如點擊抽認卡時,要出現3D動畫。

對于這個任務,GPT-4o完成得是這樣的。

圖片圖片

相比之下,GPT-4.1就完成得十分流暢了,無論是在顏色,還是在3D動畫上。

注意,從頭到尾,只需要一個prompt,就能得到一個完整的應用程序!

圖片圖片

下面是一個OpenAI的Playground,在演示中,研究者要求GPT-4.1生成一個單一的Python文件代碼應用,在右側模擬用戶查詢,這個網站可以接收大型文本文件、回答相關問題。

圖片圖片

可以看到,模型產生了數百行代碼。研究者將這些代碼實際運行后,發現效果出人意料的好。

僅僅一個提示,它就創建了這個網站。

圖片圖片

接下來,是大海撈針的展示。

研究者上傳了文件——NASA自1995年8月以來的服務器請求響應日志文件,

在這個文件中,左側是向NASA服務器發出請求的客戶端名稱,這是一個包含大量日志行的長文件,左側大概有450000個token的內容。

圖片圖片

在OpenAI以前的模型上,是不可能使用這個文件的。

這里,研究者偷偷添加了一行實際上不是HTTP請求響應的內容,這支堆棧中的小「針」,很難發覺。

最終,GPT-4.1成功了!

圖片圖片

研究者經過確認,這一行的確在他們上傳的日志文件中。

圖片圖片

OpenAI特意強調,在實踐中非常重要的一點,就是API開發者是如何提示模型的。

在這個任務中,GPT-4.1的任務是日志分析員助手。研究者告訴它輸入的數據以及用戶的查詢該如何構建。

接下來還有一些規則,比如模型只用回答日志數據內容相關的問題,問題應該始終在查詢標簽內格式化,如果其中一項不真實請回復錯誤消息等等。

圖片圖片

接下來,就是GPT-4.1展示的時候了。

研究者詢問:fnal.gov發出了多少請求?模型拒絕了,因為它沒有在查詢標簽內格式化。

而如果在查詢標簽內發出同樣的請求,它就可以找到日志文件中的兩個引用了。

圖片圖片

這樣,開發者就可以明確讓模型做到「不做某事」,這是開發過程中一個極其有意義的關鍵細節——遵循負面指令。

定價

價格方面,GPT?4.1雖然比GPT?4o便宜了26%,但輸入、輸出依然高達每百萬token 2美元和8美元。

GPT?4.1 nano是OpenAI迄今為止價格最低、速度最快的模型,輸入、輸出分別為0.1美元和0.4美元。

對于重復使用相同上下文的查詢,這些新模型的提示詞緩存折扣已從之前的50%提高至75%。

最后,長上下文請求已包含在標準的按Token計費內,無額外費用。

圖片圖片

編程:OpenAI最強模型誕生

相對GPT-4o、o1、o3-mini等模型,GPT-4.1在編程上都提升了一大截。

在各種編程任務上明顯比GPT-4o強得多,比如用智能體解決編程問題、前端開發、減少不必要的代碼修改、嚴格跟隨不同的格式、保持工具使用的一致性等等。

在SWE-bench Verified這個反映真實軟件工程能力的測試中,GPT-4.1完成了54.6%的任務,而GPT-4o(2024-11-20)只有33.2%。

這說明GPT-4.1在瀏覽代碼庫、完成任務以及生成既能運行又能通過測試的代碼方面有了很大提升。

圖片圖片

對于SWE-bench Verified,模型會接收一個代碼倉庫和問題描述,并需要生成一個補丁來解決該問題。其性能高度依賴于所使用的提示詞和工具

對于希望編輯大型文件的API開發者而言,GPT-4.1在處理各種格式的代碼差異(code diffs)時,可靠性要高得多。

Aider多語言差異基準測試?,不僅衡量了模型跨多種編程語言的編碼能力,也衡量了其以完整文件格式和不同格式生成代碼變更的能力。

在這里,GPT?4.1的得分是GPT?4o的2倍以上,甚至比GPT?4.5高出8%。

如此一來,開發者便無需重寫整個文件,而是讓模型輸出變更的行即可,從而大幅節省成本并降低延遲。

對于傾向于重寫整個文件的開發者,GPT?4.1的輸出Token上限也提高到了32,768個Token(GPT?4o為16,384個)。其中,可以使用Predicted Outputs功能來降低完整文件重寫的延遲。

圖片圖片

在Aider的多語言基準測試中,模型通過編輯源文件的方式解決來自Exercism?的編碼練習,并允許一次重試。「whole」格式要求模型重寫整個文件,這可能速度較慢且成本較高。「diff」格式則要求模型編寫一系列搜索/替換塊

此外,GPT?4.1在前端編碼方面相較于GPT?4o也有顯著改進,能夠創建出功能更完善、視覺上更美觀的Web應用。

在直接對比評估中,人類評委有80%的情況更傾向于選擇GPT?4.1生成的網站,而非GPT?4o。

指令跟隨:現已進入第一梯隊

在指令跟隨方面,OpenAI特地開發了一套內部的評估體系,用以追蹤模型在多個維度及以下幾個關鍵指令跟隨類別上的表現:

  • 格式跟隨(Format following):按要求的自定義格式(如XML、YAML、Markdown等)生成響應。
  • 否定性指令(Negative instructions):避免執行特定行為。(示例:「不要讓用戶聯系支持人員」)
  • 有序指令(Ordered instructions):按給定順序執行一系列操作。(示例:「先詢問用戶姓名,再詢問其郵箱地址」)
  • 內容要求(Content requirements):確保輸出內容包含特定信息。(示例:「撰寫營養計劃時,必須包含蛋白質克數」)
  • 排序(Ranking):按特定方式排列輸出內容。(示例:「按人口數量對結果進行排序」)
  • 識別知識邊界(Overconfidence):在無法獲取所請求信息或請求超出指定范疇時,回答「我不知道」或類似表述。(示例:「如果你不知道答案,請提供支持團隊的聯系郵箱」)

這些類別是基于開發者反饋確定的,反映了他們認為最為相關且重要的指令跟隨維度。其中,每個類別都將提示詞按難度分為了簡單、中等和困難三類。

在處理困難提示詞方面,GPT-4o和GPT-4o mini只有不到30%的正確率,而新系列中最小的nano都達到了32%。

與此同時,GPT-4.1則達到了49%,幾乎追平了o1和o3-mini,但和GPT-4.5還有一段距離。

圖片圖片

內部指令跟隨能力評估是基于真實的開發者用例和反饋,涵蓋了不同復雜程度的任務,并結合了關于格式、詳細程度、長度等方面的指令要求

對許多開發者而言,多輪指令跟隨至關重要,這意味著模型需要在對話深入時保持連貫性,并記住用戶先前告知的信息。

而GPT-4.1能夠更好地從對話歷史消息中提取信息,從而實現更自然的交互。

在Scale AI推出的MultiChallenge基準測試中,GPT?4.1雖然不及o1和GPT-4.5,但已經可以追上o3-mini,并且比GPT?4o提升了10.5%之多。

圖片圖片

在MultiChallenge基準測試中,模型面臨的挑戰是在多輪對話里,能夠正確使用來自先前消息(對話上文)的四種類型的信息

此外,GPT?4.1在IFEval上的得分為87.4%,而GPT?4o為81.0%。IFEval使用包含可驗證指令的提示詞(例如,指定內容長度或避免使用特定術語/格式)。

圖片圖片

在IFEval中,模型必須生成符合各種指令的答案

更強的指令跟隨能力不僅能提升現有應用的可靠性,也能實現過去因模型可靠性不足而難以實現的新應用

早期測試人員反饋,GPT?4.1可能更傾向于跟隨字面指令,因此OpenAI建議在設計提示詞時力求明確和具體。

長上下文:大海撈針直接滿分

長上下文理解能力是法律、編碼、客戶支持及諸多其他領域應用的一項關鍵能力。

GPT?4.1、GPT?4.1 mini和GPT?4.1 nano不僅可處理最多100萬Token的上下文,而且能夠可靠地處理其中的內容,并忽略干擾信息。

100萬Token是什么概念?類比來說,其包含的內容量可以達到整個React代碼庫8倍以上!

比起GPT?4o的12.8萬Token,可以說是提升十分巨大了。

下面,演示了GPT?4.1在上下文窗口不同位置檢索隱藏的小段信息(即「針」)的能力。

在長達100萬 Token的各種上下文長度和所有位置點上,GPT?4.1都能持續準確地檢索到「針」。這意味著它能有效提取當前任務所需的相關細節,無論這些細節位于輸入的哪個部分。

不過,現實世界的任務很少像檢索單個、明顯的「針」那樣簡單直接。

圖片圖片

在「大海撈針」(Needle in a Haystack)評估中,GPT?4.1、GPT?4.1 mini和GPT?4.1 nano均能在長達100萬Token的上下文中的所有位置成功檢索到「針」

OpenAI-MRCR

在實際應用時,用戶通常需要模型能夠檢索并理解多條信息,并且理解這些信息片段之間的相互關聯。

為此,OpenAI開源了一項測試模型在長上下文中查找并區分多個隱藏「針」的新基準:OpenAI-MRCR(Multi-Round Coreference)。

該評估包含用戶與助手之間的多輪合成對話,在對話中用戶要求模型就某個主題進行創作,例如「寫一首關于貘的詩」或「寫一篇關于石頭的博客文章」。

接著,在上下文中隨機插入2個、4個或8個內容相似但實例不同的請求。

模型必須準確檢索出與用戶指定的某一特定實例相對應的響應(例如,「請給我第三首關于貘的詩」)。

這項任務的挑戰在于,這些相似請求與上下文的其他部分非常接近——模型很容易被細微差異誤導,比如將關于貘的短篇故事誤認為詩歌,或將關于青蛙的詩歌誤認為關于貘的詩歌。

當上下文達到GPT?4o極限的12.8萬Token時,GPT?4.1的表現明顯更優;即使上下文長度擴展到100萬Token,它依然能保持強勁的性能。

圖片圖片

圖片圖片

圖片圖片

在OpenAI-MRCR中,模型必須回答一個問題,該問題涉及在分散注意力的內容中區分2、4或8個用戶提示

Graphwalks

Graphwalks是一個用于評估多跳長上下文推理的數據集。

許多面向開發者的長上下文用例需要在上下文中進行多次邏輯跳躍,例如在編寫代碼時在多個文件之間切換,或在回答復雜的法律問題時進行文檔的交叉引用。

模型(甚至人類)理論上可以通過單次遍歷或通讀上下文來解決OpenAI-MRCR問題,但Graphwalks的設計旨在要求跨上下文多個位置進行推理,并且無法通過順序處理來解決。

Graphwalks用一個由十六進制哈希值組成的有向圖填充上下文窗口,然后要求模型從圖中的一個隨機節點開始執行廣度優先搜索(BFS)。接著,要求模型返回特定深度的所有節點。

GPT?4.1在此基準測試中達到了61.7%的準確率,與o1的性能持平,并輕松擊敗了GPT?4o。

圖片圖片

在Graphwalks中,要求模型從一個大型圖中的隨機節點進行廣度優先搜索

視覺:圖像理解超越GPT-4o稱霸

GPT?4.1系列在圖像理解方面能力極強,特別是GPT?4.1 mini實現了顯著飛躍,在圖像基準測試中其表現常常優于GPT?4o。

圖片圖片

在MMMU基準測試中,模型需回答包含圖表、示意圖、地圖等內容的問題

圖片圖片

在MathVista?基準測試中,模型需解決視覺數學任務

圖片圖片

在CharXiv-Reasoning基準測試中,模型需回答關于科學論文中圖表的問題

長上下文處理能力對于多模態用例(例如處理長視頻)也至關重要。

在Video-MME(長視頻,無字幕)基準測試中,模型需要根據時長30-60分鐘且無字幕的視頻來回答多項選擇題。

這里,GPT?4.1再次達到了SOTA——得分72.0%,高于GPT?4o的65.3%。

圖片圖片

在Video-MME中,模型根據30-60分鐘長且無字幕的視頻回答多項選擇題

完整結果

下文完整列出了在學術、編程、指令跟隨、長上下文、視覺及函數調用評估中的結果。

學術知識學術知識

編程編程

指令跟隨指令跟隨

長上下文長上下文

視覺視覺

函數調用函數調用

華人領隊

圖片圖片

Jiahui Yu

圖片圖片

Jiahui Yu目前負責感知(Perception)團隊,研究領域是深度學習和高性能計算。

GPT-4o發布時,他就是關鍵成員之一。

此前,他曾在Google DeepMind共同負責Gemini多模態項目。

圖片圖片

他在微軟亞研院、曠視科技、Adobe Research、Snap Research、Jump Trading、百度研究院、Nvidia Research和Google Brain都有過實習經歷。

圖片圖片

他在中國科技大學少年班獲得計算機學士學位。在伊利諾伊大學香檳分校獲得博士學位。

圖片圖片

參考資料:

https://openai.com/index/gpt-4-1/

https://x.com/OpenAI

責任編輯:武曉燕 來源: 新智元
相關推薦

2025-04-15 09:50:06

2025-04-15 08:51:05

2025-04-15 06:41:41

2025-04-16 09:30:16

2025-04-15 07:41:18

2025-05-15 09:16:00

2024-05-06 08:25:00

2024-04-22 13:35:00

AI數據

2025-02-28 08:20:00

2025-02-10 01:00:00

OpenAIGPT-5GPT-4.5

2018-11-06 15:49:27

2025-01-16 10:05:00

3D模型代碼

2023-08-02 00:19:46

2025-03-05 09:32:00

2025-06-16 08:49:00

2023-03-08 22:19:11

2014-04-29 10:32:44

編程課程編程

2024-07-17 11:27:26

2024-12-20 11:31:53

2025-06-18 16:44:27

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产日韩免费视频 | 91中文| 91观看| 91中文在线观看 | 福利精品在线观看 | 一区二区视频 | 中文字幕日韩欧美一区二区三区 | 天天干天天爱天天操 | 国产一区二区av | 免费一区二区三区在线视频 | 不卡在线视频 | 午夜免费精品视频 | 岛国在线免费观看 | 国产精品亚洲一区 | 欧美日韩三级 | 亚洲国产精品成人无久久精品 | 玖操| 国产97色 | 亚洲国产欧美一区二区三区久久 | 日韩一及片 | 色婷婷综合在线观看 | 欧美在线视频一区二区 | 国产成人精品综合 | 国产精品久久久久久福利一牛影视 | 岛国av免费在线观看 | 国产乱码精品一区二区三区中文 | 久久99视频这里只有精品 | 亚洲一区播放 | 人人干免费 | www日本在线观看 | 国产成人aⅴ | 成人性视频免费网站 | 成人免费视频网站在线观看 | 91av视频在线观看 | 999热在线视频 | 国产成人精品一区二区三 | 亚洲欧美自拍偷拍视频 | 日韩高清一区 | 一级做a爰片性色毛片视频停止 | 国际精品久久 | 亚洲国产精品一区 |