Mistral開源8X22B大模型,OpenAI更新GPT-4 Turbo視覺,都在欺負谷歌
在谷歌昨晚 Cloud Next 大會進行一系列重大發(fā)布時,你們都來搶熱度:前有 OpenAI 更新 GPT-4 Turbo,后有 Mistral 開源 8X22B 的超大模型。
谷歌內心:南村群童欺我老無力。
第二大開源模型:Mixtral 8X22B
今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技術細節(jié),并推出了 Mixtral 8x7B – Instruct 聊天模型。該模型的性能在人類評估基準上明顯超過了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。
短短 3 個月后,Mistral AI 開源了 Mistral 8X22B 模型,為開源社區(qū)帶來了又一個性能強勁的大模型。
有人已經(jīng)查看了 Mistral 8X22B 模型的細節(jié),模型文件大小約為 262 GB。
由此,Mistral 8X22B 僅次于 xAI 此前推出的 Grok-1(參數(shù)量為 3140 億),成為迄今為止第二大開源模型。
還有人驚呼,MoE 圈子又來了個「大家伙」。MoE 即專家混合模型,此前 Grok-1 也為 MoE 模型。
GPT-4 Turbo 視覺功能新升級
另一邊,OpenAI 宣布 GPT-4 Turbo with Vision 現(xiàn)在可以通過 API 使用了,并且 Vision 功能也可以使用 JSON 模式和函數(shù)調用了。
下面為 OpenAI 官網(wǎng)細節(jié)。
雖然如此,各路網(wǎng)友對 OpenAI 的小修小補「并不感冒」。
本文轉自 機器之心 ,作者:機器之心
