![]() 大家好,我是 Ai 學(xué)習(xí)的老章 今天大模型開(kāi)源世界又迎來(lái) 1 個(gè)重量級(jí)選手 MiniMax- M1 我們一起看看 MiniMax-M1 簡(jiǎn)介MiniMax-M1 采用了創(chuàng)新的混合專(zhuān)家模型(MoE)架構(gòu)結(jié)合閃電注意力機(jī)制(Lightning Attention),優(yōu)勢(shì)有三:
模型總參數(shù) 4560 億(456B),比 Qwen3 還龐大,每 token 激活參數(shù):459 億(45.9B),基礎(chǔ)模型:MiniMax-Text-01.MiniMax-M1 中的閃電注意力機(jī)制能夠高效擴(kuò)展測(cè)試時(shí)計(jì)算,與 DeepSeek R1 相比,M1 在 10 萬(wàn) token 生成長(zhǎng)度下僅消耗 25% 的 FLOPs。 最大亮點(diǎn)是超長(zhǎng)上下文支持:
![]() MiniMax-M1 原生支持 100 萬(wàn) token 的上下文長(zhǎng)度,是 DeepSeek R1 上下文大小的 8 倍。 最大輸入與 Gemini 2.5 Pro 并列第一 最大輸出僅次于 OpenAI o3 綜合妥妥第一 它還支持:
MiniMax-M1 測(cè)評(píng)![]() ![]() 官方數(shù)據(jù)來(lái)看: MiniMax-M1在復(fù)雜推理和長(zhǎng)上下文處理方面表現(xiàn)突出,其核心優(yōu)勢(shì)在于高思考預(yù)算和原生百萬(wàn) token 支持。80K 版本的思考預(yù)算達(dá)到行業(yè)頂級(jí)水平,在數(shù)學(xué)推理任務(wù)中接近 DeepSeek-R1 和 OpenAI-o3 等頂級(jí)模型,MATH-500 測(cè)試成績(jī)達(dá) 96.8%。 在編碼任務(wù)中,其 FullStackBench 68.3% 的表現(xiàn)與 Claude 4 Opus 差距不足 2 個(gè)百分點(diǎn)。特別值得注意的是其長(zhǎng)上下文能力,在百萬(wàn) token 級(jí)任務(wù)中與 Gemini 2.5 Pro 持平,OpenAI-MRCR 測(cè)試中 40K 版本甚至以 58.6% 略超 80K 版本。 工具調(diào)用方面,零售場(chǎng)景的 TAU-bench 測(cè)試顯示 40K 版本反超 80K 版本達(dá) 67.8%,展現(xiàn)出色的任務(wù)適配性。 不過(guò)在軟件工程和事實(shí)性任務(wù)方面,與行業(yè)頂尖模型仍存在約 15-20% 的差距。 MiniMax-M1 部署![]() 模型文件 910GB+,比 R1 還大 官方推薦本地部署設(shè)備:單臺(tái)配備 8 個(gè) H800 或 8 個(gè) H20 GPU 的服務(wù)器 搭載 8 個(gè) H800 GPU 的服務(wù)器可處理長(zhǎng)達(dá) 200 萬(wàn) token 的上下文輸入 配備 8 個(gè) H20 GPU 的服務(wù)器則能夠支持高達(dá) 500 萬(wàn) token 的超長(zhǎng)上下文處理能力。 vllm 部署代碼:
MiniMax-M1 實(shí)測(cè)部署成本太高了,我沒(méi)這個(gè)實(shí)力 想要測(cè)試的話可以去官方網(wǎng)站:
智能搜索:就是聯(lián)網(wǎng)搜索,官方建議當(dāng)需要 MiniMax AI 進(jìn)行創(chuàng)意寫(xiě)作時(shí)關(guān)閉此功能 Think 模式:就是深度思考 我讓他生成黑客帝國(guó)數(shù)字雨 html,效果非常一般 ![]() DeepSeek-R1-0528 蒸餾 Qwen3:8B大模型,雙 4090本地部署,深得我心 比 不過(guò)其Agent模式還是很OK的 ![]() 然后讓其設(shè)計(jì)知識(shí)卡片 Qwen3 果真拉垮了嗎?實(shí)測(cè)、【實(shí)測(cè)】ChatGPT 4.1 很好,但沒(méi)那么好、批量生成小紅書(shū)風(fēng)格知識(shí)卡片,附Python代碼! 提示詞:閱讀全文,文中共幾次父親的背影?分別有何深意,輸出 SVG 格式,3:4,小紅書(shū)風(fēng)格:——省略 1328 字 ![]() 它剛開(kāi)始也是沒(méi)有找到第四次的背影,不過(guò)在漫長(zhǎng)的思考中,它發(fā)現(xiàn)并修復(fù)了 最終效果還行吧,比 Qwen3-235b、Qwen3:32、GPT4.1 都要強(qiáng)很多 我發(fā)現(xiàn) minimax 也新出了一個(gè) Agent 模式: ![]() 它是類(lèi)似 manus 的通用智能體工具,可以生成網(wǎng)頁(yè)、游戲代碼,可以做 Research,寫(xiě)報(bào)告,可以做 PPT,可以做多模態(tài)任務(wù)。 初看確實(shí)蠻驚艷的 比如這個(gè)復(fù)刻 minimax 官網(wǎng) ![]() 比如可以極簡(jiǎn) prompt 輸入
生成一個(gè)故事網(wǎng)頁(yè) ![]() 費(fèi)用方面: 免費(fèi)用戶有 1,000 免費(fèi)積分,這一點(diǎn)不如 manus 誠(chéng)意,后者除了 1000 免費(fèi)積分,每天還會(huì)刷新贈(zèng)送 300. 總結(jié),我個(gè)人可能只會(huì)偶爾在網(wǎng)頁(yè)端用用它 公司本地化部署的話,鐵定還是首選DeepSeek-R1-05-28 制作不易,如果這篇文章覺(jué)得對(duì)你有用,可否點(diǎn)個(gè)關(guān)注。給我個(gè)三連擊:點(diǎn)贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個(gè)??,謝謝你看我的文章,我們下篇再見(jiàn)! 搭建完美的寫(xiě)作環(huán)境:工具篇(12 章)圖解機(jī)器學(xué)習(xí) - 中文版(72 張 PNG)ChatGPT、大模型系列研究報(bào)告(50 個(gè) PDF)108 頁(yè) PDF 小冊(cè)子:搭建機(jī)器學(xué)習(xí)開(kāi)發(fā)環(huán)境及 Python 基礎(chǔ) 116 頁(yè) PDF 小冊(cè)子:機(jī)器學(xué)習(xí)中的概率論、統(tǒng)計(jì)學(xué)、線性代數(shù) 史上最全!371 張速查表,涵蓋 AI、ChatGPT、Python、R、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等 |
|
來(lái)自: ml_Py > 《待分類(lèi)》