🧠 語言模型Mistral Research🔒 需申請存取

Magistral Medium

Mistral Magistral Medium,123B 推理模型,256K 上下文,Mistral 最新推理旗艦,需 70 GB+ VRAM(Q4 約 74 GB)。

📅 發布:2025-06資料更新:2026年4月5日

VRAM 計算器

我的 GPU VRAM:
量化等級
上下文長度
Q4_K_M · 8K context
模型權重 + KV Cache + 0.5 GB overhead
69 GB
完整 VRAM 對照表(所有量化 × 上下文)
量化4K8K16K32K64K128K
Q4_K_M68 GB69 GB70 GB72 GB77 GB87 GB
Q8_0130 GB130 GB132 GB134 GB139 GB148 GB

部署指南

方法三:vLLM(高效能伺服器)

適合生產環境,支援批次推理和 OpenAI 相容 API。

pip install vllm
vllm serve Mistral --dtype auto

規格

參數量123B
最大上下文256K tokens
HF 下載量320K/月

模型強項

旗艦模型超長上下文強大推理高效部署

推薦用途

  • 處理和分析極長篇幅的文本資料,如法律文件、研究報告等。
  • 進行複雜的邏輯推理和知識問答,適用於專業領域的智能助手。
  • 開發需要處理大量輸入資訊並快速響應的企業級應用。

標籤

推理256K旗艦

部署工具

vLLMSGLang

關於 Magistral Medium — 開源 AI 模型

Magistral Medium 是一個開源語言模型,擁有 123B 參數,採用 Mistral Research 授權。可使用 vLLM、SGLang 進行部署。適用場景包括:處理和分析極長篇幅的文本資料,如法律文件、研究報告等。、進行複雜的邏輯推理和知識問答,適用於專業領域的智能助手。、開發需要處理大量輸入資訊並快速響應的企業級應用。。核心優勢:旗艦模型、超長上下文、強大推理、高效部署。 可在本地硬體上自行部署,完全保護隱私,無需 API 金鑰。

使用心得

分享你的使用體驗,幫助其他人了解這個模型

0/1000
還沒有評論,成為第一個分享心得的人!