👁️ 多模態apache_2_0

Ministral 8B Latest

Ministral 8B Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。

📅 發布:2025-12資料更新:2026年4月5日

VRAM 計算器

我的 GPU VRAM:
量化等級
上下文長度
Q4_K_M · 8K context
模型權重 + KV Cache + 0.5 GB overhead
5.2 GB
完整 VRAM 對照表(所有量化 × 上下文)
量化4K8K16K32K64K128K
Q4_K_M4.8 GB5.2 GB6.0 GB7.6 GB11 GB17 GB
Q8_08.8 GB9.2 GB10 GB12 GB15 GB21 GB

規格

參數量8B
最大上下文128K tokens

模型強項

多模態理解超長上下文開源靈活高效推理

推薦用途

  • 處理包含文字與圖像的複雜查詢,進行內容分析與生成。
  • 在有限硬體資源下,進行長篇文件摘要、問答或程式碼分析。
  • 作為本地部署的智能助手,處理多種輸入格式並提供即時回應。

標籤

mistralaiapache_2_0multimodalMinistral 8B Latest

部署工具

ollamallama.cpp

關於 Ministral 8B Latest — 開源 AI 模型

Ministral 8B Latest 是一個開源多模態,擁有 8B 參數,採用 apache_2_0 授權。可使用 ollama、llama.cpp 進行部署。適用場景包括:處理包含文字與圖像的複雜查詢,進行內容分析與生成。、在有限硬體資源下,進行長篇文件摘要、問答或程式碼分析。、作為本地部署的智能助手,處理多種輸入格式並提供即時回應。。核心優勢:多模態理解、超長上下文、開源靈活、高效推理。 可在本地硬體上自行部署,完全保護隱私,無需 API 金鑰。

使用心得

分享你的使用體驗,幫助其他人了解這個模型

0/1000
還沒有評論,成為第一個分享心得的人!