👁️ 多模態apache_2_0

Ministral 14B Latest

Ministral 14B Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。

📅 發布:2025-12資料更新:2026年4月5日

VRAM 計算器

我的 GPU VRAM:
量化等級
上下文長度
Q4_K_M · 8K context
模型權重 + KV Cache + 0.5 GB overhead
8.5 GB
完整 VRAM 對照表(所有量化 × 上下文)
量化4K8K16K32K64K128K
Q4_K_M8.1 GB8.5 GB9.3 GB11 GB14 GB21 GB
Q8_015 GB16 GB16 GB18 GB21 GB28 GB

規格

參數量14B
最大上下文128K tokens

模型強項

多模態理解超長上下文開源靈活高效推理

推薦用途

  • 處理和理解包含文本與圖像的複雜多模態資訊,例如文件分析與內容生成。
  • 需要處理極長文本輸入的應用,如長篇文檔摘要、法律條文分析或學術研究。
  • 作為開發者在本地環境中部署和客製化,進行多模態應用開發與實驗。

標籤

mistralaiapache_2_0multimodalMinistral 14B Latest

部署工具

ollamallama.cpp

關於 Ministral 14B Latest — 開源 AI 模型

Ministral 14B Latest 是一個開源多模態,擁有 14B 參數,採用 apache_2_0 授權。可使用 ollama、llama.cpp 進行部署。適用場景包括:處理和理解包含文本與圖像的複雜多模態資訊,例如文件分析與內容生成。、需要處理極長文本輸入的應用,如長篇文檔摘要、法律條文分析或學術研究。、作為開發者在本地環境中部署和客製化,進行多模態應用開發與實驗。。核心優勢:多模態理解、超長上下文、開源靈活、高效推理。 可在本地硬體上自行部署,完全保護隱私,無需 API 金鑰。

使用心得

分享你的使用體驗,幫助其他人了解這個模型

0/1000
還沒有評論,成為第一個分享心得的人!