返回
👁️ 多模態
MoE
apache_2_0
Mistral Large Latest
Mistral Large Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
📅 發布:2025-12
↻
資料更新:2026年3月23日
規格
參數量
675B (A67.5B)
最大上下文
256K tokens
模型強項
多模態理解
超大上下文
高效能MoE
開源靈活
推薦用途
▸
處理和理解包含文字、圖像等多種資訊的複雜查詢,例如文件分析、內容摘要。
▸
需要長時間記憶和分析大量文本資訊的應用,如法律文件審閱、長篇報告撰寫。
標籤
mistralai
apache_2_0
multimodal
Mistral Large Latest
部署工具
ollama
llama.cpp
使用心得
分享你的使用體驗,幫助其他人了解這個模型
0/1000
發表評論
還沒有評論,成為第一個分享心得的人!