👁️ 多模態Apache 2.0

moondream2

moondream2 是最輕量的視覺語言模型之一,1.86B 參數,可在 CPU 或 2 GB VRAM 內運行,適合邊緣設備的圖像理解任務。

資料更新:2026年3月25日

VRAM 計算器

我的 GPU VRAM:
量化等級
上下文長度
Q4_K_M · 8K context
模型權重 + KV Cache + 0.5 GB overhead

部署指南

方法一:Ollama(最簡單)

安裝 Ollama 後直接執行,自動下載並運行模型。

ollama run moondream:latest

方法二:llama.cpp

適合進階用戶,支援 CPU 和 GPU 混合推理,可精確控制量化等級。

# Download GGUF model from Hugging Face, then run:
./llama-cli -m model.gguf -p "Hello" -n 128
ollama run moondream:latest

規格

參數量1.86B
最大上下文2K tokens
HF 下載量4.9M/月

模型強項

輕量高效視覺理解邊緣部署低VRAM需求

推薦用途

  • 在嵌入式設備或低配置硬體上進行即時圖像內容分析與描述
  • 開發需要快速圖像識別與文字輸出的行動應用程式或物聯網裝置

標籤

嵌入式視覺輕量推薦

部署工具

llama.cppOllama

使用心得

分享你的使用體驗,幫助其他人了解這個模型

0/1000
還沒有評論,成為第一個分享心得的人!