資料來源:🤗 Hugging Face · GitHub · 資料庫即時更新

探索開源 AI 宇宙
自由部署,完全掌控

160+ 個開源可自行部署的 AI 模型與工具,資料來源自 🤗 Hugging Face

160+開源模型
83+語言模型
27+多模態
10+圖像生成
10+語音處理
6+影片生成
最新發布2026
🧠2026-03
Qwen3.5
🧠2026-03
Mistral Small 4
🧠2026-03
Sarvam
🧠2026-02
LongCat-Flash-Lite
🧠2026-02
Step 3.5 Flash (65.5B Dense)
🧠2026-02
MiniMax M2.5
🧠2026-02
Step 3.5 Flash (196B MoE)
🧠2026-02
Nvidia Nemotron Nano 9B V2
🧠2026-02
Minimax M2
💻2026-01
Qwen3 Coder

模型瀏覽

分類:
VRAM:
我的 GPU:
強項篩選:
排序:
找到 160 個結果🤗
🧠 大型語言模型✦ 最近更新🔒 需申請

Mistral Small 4

📅2026年3月

Mistral Small 4,2026 年 3 月最新發布,24B 參數,Apache 2.0 授權,支援 128K 上下文,多語言與視覺能力全面升級。

多模態理解長上下文處理多語言支援
980K/月
▸ 5%
參數量
24B
最大上下文
128K tokens
128K多語言視覺最新
OllamavLLMllama.cpp
ollama run mistral-small4:latest
Apache 2.0
🧠 大型語言模型2 版本✦ 最近更新

Sarvam

📅2026年3月
選擇版本(參數量)
最大上下文:128K tokens📅 2026年3月

Sarvam-105B,2026 年 3 月發布,印度 Sarvam AI 出品,105B 參數,Apache 2.0 授權,專注印度語言(Hindi、Tamil 等)及多語言能力。

印度語言優化多語言理解複雜推理
120K/月
▸ 1%
參數量
105B
最大上下文
128K tokens
128K印度語言多語言最新
vLLMllama.cppSGLang
Apache 2.0
🧠 大型語言模型MoE8 版本✦ 最近更新

Qwen3.5

📅2026年2月2026年3月
選擇版本(參數量)
最大上下文:262K tokens📅 2026年2月

Qwen3.5 大型 MoE 模型,122B 總參數激活 10B,支援 262K 上下文。在 llm-stats.com 開源排行榜名列第 5,Code Arena 1136,GPQA 88.4%。

超長上下文高效MoE架構多模態理解
1.19K/月
參數量
27B
最大上下文
262K tokens
推薦超長上下文262K中文嵌入式低顯存
Ollamallama.cppLM StudiovLLMSGLang
ollama run qwen3.5:27b
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新🔒 需申請

LongCat-Flash-Lite

📅2026年2月

LongCat-Flash-Lite,美團 2026 年 2 月發布,560B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 66.8%,長文本處理能力突出。

長文本處理大規模模型高效推理
60K/月
參數量
560B
最大上下文
256K tokens
256KApache 2.0美團長文本
vLLMSGLang
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

Minimax M2

📅2026年2月

Minimax M2 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

超大上下文高效能MoE架構MIT開源
493K/月
▸ 2%
參數量
230B (A23B)
最大上下文
977K tokens
VRAM 資料待補充
MiniMaxAImitllm
ollamallama.cpp
MIT
🧠 大型語言模型✦ 最近更新

Step 3.5 Flash (65.5B Dense)

📅2026年2月

Step-3.5-Flash,階躍星辰 2026 年 2 月發布,65.5B 參數,Apache 2.0 授權,65K 上下文,GPQA 78.0%,SWE-bench 44.0%。

長上下文處理高效能部署程式碼理解
86K/月
參數量
65.5B
最大上下文
65K tokens
65KApache 2.0StepFun
vLLMSGLang
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

MiniMax M2.5

📅2026年2月

MiniMax M2.5,2026 年 2 月發布,230B MoE 模型,支援超長 1M token 上下文,GPQA 80.2%,SWE-bench 76.3%,旗艦開源模型。

超長上下文旗艦性能MoE架構
493K/月
▸ 2%
參數量
230B
最大上下文
1M tokens
MoE1M Context最新旗艦
vLLMSGLang
MiniMax
🧠 大型語言模型✦ 最近更新

Nvidia Nemotron Nano 9B V2

📅2026年2月

Nvidia Nemotron Nano 9B V2 由 nvidia 開發的開源 語言 模型。授權:nvidia_open_model_license_agreement。共 1 個尺寸版本。

日語優化指令遵循工具調用
465K/月
▸ 2%
參數量
8.9B
最大上下文
VRAM 資料待補充
nvidiallm
ollamallama.cpp
NVIDIA Open
🧠 大型語言模型MoE✦ 最近更新

Step 3.5 Flash (196B MoE)

📅2026年2月

Step 3.5 Flash 由 stepfun-ai 開發的開源 語言 模型。授權:apache_2_0。共 1 個尺寸版本。

高效能推理大規模語言理解MoE架構優勢
306K/月
▸ 1%
參數量
196B (A19.6B)
最大上下文
64K tokens
VRAM 資料待補充
stepfun-aillmStep 3.5 Flash
ollamallama.cpp
Apache 2.0
👁️ 多模態✦ 最近更新

Step3 Vl

📅2026年1月

Step3 Vl 由 stepfun-ai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。

多模態理解開源模型圖像文本交互
176K/月
▸ 1%
參數量
10B
最大上下文
VRAM 資料待補充
stepfun-aimultimodal
ollamallama.cpp
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

Qwen3 Next

📅2026年1月

Qwen3 Next 由 Qwen 開發的開源 語言 模型。授權:apache_2_0。共 3 個尺寸版本。

高效能程式碼代理長程推理
1.2M/月
▸ 6%
參數量
80B (A8B)
最大上下文
64K tokens
VRAM 資料待補充
Qwenllm
ollamallama.cpp
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新🔒 需申請

LongCat-Flash-Thinking-2601

📅2026年1月

LongCat-Flash-Thinking-2601,美團 2026 年 1 月發布,560B MoE 推理增強版本,Apache 2.0 授權,GPQA 81.5%,SWE-bench 59.4%。

長上下文理解高效推理知識問答
45K/月
參數量
560B
最大上下文
128K tokens
128KApache 2.0美團推理
vLLMSGLang
Apache 2.0
💻 程式碼生成✦ 最近更新

Qwen3 Coder

📅2026年1月

Qwen3 Coder 由 Qwen 開發的開源 程式碼 模型。授權:apache_2_0。共 2 個尺寸版本。

高效能程式碼智能代理能力長上下文理解
1.2M/月
▸ 6%
參數量
480B
最大上下文
VRAM 資料待補充
Qwencode
ollamallama.cpp
Apache 2.0
🧠 大型語言模型✦ 最近更新🔒 需申請

GLM-4.7-Flash

📅2026年1月

GLM-4.7-Flash,2026 年 1 月發布,30B 輕量版本,Apache 2.0 授權,GPQA 75.2%,128K 上下文,24 GB VRAM 可運行。

輕量高效長上下文中文優化
320K/月
▸ 2%
參數量
30B
最大上下文
128K tokens
128K高效中文推薦
OllamavLLMllama.cpp
ollama run glm4.7-flash:latest
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

Deepseek Reasoner

📅2025年12月

Deepseek Reasoner 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

大型語言模型開源模型MoE架構
參數量
685B (A68.5B)
最大上下文
VRAM 資料待補充
deepseek-aimitllm
ollamallama.cpp
MIT
👁️ 多模態MoE✦ 最近更新

Mistral Large Latest

📅2025年12月

Mistral Large Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。

多模態理解超大上下文高效能MoE
參數量
675B (A67.5B)
最大上下文
256K tokens
VRAM 資料待補充
mistralaimultimodal
ollamallama.cpp
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

MiMo-V2-Flash

📅2025年12月

MiMo-V2-Flash,小米 2025 年 12 月發布,309B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 83.7%,SWE-bench 58.3%。

高速推理長上下文理解MoE 高效能
193K/月
▸ 1%
參數量
309B
最大上下文
256K tokens
256K推理Apache 2.0小米
vLLMSGLang
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

MiniMax M2.1

📅2025年12月

MiniMax M2.1,2025 年 12 月發布,230B MoE 模型,支援 1M token 上下文,GPQA 84.5%,SWE-bench 60.2%,Code Arena 51.0%。

旗艦級性能超長上下文程式碼能力
46K/月
參數量
230B
最大上下文
1M tokens
MoE1M Context旗艦
vLLMSGLang
MiniMax
👁️ 多模態✦ 最近更新

Ministral 14B Latest

📅2025年12月

Ministral 14B Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。

多模態理解超長上下文開源靈活
參數量
14B
最大上下文
256K tokens
VRAM 資料待補充
mistralaimultimodal
ollamallama.cpp
Apache 2.0
👁️ 多模態✦ 最近更新

Ministral 8B Latest

📅2025年12月

Ministral 8B Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。

多模態理解超長上下文開源靈活
參數量
8B
最大上下文
256K tokens
VRAM 資料待補充
mistralaimultimodal
ollamallama.cpp
Apache 2.0
🧠 大型語言模型✦ 最近更新🔒 需申請

GLM-4.7

📅2025年12月

GLM-4.7,2025 年 12 月發布,355B 參數,GLM-4 授權,131K 上下文,GPQA 81.5%,中文能力頂尖,需要多 GPU 部署。

旗艦中文能力超長上下文高精度推理
180K/月
▸ 1%
參數量
355B
最大上下文
131K tokens
131K旗艦中文
vLLMSGLang
GLM-4
🧠 大型語言模型MoE✦ 最近更新

Deepseek V3.2 Speciale

📅2025年11月

Deepseek V3.2 Speciale 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

高效推理Agentic AI開源模型
15K/月
參數量
685B (A68.5B)
最大上下文
VRAM 資料待補充
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型MoE✦ 最近更新🔒 需申請

Nemotron 3 Nano (30B A3B)

📅2025年11月

NVIDIA Nemotron 3 Nano,30B MoE 模型(激活 3B),2025 年 12 月發布,NVIDIA Open Model 授權,128K 上下文,高效推理。

高效推理超長上下文MoE 架構
280K/月
▸ 1%
參數量
30B (A3B)
最大上下文
128K tokens
MoE128KNVIDIA
vLLMSGLangTensorRT-LLM
NVIDIA Open Model
🧠 大型語言模型MoE✦ 最近更新

Deepseek

📅2025年10月

Deepseek 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

多模態理解多語言支援超長上下文
3.0M/月
▸ 15%
參數量
685B (A68.5B)
最大上下文
128K tokens
VRAM 資料待補充
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型✦ 最近更新🔒 需申請

Mistral Large 3

📅2025年9月

Mistral Large 3,675B 參數,256K 上下文,Mistral 最新旗艦,多語言和推理能力頂尖,需多機多 GPU 部署。

旗艦多語言超長上下文頂級推理
890K/月
▸ 4%
參數量
675B
最大上下文
256K tokens
256K多語言旗艦
vLLMSGLang
Mistral Research
🧠 大型語言模型MoE✦ 最近更新

Deepseek V3.2 Exp

📅2025年9月

Deepseek V3.2 Exp 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

開源模型大規模參數高效能MoE
89K/月
參數量
685B (A68.5B)
最大上下文
VRAM 資料待補充
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型✦ 最近更新🔒 需申請

GLM-4.6

📅2025年9月

GLM-4.6,32B 參數,Apache 2.0 授權,131K 上下文,在 llm-stats.com 開源排行榜第 4 名,中文能力頂尖。

頂尖中文能力超長上下文高性能推理
890K/月
▸ 4%
參數量
32B
最大上下文
131K tokens
中文131KApache 2.0
vLLMllama.cppSGLang
Apache 2.0
🧠 大型語言模型✦ 最近更新

Deepseek V3.1

📅2025年8月

Deepseek V3.1 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

超大上下文開源模型高參數規模
165K/月
▸ 1%
參數量
671B
最大上下文
160K tokens
VRAM 資料待補充
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型✦ 最近更新

Devstral Small 2507

📅2025年7月

Devstral Small 2507 由 mistralai 開發的開源 語言 模型。授權:apache_2_0。共 1 個尺寸版本。

軟體工程專精程式碼代理多檔案編輯
34K/月
參數量
24B
最大上下文
125K tokens
VRAM 資料待補充
mistralaillm
ollamallama.cpp
Apache 2.0
🧠 大型語言模型✦ 最近更新

GLM-4.5-Air

📅2025年7月

GLM-4.5-Air,32B 參數,Apache 2.0 授權,131K 上下文,中文能力強,Q4 約需 20 GB VRAM。

長上下文理解強大中文能力智能代理核心
382K/月
▸ 2%
參數量
32B
最大上下文
131K tokens
中文131KApache 2.0
vLLMllama.cppSGLang
Apache 2.0
🧠 大型語言模型MoE2 版本✦ 最近更新

Kimi

📅2025年7月
選擇版本(參數量)
最大上下文:128K tokens📅 2025年7月

月之暗面 Kimi K2.5,超大規模 MoE 模型,在 llm-stats.com 開源排行榜名列前茅,需要多機多 GPU 部署。

超長上下文MoE高效能中文旗艦
1.8M/月
▸ 9%
參數量
1.0T (A32B)
最大上下文
128K tokens
MoE旗艦128K中文Agent
vLLMSGLangllama.cpp
Modified MIT
💻 程式碼生成✦ 最近更新

Devstral Small 1.1

📅2025年7月

Mistral Devstral Small 1.1,24B 程式碼 Agent 模型,Apache 2.0 授權,SWE-bench 表現優異,適合自動化程式碼任務。

頂尖程式碼代理SWE-bench 高效能長上下文理解
34K/月
參數量
24B
最大上下文
128K tokens
程式碼Apache 2.0SWE-benchAgent
OllamavLLMllama.cpp
ollama run devstral:24b
Apache 2.0
🧠 大型語言模型✦ 最近更新

Minimax M1 80K

📅2025年6月

Minimax M1 80K 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

超長上下文巨量參數開源免費
12K/月
參數量
456B
最大上下文
977K tokens
VRAM 資料待補充
MiniMaxAImitllm
ollamallama.cpp
MIT
👁️ 多模態✦ 最近更新

Gemma 3N E2b It Litert

📅2025年6月

Gemma 3N E2b It Litert 由 google 開發的開源 多模態 模型。授權:gemma。共 1 個尺寸版本。

多模態理解Google 開發開源模型
24K/月
參數量
1.91B
最大上下文
VRAM 資料待補充
googlegemmamultimodal
ollamallama.cpp
Gemma
🧠 大型語言模型✦ 最近更新

Llama 3.1 Nemotron Nano 8B V1

📅2025年6月

Llama 3.1 Nemotron Nano 8B V1 由 nvidia 開發的開源 語言 模型。授權:llama_3_1_community_license。共 1 個尺寸版本。

視覺理解文件智能邊緣部署
1.9M/月
▸ 9%
參數量
8B
最大上下文
VRAM 資料待補充
nvidiallm
ollamallama.cpp
Llama
👁️ 多模態✦ 最近更新

Gemma 3N E4b It Litert

📅2025年6月

Gemma 3N E4b It Litert 由 google 開發的開源 多模態 模型。授權:gemma。共 1 個尺寸版本。

多模態理解Google開發開源模型
26K/月
參數量
1.91B
最大上下文
VRAM 資料待補充
googlegemmamultimodal
ollamallama.cpp
Gemma
🧠 大型語言模型✦ 最近更新🔒 需申請

Magistral Medium

📅2025年6月

Mistral Magistral Medium,123B 推理模型,256K 上下文,Mistral 最新推理旗艦,需 70 GB+ VRAM(Q4 約 74 GB)。

旗艦模型超長上下文強大推理
320K/月
▸ 2%
參數量
123B
最大上下文
256K tokens
推理256K旗艦
vLLMSGLang
Mistral Research
🧠 大型語言模型✦ 最近更新

Llama 3.1 Nemotron

📅2025年6月

Llama 3.1 Nemotron 由 nvidia 開發的開源 語言 模型。授權:llama_3_1_community_license。共 1 個尺寸版本。

視覺理解文件智慧多模態推理
1.9M/月
▸ 9%
參數量
70B
最大上下文
VRAM 資料待補充
nvidiallm
ollamallama.cpp
Llama
👁️ 多模態✦ 最近更新

Gemini 2.5 Flash Lite

📅2025年6月

Gemini 2.5 Flash Lite 由 google 開發的開源 多模態 模型。授權:creative_commons_attribution_4_0_license。共 1 個尺寸版本。

多模態理解超大上下文開源授權
參數量
最大上下文
1.024M tokens
VRAM 資料待補充
googlemultimodal
ollamallama.cpp
Creative Commons A...
🧠 大型語言模型MoE✦ 最近更新🔒 需申請

Nemotron 3 Super (120B A12B)

📅2025年6月

NVIDIA Nemotron 3 Super,120B MoE 模型(激活 12B),2026 年 3 月發布,NVIDIA Open Model 授權,128K 上下文,適合企業推理部署。

高效能推理超長上下文企業級部署
350K/月
▸ 2%
參數量
120B (A12B)
最大上下文
128K tokens
MoE128K最新NVIDIA
vLLMSGLangTensorRT-LLM
NVIDIA Open Model