資料來源:🤗 Hugging Face · GitHub · 資料庫即時更新

探索開源 AI 宇宙
自由部署,完全掌控

179+ 個開源可自行部署的 AI 模型與工具,資料來源自 🤗 Hugging Face

179+開源模型
87+語言模型
35+多模態
10+圖像生成
10+語音處理
6+影片生成
最新發布2026
👁️2026-04
Gemma 4
👁️2026-04
Gemma 4 E4b
👁️2026-04
Gemma 4 E2b
🤖2026-03
Cursor
👁️2026-03
Mistral Small Latest
🤖2026-03
Kilo Code
🤖2026-03
Claude Code
🧠2026-03
Minimax M2.7
🤖2026-03
AstrBot
🧠2026-03
Mistral Small 4

模型瀏覽

分類:
VRAM:
我的 GPU:
強項篩選:
排序:
找到 10 個結果🤗
🎙️ 語音處理

Qwen3-TTS-1.7B

📅更新2026年1月

Qwen3-TTS 1.7B,HF 月下載 108 萬次,Apache 2.0 授權,支援自訂聲音克隆,多語言 TTS,音質自然流暢,8 GB VRAM 可運行。

多語言語音合成聲音克隆自然流暢音質
1.1M/月
▸ 11%
參數量
1.7B
最大上下文
128K tokens
HF 熱門語音合成Apache 2.0聲音克隆
TransformersvLLM
Apache 2.0
🎙️ 語音處理

VibeVoice-1.5B

📅更新2025年8月

Microsoft VibeVoice-1.5B,MIT 授權,支援情感和風格控制的高品質 TTS,HF 月下載 21.8 萬次,8 GB VRAM 可運行。

情感語音合成多說話人支援長音頻生成
84K/月
▸ 1%
參數量
1.5B
最大上下文
語音合成MIT情感控制
TransformersPython
MIT
🎙️ 語音處理

Chatterbox

📅更新2025年4月

ResembleAI Chatterbox,HF 月下載 225 萬次,MIT 授權,高品質英語 TTS 和聲音克隆,情感控制豐富,4 GB VRAM 可運行。

高品質語音合成多語言支援情感豐富控制
1.4M/月
▸ 14%
參數量
800M
最大上下文
HF 熱門語音合成MIT聲音克隆
PythonTransformers
MIT
🎙️ 語音處理

Dia-1.6B

📅更新2025年4月

Dia-1.6B,Nari Labs 開源 TTS,支援多說話人對話生成,可生成笑聲、嘆氣等非語言聲音,Apache 2.0 授權,8 GB VRAM。

多角色對話非語言音效情感語氣控制
113K/月
▸ 1%
參數量
1.6B
最大上下文
語音合成Apache 2.0對話式
PythonTransformers
Apache 2.0
🎙️ 語音處理

Kokoro-82M

📅更新2024年12月

Kokoro-82M,HF 月下載 913 萬次,僅 82M 參數,Apache 2.0 授權,高品質英語 TTS,CPU 即可運行,速度極快。

輕量高效高品質語音成本效益高
9.9M/月
🔥 100%
參數量
82M
最大上下文
HF 熱門語音合成Apache 2.0推薦輕量
PythonTransformers
Apache 2.0
🎙️ 語音處理

F5-TTS

📅更新2024年10月

F5-TTS,基於 Flow Matching 的零樣本語音克隆,只需 5 秒參考音頻,生成速度快,支援多語言,HF 月下載 87.3 萬次。

零樣本聲音克隆快速語音生成多語言支援
709K/月
▸ 7%
參數量
300M
最大上下文
語音合成聲音克隆快速
PythonGradio
CC BY-NC 4.0
🎙️ 語音處理

distil-whisper-large-v3

📅更新2024年3月

distil-whisper 是 Whisper large-v3 的蒸餾版本,速度快 6 倍,準確率相近,HF 月下載 890 萬次,MIT 授權。

高效語音辨識快速轉錄高準確度
1.2M/月
▸ 12%
參數量
756M
最大上下文
HF 熱門語音辨識MIT推薦高效
faster-whisperwhisper.cpp
MIT
🎙️ 語音處理

MeloTTS

📅更新2024年2月

MeloTTS,MyShell 開源高品質多語言 TTS,支援英語、中文、日語等,CPU 即可實時運行,MIT 授權,極低資源需求。

高品質語音合成多語言支援輕量高效
149K/月
▸ 2%
參數量
50M
最大上下文
語音合成MIT輕量多語言
Python
MIT
🎙️ 語音處理

Whisper large-v3

📅更新2023年11月

OpenAI Whisper large-v3,HF 月下載 1820 萬次,業界最準確的開源語音辨識模型,支援 99 種語言,MIT 授權。

業界最佳語音辨識多語言支援高準確度
4.7M/月
▸ 47%
參數量
1.54B
最大上下文
HF 熱門語音辨識MIT推薦多語言
faster-whisperwhisper.cppOllama
ollama run whisper:large-v3
MIT
🎙️ 語音處理

XTTS-v2

📅更新2023年10月

Coqui XTTS-v2,HF 月下載 680 萬次,支援 17 種語言的聲音克隆,只需 6 秒參考音頻即可複製任意聲音,CPU 可運行。

多語言克隆小樣本學習跨語言合成
6.2M/月
⭐ 63%
參數量
467M
最大上下文
HF 熱門語音合成多語言聲音克隆
Coqui TTSPython
Coqui Public Model

常見問題

什麼是開源 AI 模型?
開源 AI 模型是指原始碼、模型權重或訓練資料公開發布的人工智慧模型,任何人都可以免費下載、修改和自行部署。常見的開源 AI 模型包括 Meta 的 Llama、Mistral AI 的 Mistral、阿里巴巴的 Qwen 等。
如何自行部署開源 AI 模型?
最常用的工具包括:Ollama(最簡單,適合本機部署)、LM Studio(圖形介面,適合初學者)、vLLM(高效能伺服器部署)、llama.cpp(輕量化 CPU/GPU 推理)。根據你的 GPU VRAM 選擇合適的量化版本即可。
我需要多少 VRAM 才能運行 AI 模型?
7B 模型(Q4 量化)約需 4-6 GB VRAM;13B 約需 8-10 GB;70B 約需 40-48 GB。OSAI Centre 為每個模型提供詳細的 VRAM 需求表。
OSAI Centre 收錄了哪些類型的 AI 模型?
OSAI Centre 收錄超過 160 個開源 AI 模型,涵蓋:語言模型(LLM)、圖像生成(Stable Diffusion、FLUX)、語音、程式碼生成、多模態、影片生成,以及 AI 工具和 Agent 框架。
什麼是量化(Quantization)?
量化通過降低模型權重精度(如 FP16 → Q4)來減少 VRAM 佔用和加快推理速度。常見格式:Q2、Q3、Q4、Q5、Q6、Q8,數字越大精度越高但 VRAM 需求也越大。
如何選擇適合我的開源 AI 模型?
建議考慮:1) GPU VRAM 大小;2) 使用場景(對話、程式碼、圖像生成等);3) 語言支援;4) 授權條款。使用 OSAI Centre 的 VRAM 篩選器和分類篩選快速找到合適的模型。
Llama 和 GPT-4 有什麼分別?
Llama(Meta)是開源免費的,可下載權重在本地自行部署,資料完全私密。GPT-4(OpenAI)是閉源商業模型,只能透過付費 API 呼叫。Llama 3.3 70B 在多項基準測試上接近 GPT-4 水準,且完全免費本地運行。
如何在 Windows 上安裝和使用 Ollama?
從 ollama.com 下載 Windows 安裝包,安裝後開啟 PowerShell 或命令提示字元,輸入:ollama run llama3.2(或其他模型名稱)。Ollama 會自動下載模型並啟動本地對話。如需圖形介面,可搭配 Open WebUI 或 LM Studio 使用。
可以在 Mac 上運行 AI 模型嗎?
可以!搭載 Apple Silicon(M1/M2/M3/M4)的 Mac 非常適合本地 AI 部署。Ollama 原生支援 macOS,使用統一記憶體(RAM)作為顯存。M2 Pro 16 GB 記憶體可流暢運行 7B–13B 模型。在終端機輸入:ollama run qwen2.5:7b 即可開始。
開源 AI 模型可以商業使用嗎?
取決於具體授權協議。Llama 3.3 允許大多數企業商業使用(月活用戶不超過 7 億);Qwen 2.5 採用 Apache 2.0(完全免費商用);Mistral 系列也是 Apache 2.0。商業部署前請務必在 Hugging Face 頁面確認該模型的具體授權條款。
2025 年最好的開源大語言模型是哪個?
2025 年頂級開源 LLM:Llama 3.3 70B(綜合品質最佳)、Qwen 2.5 72B(多語言和程式碼能力強)、Mistral Large(高效)、DeepSeek R1(推理能力強)、Phi-4(小模型中的佼佼者)。最佳選擇取決於你的顯存大小和使用場景。
沒有 GPU 可以運行 AI 模型嗎?
可以,使用 llama.cpp 或 Ollama 的純 CPU 推理模式。7B Q4 模型約需 8 GB 記憶體,在現代 CPU 上運行速度約 2–5 tokens/秒。即使是中階 GPU(如 RTX 3060 12 GB)也能大幅提升速度。Apple Silicon Mac 的統一記憶體利用效率也很高。
Ollama、LM Studio 和 vLLM 有什麼區別?
Ollama:命令行快速本地部署,支援大多數 GGUF 模型。LM Studio:圖形介面,適合 Windows/Mac 初學者,無需命令行。vLLM:高吐吐量生產伺服器,支援 OpenAI 相容 API,需要 Linux/GPU。個人使用選 Ollama 或 LM Studio;服务多用戶選 vLLM。
本地運行 AI 模型安全私密嗎?
是的!本地 AI 模型完全在你自己的硬體上運行,沒有任何資料傳送到外部伺服器。你的對話、文件和提示詞永遠不會離開你的機器。這使得本地 AI 非常適合處理敗感業務資料、個人隱私和離線場景。
最適合寫程式碼的開源 AI 模型是哪個?
頂級程式碼模型:Qwen 2.5 Coder 32B(綜合最佳)、DeepSeek Coder V2(推理能力強)、CodeLlama 70B(Meta)、Phi-4(高效)。VRAM 有限時,Qwen 2.5 Coder 7B 或 14B 是性價比最高的選擇。
最適合中文的開源 AI 模型是哪個?
最佳中文開源模型:Qwen 2.5(阿里巴巴,中英文最強)、DeepSeek V3(中文推理能力強)、Yi-1.5(01.AI)、Baichuan 2。Qwen 2.5 72B 被廣泛認為是中文 NLP 任務的首選。
如何在本地運行 Stable Diffusion?
使用 ComfyUI(最靈活,節點式工作流)或 AUTOMATIC1111 WebUI(初學者友好)。從 Hugging Face 或 CivitAI 下載模型檔案(如 SDXL、FLUX)。最低需求:SDXL 需 6 GB VRAM;FLUX 建議 8 GB+。支援 Windows、Mac(MPS)和 Linux。
如何在 Linux 上運行 AI 模型?
安裝 Ollama:curl -fsSL https://ollama.com/install.sh | sh,然後執行:ollama run llama3.2。GPU 加速需確保安裝 NVIDIA 驅動和 CUDA。vLLM 適合 Linux 伺服器部署:pip install vllm,然後 python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen2.5-7B-Instruct。
什麼是 RAG(檢索增強生成)?
RAG 將本地 AI 模型與文件檢索系統結合,讓模型基於你自己的檔案(PDF、文件、筆記)回答問題。常用工具:Ollama + Open WebUI(內建 RAG)、LlamaIndex、LangChain、AnythingLLM。這讓你能基於自己的知識庫建立私有 ChatGPT。