AI 工具 » 本地 runtime
A llama.cpp
● up · checked 3h ago 已驗證 2 天前
C++ 撰寫的本地 LLM 推論引擎 — 跑在 CPU、Apple Silicon、消費級 GPU 都行。
一覽
- 無 KYC 註冊
- 開源代碼
- 非託管 — 你掌握金鑰
- 可自建
評測
llama.cpp 是 Ollama / Jan / LM Studio 等所有本地 AI 工具背後的核心引擎。Georgi Gerganov 主導的純 C++ 專案,把 LLaMA / Mistral / Mixtral 等模型量化到 4-bit 並在消費級硬體上推論。對開發者來說是直接介接、零依賴的選擇;對使用者來說 Ollama 是它的友善包裝。MIT 授權。
費用
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
連結
為什麼 A? — 評鑑定義
Best evidence tier. Signup tested end-to-end by xmr.club curator — deposit + withdrawal + edge cases. No-KYC posture verified at retail volume. Last_verified within 12 months. 完整評鑑細則+案例見 /zh/methodology;本條目的策展理由見稽核日誌。
稽核軌跡 — 編輯主張的憑據
- 上游正常 · HTTP 200 · 655ms · 檢查於 3h ago
- 未收錄
.onion鏡像 - 最後手動驗證
2026-05-13(<7d) - 查看 llama.cpp 的策展人日誌
評價 — 已審核 · 規則
尚無已審核的評價。成為第一個。
新增評價
歡迎誠實、中立的回饋。發布前由策展人審核。無需 JS,無需註冊。