比較服務商
任兩筆條目並列比較。以服務商 id 選擇(例如 mullvad、ivpn、feather)。隨策展人重新評級即時更新。
| llama.cpp | LM Studio | |
|---|---|---|
| 分類 | AI / LLM | AI / LLM |
| 子分類 | Local Runtime | Local Runtime |
| 評級 | A | B |
| 編輯精選 | — | — |
| 標語 | C++ runtime for running LLMs locally on CPU + GPU. The backbone of every privacy-LLM stack. | Desktop GUI for local LLMs. Drag-drop GGUF models, OpenAI-compatible local API, no cloud. |
| 費用 | Free · MIT · C++ · CPU/CUDA/ROCm/Metal | Free for personal · MacOS/Win/Linux · localhost API |
| KYC 立場 | anonymous_signup | anonymous_signup |
| 亮點標籤 | LOCALOPEN-SOURCEREFERENCE | LOCALGUIOPENAI-COMPAT |
| 功能標籤 | non_custodialopen_sourceself_hostedcli_supported | non_custodialself_hostedapi_available |
| Web | https://github.com/ggml-org/llama.cpp | https://lmstudio.ai |
| Tor | — | — |
| 最後驗證 | 2026-05-13 | 2026-05-13 |