xmr.club 提問 搜尋 指南 EN 中文 ES RU
← 返回首頁

比較服務商

任兩筆條目並列比較。以服務商 id 選擇(例如 mullvadivpnfeather)。隨策展人重新評級即時更新。

llama.cppLM Studio
分類AI / LLMAI / LLM
子分類Local RuntimeLocal Runtime
評級AB
編輯精選
標語C++ runtime for running LLMs locally on CPU + GPU. The backbone of every privacy-LLM stack.Desktop GUI for local LLMs. Drag-drop GGUF models, OpenAI-compatible local API, no cloud.
費用Free · MIT · C++ · CPU/CUDA/ROCm/MetalFree for personal · MacOS/Win/Linux · localhost API
KYC 立場anonymous_signupanonymous_signup
亮點標籤LOCALOPEN-SOURCEREFERENCELOCALGUIOPENAI-COMPAT
功能標籤non_custodialopen_sourceself_hostedcli_supportednon_custodialself_hostedapi_available
Webhttps://github.com/ggml-org/llama.cpphttps://lmstudio.ai
Tor
最後驗證2026-05-132026-05-13