AI 工具 » 本地 runtime
A Ollama
● up · checked 24m ago 已驗證 3 天前
本地 LLM runtime — 一行指令載入開源模型,無需網路。
一覽
- 無 KYC 註冊
- 開源代碼
- 可自建
評測
Ollama 把 GGUF 模型 + llama.cpp 包成單一二進位,提供類似 `docker run` 的體驗。`ollama pull llama3` 即可開始使用,所有推論在本機 GPU/CPU 完成,無資料外洩。macOS / Linux / Windows 都有,與 Open WebUI、Continue.dev 等前端整合良好。對於需要把 AI 工作流完全脫離雲端(保密原始碼、處理敏感文件)的開發者來說是首選。
費用
Free · MIT · runtime + model weights local
連結
為什麼 A? — 評鑑定義
Best evidence tier. Signup tested end-to-end by xmr.club curator — deposit + withdrawal + edge cases. No-KYC posture verified at retail volume. Last_verified within 12 months. 完整評鑑細則+案例見 /zh/methodology;本條目的策展理由見稽核日誌。
稽核軌跡 — 編輯主張的憑據
- 上游正常 · HTTP 200 · 95ms · 檢查於 24m ago
- 未收錄
.onion鏡像 - 最後手動驗證
2026-05-12(<7d) - 查看 Ollama 的策展人日誌
評價 — 已審核 · 規則
尚無已審核的評價。成為第一個。
新增評價
歡迎誠實、中立的回饋。發布前由策展人審核。無需 JS,無需註冊。