Локальный LLM-рантайм — одна команда подтянет open-source модель, сеть не нужна.
Free · MIT · runtime + model weights local
Варианты AI-инференса без привязки к аккаунту OpenAI / Anthropic. Включает локальные рантаймы (Ollama, LM Studio), облачные прокси без KYC (Venice, NanoGPT, Privatemode) и open-source фронтенды (Open WebUI, Jan).
последний пересмотр: 2026-05-13
› AI-инструменты » Локальный рантайм 4Локальный LLM-рантайм — одна команда подтянет open-source модель, сеть не нужна.
Free · MIT · runtime + model weights local
Локальный LLM-инференс-движок на C++ — работает на CPU, Apple Silicon и потребительских GPU.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Десктопный LLM-workbench — загрузка, запуск, локальный API.
Free for personal · MacOS/Win/Linux · localhost API
Десктопный ChatGPT-подобный клиент с локальными и удалёнными моделями — open source, без телеметрии.
Free · MIT · MacOS/Win/Linux · OpenAI-compat API
Веб-интерфейс для Ollama — ChatGPT-подобный опыт локально, без облака.
Free · MIT · self-host (Docker / source)
AI-ассистент для VSCode/JetBrains — поддерживает локальные и удалённые модели.
Free · Apache · VS Code / JetBrains
Your ai here? → sponsor a ai slot · or DM the bot. Editorial firewall: grade never moves.