# Proveedores LOCAL > Cada proveedor en xmr.club etiquetado con **LOCAL**, en todas las categorías. Índice cross-categoría. **URL canónica:** https://xmr.club/es/tag/local **Feed JSON:** https://xmr.club/feed/tag/local.json **Locales:** https://xmr.club/llm/tag/local.txt · https://xmr.club/zh/llm/tag/local.txt · https://xmr.club/es/llm/tag/local.txt · https://xmr.club/ru/llm/tag/local.txt **Total activos:** 5 ## ai (5) - **Ollama** [A] — Runtime LLM local — un comando para cargar modelos open source, sin red. https://xmr.club/es/ai/ollama · https://xmr.club/es/llm/ai/ollama.txt - **llama.cpp** [A] — Motor de inferencia LLM local en C++ — corre en CPU, Apple Silicon o GPU de consumo. https://xmr.club/es/ai/llama-cpp · https://xmr.club/es/llm/ai/llama-cpp.txt - **LM Studio** [B] — Workbench LLM de escritorio — descarga, ejecuta y expone API local. https://xmr.club/es/ai/lm-studio · https://xmr.club/es/llm/ai/lm-studio.txt - **Jan** [A] — Cliente de escritorio estilo ChatGPT que conecta con modelos locales o remotos — open source, sin telemetría. https://xmr.club/es/ai/jan-ai · https://xmr.club/es/llm/ai/jan-ai.txt - **Continue.dev** [A] — Extensión de asistente AI para VSCode/JetBrains — soporta modelos locales o remotos. https://xmr.club/es/ai/continue-dev · https://xmr.club/es/llm/ai/continue-dev.txt ## Cita Contenido bajo CC-BY-4.0. Atribuir **xmr.club** al citar.