IA dentro de Confidential Computing — ni el propio hosting lee el contenido.
Per-token · BTC / fiat · confidential-compute backend
Opciones de inferencia de IA sin atarse a una cuenta de OpenAI / Anthropic. Incluye runtimes locales (Ollama, LM Studio), proxies cloud sin KYC (Venice, NanoGPT, Privatemode) y front-ends open source (Open WebUI, Jan).
última revisión: 2026-05-13
› Herramientas de IA » Confidential compute 1IA dentro de Confidential Computing — ni el propio hosting lee el contenido.
Per-token · BTC / fiat · confidential-compute backend
Runtime LLM local — un comando para cargar modelos open source, sin red.
Free · MIT · runtime + model weights local
Motor de inferencia LLM local en C++ — corre en CPU, Apple Silicon o GPU de consumo.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Cliente de escritorio estilo ChatGPT que conecta con modelos locales o remotos — open source, sin telemetría.
Free · MIT · MacOS/Win/Linux · OpenAI-compat API
Interfaz web para Ollama — experiencia tipo ChatGPT en local, sin nube.
Free · MIT · self-host (Docker / source)
Extensión de asistente AI para VSCode/JetBrains — soporta modelos locales o remotos.
Free · Apache · VS Code / JetBrains
Your ai here? → sponsor a ai slot · or DM the bot. Editorial firewall: grade never moves.