Motor de inferencia LLM local en C++ — corre en CPU, Apple Silicon o GPU de consumo.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Listado intercategoría de cada proveedor con la etiqueta CLI SUPPORTED. Ver definiciones en el glosario.
Motor de inferencia LLM local en C++ — corre en CPU, Apple Silicon o GPU de consumo.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Runtime LLM local — un comando para cargar modelos open source, sin red.
Free · MIT · runtime + model weights local
Swap aggregator as a terminal. `ssh swap.kyc.rip` or `brew install kyc-rip`.
Same as kyc.rip — no aggregator markup · free CLI
JoinMarket — protocolo open source de mercado para CoinJoin de Bitcoin.
Maker fees vary (basis points) · BTC network fees