Chat de IA para VS Code. Corre modelos en tu máquina, conecta servidores locales, o despliega tu propio backend con tool-calling. Tres modos, tú eliges.
Tu código nunca sale de tu máquina. Sin servidores externos.
Modelos open-source. Sin suscripciones ni API keys.
Modo local: un click y funciona. Sin instalar nada externo.
Funciona completamente offline después de la primera descarga.
Respuestas en tiempo real con markdown, syntax highlighting y bloques de código con copiar, insertar y diff/apply.
Corre modelos ONNX directo en VS Code con transformers.js v4. Sin LM Studio, sin Ollama, sin nada.
Detecta y conecta automáticamente tu servidor local. Compatible con cualquier modelo OpenAI-compatible.
Adjunta archivos de tu proyecto como contexto. El modelo "ve" tu código completo.
Despliega tu propio backend con tool-calling: lee, escribe, busca y ejecuta en tu workspace. RAG incluido.
Explicar, refactorizar, buscar bugs, generar tests, documentar y optimizar con un click.
Detecta tu hardware y sugiere el mejor modelo según tu RAM, CPU y GPU.
Modelos ONNX preconfigurados y verificados. Se descargan automáticamente la primera vez.
| Modelo | Tamaño | Uso ideal | |
|---|---|---|---|
| Qwen 2.5 0.5B Instruct | ~350 MB | Respuestas instantáneas, preguntas simples | Recomendado |
| Qwen 2.5 1.5B Instruct | ~1 GB | Buen balance entre velocidad y calidad | |
| Qwen 2.5 3B Instruct | ~2 GB | Mejor calidad, necesita más RAM | |
| SmolLM2 360M Instruct | ~250 MB | Mínimo consumo de recursos |
Desde el Marketplace de VS Code o con code --install-extension
Local, Remoto (LM Studio / Ollama) o Agent (tu propio servidor)
Del catálogo local, de tu servidor, o del backend Agent
Adjunta archivos, haz preguntas, aplica cambios directo
Disponible en todos los editores compatibles con extensiones de VS Code.
También compatible con VS Codium, Theia y cualquier editor basado en Open VSX.
Herramienta gratuita y open source. Si te ahorra tiempo, un café ayuda a mantener el desarrollo.