🧠 Ejecutar Agentes gratis en local
En esta clase damos un paso muy práctico: aprender a ejecutar agentes de código sin pagar suscripciones, sin enviar datos a la nube y ejecutándolo todo en tu propia máquina.
La clave está en combinar modelos locales, herramientas open source y un poco de configuración inicial.
🚀 ¿Por qué ejecutar agentes en local?
Ejecutar agentes de IA en local tiene ventajas muy claras:
- Coste cero - no dependes de tokens ni suscripciones
- Privacidad total - el código y los prompts no salen de tu ordenador
- Control absoluto sobre modelos, versiones y rendimiento
- Ideal para experimentos, aprendizaje y proyectos personales
Eso sí, no todo el mundo puede hacerlo: dependerá de tu hardware.
🧩 Ollama: modelos locales en tu máquina
La base de todo es Ollama, una herramienta que permite descargar y ejecutar modelos de lenguaje 100% en local.
Con Ollama puedes:
- Instalar modelos con un solo comando
- Ejecutarlos directamente desde terminal o desde otras herramientas
- Elegir modelos según tu RAM y GPU disponibles
Ejemplo de uso típico:
- Instalación de Ollama
- Descarga de un modelo como GLM 4.7 Flash
- Ejecución directa del modelo desde local
Este tipo de modelos funcionan especialmente bien en equipos con 32 GB o más de RAM, como Mac Mini o Mac Studio.
⚙️ Cloud Code con modelos locales
Una vez tienes el modelo instalado en Ollama, puedes usarlo para ejecutar Cloud Code sin depender de la nube.
El flujo es sencillo:
- Instalas el modelo en Ollama
- Lanzas Cloud Code indicando ese modelo
- El agente se ejecuta usando tu GPU o CPU local
Esto permite trabajar con agentes de código reales, pero sin pagar nada.
🔁 Open Code: alternativa open source
Si no quieres usar Cloud Code, existe una alternativa muy potente:
🧪 Open Code
Open Code es una herramienta open source que permite trabajar con agentes de código y múltiples modelos:
- Interfaz más visual y cuidada
- Soporte para modelos locales y remotos
- Instalación con un solo comando
- Compatible con Ollama
Además, incluye acceso a modelos gratuitos (con límites razonables), ideales para pruebas y aprendizaje.
🔗 Conectar cuentas externas
Open Code también permite conectar cuentas externas si lo deseas:
- Anthropic
- GitHub Copilot
- OpenAI
Esto te da acceso a modelos como:
- Claude Opus
- GPT-5.2 Codex
- Modelos Gemini
Y lo mejor: puedes mezclar modelos locales y en la nube según lo que necesites.
🖥️ Requisitos y limitaciones
Antes de lanzarte, ten en cuenta:
- Los modelos locales consumen mucha GPU
- Mientras ejecutas agentes, el rendimiento del sistema puede bajar
- No todos los modelos funcionan bien en cualquier máquina
- Es normal que algunos procesos “peten” si vas justo de recursos
Cada ordenador es un mundo. Lo importante es probar y ajustar.
🎯 Resumen rápido
Sí, se pueden ejecutar agentes gratis. No es magia, no es trivial, pero es totalmente posible.
Con:
- Ollama
- Modelos locales bien elegidos
- Open Code o Cloud Code
Puedes montar un entorno de agentes potente, privado y sin coste.
💡 Tip: empieza con modelos pequeños y ve subiendo. La mejor forma de aprender cómo rinde tu máquina es probar… y cuando explote, aprender por qué.