Agentic Microservice Deployer
Convierte código local de automatización en un microservicio interno seguro, desplegado en Coolify y accesible exclusivamente desde n8n vía red Docker interna. Sin URLs públicas. Sin fricción.
⚙️ Setup inicial — LEER ANTES DE EMPEZAR
Este skill incluye dos scripts de ejecución que deben existir en execution/ del proyecto.
Si no existen, créalos copiando desde la carpeta del skill:
import shutil, os
# Ruta donde está instalado el skill (ajustar si es diferente)
SKILL_DIR = ".agent/skills/agentic-microservice-deployer/execution"
os.makedirs("execution", exist_ok=True)
for script in ["coolify_manager.py", "github_manager.py"]:
src = os.path.join(SKILL_DIR, script)
dst = os.path.join("execution", script)
if not os.path.exists(dst):
if os.path.exists(src):
shutil.copy(src, dst)
print(f"Copiado: {script}")
else:
print(f"ADVERTENCIA: {src} no encontrado. Descarga manual necesaria.")
else:
print(f"Ya existe: execution/{script}")
También instalar las dependencias si no están:
pip install requests python-dotenv
Si los scripts no están en la carpeta del skill, puedes obtenerlos del repo:
https://github.com/kevinrivm/agentic-microservice-deployer/tree/main/execution
Mapa de lo que es manual vs automático
| Paso | Quién | Frecuencia |
|---|---|---|
| Crear GitHub App en Coolify UI | 👤 Usuario | 1 vez por VPS |
| Todo lo demás | 🤖 Agente | Cada proyecto |
El único paso manual requiere browser porque GitHub necesita que el usuario haga click "Install" (OAuth handshake de seguridad intencional de GitHub). No hay API que lo reemplace.
Paso 0: Recolectar datos de prueba — OBLIGATORIO ANTES DE CONSTRUIR
¿Por qué primero? El agente necesita datos de prueba reales para:
- Entender el formato exacto del input (evita suposiciones que generan código incorrecto)
- Autotestear el servicio antes de entregarlo al usuario
- Validar casos límite desde el inicio
No empieces a escribir código hasta tener al menos un ejemplo de prueba.
Pregunta SIEMPRE al usuario antes de continuar:
Antes de construir el microservicio, necesito datos de prueba reales. Esto me permitirá:
- Construir el código basado en el formato real de tus datos
- Autotestear el servicio antes de entregártelo
- Detectar errores antes de que tú los encuentres
Por favor proporciona:
- Un ejemplo real de cada tipo de input que recibirá el servicio (ej: un ticket OCR de ejemplo, un email completo, una imagen, un JSON de muestra)
- La respuesta esperada para ese input (ej: "para este ticket quiero que extraiga: fecha, total, proveedor")
- Un caso límite o caso difícil si tienes uno (ej: "a veces los tickets vienen borrosos o en inglés")
Si no tienes datos reales disponibles ahora, puedo generar datos sintéticos basados en tu descripción, pero los datos reales producen mejores resultados.
Una vez que tengas los datos de prueba:
- Guárdalos en
.tmp/test_data/para referencia durante el desarrollo - Úsalos como base para construir los modelos Pydantic y la lógica del servicio
- Los mismos datos se usarán en el Paso 5 (Autotest) antes de entregar
Prerequisitos — Verificar antes de empezar
Variables de entorno (en .env):
GITHUB_TOKEN= # PAT con scope 'repo' — crear repos privados + vincular GitHub Apps
COOLIFY_URL= # ej: https://panel-coolify.tudominio.com
COOLIFY_TOKEN= # API token de Coolify (Settings > API Keys)
COOLIFY_PROJECT_UUID= # UUID del proyecto Coolify donde desplegar
Si alguna falta, pídela al usuario antes de continuar.
GitHub App en Coolify (1 vez por VPS):
Si el usuario nunca configuró esto en su Coolify, explícale:
¿Por qué es manual? GitHub requiere que el usuario haga click "Install" en el navegador (OAuth handshake). Solo se hace una sola vez por VPS/cliente. Después el agente gestiona acceso a todos los repos futuros sin intervención del usuario.
Instrucciones para el usuario (5 min):
- Panel de Coolify → menú lateral "Sources"
- Click "Add" → "GitHub App"
- Name: nombre descriptivo (ej:
coolify-tudominio)- Organization: dejarlo vacío
- System Wide: NO marcar
- Webhook Endpoint: seleccionar el dominio HTTPS de Coolify
- Click "Register Now" → GitHub abre pantalla de instalación
- En GitHub: seleccionar "All repositories" ← crítico para que el agente gestione accesos futuros
- Click "Install" → regresa a Coolify automáticamente
✅ Con esto listo, el agente gestiona todos los repos futuros de forma autónoma.
Una vez confirmado, continúa con el Paso 1.
Paso 1: Preparar la estructura del repo
El repo de producción solo incluye lo que necesita el contenedor.
Estructura mínima requerida:
nombre-del-servicio/
├── main.py # FastAPI con X-API-Key y GET /health
├── execution/ # scripts usados en runtime
├── directives/
│ └── README.md # qué hace el servicio, endpoints, variables
├── Dockerfile
├── requirements.txt
├── .env.example
└── .gitignore
.gitignore obligatorio:
.env
.env.*
!.env.example
*.json
!package.json
__pycache__/
*.pyc
.tmp/
credentials.json
token.json
Dockerfile estándar:
FROM python:3.11-slim
WORKDIR /app
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
COPY . .
EXPOSE 8000
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]
main.py mínimo con autenticación:
from fastapi import FastAPI, HTTPException, Security
from fastapi.security import APIKeyHeader
import os
app = FastAPI()
API_KEY = os.getenv("SERVICE_API_KEY", "")
api_key_header = APIKeyHeader(name="X-API-Key")
async def verify_key(key: str = Security(api_key_header)):
if key != API_KEY:
raise HTTPException(status_code=403, detail="Forbidden")
return key
@app.get("/health")
def health():
return {"status": "ok"}
# Endpoints del negocio — siempre con dependencies=[Depends(verify_key)]
Paso 2: Crear repo en GitHub y vincular GitHub App
Usa execution/github_manager.py:
import sys, os, requests
sys.path.insert(0, 'execution')
from github_manager import create_private_repo, grant_github_app_access, initialize_and_push
from dotenv import load_dotenv
load_dotenv()
REPO_NAME = "nombre-del-servicio"
DESCRIPTION = "Microservicio: descripción breve"
# 2a. Crear repo privado
result = create_private_repo(REPO_NAME, DESCRIPTION)
if not result:
raise Exception("Fallo la creacion del repo")
owner, repo_name, repo_id = result
# 2b. Vincular al GitHub App de Coolify (automatiza el paso de "dar acceso al repo")
COOLIFY_URL = os.getenv("COOLIFY_URL")
COOLIFY_TOKEN = os.getenv("COOLIFY_TOKEN")
coolify_h = {"Authorization": f"Bearer {COOLIFY_TOKEN}", "Accept": "application/json"}
github_apps = requests.get(f"{COOLIFY_URL}/api/v1/github-apps", headers=coolify_h).json()
private_apps = [a for a in github_apps if not a.get("is_public")]
installation_id = private_apps[0]["installation_id"]
grant_github_app_access(repo_id, installation_id)
# 2c. Subir el código
initialize_and_push(repo_name, owner)
Paso 3: Crear y configurar app en Coolify
⚠️ Son 3 sub-pasos obligatorios. Si omites el 3b, el servicio queda expuesto públicamente y n8n no puede alcanzarlo por nombre de red.
3a. Crear la app
import sys
sys.path.insert(0, 'execution')
from coolify_manager import CoolifyManager
manager = CoolifyManager()
ALIAS = repo_name # nombre DNS interno — n8n usará: http://ALIAS:8000
# Endpoint correcto: /api/v1/applications/private-github-app
# (NO /api/v1/applications — ese da 404 para repos privados)
app = manager.create_application(repo_name, f"{owner}/{repo_name}")
APP_UUID = app["uuid"]
print(f"App creada: {APP_UUID}")
3b. Configurar red interna — CRÍTICO, no omitir
Coolify asigna FQDN público automáticamente. Este paso lo configura como servicio interno:
manager.configure_application(APP_UUID, ALIAS)
# Confirma: alias de red configurado, FQDN eliminado, healthcheck activo
Importante: Si
configure_applicationno logra eliminar el FQDN via API (algunas versiones de Coolify no lo permiten), indica al usuario que lo elimine manualmente: panel → app → Settings → FQDN → borrar → Save. El servicio siempre es accesible internamente aunque tenga FQDN público, pero por seguridad debe eliminarse.
3c. ¿Quiere el usuario autenticación con API key?
Antes de configurar las variables, pregunta al usuario:
El servicio es interno (solo accesible desde n8n por red Docker). La red ya lo protege — la API key es una capa adicional opcional.
¿Quieres agregar autenticación con X-API-Key?
- Sí → más seguro ante misconfiguraciones futuras o compromisos laterales
- No → más simple, n8n llama sin headers extra
Si el usuario dice SÍ — con API key:
import requests, os, secrets
from dotenv import load_dotenv
load_dotenv()
SERVICE_API_KEY = secrets.token_hex(32) # NUNCA usar strings hardcodeados
print(f"SERVICE_API_KEY: {SERVICE_API_KEY}")
print("(Guarda este valor — lo usarás en n8n como header X-API-Key)")
COOLIFY_URL = os.getenv("COOLIFY_URL")
headers = {"Authorization": f"Bearer {os.getenv('COOLIFY_TOKEN')}", "Content-Type": "application/json"}
env_vars = [
{"key": "SERVICE_API_KEY", "value": SERVICE_API_KEY},
# Otras vars del servicio:
# {"key": "OPENAI_API_KEY", "value": "sk-..."},
]
for var in env_vars:
requests.post(f"{COOLIFY_URL}/api/v1/applications/{APP_UUID}/envs",
headers=headers, json={**var, "is_preview": False})
print("Variables configuradas")
Asegúrate de que main.py tiene el middleware de autenticación activo (ver Paso 1).
Si el usuario dice NO — sin API key:
# Solo configurar las vars de negocio (sin SERVICE_API_KEY)
env_vars = [
# {"key": "OPENAI_API_KEY", "value": "sk-..."},
]
for var in env_vars:
requests.post(f"{COOLIFY_URL}/api/v1/applications/{APP_UUID}/envs",
headers=headers, json={**var, "is_preview": False})
En main.py, simplificar los endpoints eliminando el Security(api_key_header):
@app.post("/mi-endpoint")
def mi_endpoint(data: dict): # sin dependencies=[Depends(verify_key)]
...
3d. Deploy
result = manager.deploy_application(APP_UUID)
deployment_uuid = result["deployments"][0]["deployment_uuid"]
print(f"Deploy iniciado: {deployment_uuid}")
Paso 4: Monitorear el deploy
import time, json, requests, os
from dotenv import load_dotenv
load_dotenv()
headers = {"Authorization": f"Bearer {os.getenv('COOLIFY_TOKEN')}", "Accept": "application/json"}
time.sleep(90)
r = requests.get(f"{os.getenv('COOLIFY_URL')}/api/v1/deployments/{deployment_uuid}", headers=headers)
data = r.json()
status = data.get("status")
logs = json.loads(data.get("logs", "[]"))
print(f"Status: {status}")
for log in logs:
if not log.get("hidden"):
output = log.get("output", "")[:200]
if output.strip():
print(f" [{log.get('type','').upper()}] {output}")
Indicadores de éxito:
status: finished- Log:
Healthcheck status: "healthy" - Log:
Rolling update completed
Paso 5: Autotest antes de entregar al usuario
¿Por qué probar con FQDN público primero? El agente corre en la máquina del usuario (host), no dentro de Docker. La URL interna
http://alias:8000solo es accesible desde contenedores de la redcoolify. Para que el agente pueda hacer HTTP requests de prueba reales, necesita la URL pública temporal.
5a. Pedir data de prueba al usuario
Antes de probar, pregúntale al usuario:
"Para verificar que el microservicio funciona correctamente antes de entregártelo, necesito datos de prueba reales para cada endpoint. Por ejemplo:
- ¿Qué email de prueba quieres que procese?
- ¿Qué texto/payload de ejemplo quieres enviar?
Si no tienes datos reales ahora, puedo generar datos sintéticos basados en el esquema."
5b. Obtener la URL pública del deploy recién hecho
import requests, os, time
from dotenv import load_dotenv
load_dotenv()
headers_api = {"Authorization": f"Bearer {os.getenv('COOLIFY_TOKEN')}", "Accept": "application/json"}
app = requests.get(f"{os.getenv('COOLIFY_URL')}/api/v1/applications/{APP_UUID}", headers=headers_api).json()
PUBLIC_URL = app.get("fqdn", "").rstrip("/")
print(f"URL publica para tests: {PUBLIC_URL}")
# ej: http://uuid.187.77.17.72.sslip.io
Nota: El FQDN se mantiene activo SOLO durante los tests. Coolify lo asigna automáticamente al crear la app. Lo eliminamos en el Paso 5d, después de que todo pase.
5c. Ejecutar los tests
import json
AUTH_HEADER = {"X-API-Key": SERVICE_API_KEY} if SERVICE_API_KEY else {}
test_results = []
# Test 1: Healthcheck (siempre)
r = requests.get(f"{PUBLIC_URL}/health", headers=AUTH_HEADER, timeout=10)
passed = r.status_code == 200 and r.json().get("status") == "ok"
test_results.append({"test": "GET /health", "status": r.status_code, "passed": passed})
print(f"{'OK' if passed else 'FAIL'} GET /health → {r.status_code}")
# Test 2+: Endpoints del negocio (usar data de prueba del usuario o sintética)
# Ejemplo — adaptar según los endpoints reales de main.py:
test_payload = {
# poner aqui los datos de prueba que dio el usuario
}
r2 = requests.post(
f"{PUBLIC_URL}/tu-endpoint",
headers={**AUTH_HEADER, "Content-Type": "application/json"},
json=test_payload,
timeout=30
)
passed2 = r2.status_code == 200
test_results.append({"test": "POST /tu-endpoint", "status": r2.status_code,
"passed": passed2, "response": r2.text[:200]})
print(f"{'OK' if passed2 else 'FAIL'} POST /tu-endpoint → {r2.status_code}")
print(f" Response: {r2.text[:200]}")
# Resumen
all_passed = all(t["passed"] for t in test_results)
print(f"\n{'TODOS LOS TESTS PASARON' if all_passed else 'HAY TESTS FALLIDOS'}")
for t in test_results:
print(f" {'OK' if t['passed'] else 'FAIL'} {t['test']}")
Si algún test falla:
- Leer los logs del deploy para entender el error
- Corregir el código en
main.py - Hacer
git push+manager.deploy_application(APP_UUID)+ esperar + re-testear - Repetir hasta que todos los tests pasen
5d. Tests pasados → migrar a red interna
Una vez que todos los tests pasan, eliminar el FQDN y configurar como servicio interno:
base = f"{os.getenv('COOLIFY_URL')}/api/v1/applications/{APP_UUID}"
headers_coolify = {"Authorization": f"Bearer {os.getenv('COOLIFY_TOKEN')}",
"Content-Type": "application/json"}
# PATCHes separados (la API de Coolify rechaza campos mezclados)
requests.patch(base, headers=headers_coolify, json={"custom_network_aliases": ALIAS})
requests.patch(base, headers=headers_coolify, json={"domains": ""}) # elimina FQDN publico
requests.patch(base, headers=headers_coolify, json={"dockerfile_location": "/Dockerfile"})
# Redeploy para aplicar cambio de red
manager.deploy_application(APP_UUID)
time.sleep(60)
# Verificar
app_final = requests.get(base, headers=headers_coolify).json()
assert not app_final.get("fqdn"), "FQDN no eliminado"
assert app_final.get("custom_network_aliases") == ALIAS, "Alias no configurado"
print(f"Servicio migrado a red interna. URL para n8n: http://{ALIAS}:8000")
Paso 6: Generar documentación de endpoints (API_DOCS.md)
El agente lee main.py y genera un archivo con curls y configuración lista para n8n.
El usuario lo copia directamente al nodo HTTP Request — sin tocar código.
# Leer main.py para extraer endpoints reales
with open("main.py", "r", encoding="utf-8") as f:
source = f.read()
# El agente lee el codigo y extrae: metodo HTTP, ruta, descripcion (docstring),
# campos del body (modelos Pydantic), respuesta esperada.
# Genera una entrada por endpoint. NO usar valores genéricos.
PORT = 8000
auth_line = f"X-API-Key: {SERVICE_API_KEY}" if SERVICE_API_KEY else "(sin autenticacion)"
doc = f"""# API Documentation — {ALIAS}
**URL base (desde n8n):** `http://{ALIAS}:{PORT}`
**Autenticacion:** {auth_line}
---
## Endpoints
### GET /health
Verifica que el servicio está activo.
curl:
curl http://{ALIAS}:{PORT}/health -H 'X-API-Key: {SERVICE_API_KEY}'
n8n HTTP Request:
Method: GET
URL: http://{ALIAS}:{PORT}/health
Header X-API-Key: {SERVICE_API_KEY}
Respuesta: {{"status": "ok"}}
---
[El agente agrega aqui una seccion por cada @app.post/@app.get encontrado en main.py,
con el payload real basado en los modelos Pydantic definidos]
---
## Conectar a n8n
1. Crea un workflow en n8n
2. Agrega: [trigger real] → HTTP Request → [logica adicional]
3. Copia la config del endpoint desde este doc al nodo HTTP Request
4. El microservicio ya está disponible en la red interna de Coolify
"""
with open("API_DOCS.md", "w", encoding="utf-8") as f:
f.write(doc)
print("API_DOCS.md generado — compartir con el usuario.")
Seguridad: Reglas del estándar
| Regla | Descripción |
|---|---|
| 🔒 Repo privado SIEMPRE | Nunca código de cliente en repo público |
| 🧪 FQDN temporal durante tests | Se elimina después de que todos los tests pasen |
| 🔑 SERVICE_API_KEY opcional | secrets.token_hex(32) si el usuario la quiere; omitir si no |
| 📁 .env solo en local | Coolify inyecta vars via API |
| 🏷️ Alias descriptivo | cliente-servicio ej: acme-yt-optimizer |
Troubleshooting
"No hay GitHub Apps privadas conectadas" → El usuario no ha creado la GitHub App todavía. Ver sección de Prerequisitos.
grant_github_app_access da 404
→ El installation_id no tiene permisos "All repositories". El usuario debe ir a
GitHub → Settings → Applications → [tu GitHub App] → Repository access → All repositories.
create_application da 422 / validation error
→ git_repository debe ser exactamente owner/repo (sin git@, sin .git, sin https://).
custom_network_aliases no se aplica / n8n no alcanza el servicio
→ La API de Coolify rechaza si mandas varios campos juntos en un solo PATCH.
→ La solución es enviar un PATCH separado por campo:
base = f"{COOLIFY_URL}/api/v1/applications/{APP_UUID}"
requests.patch(base, headers=headers, json={"custom_network_aliases": ALIAS})
requests.patch(base, headers=headers, json={"domains": ""})
requests.patch(base, headers=headers, json={"dockerfile_location": "/Dockerfile"})
FQDN público no desaparece / "This field is not allowed" al usar fqdn
→ El campo correcto para eliminar la URL pública es domains (no fqdn).
→ Usar: requests.patch(base, headers=headers, json={"domains": ""})
→ Después redeploy para que Traefik actualice la configuración.
SERVICE_API_KEY hardcodeada (ej: algo-secret-key-2024)
→ Las variables duplicadas no se pueden actualizar con PATCH individual (da 404).
→ Solución: DELETE del env antiguo + POST del nuevo:
envs = requests.get(f"{COOLIFY_URL}/api/v1/applications/{APP_UUID}/envs", headers=headers).json()
for e in [x for x in envs if x["key"] == "SERVICE_API_KEY"]:
requests.delete(f"{COOLIFY_URL}/api/v1/applications/{APP_UUID}/envs/{e['uuid']}", headers=headers)
import secrets
new_key = secrets.token_hex(32)
requests.post(f"{COOLIFY_URL}/api/v1/applications/{APP_UUID}/envs",
headers=headers, json={"key": "SERVICE_API_KEY", "value": new_key})
print(f"Nueva key: {new_key}")
Tests fallan durante Paso 5 — servicio devuelve error 500
→ Leer logs: GET /api/v1/deployments/{deployment_uuid} → campo logs
→ Corregir main.py, hacer push, redeploy, esperar, re-testear.
→ NO migrar a red interna hasta que todos los tests pasen.
Healthcheck falla / running:unknown
→ main.py debe tener GET /health retornando 200.
→ dockerfile_location debe estar configurado (/Dockerfile).
→ Usar configure_application() que setea estos valores automáticamente.
n8n no puede alcanzar el servicio (red interna)
→ n8n debe estar instalado en el mismo Coolify (misma red Docker coolify).
→ Usar http://alias:8000 — nunca localhost ni la IP del servidor.
→ Si n8n está en otro servidor, necesitas FQDN + autenticación robusta permanente.