En este artículo veremos cómo diseñar prompts más robustos, cómo combinar tools con lógica condicional, y cómo estructurar una experiencia conversacional inteligente y reutilizable.
🧠 Pensar como programador sin ser uno
Aunque no necesitas código para usar AI Agents, sí puedes aplicar una lógica estructurada que ayude al modelo a:
Tomar decisiones con base en datos o contexto
Encadenar acciones
Optimizar tokens y recursos
🎯 Regla de oro: trata al Aegnte AI como un colaborador obediente pero literal. Si no le dices cuándo y cómo hacer algo, lo hará mal o a medias.
🧰 Combina tools con lógica condicional
Puedes usar una o varias tools en el mismo prompt, pero lo importante es explicar cuándo usarlas.
✅ Ejemplo avanzado: uso condicional de herramientas
markdownCopiarEditarCuando el usuario mencione que quiere ver sus movimientos bancarios, ejecuta la herramienta consultar_movimientos con estos parámetros: { "tipo_cuenta": "corriente" } Si el usuario solo quiere consultar saldo, utiliza consultar_saldo en su lugar.
Esto permite que el modelo decida cuál herramienta usar, según lo que entiende del mensaje del usuario.
🧬 Modulariza tu prompt
Usa subtítulos o listas para ordenar el pensamiento del modelo. Esto mejora la comprensión y reduce errores. Por ejemplo:
🧠 Tu tarea Ayudar al usuario con su solicitud, usando la información de los documentos o las herramientas disponibles. 🧾 Pasos a seguir 1. Analiza el mensaje del usuario: {{$message.text}} 2. Si es una consulta de saldo o movimientos, usa la herramienta adecuada. 3. Si necesitas información adicional, haz una pregunta concreta. 4. Termina el flujo solo si el usuario dice "salir". 🧰 Herramientas disponibles - consultar_saldo - consultar_movimientos
🔄 Variables y estructuras dinámicas
Jelou permite usar placeholders dinámicos como {{$message.text}}
o datos del usuario. Esto te permite hacer prompts adaptativos.
Ejemplo:
Analiza el siguiente mensaje: {{$message.text}} y, si menciona un archivo adjunto, búscalo en los documentos del usuario.
🔎 Combinando Tools con Knowledge
Puedes construir flujos donde el modelo decide si usar una herramienta o buscar en la base de conocimiento.
1. Primero intenta resolver la consulta del usuario buscando en los documentos conectados. 2. Si no encuentras información relevante, utiliza la herramienta buscar_en_base_de_datos con este parámetro: { "consulta": {{$message.text}} }
Esto evita que el modelo dé una respuesta vacía o inventada, y prioriza fuentes confiables.
🧩 Soporte para múltiples acciones
Puedes guiar al modelo para que realice varias tareas en secuencia, como consultar info y luego enviar una lista interactiva.
1. Consulta el saldo del usuario usando consultar_saldo.
2. Luego, utiliza send_interactive_message para ofrecer estas opciones: - Ver movimientos - Hablar con asesor - Descargar estado de cuenta
🧼 Mantenimiento y escalabilidad
A medida que tu prompt crece:
Divide tareas complejas en AI Tasks o Skills específicas
Reutiliza lógica común como Skills (por ejemplo: validación de datos, consulta de estado)
Evita redundancias y frases decorativas. No hacen falta y consumen tokens.
✅ Checklist para AI Agents Avanzados
¿El prompt tiene pasos claros y bien organizados?
¿Usa herramientas de forma precisa y contextual?
¿Utiliza el Knowledge como fuente principal si aplica?
¿Cierra con
end_function
en condiciones controladas?¿Aprovecha variables dinámicas como
{{$message.text}}
?¿Evita instrucciones ambiguas o contradictorias?