Compartir a través de


Utiliza el marco de diseño de agentes

El marco de diseño del agente proporciona un conjunto de bloques de construcción que te guían en la definición del propósito de tu agente, incluyendo desencadenantes, herramientas, canales, requisitos de gobernanza y más. Este marco no es una plantilla rígida: es una ayuda para pensar que ayuda a tu equipo a alinear las decisiones, identificar riesgos a tiempo y evitar errores comunes.

Sugerencia

Este artículo se basa en los conceptos tratados en el siguiente vídeo. Para ver un tutorial y un contexto adicional, mire: Copilot Studio business canvas – el diseño de tu plan para crear agentes

Bloques básicos del diseño de agentes

Utiliza los siguientes bloques de construcción para describir completamente a tu agente.

Sugerencia

Descarga el lienzo de diseño editable para trazar tus proyectos como agente.

Captura de pantalla del lienzo de diseño del agente mostrando secciones para disparadores, canales, datos, herramientas, flujos, instrucciones, arquitectura, gobernanza y evaluación.

Cada sección apoya la discusión y la alineación, no la documentación rígida.

Categoría Description Example Dificultades habituales
Gol Pregúntate: "¿Qué resultado estoy intentando conseguir?No: "¿Qué herramientas necesito?", "¿Qué conectores debería llamar?", o "¿Qué tema debería construir?"

Describe claramente por qué debe existir el agente, qué debe lograr y quién es el público objetivo. Concéntrate en los resultados. Deja que el diseño del agente se derive del problema.

Aclarar:
  • El problema o brecha de valor
  • Usuarios de destino
  • El impacto esperado
  • ¿Qué aspecto tiene el éxito?

Utiliza un formato de Jobs-To-Be-Done:
  • Como<usuario>
  • Necesito<Trabajo por hacer>
  • Así que<Resultado>
  • Como empleado nuevo, necesito entender las políticas locales de RRHH para poder manejar la incorporación con confianza.
  • Como un Responsable de soporte informático, necesito procesar los correos de soporte automáticamente para reducir el triaje manual.
  • Empezando por las características en vez de los resultados.
  • Diseñando para casos extremos.
  • Omitir criterios de éxito medibles.
Desencadenadores Un disparador de agente es el evento, condición o entrada específica que indica a un agente comenzar su trabajo o tarea. Una acción humana o un evento automatizado pueden iniciar el desencadenante.

Más información: Encuentra el desencadenante que se adapte a tu evento.
  • Un mensaje de usuario en el chat.
  • Un nuevo correo electrónico en una bandeja de entrada compartida.
  • Un nuevo récord en un sistema.
  • Un trabajo programado o recurrente.
  • Los agentes autónomos requieren activadores explícitos. Sin ellos, el agente no huye.
  • El desencadenante depende de un comportamiento impredecible del usuario, por ejemplo, dependiendo de que el usuario escriba una palabra clave o frase específica.
  • Trigger carece del contexto requerido, por ejemplo, el agente inicia pero no tiene suficientes metadatos (ID de registro, identidad del usuario) para actuar eficazmente.
  • Los disparadores se activan con más frecuencia de lo que el escenario realmente requiere, lo que lleva a ejecuciones innecesarias y al consumo de recursos.
  • El diseño del desencadenador no tiene en cuenta cuotas o límites de plataforma, lo que hace que los agentes alcancen los umbrales de uso o fallen bajo carga.
Herramientas e integraciones Define qué acciones debe ser capaz de realizar el agente, no solo lo que sabe.

Las herramientas permiten al agente recuperar o actualizar datos, llamar APIs, activar flujos de trabajo, enviar mensajes y completar operaciones transaccionales. Enumera los sistemas de los que depende el agente y sus limitaciones (APIs, modelos de autenticación, límites de velocidad y límites de propiedad/SLA).

Considera los resultados esperados, los criterios de éxito y calidad, los mecanismos de respaldo y el comportamiento ante errores. Las dependencias suelen impulsar la viabilidad: abórdalas pronto.

Más información: Mecanismos para añadir herramientas a los agentes.
  • Conector de ServiceNow → obtener detalles del ticket
  • Microsoft Entra ID conector → capturar la ubicación del usuario
  • API de Jira → actualizar elementos de trabajo
  • Outlook conector → responder al correo
  • No registrar acciones ni almacenar salidas para auditoría.
  • Suponiendo que las APIs sean estables y siempre estén disponibles.
  • Herramientas con permisos excesivos.
  • No definir el comportamiento de respaldo de las llamadas a la herramienta (sin validación de la salida de la herramienta, sin retroceso cuando fallan las herramientas, sin ruta de escalada).
  • Ignorar los límites de tasa o la limitación.
  • Falta mapeo de dependencias (quién posee cada API, cuál es el acuerdo de nivel de servicio).
  • No validar las condiciones previas antes de realizar acciones.
Channels Un canal es la plataforma o interfaz específica donde tu agente está desplegado e interactúa con los usuarios.

El canal también influye en las expectativas de los usuarios respecto a la latencia, la toma de turnos y la experiencia.
  • Microsoft Teams
  • SharePoint
  • Microsoft 365 Copilot
  • interfaces de chat web o de voz
  • Elegir canales en función de la comodidad o simplicidad del despliegue, en lugar de cómo y dónde trabajan realmente los usuarios.
  • Suponiendo que los usuarios se adapten al canal del agente, en lugar de encontrarse con ellos donde ya están.
  • Priorizar la viabilidad técnica sobre la experiencia del usuario, lo que resulta en una baja adopción incluso cuando el agente funciona correctamente.
  • Diseñar priorizando el chat cuando el canal real está controlado por correo electrónico o flujo de trabajo (crear una experiencia de usuario conversacional cuando el soporte técnico se produce realmente a través de Outlook; olvidar que el correo electrónico está basado en turnos, no es conversacional)
  • Ignorar las restricciones específicas del canal (Outlook requiere respuestas completas, no aclarar preguntas; Teams admite tarjetas adaptables, el correo electrónico no)
Conocimiento y datos Documenta la información sobre la que el agente debe razonar y la ubicación donde el conocimiento o los datos están disponibles actualmente. Considera la calidad y frescura de los datos, el contenido estructurado frente al no estructurado, y los límites de acceso y permisos.

La preparación de datos es una de las fuentes más comunes de obstáculos en etapas avanzadas si no se aborda a tiempo.
  • Documentos
  • Databases
  • Sitios web
  • Base de conocimiento
  • Sistemas internos o externos
  • Gobernanza de datos deficiente o inconsistente. Cuando no se definen los procesos de propiedad, cadencia de actualización y actualización, los datos rápidamente se vuelven obsoletos o contradictorios.
  • Confundir "documentos" con "conocimiento". Señalar grandes repositorios de documentos como fuente de verdad sin considerar si esos documentos están actualizados, bien estructurados o etiquetados de forma consistente.
  • Las fuentes de conocimiento se contradicen entre sí. Múltiples versiones de una política, procedimiento o conjunto de datos llevan al agente a instrucciones contradictorias.
  • Los permisos y controles de acceso no están diseñados explícitamente. El contenido sensible se expone de forma involuntaria, o el agente hace referencia a conocimientos al que los usuarios finales no tienen acceso.
  • Expandir las fuentes de conocimiento sin validar los límites de seguridad, lo que resulta en agentes que comparten en exceso o fallan cuando el acceso está restringido.
Flujos y orquestación Define cómo se estructura y secuencia el trabajo a lo largo del agente: cuándo usar flujos o temas deterministas, cuándo confiar en la orquestación y cuándo se requiere la intervención humana. El objetivo es un comportamiento predecible, automatización segura y una escalada clara.

Cuándo usar flujos o temas:
  • Recogida de datos en varios pasos
  • Resolución de problemas guiada o árboles de decisión
  • Procesos basados en cumplimiento o políticas
  • Acciones de alto impacto o irreversibles
Los temas son el mecanismo principal de la lógica determinista.

Define:
  • Lo que el agente puede hacer de forma autónoma
  • Qué requiere aprobación, revisión o anulación humana
  • Cuando el agente debe escalar o aplazar
  • Cómo la retroalimentación humana se traduce en la mejora
  • Agente de 'Ask-Me-Anything': flujos deterministas mínimos; se basa principalmente en la orquestación y el razonamiento generativo.
  • Agente autónomo: Utiliza flujos o temas para imponer secuenciación, validaciones y barreras de seguridad para los pasos críticos.
  • Flujos de trabajo de aprobación: El agente prepara el contexto y las recomendaciones; Los humanos aprueban o anulan acciones de alto impacto.
  • La sobreestructuración de los flujos limita la flexibilidad y hace que el agente se sienta rígido o frágil.
  • Subestructurar flujos, reducir la fiabilidad y hacer que los resultados sean impredecibles.
  • No usar explícitamente temas para lógica determinista, lo que lleva a comportamientos ad hoc o inconsistentes.
  • Difuminando responsabilidades entre humano y agente, resultando en caminos de escalada poco claros.
  • Sobrecargando a los humanos con aprobaciones para acciones de bajo riesgo, creando cuellos de botella y desincentivando el uso de agentes.
  • Agentes que actúan sin límites claros de "no actúes", especialmente en escenarios de riesgo o de alto riesgo.
Instrucciones y comportamiento Las instrucciones definen:
  • El papel y responsabilidades del agente
  • Cómo razona y responde
  • Cuándo y cómo debería utilizar conocimientos, herramientas u otros agentes
  • La secuencia de acciones que debe seguir
  • Tono, límites y normas de seguridad
Instrucciones claras conectan conocimientos, herramientas y flujos en un sistema coherente y predecible.

Aprende más: Configura instrucciones de alta calidad para orquestación generativa y escribe instrucciones efectivas para agentes declarativos.
  • Función y alcance: "Eres el Agente de Soporte de Correo de TI responsable de leer los mensajes entrantes del buzón, extraer los números de tickets y responder con información validada de ServiceNow."
  • Comportamiento secuenciado: "Paso 1: Revisa la base de conocimientos en busca de una política existente o un problema conocido. Paso 2: Si la información no se encuentra o está incompleta, llama a la herramienta ServiceNow para recuperar los detalles del ticket. Paso 3: Si aún faltan datos necesarios, responde usando un patrón de 'no lo sé' y escala la escalada."
  • Reglas de uso de herramientas: "Validar siempre los IDs extraídos con una llamada a la herramienta antes de usarlos en las respuestas."
  • Manejo de fallos: "Si falta conocimiento o falla una llamada a una herramienta, no adivines. Responde con una limitación clara y el siguiente paso."
  • Las instrucciones son demasiado vagas. Por ejemplo, "Ayudar a usuarios con problemas de soporte" no especifica dominio, límites ni acciones permitidas.
  • No hay claridad sobre cuándo usar el conocimiento, las herramientas frente a otros agentes, lo que lleva a comportamientos inconsistentes o ineficientes.
  • Las instrucciones no definen la secuencia de acciones, lo que hace que el agente mezcle conocimientos y salidas de herramientas de formas impredecibles.
  • Reglas de uso de herramientas no definidas explícitamente, lo que puede llevar a que las herramientas se llamen innecesariamente o no se utilicen en absoluto, o que el conocimiento y los resultados de herramientas se mezclen de formas inesperadas.
  • Instrucciones contradictorias, como "siempre haz preguntas aclaratorias" y "responde solo con respuestas finales".
  • No hay ninguna guía explícita de "no se debe hacer", como modificar datos sensibles, compartir identificadores internos o dar asesoramiento legal o de recursos humanos sin fuentes verificadas.
Arquitectura y composición del agente Utilizar múltiples agentes cuando:
  • Los dominios son grandes o distintos
  • La propiedad varía entre equipos
  • El acceso o los permisos varían
  • Se requiere razonamiento especializado
La delegación mejora la modularidad, claridad y mantenibilidad a largo plazo.

Más información: Explora patrones de orquestación multiagente.
  • Un agente principal delega la consulta de tickets a un agente de IT.
  • Un agente de conocimiento se encarga del control de calidad de documentos.
  • Un agente de rutas decide a qué agente experto llamar.
  • La sobredelegación (demasiados agentes)—por ejemplo, crear un agente separado para cada pequeña tarea—puede provocar expansión arquitectónica y dificultar el mantenimiento, depuración, seguridad o actualización de los agentes.
  • La subdelegación (un agente gigante)—por ejemplo, un solo agente que se espera que responda a preguntas de RRHH, consulte tickets de TI, gestione la resolución de problemas y genere órdenes de compra e incidentes—puede dar lugar a un agente monolítico y frágil que es imposible de mantener.
  • Límites de delegación indefinidos. Por ejemplo, el agente principal no sabe cuándo ceder el control, los agentes secundarios no saben qué entradas deben esperar, o las responsabilidades se solapan (dos agentes verifican tickets de TI).
Gobernanza y gestión de riesgos Define cómo se goberna, protege y monitoriza el agente para garantizar que se comporta de manera responsable, segura y predecible a lo largo de su ciclo de vida.

Esta definición incluye control de acceso, permisos de acción, medidas de seguridad, responsabilidad y supervisión continua para gestionar tanto los riesgos operativos como los relacionados con la IA desde el primer día.

Más información: Recoger los requisitos de gobernanza y Aplicar los principios de la IA responsable.
  • Modelo de autenticación y acceso: El agente utiliza la identidad a nivel de usuario para recuperar solo los datos que el usuario puede ver, mientras que las identidades a nivel de sistema están restringidas a operaciones de servicio claramente definidas.
  • Permisos de acción y barreras de seguridad: El agente puede actualizar notas de trabajo o redactar respuestas, pero no puede realizar acciones irreversibles (como cerrar tickets o enviar comunicaciones externas) sin aprobación.
  • Seguridad y protecciones de contenido: La información sensible o regulada se detecta y se bloquea para ser compartida o actuada mediante protecciones de la plataforma (por ejemplo, prevención de pérdida de datos o filtros de seguridad).
  • Registro, auditoría y trazabilidad: Todas las acciones de los agentes, consultas a herramientas, rechazos y escalaciones se registran y son auditables para cumplimiento y revisión.
  • Propiedad operativa: El agente tiene un propietario, patrocinador y administrador operativo definidos, con permisos y comportamiento revisados de forma regular.
  • Diseñar la gobernanza y los controles de riesgos demasiado tarde, lo que lleva a despliegues bloqueados o retrasos en la producción.
  • Sobreautorizar a los agentes "por conveniencia", aumentando el riesgo de exposición de datos o acciones no intencionadas.
  • Agentes que subautorizan los permisos, causando fallos en tiempo de ejecución cuando los sistemas o datos necesarios son inaccesibles.
  • No integrar las preocupaciones de IA responsable en las decisiones de gobernanza centrales.
  • Falta de gobernanza operativa eficaz, tal como la ausencia de un propietario claro, un plan de supervisión o un proceso definido para la respuesta a incidentes.
  • No monitorizar el comportamiento del agente tras el despliegue, asumiendo que solo las barreras de seguridad son suficientes.
Evaluación y optimización Define pruebas que simulen escenarios reales para medir la precisión, relevancia y calidad de las respuestas de tus agentes. Proporciona una respuesta esperada y muestra cómo la respuesta del agente se relaciona con tu respuesta o con la respuesta más estándar.

Planifica cómo medir y mejorar el rendimiento:
  • Precisión y relevancia
  • Tiempo ahorrado o eficiencia
  • Adopción y uso
  • Señales de satisfacción y confianza
  • Calidad de las citas
  • Cumplimiento de permisos
  • Detección de información incorrecta
  • Aclaración del comportamiento de las preguntas

Define qué telemetría recopilar:
  • Llamadas de herramientas
  • Acciones del agente
  • Fracasos y repeticiones
  • Comentarios de usuario

Trata la evaluación como parte del diseño, no como una ocurrencia secundaria. Más información: Diseñar y operacionalizar la evaluación de agentes.
  • Valida que la búsqueda de tickets devuelva el estado correcto y no uno antiguo.
  • Valida que los enlaces de citas apunten a contenido aprobado actual.
  • Valida que el agente se niegue a proporcionar detalles sobre el ticket de otra persona.
  • Comprueba si el agente inventa un número de ticket o un artículo de KB.
  • Mide el número de correos electrónicos procesados por el agente autónomo por día y el porcentaje de usuarios que eligen al agente en lugar de canales manuales.
  • Ejecutar evaluaciones demasiado tarde (después del despliegue).
  • Sin línea base ni referencia.
  • Evaluaciones no ligadas a escenarios reales.
  • No detecta regresión.
  • No se realiza evaluación en múltiples iteraciones.
  • No hay evaluador para la calidad del uso de herramientas.
  • Solo comprobando "escenarios felices".
  • Lagunas en los datos de telemetría.

Conclusiones clave

Un marco de diseño estructurado actúa como una ayuda para pensar que ayuda a los equipos a razonar sobre problemas y tomar mejores decisiones.

  • Empieza con resultados en lugar de características.
  • Evita los fallos de gobernanza y de datos.
  • Construye agentes más seguros y fiables.
  • Diseña para la escala, la confianza y la sostenibilidad a largo plazo.

Omitir el diseño puede acelerar las primeras etapas del aprendizaje, pero el diseño estructurado transforma los experimentos en soluciones duraderas y confiables.

Paso siguiente

Revisa un ejemplo de cómo aplicar el marco de diseño estructurado.