Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se describe el proceso estandarizado que los equipos deben seguir para crear agentes de inteligencia artificial de forma coherente en toda la organización. Esta guía se centra en las decisiones estructurales y de gobernanza necesarias para apoyar a los equipos de desarrollo, en lugar de la implementación técnica de cargas de trabajo individuales. Comprender este proceso es el componente final de la fase de compilación de agentes en el proceso de adopción de agentes de IA (consulte la figura 1).
Figura 1. Proceso de adopción del agente de IA de Microsoft.
Sin un proceso de desarrollo unificado, las organizaciones pueden experimentar una expansión de agentes no controlada, arquitecturas incoherentes y brechas de seguridad críticas. Estos problemas se acumulan como deuda técnica y riesgo operativo y pueden impedir que la organización ecale la adopción eficaz de la inteligencia artificial. Los equipos de cargas de trabajo deben integrar los procedimientos recomendados de la guía de carga de trabajo de IA de Well-Architected Framework.
1. Orquestación del agente
Las decisiones de orquestación estratégica determinan cómo coordinan los agentes el trabajo, se integran con los sistemas existentes y se escalan en toda la empresa. Estas opciones afectan a la velocidad de desarrollo, la complejidad operativa y la capacidad de la organización de mantener el control a medida que crece la adopción del agente.
Definición de la carta del agente
Cree artículos de gobernanza que documenten los límites del agente y la alineación empresarial. La carta actúa como referencia autoritativa para lo que logra el sistema de agentes y lo que debe evitar. Esta documentación impide la desviación del alcance, garantiza que los equipos de conformidad comprendan los límites del sistema y proporcionen una rendición de cuentas clara cuando surjan problemas. Incluya responsabilidades del sistema que se asignan a objetivos empresariales específicos, roles de agente que impiden la superposición funcional y acciones prohibidas que establecen límites de protección de cumplimiento. Sin cartas claras, los agentes evolucionan más allá de su ámbito previsto, creando vulnerabilidades de seguridad y exposición normativa.
Estrategia de orquestación
La orquestación determina cómo los agentes coordinan, toman decisiones y ejecutan tareas. Las organizaciones deben definir patrones de orquestación aprobados para equilibrar la velocidad de desarrollo con el control operativo. Sin estrategias estandarizadas, los equipos podrían crear sistemas incompatibles que son difíciles de supervisar, depurar y escalar.
Seleccione un enfoque de orquestación. Elija entre la orquestación gestionada y los marcos de agentes centrados en el código basándose en la capacidad organizativa y los requisitos de control. La orquestación administrada, como foundry Agent Service, acelera la implementación y proporciona seguridad integrada, pero limita la personalización. Los marcos de código primero, como Microsoft Agent Framework o LangGraph, ofrecen control pormenorizado y flexibilidad multinube, pero requieren una inversión de ingeniería significativa y un mantenimiento continuo. Defina criterios para cuándo los equipos deben usar cada enfoque para garantizar la coherencia.
Definir patrones de orquestación. Establecer estándares para la coordinación multiagente. Decida si encadenar agentes secuencialmente o implementar patrones de procesamiento paralelos. El encadenamiento secuencial simplifica la depuración y proporciona una asignación de responsabilidades clara, pero aumenta la latencia. El procesamiento paralelo mejora los tiempos de respuesta, pero requiere sofisticados mecanismos de coordinación y control de errores. Consulte Patrones de orquestación del agente de IA en el Centro de arquitectura de Azure para obtener guías de decisión de arquitectura.
Implemente flujos de trabajo deterministas. Aplique el uso de flujos de trabajo deterministas para la lógica empresarial crítica. Use flujos de trabajo en Foundry y Microsoft Agent Framework para restringir el comportamiento del agente dentro de rutas de acceso fijas en lugar de depender únicamente de las decisiones del modelo probabilístico. Los sistemas multiagente requieren flujos de trabajo para controlar transferencias y administración de estados. Revise la guía de decisión del flujo de trabajo para los agentes únicos y los sistemas multiagente.
Facilitación de Microsoft:
Foundry: Use agentes basados en indicaciones para el desarrollo rápido y flujos de trabajo para el diseño visual y de bajo código adecuado para la creación rápida de prototipos. Utilice agentes hospedados para implementar frameworks de agentes personalizados en la infraestructura administrada.
Microsoft Agent Framework: utiliza flujos de trabajo para implementar patrones de orquestación en el código.
Copilot Studio: configure flujos de agente para sistemas multiagente con distintos roles y puntos de comprobación de aprobación.
Configure el comportamiento del agente mediante la orquestación con IA generativa.
Instrucciones del agente
Las instrucciones funcionan como la lógica operativa para que los agentes de IA interpreten la intención y ejecuten tareas. Tratar las instrucciones como código de configuración, en lugar de texto ad hoc, habilita el control de versiones, la revisión del mismo nivel y la reversión cuando surgen problemas.
Estandarizar la arquitectura de instrucciones. Las estructuras coherentes reducen el desfase de comportamiento y garantizan el cumplimiento. Instrucciones de estructura para definir explícitamente:
Componente de instrucción Propósito Example Identidad y tono Cómo se presenta el agente a los usuarios Asistente profesional, conciso y útil Ámbito y límites Lo que el agente debe lograr y evitar No acceder a los sistemas de nóminas; centrarse solo en el servicio de atención al cliente Mandatos de herramientas Requisitos específicos para el uso de herramientas Usa la herramienta de búsqueda de conocimientos para todas las respuestas; indica "No sé" si no se encuentra. Reglas de cita Requisitos para la transparencia y el abastecimiento Todas las respuestas deben proporcionar citas del material de origen Aplicar formatos de salida estructurados. Use formatos como JSON o XML para las salidas del agente y mejorar así la interoperabilidad con los sistemas posteriores. Las salidas estructuradas reducen el análisis de errores en orquestaciones multiagente y habilitan la validación mediante programación de las respuestas del agente antes de llegar al usuario.
Implemente el control de versiones y la validación. Almacene instrucciones en repositorios de control de código fuente para mantener una pista de auditoría de los cambios. Integre los pasos de validación automatizados en los que los scripts de evaluación o los agentes secundarios comprueben que las actualizaciones cumplen las directrices de seguridad y los estándares de formato antes de la implementación.
Facilitación de Microsoft:
Foundry: consulte Diseño de mensajes del sistema. Use la herramienta A2A y el entorno de pruebas de Foundry. Probar y refinar el comportamiento mediante evaluadores de agentes.
2. Estrategia de selección de modelos de agente
La selección de modelos afecta directamente al costo, el rendimiento y el cumplimiento en toda la flota del agente. Las organizaciones que recurren por defecto a los modelos más grandes disponibles se enfrentan a costos innecesarios y limitaciones de recursos que restringen el escalamiento.
Hacer coincidir las funcionalidades del modelo con la complejidad de las tareas. Los modelos más pequeños y optimizados controlan tareas rutinarias, como el resumen de forma eficaz, al tiempo que controlan los costos y reducen la latencia. Reserve modelos premium para escenarios que requieran razonamiento complejo o análisis de varios pasos donde el valor justifica mayores costos. Este enfoque por niveles impide que se supere el presupuesto, a la vez que se garantiza que las cargas de trabajo críticas reciban los recursos adecuados.
Aplicar la gobernanza de cuotas y costos. Los modelos de gama alta imponen límites de velocidad más estrictos que pueden interrumpir el servicio durante las cargas máximas. Diversifique el uso del modelo entre cargas de trabajo para evitar puntos únicos de error. Implemente etiquetas de asignación de costos para realizar un seguimiento del gasto por departamento y caso de uso, lo que permite tomar decisiones basadas en datos sobre las inversiones en modelos.
Validación de mandatos antes de la implementación. Las pruebas a pequeña escala con consultas representativas documentan los inconvenientes del rendimiento y validan el cumplimiento de los estándares de gobernanza. Esta validación evita errores costosos en los que los equipos implementan modelos costosos para tareas simples o modelos de tamaño inferior para requisitos complejos.
Facilitación de Microsoft:
Foundry: Use el catálogo de modelos y evalúe las opciones del modelo mediante tablas comparativas de modelos para comparar el rendimiento y los compromisos de costos. Para los agentes de productividad y ejecución, use el Model Router para optimizar dinámicamente los costos a la vez que se mantiene la calidad. Revise las cuotas y los límites de los modelos.
Copilot Studio: elija un modelo de IA principal o traiga su propio modelo de Foundry.
3. Conocimientos y herramientas del agente
El acceso a datos y los permisos de herramientas determinan la confiabilidad del agente, la posición de cumplimiento y el riesgo operativo. Estas directivas establecen límites que impiden acciones no autorizadas al permitir que los agentes entreguen valor. Siga todas las directivas de cumplimiento y gobernanza de datos.
Conocimientos del agente
Segmente el conocimiento por rol para minimizar la exposición de datos. Los sistemas multiagente requieren límites de datos estrictos en los que cada agente accede solo a la información necesaria para su función. Esta segmentación reduce las superficies expuestas a ataques y simplifica las auditorías de cumplimiento mediante la creación de patrones de acceso a datos claros. Cuando los agentes se conectan a orígenes de datos, asegúrese de que la recuperación solo se produce desde repositorios regulados con controles de filtrado y acceso adecuados. Revise la arquitectura de datos para que los agentes de IA alineen las estrategias de integración con los requisitos de seguridad.
Facilitación de Microsoft:
Foundry: conecte los agentes a Foundry IQ para combinar varios orígenes de datos detrás de un motor de recuperación agente al tiempo que mantiene los controles de gobernanza.
Copilot Studio: use fuentes de conocimiento para conectar agentes a repositorios de información aprobados y conectores para integrarse con sistemas empresariales de forma segura.
Herramientas del agente
Las herramientas amplían las funcionalidades del agente desde la recuperación de información pasiva hasta la interacción activa del sistema. Esta transición introduce riesgos operativos, ya que los agentes ahora pueden modificar datos, desencadenar flujos de trabajo e interactuar con las API externas. Establecer un marco de gobernanza riguroso para el uso de herramientas garantiza que los agentes funcionen dentro de los límites de seguridad definidos y cumplan los estándares de seguridad.
Defina límites de herramientas explícitos. Los agentes que interactúan con sistemas externos requieren una gobernanza estricta para evitar modificaciones no autorizadas. Especifique exactamente en el mensaje del sistema del agente cuando se debe invocar una herramienta y exigir confirmación humana en el bucle para acciones de alto impacto, como escrituras de base de datos o transacciones financieras. Este control evita errores autónomos y garantiza la responsabilidad de las operaciones de cambio de estado.
Aísle los endpoints de integración. Exponga las funcionalidades del sistema a través de API de ámbito limitado en lugar de acceso directo a la base de datos o al sistema. Aplique una validación estricta de entrada en estos puntos de conexión para rechazar los datos con formato incorrecto generados por el modelo antes de que llegue a los sistemas back-end. Aplique el principio de privilegios mínimos a los tokens de autenticación, asegurándose de que el agente solo contiene los permisos necesarios para la tarea específica.
Valide las acciones en entornos aislados. El agente de prueba se usa en entornos aislados que imitan el entorno de producción pero que no pueden afectar a los datos en vivo. Compruebe que el agente controla los errores de API o cargas inesperadas correctamente sin exponer los elementos internos del sistema al usuario. Configura el registro para atribuir cada acción a la instancia específica del agente y al ID de conversación, creando un rastro de auditoría rastreable para la depuración y el cumplimiento.
Facilitación de Microsoft:
Foundry: use herramientas y procedimientos recomendados de herramientas. Use una puerta de enlace de IA para la gobernanza de herramientas.
Copilot Studio: agregue herramientas y desencadenadores.
Memoria del agente
La memoria del agente transforma la inferencia de modelos sin estado en procesos empresariales con estado. En toda la empresa, los requisitos de memoria varían desde el contexto de sesión transitorio hasta la recuperación histórica persistente. Sin una estrategia unificada, las implementaciones de memoria ad hoc crean vectores para la pérdida de datos, las infracciones de privacidad y el crecimiento del almacenamiento no administrado. Las organizaciones deben establecer modelos de gobernanza que traten el historial de conversaciones como datos empresariales confidenciales.
Alinee los modelos de persistencia con la función del agente. Diferenciar la arquitectura de memoria en función del rol del agente. Use memoria efímera basada en sesión para agentes transaccionales para minimizar los riesgos de retención de datos. Implemente memoria persistente a largo plazo solo para agentes de asesoramiento en los que el contexto histórico es fundamental para la personalización o el razonamiento complejo. Esta segmentación evita la acumulación de datos innecesaria y alinea los costos de almacenamiento con el valor empresarial.
Externalice el almacenamiento de estado. Desacopla la memoria del motor de inferencia. Almacene el historial de conversaciones y el contexto en los sistemas de datos administrados, donde puede aplicar controles de seguridad empresariales, directivas de copia de seguridad y auditoría de acceso. Este enfoque garantiza que los datos permanecen bajo control organizativo independientemente del modelo subyacente y permiten la aplicación de directivas de cumplimiento estándar a las interacciones del agente.
Aplicar límites de aislamiento estrictos. Prevenga la fuga de contexto entre usuarios, clientes y dominios de agente. Asegúrese de que los mecanismos de recuperación de memoria respeten estrictamente la identidad y los permisos del usuario autenticado. En las arquitecturas de varios agentes, defina explícitamente qué segmentos de memoria se pueden compartir entre agentes para evitar la elevación de privilegios o el desbordamiento de datos a través de los límites.
Automatice la retención y eliminación. Aplique directivas de ciclo de vida de datos al almacenamiento de memoria del agente. Configure la eliminación automatizada para los registros de conversación en función de los requisitos normativos y la utilidad empresarial. Implemente mecanismos que permitan a los usuarios ver y eliminar su historial de memoria específico para garantizar el cumplimiento de las normativas de privacidad.
Facilitación de Microsoft:
Foundry: Use memoria para almacenar conversaciones. Para obtener su propio almacenamiento, consulte Configuración del agente estándar, Azure Cosmos DB e integración de Azure Cosmos DB.
Microsoft Agent Framework: Utilice la serialización y deserialización del estado del subproceso y la memoria del agente.
Copilot Studio: analice la eficacia del agente para identificar las oportunidades de optimización. Revise las preguntas del usuario por tema para detectar patrones y refinar las respuestas.
4. Observabilidad del agente
La observabilidad proporciona la visibilidad necesaria para mantener operaciones confiables del agente, optimizar el rendimiento y garantizar el cumplimiento de los estándares de la organización. La implementación temprana de la supervisión y la telemetría permiten la detección proactiva de problemas y la mejora continua.
Implemente el seguimiento. Configura seguimientos que capturen rutas de acceso de ejecución, puntos de decisión y patrones de interacción. Esta visibilidad permite un diagnóstico rápido cuando los agentes producen resultados inesperados o experimentan una degradación del rendimiento. Establezca líneas base para la latencia, el costo por interacción y las tasas de éxito. Alertar a los equipos cuando las métricas se desvían de los intervalos esperados para permitir una investigación antes de que los usuarios noten los problemas.
Estandarizar marcos de evaluación. Cree evaluaciones compartidas que mida la calidad, la seguridad y la confiabilidad de forma coherente. Almacene las evaluaciones en un catálogo central para asegurarse de que todos los equipos aplican los mismos estándares. Integre las evaluaciones en flujos de CI/CD para detectar problemas antes de la implementación de software en producción. Este enfoque sistemático evita el desfase de calidad a medida que evolucionan los agentes y se implementan nuevas versiones.
Amplíe las pruebas de seguridad. Los agentes de inteligencia artificial se enfrentan a amenazas únicas que las pruebas de seguridad convencionales podrían pasar por alto. Implemente equipos rojos de IA dedicados que comprueban las vulnerabilidades de inyección de instrucciones, intentan extraer datos de entrenamiento o instrucciones del sistema y validan las barreras de seguridad frente a las entradas adversas. Las evaluaciones de seguridad periódicas garantizan que los agentes sigan siendo resistentes a medida que evolucionan las técnicas de ataque.
Facilitación de Microsoft:
Foundry: use el plano de control de Microsoft Foundry para una visibilidad y gobernanza unificadas en toda la flota del agente.
Agentes y flujos de trabajo: Configure trazas para la visibilidad en la ejecución. Configure la supervisión para las instancias de Foundry y todos los proyectos. Use evaluadores de agentes para medir la calidad. Consulte El panel de supervisión del agente.
Models:Monitor models and use evaluations to measure AI response quality (Modelos:Supervisión de modelos y uso de evaluaciones para medir la calidad de la respuesta a la inteligencia artificial).
Evaluaciones: Compile y almacene evaluaciones en el catálogo del evaluador. Hacer que los equipos usen la evaluación continua. Integre las evaluaciones en canalizaciones de CI/CD mediante Acciones de GitHub o Azure DevOps. Utilice el agente de red teaming de IA dedicado para examinar las aplicaciones.
Copilot Studio: use análisis y conéctese a Azure Application Insights para la telemetría centralizada.
Cree conjuntos de pruebas para evaluaciones, guía de seguridad y gobernanza, exámenes automáticos de seguridad y comprobar el estado de protección en tiempo de ejecución del agente.
5. Seguridad del agente
Los controles de seguridad insertados a lo largo del ciclo de vida del agente impiden salidas perjudiciales, protegen contra ataques y garantizan el cumplimiento de los estándares de la organización. Estas medidas de seguridad funcionan en varias capas para crear defensa en profundidad.
Implemente límites de protección en varios puntos de intervención. Los límites de protección efectivos operan durante todo el ciclo de vida de la interacción en lugar de en un único punto de control. Filtre las entradas de usuario para bloquear mensajes malintencionados o datos confidenciales antes del procesamiento. Valide las llamadas de herramienta para evitar ataques de inyección cuando los agentes interactúan con sistemas externos. Inspeccione las respuestas de herramientas para el cumplimiento y la seguridad antes de que los agentes procesen la información. Aplicar comprobaciones de moderación y plagio de contenido a las salidas finales antes de la entrega a los usuarios. Este enfoque en capas garantiza que ningún punto de error único ponga en peligro todo el sistema.
Mantener listas de bloqueo centralizadas para la aplicación coherente. Las listas de bloqueados impiden que los términos prohibidos, los patrones confidenciales o el contenido no seguro entren o salgan del sistema. Centralice la administración de listas de bloques para asegurarse de que todos los agentes y modelos aplican estándares coherentes. Las listas de actualizaciones se basan periódicamente en amenazas emergentes, nuevos requisitos de cumplimiento y lecciones aprendidas de incidentes. Combine listas de bloqueo estáticas con métodos de detección dinámicos para lograr una cobertura completa al tiempo que se mantiene el rendimiento.
Facilitación de Microsoft:
Foundry: consulte Información general sobre los límites de protección y el control. Aplicar barreras de protección en diferentes puntos de intervención. Usa una puerta de enlace de IA para controlar los puntos de conexión del modelo y aplicar el acceso seguro. Utiliza la protección de IA de Microsoft Defender for Cloud y obtén el contexto de aplicaciones y usuarios finales para las alertas de IA.