Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
SE APLICA A: Todos los niveles de API Management
Puede importar los puntos de conexión del modelo de IA implementados en Microsoft Foundry en la instancia de API Management como API. Use directivas de puerta de enlace de IA y otras funcionalidades de API Management para simplificar la integración, mejorar la observabilidad y mejorar el control sobre los puntos de conexión del modelo.
Obtenga más información sobre cómo administrar las API de IA en API Management:
Opciones de compatibilidad de cliente
API Management admite dos opciones de compatibilidad de cliente para las API de IA de Microsoft Foundry. Al importar la API mediante el asistente, elija la opción adecuada para la implementación del modelo. La opción determina cómo los clientes llaman a la API y cómo la instancia de API Management enruta las solicitudes a la herramienta Foundry.
Azure OpenAI: administrar Azure OpenAI en implementaciones de modelos de Microsoft Foundry.
Los clientes llaman a la implementación en un punto de conexión como . El nombre de implementación se pasa en la ruta de acceso de la solicitud. Utilice esta opción si su herramienta Foundry solo incluye implementaciones de modelos de Azure OpenAI.
Azure AI - Administre los puntos de conexión del modelo en Microsoft Foundry que se exponen a través de la API de inferencia de modelos de Azure AI.
Los clientes llaman a la implementación en un punto de conexión como . El nombre de implementación se pasa en el cuerpo de la solicitud. Use esta opción si quiere flexibilidad para cambiar entre los modelos expuestos a través de la API de inferencia de modelos de IA de Azure y los implementados en Azure OpenAI en foundry Models.
Prerrequisitos
Una instancia existente de API Management. Créelo si aún no lo ha hecho.
Una herramienta Foundry en tu suscripción con uno o varios modelos implementados. Algunos ejemplos son los modelos implementados en Microsoft Foundry o Azure OpenAI.
Importación de microsoft Foundry API mediante el portal
Siga estos pasos para importar una API de IA a API Management.
Al importar la API, API Management configura automáticamente:
- Operaciones para cada uno de los puntos de conexión de la API REST.
- Una identidad asignada por el sistema con los permisos necesarios para acceder a la implementación de la herramienta Foundry.
- Un recurso backend y una directiva set-backend-service que dirige las solicitudes de API al punto de conexión de Azure AI Services.
- Autenticación en el back-end mediante la identidad administrada asignada por el sistema de la instancia.
- (opcionalmente) Directivas que le ayudarán a supervisar y administrar la API.
Para importar una API de Microsoft Foundry a API Management:
En el portal Azure, vaya a la instancia de API Management.
En el menú de la izquierda, en API, seleccioneAPI + Agregar API.
En Crear desde recurso de Azure, seleccione Microsoft Foundry.
Captura de pantalla de la creación de una API compatible con OpenAI en el portal.
En la pestaña Seleccionar servicio de IA :
- Seleccione la suscripción en la que buscar herramientas de fundición. Para obtener información sobre las implementaciones de modelos en un servicio, seleccione el vínculo implementaciones junto al nombre del servicio. Captura de pantalla de las implementaciones de un servicio de IA en el portal.
- Seleccione una herramienta de fundición.
- Seleccione Siguiente.
En la pestaña Configurar API :
Escriba un Nombre para mostrar y una Descripción opcional para la API.
En Ruta de acceso base, escriba una ruta de acceso que la instancia de API Management usa para acceder al punto de conexión de implementación.
Opcionalmente, seleccione uno o varios productos para asociarlos a la API.
En Compatibilidad de cliente, seleccione cualquiera de las siguientes opciones en función de los tipos de cliente que quiera admitir. Consulte Opciones de compatibilidad de cliente para obtener más información.
- Azure OpenAI: seleccione esta opción si los clientes solo necesitan acceder a Azure OpenAI en implementaciones de modelos de Microsoft Foundry.
- Azure AI: seleccione esta opción si los clientes necesitan acceder a otros modelos de Microsoft Foundry.
Seleccione Siguiente.
Captura de pantalla de la configuración de la API de Microsoft Foundry en el portal.
En la pestaña Administrar consumo de tokens , escriba la configuración o acepte valores predeterminados que definan las siguientes directivas para ayudar a supervisar y administrar la API:
- Administración del consumo de tokens
- Seguimiento del uso de tokens
En la pestaña Aplicar almacenamiento en caché semántico , opcionalmente escriba la configuración o acepte valores predeterminados que definan las directivas para ayudar a optimizar el rendimiento y reducir la latencia de la API:
- Habilitación del almacenamiento en caché semántico de respuestas
Opcionalmente, en seguridad del contenido de IA, puede ingresar la configuración o aceptar los valores predeterminados para configurar el servicio Seguridad del contenido de Azure AI y bloquear las solicitudes con contenido no seguro.
- Exigir comprobaciones de seguridad de contenido en solicitudes LLM
Seleccione Revisar.
Una vez validada la configuración, seleccione Crear.
Prueba de la API de IA
Para asegurarse de que la API de IA funciona según lo previsto, pruébela en la consola de prueba de API Management.
Seleccione la API que creó en los pasos anteriores.
Seleccione la pestaña Prueba.
Seleccione una operación compatible con la implementación del modelo. En la página se muestran los campos de los parámetros y los encabezados.
Escriba los parámetros y los encabezados según sea necesario. En función de la operación, es posible que tenga que configurar o actualizar un cuerpo de la solicitud. Este es un ejemplo muy básico de solicitud para completar un chat.
{ "model": "any", "messages": [ { "role": "user", "content": "Help me plan a trip to Paris", "max_tokens": 100 } ] }Nota:
En la consola de prueba, API Management rellena automáticamente un encabezado Ocp-Apim-Subscription-Key y configura la clave de suscripción de la suscripción de acceso completo integrada. Esta clave permite el acceso a todas las API de la instancia de API Management. Opcionalmente, se puede mostrar el encabezado Ocp-Apim-Subscription-Key si se selecciona el icono de ojo situado junto a la Solicitud HTTP.
Seleccione Enviar.
Cuando la prueba se realiza correctamente, el back-end responde con un código de respuesta HTTP correcto y algunos datos. Anexados a la respuesta son datos de uso de tokens para ayudarle a supervisar y administrar el consumo de tokens del modelo de idioma.
Contenido relacionado
- Limitaciones de importación de API
- Importación de una especificación de OpenAPI
- Importación de una API de SOAP
- Importar una API de SOAP y convertir en REST
- Importar un API de App Service
- Importación de una API de aplicación de contenedor
- Importación de WebSocket API
- Importación de GraphQL API
- Importación de un esquema GraphQL y configuración de solucionadores de campos
- Importación de una API de aplicación de funciones
- Importación de una API de aplicación lógica
- Importación de un servicio Service Fabric
- Importación de una API de Microsoft Foundry
- Importar una API de OpenAI Azure
- Importación de una API de LLM
- Importación de una API de OData
- Exportación de una API REST como servidor MCP
- Exposición de un servidor MCP existente
- Importación de una API de agente de A2A
- Importación de metadatos de SAP OData
- Importación de una API de gRPC
- Edición de una API