Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
Este documento hace referencia al portal de Microsoft Foundry (clásico).
Consulte la documentación de Microsoft Foundry (nuevo) para obtener información sobre el nuevo portal.
Microsoft Foundry Models es su destino único para detectar, evaluar e implementar modelos de IA eficaces, tanto si está creando un copilot personalizado, un agente, mejorando una aplicación existente o explorando nuevas funcionalidades de inteligencia artificial.
Con Foundry Models, puede hacer lo siguiente:
- Explore un amplio catálogo de modelos de vanguardia de Microsoft, OpenAI, DeepSeek, Hugging Face, Meta, etc.
- Compare y evalúe modelos en paralelo mediante tareas del mundo real y sus propios datos.
- Implemente con confianza, gracias a las herramientas integradas para ajustar, observar e inteligencia artificial responsable.
- Elija su ruta de acceso: traiga su propio modelo, use uno hospedado o integre sin problemas con los servicios de Azure.
Tanto si es desarrollador, Científico de datos o arquitecto empresarial, Foundry Models le ofrece la flexibilidad y el control para crear soluciones de inteligencia artificial que se escalan de forma segura, responsable y rápida.
Foundry ofrece un catálogo completo de modelos de IA. Hay más de 1900 modelos que van desde modelos fundamentales, modelos de razonamiento, modelos de lenguaje pequeño, modelos multimodales, modelos específicos del dominio y modelos del sector.
El catálogo de modelos se organiza en dos categorías principales:
- Models vendidos directamente por Azure
- Modelos de asociados y comunidad
Comprender la distinción entre estas categorías le ayuda a elegir los modelos adecuados para sus requisitos específicos y objetivos estratégicos.
Nota:
Para todos los modelos, los clientes siguen siendo responsables de:
- Cumplimiento de la ley en su uso de cualquier modelo o sistema
- Revisión de descripciones de modelos en el catálogo de modelos, tarjetas de modelo disponibles por el proveedor de modelos y otra documentación pertinente
- Selección de un modelo adecuado para su caso de uso
- Implementar medidas adecuadas (incluido el uso de Seguridad del contenido de Azure AI) para asegurarse de que el uso de las herramientas de Foundry cumple con la Directiva de uso aceptable en los Términos del producto de Microsoft y el Código de conducta de los Servicios de INTELIGENCIA ARTIFICIAL de Microsoft Enterprise.
Modelos vendidos directamente por Azure
También se les conoce como modelos Azure Direct o Modelos Direct de Azure. Estos modelos están hospedados y vendidos por Microsoft según los Términos de Producto de Microsoft. Microsoft ha evaluado estos modelos y están profundamente integrados en el ecosistema de inteligencia artificial de Azure. Los modelos proceden de una variedad de proveedores y ofrecen una integración mejorada, un rendimiento optimizado y soporte directo de Microsoft, incluidos los acuerdos de nivel de servicio (SLA) de nivel empresarial.
Características de los modelos vendidos directamente por Azure:
- Soporte técnico disponible en Microsoft.
- Alto nivel de integración con servicios e infraestructuras de Azure.
- Sujeto a una revisión interna basada en los estándares de inteligencia artificial responsable de Microsoft.
- La documentación de los modelos y los informes de transparencia proporcionan a los clientes visibilidad sobre los riesgos, las medidas de mitigación y las limitaciones de los modelos.
- Escalabilidad, confiabilidad y seguridad de nivel empresarial.
Algunos de estos modelos también ofrecen un rendimiento aprovisionado que es fungible, lo que significa que puedes utilizar tu cuota y reservas de manera flexible a lo largo de cualquiera de estos modelos. Para aprender cómo Foundry gestiona los datos que proporciona a los Foundry Models vendidos directamente por Azure, consulte Datos, privacidad y seguridad para Modelos Directos de Azure en Foundry de Microsoft (clásico).
Modelos de asociados y comunidad
Estos modelos constituyen la gran mayoría de los modelos de Foundry y los proporcionan organizaciones de terceros de confianza, asociados, laboratorios de investigación y colaboradores de la comunidad. Estos modelos ofrecen funcionalidades especializadas y diversas de inteligencia artificial, que abarcan una amplia gama de escenarios, sectores e innovaciones. Algunos ejemplos de modelos de partners y de la comunidad son la familia de grandes modelos de lenguaje desarrollados por Anthropic y los modelos Open del hub de Hugging Face.
Anthropic incluye la familia Claude de modelos de lenguaje grande de última generación que admiten la entrada de texto e imagen, la salida de texto, las funcionalidades multilingües y la visión. Para obtener ayuda con los modelos antrópicos, use Soporte técnico de Microsoft. Para obtener más información sobre la privacidad, consulte Datos, privacidad y seguridad para los modelos de Claude en Microsoft Foundry (versión preliminar) y directiva de privacidad antrópica. Para conocer los términos de servicio, consulte Términos de servicio comerciales. Para obtener información sobre cómo trabajar con modelos antrópicos, consulte Implementación y uso de modelos de Claude en Microsoft Foundry.
Hugging Face Hub incluye cientos de modelos para la inferencia en tiempo real con cómputo gestionado. Hugging Face crea y mantiene los modelos enumerados en esta colección. Para obtener ayuda con los modelos de Hugging Face, use el foro de Hugging Face o el soporte técnico de Hugging Face. Aprenda cómo desplegar modelos de Hugging Face en Cómo desplegar e inferir con un despliegue gestionado de computación (clásico).
Importante
Para trabajar con modelos que se pueden implementar en computación gestionada, como los modelos de Hugging Face, utilice un proyecto basado en concentrador en el portal de Foundry (clásico). Para obtener más información sobre los portales de Foundry disponibles y las diferencias entre los dos tipos de proyectos de Foundry (proyecto Foundry y proyecto basado en concentradores), consulte ¿Qué es Microsoft Foundry? (clásico).
Características de modelos de asociados y comunidad:
- Desarrollado y respaldado por asociados externos y colaboradores de la comunidad
- Amplia gama de modelos especializados que se atienden a nichos o casos de uso amplios
- Normalmente validados por los propios proveedores, con directrices de integración proporcionadas por Azure
- Innovación controlada por la comunidad y disponibilidad rápida de modelos de vanguardia
- Integración estándar de Azure AI, con soporte y mantenimiento gestionados por los respectivos proveedores
Los modelos de socios y comunidad se pueden implementar mediante opciones de cómputo administrado o de implementación sin servidor. El proveedor de modelos selecciona cómo se pueden implementar los modelos. Para obtener información sobre los tipos de implementación disponibles en la opción de implementación sin servidor, consulte Tipos de implementación para Microsoft Foundry Models (clásico).
Solicitar que un modelo se incluya en el catálogo de modelos
Solicite que agreguemos un modelo al catálogo de modelos directamente desde la página del catálogo de modelos en el portal de Foundry.
- Vaya a la página del catálogo de modelos.
- En la barra de búsqueda, busque un modelo que no exista en el catálogo, como mymodel.
- Seleccione Solicitar un modelo para compartir detalles sobre el modelo que desea solicitar.
Elegir entre modelos vendidos directamente por Azure y modelos de asociados y comunidad
Al seleccionar qué modelos de Foundry usar, tenga en cuenta lo siguiente:
- Uso caso y requisitos: los modelos vendidos directamente por Azure son ideales para escenarios que requieren integración profunda Azure, soporte garantizado y acuerdos de nivel de servicio empresariales. Los modelos de asociados y la comunidad destacan en casos de uso especializados y escenarios dirigidos por la innovación.
- Expectativas de soporte: los modelos vendidos directamente por Azure vienen con un sólido soporte y mantenimiento proporcionados por Microsoft. Los modelos de socios y comunidad son respaldados por sus proveedores, con distintos niveles de Acuerdo de Nivel de Servicio y estructuras de soporte.
- Innovación y especialización: los modelos de asociados y la comunidad ofrecen un rápido acceso a innovaciones especializadas y capacidades de nicho, a menudo desarrolladas por laboratorios de investigación líderes y proveedores emergentes de inteligencia artificial.
Información general sobre las funcionalidades del catálogo de modelos
El catálogo de modelos en el portal de Foundry es el centro para detectar y usar una amplia gama de modelos para crear aplicaciones de IA generativas. El catálogo de modelos incluye cientos de modelos en proveedores de modelos como Azure OpenAI, Mistral, Meta, Cohere, NVIDIA y Hugging Face, incluidos los modelos entrenados por Microsoft. Los modelos de proveedores distintos de Microsoft son productos que no son de Microsoft, tal como se define en Términos de producto de Microsoft y están sujetos a los términos proporcionados con los modelos.
Busque y detecte modelos que satisfagan sus necesidades mediante la búsqueda de palabras clave y los filtros. El catálogo de modelos también ofrece la tabla de clasificación de rendimiento del modelo y las métricas comparativas para los modelos seleccionados. Acceda a ellos seleccionando Ver tabla de clasificación y Comparar modelos. Los datos de pruebas comparativas también están disponibles en la pestaña Pruebas comparativas de la tarjeta modelo.
Algunos de los filtros disponibles en el catálogo de modelos son:
- Colección: filtre los modelos en función de la colección de proveedores de modelos.
- Sector: filtre por los modelos entrenados en un conjunto de datos específico del sector.
- Funcionalidades: filtre por características únicas del modelo, como razonamiento y llamadas a herramientas.
- Tareas de inferencia: filtre los modelos en función del tipo de tarea de inferencia.
Algunos de los detalles disponibles en la tarjeta de modelo son:
- Hechos rápidos: Información clave sobre el modelo de un vistazo rápido
- Pestaña Detalles: información detallada sobre el modelo, como descripción, información de la versión y tipos de datos compatibles.
- Pestaña Pruebas comparativas: Métricas de pruebas comparativas de rendimiento para modelos seleccionados
- Pestaña Implementaciones : lista de implementaciones existentes para el modelo
- Pestaña Licencia: Información legal relacionada con la licencia del modelo
Opciones de implementación de modelos: implementaciones administradas de proceso y sin servidor
El catálogo de modelos ofrece dos opciones distintas para implementar modelos para su uso: implementaciones administradas de proceso y sin servidor. Para obtener información sobre el procesamiento de datos con las opciones de implementación, consulte Datos, privacidad y seguridad para el uso de modelos a través del catálogo de modelos en el portal de Microsoft Foundry (clásico). Para aprender cómo Foundry gestiona los datos que proporciona a los Foundry Models vendidos directamente por Azure, consulte Datos, privacidad y seguridad para Modelos Directos de Azure en Foundry de Microsoft (clásico).
Funcionalidades de las opciones de implementación del modelo
Las opciones y características de implementación disponibles para cada modelo varían, como se describe en la tabla siguiente:
| Características | Cómputo gestionado | Implementación sin servidor |
|---|---|---|
| Experiencia de implementación y facturación | Los pesos del modelo se implementan en máquinas virtuales dedicadas con computación administrada. Un proceso administrado, que puede tener una o varias implementaciones, pone a disposición una API REST para la inferencia. Se le factura por las horas de núcleo de la máquina virtual que utilizan las implementaciones. | Accede a los modelos a través de un despliegue que proporciona una API. La API proporciona access al modelo que Microsoft hospeda y administra para la inferencia. Se le facturan entradas y salidas a las API, normalmente en tokens. Antes de implementar, se proporciona información de precios. |
| Autenticación de API | Claves y autenticación de Microsoft Entra. | Claves y autenticación de Microsoft Entra. |
| Seguridad del contenido | Utiliza las API del servicio de seguridad de contenido de Azure AI. | Filtros de Seguridad del contenido de Azure AI están disponibles integrados en las API de inferencia. Los filtros de Seguridad del contenido de Azure AI se facturan por separado. |
| Aislamiento de red | Configure una red administrada para centros de Microsoft Foundry (clásico). | Las redes gestionadas siguen la configuración de la bandera de acceso de red pública (PNA) para el recurso Foundry. Para obtener más información, consulte la sección Aislamiento de red para los modelos implementados a través de implementaciones sin servidor más adelante en este artículo. |
Diagrama que muestra las diferencias del ciclo de servicio entre las implementaciones de proceso administradas y las implementaciones sin servidor en los modelos de Microsoft Foundry.
Modelos disponibles para las opciones de implementación admitidas
Vea una lista de los modelos admitidos para la implementación sin servidor o la computación gestionada desde un proyecto central en el catálogo de modelos.
- Abra el portal Foundry y seleccione un proyecto basado en un centro.
- Seleccione Catálogo de modelos para abrir su página principal.
- Use el filtro Opciones de implementación para seleccionar Implementación de API sin servidor o Proceso administrado.
Captura de pantalla que muestra cómo filtrar por modelos de proceso administrados en el catálogo.
Cómputo gestionado
La capacidad de implementar modelos como un proceso administrado se basa en las capacidades de la plataforma de Azure Machine Learning para permitir una integración fluida de la amplia colección de modelos en el catálogo de modelos a lo largo de todo el ciclo de vida de las operaciones de modelos de lenguaje grande (LLM).
Importante
Para trabajar con modelos que se pueden implementar en computación gestionada, como los modelos de Hugging Face, utilice un proyecto basado en concentrador en el portal de Foundry (clásico). Para obtener más información sobre los portales de Foundry disponibles y las diferencias entre los dos tipos de proyectos de Foundry (proyecto Foundry y proyecto basado en concentradores), consulte ¿Qué es Microsoft Foundry? (clásico).
Diagrama que muestra el ciclo de vida de las operaciones del modelo de lenguaje grande (LLM) con proceso administrado.
Disponibilidad de modelos para la implementación como cómputo gestionado
Los modelos están disponibles a través de registros Azure Machine Learning. Estos registros permiten un enfoque prioritario en el aprendizaje automático para el alojamiento y distribución de recursos de Azure Machine Learning. Estos recursos incluyen pesos del modelo, entornos de ejecución de contenedores para los modelos, flujos de trabajo para evaluar y ajustar los modelos, y conjuntos de datos para referencias y ejemplos.
Los registros se basan en una infraestructura altamente escalable y lista para la empresa que ofrece las siguientes ventajas:
Ofrece acceso de baja latencia a los artefactos de modelos en todas las regiones de Azure con replicación geográfica integrada.
Admite requisitos de seguridad empresariales, como limitar access a los modelos mediante Azure Policy e implementación segura mediante redes virtuales administradas.
Despliegue de modelos para inferencia con cómputo gestionado
Los modelos disponibles para la implementación en cómputo administrado se pueden desplegar en el cómputo administrado de Azure Machine Learning para la inferencia en tiempo real. Para implementar en un cómputo gestionado, necesita una cuota de máquina virtual en su suscripción de Azure para que los productos específicos puedan ejecutar el modelo de manera óptima. Algunos modelos permiten implementar en una cuota temporalmente compartida para pruebas de modelos.
Más información sobre la implementación de modelos:
- Para desplegar modelos abiertos en un cómputo administrado, consulte Cómo desplegar e inferir con un despliegue de cómputo administrado (clásico).
- Para desplegar modelos Foundry protegidos en computación administrada con facturación de pago por uso, consulte Desplegar modelos de Foundry de Microsoft en una computación administrada con facturación de pago por uso (clásico).
Creación de aplicaciones de IA generativa con proceso administrado
La característica prompt flow en Azure Machine Learning ofrece una excelente experiencia para la creación de prototipos. Usa los modelos desplegados con cálculo administrado en flujo de solicitudes con la herramienta Open Model LLM. También puede usar la API REST expuesta por el cómputo gestionado en herramientas populares de LLM como LangChain con la extensión Azure Machine Learning.
Seguridad del contenido para los modelos implementados como cómputo gestionado
El servicio Seguridad del contenido de Azure AI está disponible para su uso con proceso administrado para detectar diversas categorías de contenido dañino, como contenido sexual, violencia, odio y autolesión. También puede usar el servicio para detectar amenazas avanzadas, como la detección de riesgos de jailbreak y la detección de texto de material protegido.
Para obtener una integración de referencia con Seguridad del contenido de Azure AI para Llama 2, consulte este cuaderno. O bien, use la herramienta Content Safety (Text) en el flujo de mensajes para pasar las respuestas del modelo a Seguridad del contenido de Azure AI para la detección. Se le factura por separado por este tipo de uso, tal como se describe en tarifas de Seguridad del contenido de Azure AI.
Implementaciones sin servidor
Las implementaciones sin servidor proporcionan una manera de consumir modelos de Foundry como API sin hospedarlos en la suscripción. Los modelos se hospedan en una infraestructura administrada por Microsoft, lo que permite un acceso basado en API al modelo del proveedor. El acceso a través de API puede reducir drásticamente el costo de acceder a un modelo y simplificar la experiencia de configuración.
El proveedor de modelos ofrece modelos disponibles para implementaciones sin servidor, pero se hospedan en una infraestructura de Azure administrada por Microsoft y a los que se accede a través de la API. Los proveedores de modelos definen los términos de licencia y establecen el precio para el uso de sus modelos. El servicio Azure Machine Learning:
- Administra la infraestructura de hospedaje.
- Hace que las API de inferencia estén disponibles.
- Actúa como procesador de datos para solicitudes enviadas y de salida de contenido para implementaciones sin servidor.
Tipos de implementación sin servidor
La opción de implementación sin servidor para Foundry Models ofrece dos categorías de implementación principales: estándar (pago por token) y aprovisionadas (capacidad reservada). Dentro de cada categoría, puede elegir el procesamiento global, de zona de datos o regional en función de los requisitos de cumplimiento.
Los tipos de implementación sin servidor disponibles incluyen: Global Estándar, Global Provisionado, Global por Lotes, Zona de Datos Estándar, Zona de Datos Provisionada, Zona de Datos por Lotes, Estándar, Regional Provisionado y Desarrollador. Para obtener más información sobre estos tipos de implementación y cómo elegir el adecuado para su uso, consulte Tipos de implementación para modelos de Microsoft Foundry (clásico).
Facturación de implementaciones sin servidor
La experiencia de detección, suscripción y consumo de los modelos implementados como implementaciones sin servidor se encuentra en el portal de Foundry y Estudio de Azure Machine Learning. Los usuarios aceptan los términos de licencia para el uso de los modelos. La información de precios para el consumo está disponible durante la implementación.
Los modelos Foundry de socios y de la comunidad se facturan a través de Azure Marketplace, de acuerdo con los términos de uso del Microsoft Commercial Marketplace.
Los modelos de Foundry vendidos directamente por Azure se facturan a través de medidores de Azure como Servicios de Consumo de Primera Parte. Como se describe en los términos del producto, usted compra servicios de consumo de primera parte utilizando los medidores de Azure, pero no están sujetos a los términos del servicio de Azure. El uso de estos modelos está sujeto a los términos de licencia proporcionados.
Ajuste de modelos
Algunos modelos también admiten el ajuste preciso. Para estos modelos, puede usar implementaciones de proceso administradas o sin servidor para adaptar los modelos mediante los datos que proporcione. Para obtener más información, consulte Ajustar modelos con Microsoft Foundry (clásico).
RAG con modelos desplegados como implementaciones sin servidor.
En el portal de Foundry, use índices vectoriales y generación aumentada de recuperación (RAG) con modelos implementados a través de implementaciones sin servidor para generar inserciones e inferencias basadas en datos personalizados. Estas inserciones e inferencias pueden generar respuestas específicas de su caso de uso. Para obtener más información, consulte Compilación y consumo de índices vectoriales en el portal de Microsoft Foundry (clásico).
Disponibilidad regional de ofertas y modelos
La facturación de pago por token solo está disponible para los usuarios cuya suscripción de Azure pertenece a una cuenta de facturación en un país o región en el que el proveedor de modelos haya puesto la oferta a disposición. Si la oferta está disponible en la región pertinente, el usuario debe tener un recurso project en la región de Azure donde el modelo esté disponible para la implementación o ajuste, según corresponda. Consulte Disponibilidad de regiones para modelos en implementaciones sin servidor (clásico) para obtener información detallada.
Seguridad del contenido para los modelos implementados a través de implementaciones sin servidor
En el caso de los modelos de lenguaje implementados a través de la API sin servidor, Azure IA implementa una configuración predeterminada de Seguridad del contenido de Azure AI filtros de moderación de texto que detectan contenido dañino, como odio, autolesión, contenido sexual y violento. Para obtener más información sobre el filtrado de contenido, consulta
Sugerencia
El filtrado de contenido no está disponible para determinados tipos de modelo que se implementan a través de la API sin servidor. Estos tipos de modelo incluyen la inserción de modelos y modelos de serie temporal.
El filtrado de contenido se produce sincrónicamente a medida que el servicio procesa los mensajes para generar contenido. Es posible que se le facture por separado según precios de Seguridad del contenido de Azure AI para dicho uso. Puede deshabilitar el filtrado de contenido para puntos de conexión individuales sin servidor:
- En el momento en que se implementa por primera vez un modelo de lenguaje
- Más adelante, al seleccionar el interruptor de filtrado de contenido en la página de detalles de implementación
Supongamos que decide usar una API distinta de la API de inferencia de Model para trabajar con un modelo implementado a través de una API sin servidor. En esta situación, el filtrado de contenido no está habilitado a menos que lo implemente por separado mediante Seguridad del contenido de Azure AI.
Para comenzar con Seguridad del contenido de Azure AI, consulte Inicio rápido: Analizar contenido de texto. Si no usa el filtrado de contenido al trabajar con modelos que se implementan a través de una API que no requiere servidor, corre un mayor riesgo de exponer a los usuarios a contenido perjudicial.
Aislamiento de red para los modelos implementados a través de implementaciones sin servidor
Los puntos de conexión de los modelos implementados como implementaciones sin servidor siguen la configuración de acceso de red pública del hub de Foundry que tiene el proyecto en el que existe la implementación. Para ayudar a proteger la implementación sin servidores, deshabilite la marca de acceso a la red pública en el centro de Foundry. Puede ayudar a proteger la comunicación entrante de un cliente al punto de conexión mediante un punto de conexión privado para el centro.
Para establecer la marca de acceso de red pública para el hub de Foundry:
- Vaya al Azure Portal.
- Busque el grupo de recursos al que pertenece el hub y seleccione su hub de Foundry de los recursos listados para este grupo de recursos.
- En la página de información general del centro, en el panel izquierdo, vaya a ConfiguraciónRedes.
- En la pestaña Public access, configure las configuraciones del indicador de acceso a la red pública.
- Guarde los cambios. Los cambios pueden tardar hasta cinco minutos en propagarse.
Limitaciones
Si tiene un centro de Foundry con un punto de conexión privado creado antes del 11 de julio de 2024, las implementaciones sin servidor agregadas a los proyectos de este centro no seguirán la configuración de red del centro. En su lugar, cree un nuevo punto de conexión privado para el centro y una nueva implementación sin servidor en el project para que las nuevas implementaciones puedan seguir la configuración de red del centro.
Si tiene un centro de Foundry con implementaciones sin servidor creadas antes del 11 de julio de 2024 y habilita un punto de conexión privado en este centro, las implementaciones sin servidor existentes no seguirán la configuración de red del centro. Para que las implementaciones sin servidor del centro sigan la configuración de red del centro, vuelva a crear las implementaciones.
Actualmente, Azure OpenAI en tus datos no está disponible para las implementaciones sin servidor en centros privados, ya que los centros privados tienen deshabilitada la marca de acceso a la red pública.
Cualquier cambio en la configuración de red (por ejemplo, habilitar o deshabilitar el indicador de acceso de red pública) puede tardar hasta cinco minutos en propagarse.
Ciclo de vida del modelo: desuso y retirada
Los modelos de IA evolucionan rápidamente y, cuando hay disponible una nueva versión o un nuevo modelo con funcionalidades actualizadas en la misma familia de modelos, los modelos más antiguos se pueden retirar en el catálogo de modelos de Foundry. Para permitir una transición sin problemas a una versión de modelo más reciente, algunos modelos permiten a los usuarios habilitar las actualizaciones automáticas. Para obtener información sobre el ciclo de vida del modelo de diferentes modelos, las próximas fechas de retirada de modelos y las versiones de reemplazo sugeridas, consulte:
- Deprecaciones y retiradas de modelos de Azure OpenAI en Microsoft Foundry (clásico)
- Obsolescencia y retiro de los modelos de Microsoft Foundry (clásico)
Contenido relacionado
- Datos, privacidad y seguridad para Azure Direct Models en Microsoft Foundry (clásico)
- Datos, privacidad y seguridad para el uso de modelos a través del catálogo de modelos en el portal de Microsoft Foundry (clásico)