Compartir a través de


Cambiar la versión y la configuración del modelo

Este artículo detalla cómo modificar la versión y la configuración del modelo en el generador de indicaciones. La versión y la configuración del modelo pueden afectar al rendimiento y al comportamiento del modelo IA generativa.

Selección del modelo

Para cambiar el modelo, seleccione Modelo en la parte superior del generador de mensajes. El menú desplegable le permite seleccionar entre los modelos IA generativa que generan respuestas a su solicitud personalizada.

El uso de indicaciones en Power Apps o Power Automate consume créditos del generador de prompt, mientras que el uso de indicaciones en Copilot Studio consume Créditos de Copilot. Obtenga más información en Licencias y créditos del generador de indicaciones en la documentación de AI Builder.

Información general

La siguiente tabla describe los diferentes modelos disponibles.

Modelo GPT Licencias Funcionalidades Categoría
GPT-4.1 mini (modelo por defecto) Tasa básica Entrenado en datos hasta junio de 2024. Introduce hasta 128K tokens. Mini
GPT-4.1 Tasa estándar Entrenado en datos hasta junio de 2024. Contexto se permite hasta 128K de tokens. General
Chat de GPT-5 Tasa estándar Entrenado con datos hasta septiembre de 2024. Contexto se permite hasta 128K de tokens. General
GPT-5 razonamiento Tarifa Premium Entrenado con datos hasta septiembre de 2024. Se permite un contexto de hasta 400 mil tokens. Profundo
Chat GPT-5.2 (experimental) Tasa estándar Contexto se permite hasta 128K de tokens. General
Razonamiento GPT-5.2 (experimental) Tarifa Premium Entrenado con datos hasta octubre de 2024. Se permite un contexto de hasta 400 mil tokens. Profundo
Claude Sonet 4.5 (experimental) Tasa estándar Modelo externo de Anthropic. Contexto permitido hasta 200K tokens. General
Claude Opus 4.5 (experimental) Tarifa Premium Modelo externo de Anthropic. Contexto permitido hasta 200K tokens. Profundo

GPT-4o mini y GPT-4o se siguen utilizando en las regiones gubernamentales de EE. UU. Estos modelos siguen las reglas de licencias y ofrecen funcionalidades comparables a GPT-4.1 mini y GPT-4.1, respectivamente.

La disponibilidad de modelos varía según la región.

Los modelos antrópicos están alojados fuera de Microsoft y están sujetos a términos y gestión de datos antrópicos. Descubre más en Elige un modelo externo como modelo principal de IA.

Licencias

En agentes, flujos o aplicaciones, los mensajes que usan modelos consumen Copilot Credits, independientemente de la fase de lanzamiento de los modelos. Infórmate más sobre tarifas y gestión de facturación.

Si tiene créditos de AI Builder, el sistema los consume primero cuando se usan mensajes en Power Apps y Power Automate. El sistema no consume créditos de AI Builder cuando se utilizan indicaciones en Copilot Studio. Obtenga más información en Información general de licencias en la documentación de AI Builder.

Etapas de lanzamiento

Los modelos pasan por diferentes etapas de lanzamiento. Puedes probar modelos experimentales y de vista previa nuevos y de vanguardia, o elegir un modelo fiable y ampliamente probado y disponible en general.

Etiqueta Descripción
Experimental Pensadas para experimentación, no para uso en producción. Sujeto a los términos de versión preliminar y puede tener limitaciones en la disponibilidad y la calidad.
Previsualizar Finalmente, se convierte en un modelo disponible con carácter general, pero actualmente no se recomienda para su uso en producción. Sujeto a los términos de versión preliminar y puede tener limitaciones en la disponibilidad y la calidad.
Sin etiqueta Disponible con carácter general. Puede usar este modelo para el uso de escalado y producción. En la mayoría de los casos, los modelos disponibles con carácter general no tienen limitaciones sobre la disponibilidad y la calidad, pero es posible que algunos todavía tengan algunas limitaciones, como la disponibilidad regional.
Importante: Los modelos de Claude antrópicos están en la fase experimental, aunque no muestren una etiqueta.
Predeterminada Modelo predeterminado para todos los agentes y, normalmente, el modelo con mejor rendimiento disponible con carácter general. El modelo predeterminado se actualiza periódicamente a medida que los modelos nuevos y más capaces estén disponibles con carácter general. Los agentes también usan el modelo predeterminado como reserva si un modelo seleccionado está desactivado o no disponible.

Los modelos experimentales y de vista previa pueden mostrar variabilidad en el rendimiento, la calidad de respuesta, la latencia o el consumo de mensajes. Pueden expirar o no estar disponibles. Están sujetos a términos de versión preliminar.

Categorización

La siguiente tabla describe las diferentes categorías de modelo.

Mini General Profundo
Rendimiento Excelente para la mayoría de tareas Adecuado para tareas complejas Entrenado para tareas de razonamiento
Velocidad Procesamiento más rápido Puede ser más lento debido a la complejidad Más lento, porque razona antes de responder
Casos de uso Resumen, tareas de información, procesamiento de imágenes y documentos Tareas avanzadas de creación de contenido y procesamiento de imágenes y documentos Tareas de análisis y razonamiento de datos, procesamiento de imágenes y documentos

Elige un mini modelo cuando necesites una solución rentable para tareas moderadamente complejas, tengas recursos computacionales limitados o necesites un procesamiento más rápido. Los mini modelos son ideales para proyectos con limitaciones presupuestarias y aplicaciones como soporte al cliente o análisis eficiente de código.

Elige un modelo general cuando trates con tareas altamente complejas y multimodales que requieren un rendimiento superior y un análisis detallado. Es la mejor opción para proyectos a gran escala donde la precisión y las capacidades avanzadas son cruciales. Un modelo general también es una buena opción cuando tienes el presupuesto y los recursos computacionales para apoyarlo. Los modelos generales son preferibles para proyectos a largo plazo que pueden crecer en complejidad con el tiempo.

Los modelos profundos destacan para proyectos que requieren capacidades avanzadas de razonamiento. Son adecuados para escenarios que requieren resolución de problemas sofisticada y pensamiento crítico. Los modelos Profundos destacan en entornos donde el razonamiento matizado, la toma de decisiones complejas y el análisis detallado son importantes.

Elige entre los modelos según la disponibilidad de la región, funcionalidades, casos de uso y costes. Obtenga más información sobre los costos en tabla de tarifas de capacidad de AI Builder.

Disponibilidad de modelos por región

Las siguientes secciones describen la disponibilidad pública y del gobierno de EE. UU. de modelos por región.

Disponibilidad pública

En la tabla siguiente (GA), (versión preliminar), o (Experimental), entre paréntesis, significa que la característica está disponible pero usa un servicio OpenAI Azure en otra región. Obtenga más información sobre cómo habilitar el movimiento de datos entre regiones.

Característica Asia Australia Canadá Europa Francia Alemania India Japón Noruega Singapur Sudáfrica Sudamérica Corea Suecia Suiza Emiratos Árabes Unidos Reino Unido Estados Unidos
GPT-4.1 mini GA GA (GA) (GA) (GA) (GA) GA (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) GA GA
GPT-4.1 GA GA (GA) (GA) (GA) (GA) GA (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) GA GA
Chat de GPT-5 (GA) (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
GPT-5 razonamiento (GA) (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
Chat GPT-5.2 - - - - - - - - - - - - - - - - - Experimental
Razonamiento de GPT-5.2 - - - - - - - - - - - - - - - - - Experimental
Claude Soneto 4.5 - Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental
Claude Opus 4.5 - Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental Experimental

Disponibilidad del Gobierno de EE. UU.

Característica Nube Comunitaria Gubernamental (GCC) Nube Comunitaria Gubernamental - Alto (GCC High) Departamento de Defensa (DoD)
GPT-4o mini GA GA -
GPT-4o GA GA -
GPT-4o utilizando imagen o documento como entrada - - -

Actualizaciones de modelos

Modelo Estado Fecha de retirada Reemplazo
GPT-4.1 mini Disponible en general Todavía no hay fecha n/d
GPT-4.1 Disponible en general Todavía no hay fecha n/d
Chat de GPT-5 Disponible en general Todavía no hay fecha n/d
GPT-5 razonamiento Disponible en general Todavía no hay fecha n/d
Chat GPT-5.2 Experimental Todavía no hay fecha n/d
Razonamiento de GPT-5.2 Experimental Todavía no hay fecha n/d
Claude Soneto 4.5 Experimental Todavía no hay fecha n/d
Claude Opus 4.5 Experimental Todavía no hay fecha n/d
Claude Opus 4.1 Experimental Febrero de 2026 Claude Opus 4.5
o3 Retirado 4 de diciembre de 2025 GPT-5 razonamiento
GPT-4o mini Retirado Julio de 2025 GPT-4.1 mini
GPT-4o Retirado Julio de 2025 GPT-4.1
o1 Retirado Julio de 2025 o3

Configuración del modelo

Puedes acceder al panel de ajustes seleccionando los tres puntos (...) Ajustes en la parte superior del generador de prompts. También puede modificar las configuraciones siguientes:

  • Temperatura: las temperaturas más bajas conducen a resultados predecibles. Las temperaturas más altas permiten respuestas más diversas o creativas.
  • Recuperación de registros: Número de registros recuperados para sus fuentes de conocimiento.
  • Incluir vínculos en la respuesta: cuando se selecciona, la respuesta incluye citas de vínculos para los registros recuperados.
  • Habilitar intérprete de código: Cuando se selecciona, el intérprete de código para generar y ejecutar código está habilitado.
  • Nivel de moderación de contenido: El nivel más bajo genera más respuestas, pero puede contener contenido dañino. El nivel más alto de moderación de contenido aplica un filtro más estricto para restringir el contenido dañino y genera menos respuestas.

Temperatura

Establece la temperatura para el modelo de IA generativa usando el control deslizante. Varía entre 0 y 1. Este valor guía al modelo de IA generativa sobre cuánta creatividad (1) frente a la respuesta determinista (0) aporta.

Nota

La configuración de temperatura no está disponible para el modelo de razonamiento GPT-5. Por este motivo, el control deslizante se deshabilita al seleccionar el modelo de razonamiento GPT-5.

La temperatura es un parámetro que controla la aleatoriedad de la salida generada por el modelo de IA. Una temperatura más baja da como resultado resultados más predecibles y conservadores. En comparación, una temperatura más alta permite más creatividad y diversidad en las respuestas. Es una forma de afinar el equilibrio entre aleatoriedad y determinismo en la salida del modelo.

De forma predeterminada, la temperatura es 0, como en las indicaciones creadas anteriormente.

Temperatura Funcionalidad Usar en
0 Resultados más predecibles y conservadores.
Las respuestas son más coherentes.
Indicaciones que requieren alta precisión y menos variabilidad.
1 Más creatividad y diversidad en las respuestas.
Respuestas más variadas y a veces más innovadoras.
Indicaciones que crean contenido nuevo e innovador.

Ajustar la temperatura puede influir en la salida del modelo, pero no garantiza un resultado específico. Las respuestas de la IA son inherentemente probabilísticas y pueden variar con el mismo ajuste de temperatura.

Nivel de moderación de contenido

Establece el nivel de moderación de contenido para el prompt usando el control deslizante. Con un nivel de moderación más bajo, tu prompt puede proporcionar más respuestas. Sin embargo, el aumento de respuestas podría afectar la inclusión de contenido dañino (odio y justicia, sexual, violencia, autolesión) del prompt.

Nota

La configuración de nivel de moderación de contenido está disponible solo para modelos gestionados. Por este motivo, el control deslizante no está disponible al seleccionar modelos Anthropic o Fundición de IA de Azure.

Los niveles de moderación varían de Bajo a Alto. El nivel de moderación por defecto para los prompts es Moderado.

Una menor moderación aumenta el riesgo de contenido dañino en las respuestas de tu prompt. Una mayor moderación reduce ese riesgo, pero podría disminuir el número de respuestas.

Nivel de moderación de contenido Descripción Sugerencia de uso
Low Podría permitir contenido de odio y equidad, sexual, violencia o autolesiones que muestre instrucciones, acciones, daños o abusos explícitos y graves. Incluye el respaldo, glorificación o promoción de actos graves y dañinos, formas extremas o ilegales de daño, radicalización o intercambio o abuso de poder no consentido. Utilizar para prompts para el procesamiento de datos que podrían considerarse contenido dañino (por ejemplo, descripciones de violencia o procedimientos médicos).
Moderado Podría permitir contenido de odio y equidad, sexual, violencia o autolesión que utilice lenguaje ofensivo, insultante, burlón, intimidante o denigrante hacia grupos de identidad específicos. Incluye representaciones de búsqueda y ejecución de instrucciones dañinas, fantasías, glorificación y promoción del daño a intensidad media. Filtrado predeterminado. Adecuado para la mayoría de los usos.
High Podría permitir contenido de odio, falta de imparcialidad, sexual, violencia o autolesión que exprese opiniones prejuiciosas, juiciosas o parciales. Incluye uso ofensivo del lenguaje, estereotipos, casos de uso que exploran un mundo ficticio (por ejemplo, videojuegos, literatura) y representaciones de baja intensidad. Úsalo si necesitas más filtrado, más restrictivo que el nivel Moderado.

Para anular la configuración de moderación de contenido del agente cuando uses el indicador en un agente, configura la opción Después de ejecutar en la pantalla de finalización de la herramienta de indicación a Enviar respuesta específica. El mensaje a mostrar debe contener la variable personalizada Output.predictionOutput.text .

Captura de pantalla de la pantalla de 'Finalización' con la opción 'Enviar respuesta específica'.