Compartir a través de


Descripción general de indicaciones

En este artículo se explican las indicaciones y la ingeniería de mensajes como conceptos clave para ayudarle a crear eficaces funcionalidades de inteligencia artificial generativas que se pueden usar en Copilot Studio.

Importante

  • Los mensajes usan modelos con tecnología de Azure Foundry.
  • Esta capacidad puede estar sujeta a límites de uso o limitación de capacidad.

Prerrequisitos

  • Su entorno está en la lista de regiones disponibles.
  • Necesita Créditos Copilot.
  • Microsoft Dataverse está instalado en el entorno.

¿Qué es un pronóstico?

Un prompt está compuesto principalmente por una instrucción en lenguaje natural que indica a un modelo de IA generativa que realice una tarea. El modelo sigue la pregunta para determinar la estructura y el contenido del texto que necesita generar. La ingeniería de preguntas es el proceso de crear y perfeccionar la pregunta que utiliza el modelo.

Una experiencia de creación de prompts permite a los creadores crear, probar y guardar prompts reutilizables. En esta experiencia, también puedes usar variables de entrada y datos de conocimiento para proporcionar datos de contexto dinámico en tiempo de ejecución. Puedes compartir estos prompts con otros y usarlos como agentes, flujos de trabajo o aplicaciones.

Estas indicaciones se pueden emplear para muchas tareas o escenarios comerciales, como resumir contenido, categorizar datos, extraer entidades, traducir idiomas, evaluar opiniones o formular una respuesta a una queja. Por ejemplo, podría hacer un aviso para seleccionar elementos de acción de los correos electrónicos de la empresa y usarlos en un flujo de trabajo de Power Automate para crear una automatización de procesamiento de correo electrónico.

Captura de pantalla del editor de avisos del generador de avisos

En Copilot Studio, las solicitudes se pueden usar como herramientas de agente para mejorar la experiencia de chat o habilitar automatizaciones avanzadas de inteligencia artificial o nodos de flujo de trabajo para infundir acciones de inteligencia artificial en automatizaciones deterministas.

Supervisión humana

La supervisión humana es un paso importante al trabajar con contenido generado a partir de un modelo de IA generativa. Estos modelos se entrenan con grandes cantidades de datos y pueden contener errores y sesgos. Un humano debe revisarlo antes de publicarlo en línea, enviarlo a un cliente o utilizarlo para informar una decisión comercial. La supervisión humana le ayuda a identificar posibles errores y sesgos. También se asegura de que el contenido sea relevante para el caso de uso previsto y se alinee con los valores de la empresa.

La revisión humana también puede ayudar a identificar cualquier problema con el propio modelo. Por ejemplo, si el modelo genera contenido que no es relevante para el caso de uso previsto, es posible que deba ajustar el mensaje.

Inteligencia artificial responsable

Estamos comprometidos a crear IA responsable por diseño. Nuestro trabajo está guiado por un conjunto básico de principios: equidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. Estamos poniendo en práctica estos principios en toda la empresa para desarrollar e implementar IA que tenga un impacto positivo en la sociedad. Adoptamos un enfoque integral, combinando investigación innovadora, ingeniería excepcional y gobierno responsable. Junto con la investigación líder de OpenAI sobre la alineación de la IA, estamos avanzando en un marco para la implementación segura de nuestras propias tecnologías de IA que tiene como objetivo ayudar a guiar a la industria hacia resultados más responsables.

Obtenga más información sobre la transparencia en la nota Transparency para Azure OpenAI.

  • Crear una indicación
  • Revisión humana para automatización con un mensaje