Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Importante
En esta página se incluyen instrucciones para administrar componentes de Azure IoT Operations mediante manifiestos de implementación de Kubernetes, que se encuentra en versión preliminar. Esta característica se proporciona con varias limitaciones y no debe usarse para cargas de trabajo de producción.
Consulte los términos Supplementales de uso para las versiones preliminares de Microsoft Azure para conocer los términos legales que se aplican a las características de Azure que se encuentran en versión beta, versión preliminar o, de lo contrario, aún no se han publicado en disponibilidad general.
Un flujo de datos es la trayectoria que los datos toman desde el origen hasta el destino con transformaciones opcionales. Puede configurar el flujo de datos mediante la creación de un recurso personalizado Data flow o utilizando la interfaz web de experiencia de operaciones. Un flujo de datos consta de tres partes: el origen, la transformación y el destino.
Para definir el origen y el destino de datos, debe configurar los puntos de conexión de flujo de datos. La transformación es opcional y puede incluir operaciones como enriquecer los datos, filtrar los datos y asignar los datos a otro campo.
Importante
Cada flujo de datos debe tener el punto de conexión predeterminado del agente MQTT local de Azure IoT Operations como ya sea el origen o el destino.
Puede usar la experiencia de operaciones en Azure IoT Operations para crear un data flow. La experiencia de operaciones proporciona una interfaz visual para configurar el data flow. También puede usar Bicep para crear un data flow mediante un archivo de Bicep o usar Kubernetes para crear un data flow mediante un archivo YAML.
Siga leyendo para aprender a configurar el origen, la transformación y el destino.
Requisitos previos
Puede implementar flujos de datos en cuanto tenga una instancia de Azure IoT Operations utilizando el perfil de flujo de datos y el punto de conexión predeterminados. Sin embargo, es posible que quiera configurar perfiles y puntos de conexión de flujo de datos para personalizar el flujo de datos.
perfil de flujo de datos
Si no necesita una configuración de escalado diferente para los flujos de datos, use el perfil de flujo de datos predeterminado proporcionado por Azure IoT Operations. Evite asociar demasiados flujos de datos con un único perfil de flujo de datos. Si tiene un gran número de flujos de datos, distribúyalos entre varios perfiles de flujo de datos para reducir el riesgo de superar el límite de tamaño de configuración de 70 para el perfil de flujo de datos.
Para obtener información sobre cómo configurar un nuevo perfil de data flow, consulte Perfiles de data flow.
Puntos de conexión de flujo de datos
Necesitas puntos de conexión de flujo de datos para configurar el origen y el destino del flujo de datos. Para comenzar rápidamente, use el punto de conexión de flujo de datos predeterminado para el agente MQTT local. También puede crear otros tipos de puntos de conexión de data flow, como Kafka, Event Hubs, OpenTelemetry o Azure Data Lake Storage. Para obtener más información, consulte Configurar puntos de conexión de flujo de datos.
Comienza
Cuando tenga los requisitos previos, puede empezar a crear un data flow.
Para crear un data flow en operations experience, seleccione Data flow>Crear data flow.
Seleccione el marcador de posición new-data-flow para establecer las propiedades del flujo de datos. Escriba el nombre del data flow y elija el perfil de data flow que se va a usar. El perfil de flujo de datos predeterminado está seleccionado de forma predeterminada. Para obtener más información sobre los perfiles de data flow, consulte Configure data flow profile.
Importante
Solo puedes elegir el perfil del flujo de datos al crear un flujo de datos. No se puede cambiar el perfil de flujo de datos después de que el flujo de datos ha sido creado. Si desea cambiar el perfil de data flow de un data flow existente, elimine el data flow original y cree uno nuevo con el nuevo perfil de data flow.
Configure el punto de conexión de origen, transformación y destino para el flujo de datos seleccionando los elementos del diagrama de flujo de datos.
Revise las secciones siguientes para obtener información sobre cómo configurar los tipos de operación del data flow.
Origen
Para configurar un origen para el data flow, especifique la referencia del punto de conexión y una lista de orígenes de datos para el punto de conexión. Elija una de las siguientes opciones como origen del data flow.
Si no usa el punto de conexión predeterminado como origen, debe usarlo como destino. Para obtener más información sobre el uso del punto de conexión del agente MQTT local, consulte Flujos de datos deben usar el punto de conexión del agente MQTT local.
Opción 1: usar el punto de conexión predeterminado del agente de mensajes como origen
En Detalles del origen, seleccione Agente de mensajes.
Escriba la siguiente configuración para el origen del agente de mensajes:
Configuración Descripción punto de conexión de flujo de datos Seleccione Predeterminado para usar el punto de conexión predeterminado del agente de mensajes de MQTT. Tema Filtro de tema al que suscribirse para los mensajes entrantes. Use Temas>Agregar una fila para agregar varios temas. Para obtener más información sobre los temas, consulte Configuración de MQTT o Temas de Kafka. Esquema de los mensajes Esquema que se va a usar para deserializar los mensajes entrantes. Consulte Especificación del esquema para deserializar datos. Seleccione Aplicar.
Dado que dataSources acepta temas de MQTT o Kafka sin modificar la configuración del punto de conexión, puede reutilizar el punto de conexión para varios flujos de datos incluso si los temas son diferentes. Para más información, consulte Configuración de orígenes de datos.
Opción 2: Usar el recurso como origen
Puede usar un asset como origen del data flow. Puede usar un recurso como fuente solo en la experiencia de operaciones.
En Detalles del origen, seleccione Recurso.
Seleccione el recurso que desea usar como punto de conexión de origen.
Seleccione Continuar.
Se muestra una lista de puntos de datos para el recurso seleccionado.
Seleccione Aplicar para usar el recurso como punto de conexión de origen.
Cuando se usa un recurso como origen, la definición del recurso proporciona el esquema para el data flow. La definición del recurso incluye el esquema de los puntos de datos del recurso. Para obtener más información, consulte Administración de configuraciones de recursos de forma remota.
Después de configurar el origen, los datos del recurso llegan al flujo de datos a través del agente MQTT local. Por lo tanto, cuando se usa un recurso como origen, el data flow usa el punto de conexión predeterminado del agente MQTT local como origen.
Opción 3: Utilizar un punto de conexión personalizado de flujo de datos MQTT o Kafka como origen
Si ha creado un punto de conexión de flujo de datos MQTT o Kafka personalizado (por ejemplo, para usar con Event Grid o Event Hubs), puede usarlo como origen para el flujo de datos. Recuerda que los puntos de conexión de tipo de almacenamiento, como Data Lake o Fabric OneLake, no se pueden usar como origen.
En Detalles del origen, seleccione Agente de mensajes.
Escriba la siguiente configuración para el origen del agente de mensajes:
Configuración Descripción punto de conexión de flujo de datos Use el botón Reselect para seleccionar un punto de conexión personalizado de MQTT o Kafka data flow. Para obtener más información, consulte Configurar los puntos de conexión de flujo de datos MQTT o Configurar Azure Event Hubs y los puntos de conexión de flujo de datos Kafka. Tema Filtro de tema al que suscribirse para los mensajes entrantes. Use Temas>Agregar una fila para agregar varios temas. Para obtener más información sobre los temas, consulte Configuración de MQTT o Temas de Kafka. Esquema de los mensajes Esquema que se va a usar para deserializar los mensajes entrantes. Consulte Especificación del esquema para deserializar datos. Seleccione Aplicar.
Configurar orígenes de datos (temas MQTT o Kafka)
Puede especificar múltiples tópicos de MQTT o Kafka en una fuente de datos sin necesidad de modificar la configuración del punto de conexión del flujo de datos. Esta flexibilidad significa que puede reutilizar el mismo punto de conexión en varios flujos de datos, incluso si los temas varían. Para obtener más información, consulte Reutilizar puntos finales de flujo de datos.
Temas de MQTT
Cuando la fuente sea un punto de conexión MQTT (incluida Event Grid), use el filtro de temas MQTT para suscribirse a los mensajes entrantes. El filtro de tema puede incluir caracteres comodín para suscribirse a varios temas. Por ejemplo, thermostats/+/sensor/temperature/# se suscribe a todos los mensajes de los sensores de temperatura de los termostatos. Para configurar los filtros del tema MQTT:
En el flujo de datos de la experiencia de operaciones Source details, seleccione Message broker y use el campo Topic(s) para especificar los filtros de tópicos MQTT a los que suscribirse de los mensajes entrantes. Para agregar varios temas mqTT, seleccione Agregar fila y escriba un nuevo tema.
Suscripciones compartidas
Para usar suscripciones compartidas con fuentes de intermediario de mensajes, especifique el tema de suscripción compartida en el formato $shared/<GROUP_NAME>/<TOPIC_FILTER>.
En el flujo de datos de experiencia en operaciones Source details, seleccione Message broker y use el campo Topic para especificar el grupo de suscripciones compartido y el tópico.
Si el recuento de instancias en el perfil de data flow es mayor que uno, la suscripción compartida se habilita automáticamente para todos los flujos de datos que usan un origen de agente de mensajes. En este caso, se agrega el prefijo $shared y el nombre del grupo de suscripciones compartido se genera automáticamente. Por ejemplo, si tiene un perfil de flujo de datos con un recuento de instancias de 3, y el flujo de datos usa un punto de conexión de un intermediario de mensajes como origen configurado en los temas topic1 y topic2, se convierten automáticamente en suscripciones compartidas como $shared/<GENERATED_GROUP_NAME>/topic1 y $shared/<GENERATED_GROUP_NAME>/topic2.
Puede crear explícitamente un tema denominado $shared/mygroup/topic en la configuración. Sin embargo, no se recomienda agregar explícitamente el tema de $shared, ya que el prefijo $shared se agrega automáticamente cuando es necesario. Los flujos de datos pueden realizar optimizaciones con el nombre del grupo si no se establece. Por ejemplo, no se establece $share y los flujos de datos solo tienen que funcionar sobre el nombre del tema.
Importante
Las suscripciones compartidas son importantes para los flujos de datos cuando el recuento de instancias es mayor que uno y usa el agente MQTT de Event Grid como origen, ya que no admite suscripciones compartidas. Para evitar que falten mensajes, establezca el recuento de instancias del perfil de flujo de datos en uno al usar Event Grid MQTT broker como fuente. Es cuando el flujo de datos es el suscriptor y recibe mensajes desde la nube.
Temas de Kafka
Cuando el origen es un punto de conexión Kafka (Event Hubs incluido), especifique los temas individuales de Kafka a los que suscribirse para los mensajes entrantes. No se admiten caracteres comodín, por lo que debe especificar cada tema estáticamente.
Nota
Cuando se usa Event Hubs a través del punto de conexión Kafka, cada centro de eventos individual dentro del espacio de nombres es el tema de Kafka. Por ejemplo, si tiene un espacio de nombres de Event Hubs con dos centros de eventos, thermostats y humidifiers, puede especificar cada centro de eventos como tema de Kafka.
Para configurar los temas de Kafka:
En el flujo de datos de la experiencia de operaciones Source details, seleccione Message broker, y luego use el campo Topic para especificar el filtro de tema de Kafka para suscribirse a los mensajes entrantes.
Nota
Solo puede especificar un filtro de tema en la experiencia de operaciones. Para usar varios filtros de tema, use Bicep o Kubernetes.
Especificación del esquema de origen
Al usar MQTT o Kafka como origen, puede especificar un esquema para mostrar la lista de puntos de datos en la interfaz de usuario web de la experiencia de operaciones. El uso de un esquema para deserializar y validar los mensajes entrantes no se admite actualmente.
Si el origen es un recurso, el portal deduce automáticamente el esquema de la definición del recurso.
Sugerencia
Para generar el esquema a partir de un archivo de datos de ejemplo, use el Schema Gen Helper.
Para configurar el esquema usado para deserializar los mensajes entrantes de un origen:
En el flujo de datos de la experiencia de operaciones Source details, seleccione Message broker y use el campo Message schema para especificar el esquema. Seleccione Cargar para cargar un archivo de esquema. Para obtener más información, consulte Descripción de los esquemas de mensajes.
Para obtener más información, consulte Descripción de los esquemas de mensajes.
Solicitud de persistencia de disco
La solicitud de persistencia en disco permite que los flujos de datos mantengan el estado entre reinicios. Al habilitar esta característica, el grafo recupera el estado de procesamiento si el corredor conectado se reinicia. Esta característica es útil para escenarios de procesamiento con estado en los que la pérdida de datos intermedios es un problema. Al habilitar la persistencia del disco de solicitud, el agente conserva los datos MQTT, como los mensajes de la cola del suscriptor, en el disco. Este enfoque garantiza que la fuente de datos del flujo de datos no pierda datos durante los cortes de energía ni los reinicios del intermediario. El intermediario mantiene un rendimiento óptimo porque la persistencia se configura por flujo de datos, de modo que solo los flujos de datos que requieren persistencia emplean esta funcionalidad.
El gráfico de data flow solicita esta persistencia durante la suscripción mediante una propiedad de usuario MQTTv5. Esta característica solo funciona cuando:
- El flujo de datos usa el servidor o el recurso MQTT como origen
- El corredor MQTT tiene la persistencia habilitada con el modo de persistencia dinámica establecido en
Enabledpara el tipo de datos, como las colas de suscriptores
Esta configuración permite a los clientes MQTT, como flujos de datos, solicitar persistencia en disco para sus suscripciones mediante las propiedades de usuario MQTTv5. Para obtener más información sobre la configuración de persistencia del corredor MQTT, consulte Configuración de la persistencia del corredor MQTT .
La configuración acepta Enabled o Disabled.
Disabled es el valor predeterminado.
Al crear o editar un data flow, seleccione Edit y, a continuación, seleccione Yes junto a Request data persistence.
Transformación
La operación de transformación es donde se transforman los datos del origen antes de enviarlos al destino. Las transformaciones son opcionales. Si no necesita realizar cambios en los datos, no incluya la operación de transformación en la configuración de data flow. Varias transformaciones se encadenan en fases independientemente del orden en el que se especifiquen en la configuración. El orden de las fases siempre es:
- Enriquecer: Añada más datos a los datos fuente, dado un conjunto de datos y una condición que coincida.
- Filtrar: filtre los datos en función de una condición.
- Asignar, Proceso, Cambiar nombreo agregar una Nueva propiedad: Mover datos de un campo a otro con una conversión opcional.
Esta sección es una introducción a las transformaciones de data flow. Para obtener información más detallada, consulte Mapear datos mediante flujos de datos, Convertir datos mediante conversiones de flujos de datos y Enriquecer datos mediante flujos de datos.
En la experiencia de operaciones, seleccione Data flow>Agregar transformación (opcional).
Enriquecimiento: adición de datos de referencia
Para enriquecer los datos, agregue primero un conjunto de datos de referencia en el almacén Azure IoT Operations state. El conjunto de datos agrega datos adicionales a los datos de origen en función de una condición. La condición se especifica como un campo en los datos de origen que coincide con un campo del conjunto de datos.
Puede cargar datos de muestra en el almacén de estado mediante el state store CLI. Los nombres de clave del almacenamiento de estado corresponden a un conjunto de datos en la configuración de flujo de datos.
Actualmente, la fase de Enriquecer no se admite en la experiencia de operaciones.
Si el conjunto de datos tiene un registro con el campo asset, similar a:
{
"asset": "thermostat1",
"location": "room1",
"manufacturer": "Contoso"
}
Los datos del origen con el campo deviceId que coincide con thermostat1 tienen los campos location y manufacturer disponibles en las fases de filtro y mapa.
Para más información sobre la sintaxis de las condiciones, consulte Enriquecimiento de datos mediante flujos de datos y Conversión de datos mediante flujos de datos.
Filtro: Filtrar datos en función de una condición
Para filtrar los datos según una condición, use la filter etapa. Especifique la condición como un campo en los datos de origen que coincidan con un valor.
En Transformar (opcional), seleccione Filtrar>Agregar.
Escriba la configuración necesaria.
Configuración Descripción Condición de filtro Condición para filtrar los datos en función de un campo de los datos de origen. Descripción Proporcione una descripción para la condición de filtro. En el campo condición de filtro, escriba
@o seleccione Ctrl + Espacio para elegir puntos de datos en una lista desplegable.Escriba las propiedades de metadatos de MQTT mediante el formato
@$metadata.user_properties.<property>o@$metadata.topic. Ingrese los encabezados de $metadata utilizando el formato@$metadata.<header>. La sintaxis$metadatasolo es necesaria para las propiedades MQTT que forman parte del encabezado del mensaje. Para más información, consulte las referencias de campo.La condición puede usar los campos de los datos de origen. Por ejemplo, use una condición de filtro como
@temperature > 20para filtrar datos menores o iguales que 20 en función del campo de temperatura.Seleccione Aplicar.
Asignación: mover datos de un campo a otro
Para asignar los datos a otro campo con conversión opcional, use la map operación . Especifique la conversión como una fórmula que use los campos de los datos de origen.
En la experiencia de operaciones, actualmente puede asignar datos utilizando las transformaciones Proceso, Cambiar nombre y Nueva propiedad.
Proceso
Utilice la transformación Calcular para aplicar una fórmula a los datos de origen. Esta operación aplica una fórmula a los datos de origen y almacena el resultado en un campo.
En Transformar (opcional), seleccione Compute>Agregar.
Escriba la configuración necesaria.
Configuración Descripción Seleccionar fórmula Elija una fórmula existente en la lista desplegable o seleccione Personalizar para escribir una fórmula manualmente. Salida Especifique el nombre para mostrar de la salida para el resultado. Fórmula Escriba la fórmula que se va a aplicar a los datos de origen. Descripción Proporcione una descripción para la transformación. Último valor conocido Opcionalmente, use el último valor conocido si el valor actual no está disponible. Escriba o edite una fórmula en el campo Fórmula . La fórmula puede usar los campos de los datos de origen. Escriba
@o seleccione Ctrl + Espacio para elegir puntos de datos en una lista desplegable. Para las fórmulas integradas, seleccione el marcador de posición<dataflow>para ver la lista de puntos de datos disponibles.Escriba las propiedades de metadatos de MQTT mediante el formato
@$metadata.user_properties.<property>o@$metadata.topic. Ingrese los encabezados de $metadata utilizando el formato@$metadata.<header>. La sintaxis$metadatasolo es necesaria para las propiedades MQTT que forman parte del encabezado del mensaje. Para más información, consulte las referencias de campo.La fórmula puede usar los campos de los datos de origen. Por ejemplo, podría usar el campo
temperatureen los datos de origen para convertir la temperatura a Celsius y almacenarla en el campo de salidatemperatureCelsius.Seleccione Aplicar.
Cambiar nombre
Use la transformación Cambiar nombre para cambiar el nombre de un punto de datos. Esta operación cambia el nombre de un punto de datos de los datos de origen a un nuevo nombre. Usa el nuevo nombre en las fases posteriores del flujo de datos.
En Transformar (opcional), seleccione Cambiar nombre>Agregar.
Escriba la configuración necesaria.
Configuración Descripción Punto de datos Seleccione un punto de datos en la lista desplegable o escriba un encabezado $metadata. Nuevo nombre de punto de datos Escriba el nuevo nombre para el punto de datos. Descripción Proporcione una descripción para la transformación. Escriba las propiedades de metadatos de MQTT mediante el formato
@$metadata.user_properties.<property>o@$metadata.topic. Ingrese los encabezados de $metadata utilizando el formato@$metadata.<header>. La sintaxis$metadatasolo es necesaria para las propiedades MQTT que forman parte del encabezado del mensaje. Para más información, consulte las referencias de campo.Seleccione Aplicar.
Propiedad nueva
Use la transformación Nueva propiedad para agregar una nueva propiedad a los datos de origen. Esta operación agrega una nueva propiedad a los datos de origen. Utilice la nueva propiedad en las etapas posteriores del flujo de datos.
En Transformar (opcional), seleccione Nueva propiedad>Agregar.
Escriba la configuración necesaria.
Configuración Descripción Clave de propiedad Escriba la clave de la nueva propiedad. Valor de propiedad Escriba el valor de la nueva propiedad. Descripción Proporcione una descripción para la nueva propiedad. Seleccione Aplicar.
Para más información, consulte Asignación de datos mediante flujos de datos y Convertir datos mediante flujos de datos.
Eliminar
De forma predeterminada, el esquema de salida incluye todos los puntos de datos. Quite cualquier punto de datos del destino mediante la transformación Quitar .
En Transformar (opcional), seleccione Quitar.
Seleccione el punto de datos que se va a quitar del esquema de salida.
Seleccione Aplicar.
Para más información, consulte Asignación de datos mediante flujos de datos y Convertir datos mediante flujos de datos.
Serializar datos según un esquema
Si desea serializar los datos antes de enviarlos al destino, especifique un esquema y un formato de serialización. De lo contrario, el sistema serializa los datos en JSON con los tipos inferidos. Los puntos de conexión de almacenamiento, como Microsoft Fabric o Azure Data Lake, requieren un esquema para asegurar la consistencia de los datos. Los formatos de serialización admitidos son Parquet y Delta.
Sugerencia
Para generar el esquema a partir de un archivo de datos de ejemplo, use el Schema Gen Helper.
Para la experiencia de Operaciones, especifique el esquema y el formato de serialización en los detalles del punto de conexión de flujo de datos. Los puntos de conexión que admiten formatos de serialización son Microsoft Fabric OneLake, Azure Data Lake Storage Gen 2, Azure Data Explorer y storage locales. Por ejemplo, para serializar los datos en formato Delta, cargue un esquema en el registro de esquemas y haga referencia a él en la configuración del punto de conexión de destino de data flow.
Para obtener más información sobre el registro de esquemas, consulte Comprender los esquemas de mensajes.
Destino
Para configurar un destino para el data flow, especifique la referencia del punto de conexión y el destino de datos. Puede especificar una lista de destinos de datos para el punto de conexión.
Para enviar datos a un destino distinto del broker MQTT local, cree un punto de conexión de flujo de datos. Para obtener información sobre cómo hacerlo, consulte Configurar puntos de conexión de flujo de datos. Si el destino no es el agente MQTT local, debe ser el origen. Para más información sobre el uso del punto de conexión del agente MQTT local, consulte Flujos de datos deben usar el punto de conexión de agente MQTT local.
Importante
los puntos de conexión de Storage requieren un schema para la serialización. Para usar data flow con Microsoft Fabric OneLake, Azure Data Lake Storage, Azure Data Explorer o Local Storage, debe especificar una referencia de esquema.
Seleccione el punto de conexión del flujo de datos que se usará como destino.
los puntos de conexión de Storage requieren un schema para la serialización. Si elige un punto de conexión de destino de Microsoft Fabric OneLake, Azure Data Lake Storage, Azure Data Explorer o Local Storage, debe especificar una referencia de esquema. Por ejemplo, para serializar los datos en un punto de conexión de Microsoft Fabric en formato Delta, debe cargar un esquema en el registro de esquemas y hacer referencia a este en la configuración del punto de conexión de destino del flujo de datos.
Seleccione Continuar para configurar el destino.
Escriba la configuración necesaria para el destino, incluido el tema o la tabla a los que enviar los datos. Consulte Configurar destino de datos (tema, contenedor o tabla) para obtener más información.
Configurar el destino de datos (tema, contenedor o tabla)
Al igual que los orígenes de datos, utilice los destinos de datos para que los endpoints del flujo de datos sean reutilizables en varios flujos de datos. Un destino de datos representa el subdirectorio en la configuración del punto de conexión del flujo de datos. Por ejemplo, si el punto de conexión del flujo de datos es un punto final de almacenamiento, el destino de los datos es la tabla en la cuenta de almacenamiento. Si el punto de conexión de flujo de datos es un punto de conexión de Kafka, el destino de datos es el tópico de Kafka.
| Tipo de punto de conexión | Significado del destino de datos | Descripción |
|---|---|---|
| MQTT (o Event Grid) | Tema | El tema MQTT donde se envían los datos. Admite traducción de temas estáticos y de temas dinámicos mediante variables como ${inputTopic} y ${inputTopic.index}. Para obtener más información, vea Temas de destino dinámicos. |
| Kafka (o Event Hubs) | Tema | Tema de Kafka donde se envían los datos. Solo se admiten temas estáticos, sin caracteres comodín. Si el punto de conexión es un espacio de nombres de Event Hubs, el destino de datos es el centro de eventos individual dentro del espacio de nombres. |
| Azure Data Lake Storage | Contenedor | Contenedor de la cuenta de almacenamiento. No la tabla. |
| Microsoft Fabric OneLake | Tabla o carpeta | Corresponde al tipo de ruta de acceso para el punto de conexión configurado. |
| Azure Data Explorer | Tabla | Tabla de la base de datos de Azure Data Explorer. |
| Almacenamiento local | Carpeta | Nombre de carpeta o directorio en el volumen de almacenamiento persistente local. Al usar Azure Container Storage habilitado por Azure Arc Cloud Ingest Edge Volumes, este valor debe coincidir con el parámetro spec.path para el subvolumen que usted creó. |
| OpenTelemetry | Tema | Tema de OpenTelemetry donde se envían los datos. Solo se admiten temas estáticos. |
Para configurar el destino de datos:
Cuando se usa la experiencia de operaciones, interpreta automáticamente el campo de destino de datos en función del tipo de punto de conexión. Por ejemplo, si el punto de conexión de flujo de datos es un punto de conexión de almacenamiento, la página de detalles del destino le pedirá que escriba el nombre del contenedor. Si el punto de conexión del flujo de datos es un punto de conexión MQTT, la página de detalles de destino le solicitará que introduzca el tema, etc.
Temas de destino dinámicos
En el caso de los puntos de conexión MQTT, use variables de tema dinámicos en el dataDestination campo para enrutar mensajes en función de la estructura del tema de origen. Están disponibles las siguientes variables:
-
${inputTopic}: El tema de entrada original completo -
${inputTopic.index}: un segmento del tema de entrada (el índice comienza en 1)
Por ejemplo, processed/factory/${inputTopic.2} enruta los mensajes de factory/1/data a processed/factory/1. Los segmentos temáticos se indexan con el número 1 y se ignoran las barras inclinadas iniciales o finales.
Si no se puede resolver una variable de tema (por ejemplo, ${inputTopic.5} cuando el tema de entrada solo tiene tres segmentos), se quita el mensaje y se registra una advertencia. Los caracteres comodín (# y +) no se permiten en los temas de destino.
Nota
Los caracteres $, { y } son válidos en los nombres de temas MQTT, por lo que un tema como factory/$inputTopic.2 es aceptable pero incorrecto si pretende usar la variable de tema dinámico.
Ejemplo
El ejemplo siguiente es una configuración de data flow que usa el punto de conexión MQTT para el origen y el destino. El origen filtra los datos del tema MQTT azure-iot-operations/data/thermostat. La transformación convierte la temperatura a Fahrenheit y filtra los datos donde la temperatura multiplicada por la humedad sea inferior a 100 000. El destino envía los datos al tema MQTT factory.
Para ver más ejemplos de configuraciones de data flow, consulte Azure API REST: Data flow y la quickstart Bicep.
Verificar que un flujo de datos funcione
Para comprobar que el data flow funciona, siga Tutorial: puente MQTT bidireccional a Azure Event Grid.
Exportación de la configuración del flujo de datos
Para exportar la configuración del flujo de datos, use la interfaz de operaciones o exporte el recurso personalizado del flujo de datos.
Seleccione el data flow que desea exportar y, a continuación, seleccione Export en la barra de herramientas.
Configuración adecuada del flujo de datos
Para asegurarse de que el data flow funciona según lo previsto, compruebe las condiciones siguientes:
- El punto de conexión predeterminado de flujo de datos MQTT debe ser utilizado como origen o destino.
- El perfil de flujo de datos existe y se menciona en la configuración del flujo de datos.
- El origen es un punto de conexión MQTT, un punto de conexión de Kafka o un recurso. No se pueden usar puntos de conexión de tipo de almacenamiento como origen.
- Cuando se usa Event Grid como origen, se establece el recuento de instancias de perfil de flujo de datos en 1 porque el agente MQTT de Event Grid no admite suscripciones compartidas.
- Cuando se usa Event Hubs como origen, cada centro de eventos del espacio de nombres es un tema de Kafka independiente y debe especificar cada uno como origen de datos.
- La transformación, si se usa, se configura con la sintaxis correcta, incluida la secuencia de caracteres de escape apropiada en los caracteres especiales.
- Cuando se usan puntos de conexión de tipo storage como destino, se especifica un schema.
- Al usar temas de destino dinámicos para puntos de conexión MQTT, asegúrese de que las variables de tema hacen referencia a segmentos válidos.