Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Le attività di Azure Stream Analytics si connettono a uno o più flussi di dati. Ogni input definisce una connessione a un'origine dati esistente. Stream Analytics accetta i dati in ingresso da diversi tipi di origini eventi, tra cui Event Hubs, IoT Hub e archiviazione Blob. Gli input sono referenziati per nome nella query SQL streaming scritta per ogni processo. Nella query è possibile unire più input per combinare dati o confrontare i dati di streaming con una ricerca ai dati di riferimento e passare i risultati agli output.
Analisi di flusso offre un'integrazione di prima classe con quattro tipi di risorse come input:
- Azure Event Hubs
- Azure IoT Hub
- Azure Blob di archiviazione
- Azure Data Lake Storage Gen2
- Apache Kafka
Queste risorse di input possono trovarsi nella stessa sottoscrizione Azure del processo Stream Analytics o da una sottoscrizione differente.
È possibile usare il portale AzureAzure PowerShell, .NET API, REST API, Visual Studio e Visual Studio Code per creare, modificare e testare Stream Input del processo di analisi.
Annotazioni
È consigliabile usare Stream Analytics tools for Visual Studio Code per un'esperienza di sviluppo locale ottimale. Esistono lacune nelle funzionalità note negli strumenti di Analisi di flusso per Visual Studio 2019 (versione 2.6.3000.0) e non verrà migliorata in futuro.
Flussi e input di riferimento
Quando sono inviati tramite push a un'origine, i dati vengono utilizzati dal processo di Analisi di flusso ed elaborati in tempo reale. Gli input sono suddivisi in due tipi:
- Input del flusso di dati
- Input di dati di riferimento.
Input del flusso di dati
Un flusso di dati è una sequenza illimitata di eventi nel tempo. I processi di Stream Analytics devono includere almeno un flusso di dati in ingresso. Hub eventi, IoT Hub, Azure Data Lake Storage Gen2 e Archiviazione BLOB sono supportati come origini di input del flusso di dati. Hub eventi viene usato per raccogliere flussi di eventi da più dispositivi e servizi. Questi flussi possono includere feed di attività sui social media, informazioni sul commercio azionario o dati provenienti da sensori. Gli hub IoT sono ottimizzati per raccogliere dati dai dispositivi connessi in scenari di Internet delle cose (IoT). L'archiviazione BLOB può essere utilizzata come origine di input per l'ingestione di dati in blocco come flusso, ad esempio i file di log.
Per altre informazioni sugli input dei dati di streaming, vedere Trasmettere i dati come input in Analisi di flusso.
Input dei dati di riferimento
Analisi di flusso supporta anche l'input noto come dati di riferimento. I dati di riferimento sono completamente statici o cambiano lentamente. Viene in genere usato per eseguire correlazioni e ricerche. Ad esempio, è possibile unire i dati nell'input del flusso di dati ai dati dei dati di riferimento, in modo da eseguire un join SQL per cercare valori statici. Archiviazione BLOB di Azure, Azure Data Lake Storage Gen2 e Azure SQL Database sono attualmente supportati come origini di input per i dati di riferimento. I blob di origine dati di riferimento hanno un limite di dimensioni massime di 300 MB, in base alla complessità delle query e delle Unità di Streaming assegnate. Per altre informazioni, vedere la sezione Limitazione delle dimensioni della documentazione dei dati di riferimento.
Per altre informazioni sugli input dei dati di riferimento, vedere Uso dei dati di riferimento per le ricerche in Analisi di flusso.