Condividi tramite


Ambienti di calcolo supportati da Azure Data Factory e Synapse pipelines

APPLIES TO: Azure Data Factory Azure Synapse Analytics

Tip

Provare Data Factory in Microsoft Fabric, una soluzione di analisi completa per le aziende. Microsoft Fabric copre tutti gli elementi, dallo spostamento dei dati all'analisi scientifica dei dati, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Vedere le informazioni su come iniziare una nuova prova gratuita.

Important

Il supporto per Azure Machine Learning Studio (versione classica) terminerà il 31 agosto 2024. È consigliabile passare a Azure Machine Learning entro tale data.

A partire dal 1° dicembre 2021, non è possibile creare nuove risorse di Machine Learning Studio (versione classica) (area di lavoro e piano di servizio Web). Fino al 31 agosto 2024, è possibile continuare a usare gli esperimenti e i servizi Web esistenti di Machine Learning Studio (versione classica). Per altre informazioni, vedere:

Machine Learning Studio (versione classica) è in fase di ritiro e potrebbe non essere aggiornato in futuro.

Questo articolo spiega i diversi ambienti di calcolo che è possibile utilizzare per elaborare o una trasformare dati. Fornisce inoltre informazioni dettagliate sulle diverse configurazioni (on-demand e bring your own) supportate durante la configurazione di servizi collegati che collegano questi ambienti.

La seguente tabella presenta un elenco degli ambienti di calcolo supportati e le attività eseguibili in tali ambienti.

Ambiente di calcolo Activities
Cluster HDInsight su richiesta o il proprio cluster HDInsight Hive, Pig, Spark, MapReduce, Hadoop Streaming
Azure Batch Custom
Azure Machine Learning Studio (versione classica) Attività di Studio di Azure Machine Learning (versione classica): esecuzione batch e aggiornamento risorse
Azure Machine Learning Esecuzione della pipeline di Azure Machine Learning
Azure Data Lake Analytics Data Lake Analytics U-SQL
Azure SQL, Azure Synapse Analytics, SQL Server Procedura Memorizzata
Azure Databricks Notebook, Jar, Python
Azure Synapse Analytics (Artifacts) Attività di Synapse Notebook, definizione del processo Synapse Spark
Funzione Azure Attività della funzione Azure

Ambiente di calcolo di HDInsight

Consultare la tabella seguente per informazioni dettagliate sui tipi di servizio di archiviazione collegati supportati per la configurazione nell'ambiente on-demand e BYOC (Bring your own compute).

Servizi collegati di calcolo Nome della proprietà Description Blob ADLS Gen2 Azure SQL DB ADLS Gen 1
On-demand linkedServiceName Azure Storage servizio collegato da usare dal cluster su richiesta per l'archiviazione e l'elaborazione dei dati. Yes Yes No No
additionalLinkedServiceNames Specifica altri account storage per il servizio collegato HDInsight in modo che il servizio possa registrarli per conto dell'utente. Yes No No No
hcatalogLinkedServiceName Il nome del servizio connesso di Azure SQL che punta al database HCatalog. Il cluster HDInsight su richiesta viene creato usando il Azure SQL database come metastore. No No Yes No
BYOC linkedServiceName Riferimento al servizio collegato Azure Storage. Yes Yes No No
additionalLinkedServiceNames Specifica altri account storage per il servizio collegato HDInsight in modo che il servizio possa registrarli per conto dell'utente. No No No No
hcatalogLinkedServiceName Riferimento al servizio collegato Azure SQL che punta al database HCatalog. No No No No

Azure servizio collegato HDInsight su richiesta

In questo tipo di configurazione, l'ambiente informatico è completamente gestito dal servizio. Viene automaticamente creato dal servizio prima che un processo venga inviato per l’elaborazione dati e rimosso quando il processo viene completato. Gli utenti possono configurare e controllare le impostazioni granulari dell'ambiente di elaborazione su richiesta per l'esecuzione del processo, la gestione del cluster e azioni di avvio automatico.

Note

La configurazione su richiesta è attualmente supportata solo per i cluster HDInsight Azure. Azure Databricks supporta anche processi su richiesta usando cluster di processi. Per ulteriori informazioni, vedere servizio collegato di Azure Databricks.

Il servizio può creare automaticamente un cluster HDInsight su richiesta per elaborare i dati. Il cluster viene creato nella stessa area dell'account storage (proprietà linkedServiceName nel codice JSON) associato al cluster. L'account storage must è un account standard di Azure Storage per utilizzo generico.

Si notino i punti importanti seguenti sul servizio collegato HDInsight su richiesta:

  • Il cluster HDInsight su richiesta viene creato nella sottoscrizione Azure. È possibile visualizzare il cluster nel Azure portal quando il cluster è operativo.
  • I log per i processi eseguiti in un cluster HDInsight su richiesta vengono copiati nell'account storage associato al cluster HDInsight. ClusterUserName, clusterPassword, clusterSshUserName, clusterSshPassword definiti nella definizione del servizio collegato vengono usati per accedere al cluster per la risoluzione approfondita dei problemi durante il ciclo di vita del cluster.
  • Viene addebitato solo il tempo in cui il cluster HDInsight è attivo e i processi in esecuzione.
  • È possibile usare un'azione Script con il servizio collegato su richiesta di Azure HDInsight.

Important

In genere sono necessari 20 minuti o più per effettuare il provisioning di un cluster HDInsight Azure su richiesta.

Esempio di utilizzo della chiave dell'entità servizio

Il codice JSON seguente definisce un servizio collegato HDInsight su richiesta basato su Linux. Il servizio crea automaticamente un cluster HDInsight basato su Linux per elaborare l'attività richiesta.

{
  "name": "HDInsightOnDemandLinkedService",
  "properties": {
    "type": "HDInsightOnDemand",
    "typeProperties": {
      "clusterType": "hadoop",
      "clusterSize": 1,
      "timeToLive": "00:15:00",
      "hostSubscriptionId": "<subscription ID>",
      "servicePrincipalId": "<service principal ID>",
      "servicePrincipalKey": {
        "value": "<service principal key>",
        "type": "SecureString"
      },
      "tenant": "<tenant id>",
      "clusterResourceGroup": "<resource group name>",
      "clusterResourceGroupAuthType": "ServicePrincipalKey",
      "version": "3.6",
      "osType": "Linux",
      "linkedServiceName": {
        "referenceName": "AzureStorageLinkedService",
        "type": "LinkedServiceReference"
      }
    },
    "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
  }
}

Esempio di uso dell'identità gestita assegnata dal sistema

Il codice JSON seguente definisce un servizio collegato HDInsight su richiesta basato su Linux. Il servizio crea automaticamente un cluster HDInsight basato su Linux per elaborare l'attività richiesta.

{
  "name": "HDInsightOnDemandLinkedService",
  "properties": {
    "type": "HDInsightOnDemand",
    "typeProperties": {
      "clusterType": "hadoop",
      "clusterSize": 1,
      "timeToLive": "00:15:00",
      "hostSubscriptionId": "<subscription ID>",
      "clusterResourceGroup": "<resource group name>",
      "clusterResourceGroupAuthType": "SystemAssignedManagedIdentity",
      "version": "3.6",
      "osType": "Linux",
      "linkedServiceName": {
        "referenceName": "AzureStorageLinkedService",
        "type": "LinkedServiceReference"
      }
    },
    "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
  }
}

Esempio di uso dell'identità gestita assegnata dall'utente

Il codice JSON seguente definisce un servizio collegato HDInsight su richiesta basato su Linux. Il servizio crea automaticamente un cluster HDInsight basato su Linux per elaborare l'attività richiesta.

{
  "name": "HDInsightOnDemandLinkedService",
  "properties": {
    "type": "HDInsightOnDemand",
    "typeProperties": {
      "clusterType": "hadoop",
      "clusterSize": 1,
      "timeToLive": "00:15:00",
      "hostSubscriptionId": "<subscription ID>",
      "clusterResourceGroup": "<resource group name>",
      "clusterResourceGroupAuthType": "UserAssignedManagedIdentity",
      "credential": {
            "referenceName": "CredentialName",
            "type": "CredentialReference"
       },
      "version": "3.6",
      "osType": "Linux",
      "linkedServiceName": {
        "referenceName": "AzureStorageLinkedService",
        "type": "LinkedServiceReference"
      }
    },
    "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
  }
}

Important

Il cluster HDInsight crea un contenitore default nel blob storage specificato in JSON (linkedServiceName). HDInsight non elimina il contenitore quando viene eliminato il cluster. Questo comportamento dipende dalla progettazione. Con il servizio collegato HDInsight su richiesta, viene creato un cluster HDInsight ogni volta che è necessario elaborare una sezione, a meno che non sia presente un cluster live esistente (timeToLive) e venga eliminato al termine dell'elaborazione.

Man mano che vengono eseguite altre attività, nella Azure blob storage vengono visualizzati molti contenitori. Se non sono necessari per la risoluzione dei problemi dei processi, è possibile eliminarli per ridurre il costo storage. I nomi dei contenitori seguono il modello adf**yourfactoryorworkspacename**-**linkedservicename**-datetimestamp. Usare strumenti come Microsoft Azure Storage Explorer per eliminare i contenitori nel Azure blob storage.

Properties

Property Description Required
type La proprietà type deve essere impostata su HDInsightOnDemand. Yes
clusterSize Numero di nodi del ruolo di lavoro/nodi dati nel cluster. Il cluster HDInsight viene creato con 2 nodi head e il numero di nodi del ruolo di lavoro specificato per questa proprietà. I nodi sono di dimensione Standard_D3, con 4 core, quindi un cluster di 4 nodi del ruolo di lavoro ha 24 core, ossia 4*4 = 16 core per i nodi del ruolo di lavoro + 2*4 = 8 core per i nodi head. Per altre informazioni vedere Configurare i cluster di HDInsight con Hadoop, Spark, Kafka e altro ancora. Yes
linkedServiceName Azure Storage servizio collegato da usare dal cluster su richiesta per l'archiviazione e l'elaborazione dei dati. Il cluster HDInsight viene creato nella stessa area di questo account Azure Storage. Azure HDInsight presenta limitazioni per il numero totale di core che è possibile usare in ogni area Azure supportata. Assicurarsi di disporre di quote di core sufficienti in tale area Azure per soddisfare il clusterSize richiesto. Per altre informazioni vedere Configurare i cluster di HDInsight con Hadoop, Spark, Kafka e altro ancora

Attualmente, non è possibile creare un cluster HDInsight su richiesta che usa un Azure Data Lake Storage (Gen 2) come storage. Se si desidera archiviare i dati dei risultati dall'elaborazione di HDInsight in un Azure Data Lake Storage (generazione 2), usare un Copy Activity per copiare i dati dal Azure Blob Storage al Azure Data Lake Storage (generazione 2).

Yes
clusterResourceGroup In questo gruppo di risorse viene creato il cluster di HDInsight. Yes
clusterResourceGroupAuthType Specificare il tipo di autenticazione del gruppo di risorse cluster HDInsight on demand. I tipi di autenticazione supportati sono "ServicePrincipalKey", "SystemAssignedManagedIdentity", "UserAssignedManagedIdentity". Obbligatorio per l'uso dell'autenticazione dell'identità gestita. Se il campo non è presente, per impostazione predefinita sarà impostato su ServicePrincipalKey
credential Specificare il riferimento alle credenziali contenente l'oggetto Identità gestita che ha accesso sul gruppo di risorse. Obbligatorio solo per l'autenticazione "UserAssignedManagedIdentity".
timetolive Il tempo di inattività consentito per il cluster HDInsight su richiesta. Specifica per quanto tempo il cluster HDInsight su richiesta rimane attivo dopo il completamento di un'attività eseguita se non sono presenti altri processi attivi del cluster. Il valore minimo consentito è 5 minuti (00:05:00).

Ad esempio, se un'esecuzione di attività accetta 6 minuti e timetolive è impostato su 5 minuti, il cluster rimane attivo per altri 5 minuti dopo i 6 minuti di elaborazione dell'attività. Se un'altra attività viene eseguita entro i 6 minuti consentiti, verrà elaborata dallo stesso cluster.

Poiché la creazione di un cluster HDInsight su richiesta è un'operazione che usa un numero elevato di risorse e potrebbe richiedere alcuni minuti, usare questa impostazione a seconda delle necessità per migliorare le prestazioni del servizio riutilizzando un cluster HDInsight su richiesta.

Se si imposta il valore della proprietà timetolive su 0, il cluster viene eliminato non appena l'esecuzione dell'attività viene completata. Invece, se si imposta un valore elevato, il cluster può rimanere inattivo per consentire all'utente di effettuare l'accesso al fine di risolvere i problemi; tuttavia questo può comportare costi elevati. È quindi importante impostare il valore appropriato in base alle esigenze.

Se il valore della proprietà timetolive è impostato in modo appropriato, più pipelines possono condividere l'istanza del cluster HDInsight su richiesta.
Yes
clusterType Tipo di cluster HDInsight da creare. I valori consentiti sono "hadoop" e "spark". Se non è specificato, il valore predefinito è hadoop. Non è possibile creare su richiesta un cluster abilitato per il pacchetto di sicurezza aziendale, ma utilizzare un cluster esistente/portare il proprio calcolo. No
version Versione del cluster HDInsight Se non specificato, si usa la versione attuale predefinita da HDInsight. No
hostSubscriptionId ID sottoscrizione Azure usato per creare un cluster HDInsight. Se non specificato, viene utilizzato l'ID di sottoscrizione del contesto di accesso ad Azure. No
clusterNamePrefix Il prefisso del nome cluster HDI. Un timestamp verrà aggiunto automaticamente alla fine del nome del cluster No
sparkVersion Versione di Spark se il tipo di cluster è "Spark" No
additionalLinkedServiceNames Specifica altri account storage per il servizio collegato HDInsight in modo che il servizio possa registrarli per conto dell'utente. Questi account storage devono trovarsi nella stessa area del cluster HDInsight, creato nella stessa area dell'account storage specificato da linkedServiceName. No
osType Tipo di sistema operativo. I valori consentiti sono: Linux e Windows, solo per HDInsight 3.3. Il valore predefinito è Linux. No
hcatalogLinkedServiceName Il nome del servizio connesso di Azure SQL che punta al database HCatalog. Il cluster HDInsight su richiesta viene creato usando il Azure SQL Database come metastore. No
connectVia Il Integration Runtime da usare per inviare le attività a questo servizio collegato HDInsight. Per il servizio collegato HDInsight a richiesta, esso supporta solo Azure Integration Runtime. Se non specificato, usa il Azure Integration Runtime predefinito. No
clusterUserName Il nome utente per accedere al cluster. No
clusterPassword La password nel formato di stringa sicura per accedere al cluster. No
clusterSshUserName Il nome utente per connettersi in remoto con SSH al nodo del cluster, per Linux. No
clusterSshPassword La password nel tipo di stringa protetta per connettersi in remoto con SSH al nodo del cluster, per Linux. No
scriptActions Specificare uno script per personalizzazioni del cluster HDInsight durante la creazione del cluster su richiesta.
Attualmente, lo strumento di creazione dell'Interfaccia utente consente di specificare una sola azione script, tuttavia è possibile aggirare questa limitazione in JSON (specificare più azioni script in JSON).
No

Important

HDInsight supporta più versioni cluster di Hadoop che possono essere distribuite. Ogni versione scelta crea una versione specifica della distribuzione HDP (Hortonworks Data Platform) e un set di componenti contenuti in tale distribuzione. L'elenco delle versioni supportate di HDInsight viene continuamente aggiornato per offrire i componenti dell'ecosistema Hadoop e le correzioni più recenti. Verificare sempre di fare riferimento alle informazioni più recenti della Versione supportata di HDInsight e del tipo di sistema operativo per assicurarsi di usare la versione supportata di HDInsight.

Important

Attualmente, i servizi collegati HDInsight non supportano HBase, Interactive Query (Hive LLAP), Storm.

  • Esempio di codice JSON additionalLinkedServiceNames
"additionalLinkedServiceNames": [{
    "referenceName": "MyStorageLinkedService2",
    "type": "LinkedServiceReference"          
}]

Authentication

Autenticazione di un'entità servizio

Il servizio collegato di HDInsight su richiesta richiede un'autenticazione dell'entità servizio per creare i cluster HDInsight per conto dell'utente. Per usare l'autenticazione del principale del servizio, registrare un'entità applicazione in Microsoft Entra ID e assegnargli il ruolo di Contributor della sottoscrizione o del gruppo di risorse in cui è creato il cluster HDInsight. Per i passaggi dettagliati, vedere Usare il portale per creare un'applicazione Microsoft Entra e un'entità servizio in grado di accedere a risorse. Prendere nota dei valori seguenti che si usano per definire il servizio collegato:

  • ID dell'applicazione
  • Chiave applicazione
  • ID del locatario

Usare l'autenticazione basata su entità servizio specificando le proprietà seguenti:

Property Description Required
servicePrincipalId Specificare l'ID client dell'applicazione. Yes
servicePrincipalKey Specificare la chiave dell'applicazione. Yes
tenant Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. Yes

Autenticazione dell'identità gestita

Quando si utilizza l'autenticazione tramite identità gestita per i servizi collegati HDInsight di Azure su richiesta, assicurarsi che l'oggetto Identità gestita disponga del ruolo di Collaboratore per il gruppo di risorse.

Gli account di storage primari di ADLS Gen2 supportano ora l'autenticazione basata su Identità gestita assegnata dall'utente (UAMI) oltre all'autenticazione basata su chiavi esistente. L'UAMI deve avere autorizzazioni di proprietario dei dati BLOB Storage per l'account storage primario.

Limitazioni:

  • L'account di storage primario DI ADLS Gen2 e l'UAMI devono trovarsi nello stesso gruppo di risorse del gruppo di risorse usato per creare il cluster HDInsight su richiesta.
  • Il nome dell'oggetto credenziale per UAMI in Data Factory deve corrispondere esattamente al nome UAMI.

Per altre informazioni, vedere Creare Azure HDInsight - Azure Data Lake Storage Gen2 - portal e Managed identities in Azure HDInsight

Proprietà avanzate

È inoltre possibile specificare le seguenti proprietà per la configurazione granulare del cluster HDInsight su richiesta.

Property Description Required
coreConfiguration Specifica i parametri di configurazione di base (ad esempio core-site.xml) per il cluster HDInsight da creare. No
hBaseConfiguration Specifica i parametri di configurazione HBase (hbase-site.xml) per il cluster HDInsight. No
hdfsConfiguration Specifica i parametri di configurazione HDFS (hdfs-site.xml) per il cluster HDInsight. No
hiveConfiguration Specifica i parametri di configurazione hive (hive-site.xml) per il cluster HDInsight. No
mapReduceConfiguration Specifica i parametri di configurazione MapReduce (mapred-site.xml) per il cluster HDInsight. No
oozieConfiguration Specifica i parametri di configurazione Oozie (oozie-site.xml) per il cluster HDInsight. No
stormConfiguration Specifica i parametri di configurazione Storm (storm-site.xml) per il cluster HDInsight. No
yarnConfiguration Specifica i parametri di configurazione Yarn (yarn-site.xml) per il cluster HDInsight. No
  • Esempio: configurazione del cluster HDInsight on demand con le proprietà avanzate
{
    "name": " HDInsightOnDemandLinkedService",
    "properties": {
      "type": "HDInsightOnDemand",
      "typeProperties": {
          "clusterSize": 16,
          "timeToLive": "01:30:00",
          "hostSubscriptionId": "<subscription ID>",
          "servicePrincipalId": "<service principal ID>",
          "servicePrincipalKey": {
            "value": "<service principal key>",
            "type": "SecureString"
          },
          "tenant": "<tenant id>",
          "clusterResourceGroup": "<resource group name>",
          "version": "3.6",
          "osType": "Linux",
          "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
            },
            "coreConfiguration": {
                "templeton.mapper.memory.mb": "5000"
            },
            "hiveConfiguration": {
                "templeton.mapper.memory.mb": "5000"
            },
            "mapReduceConfiguration": {
                "mapreduce.reduce.java.opts": "-Xmx4000m",
                "mapreduce.map.java.opts": "-Xmx4000m",
                "mapreduce.map.memory.mb": "5000",
                "mapreduce.reduce.memory.mb": "5000",
                "mapreduce.job.reduce.slowstart.completedmaps": "0.8"
            },
            "yarnConfiguration": {
                "yarn.app.mapreduce.am.resource.mb": "5000",
                "mapreduce.map.memory.mb": "5000"
            },
            "additionalLinkedServiceNames": [{
                "referenceName": "MyStorageLinkedService2",
                "type": "LinkedServiceReference"          
            }]
        }
    },
      "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
}

Dimensioni dei nodi

È possibile specificare le dimensioni dei nodi head, di dati e zookeeper usando le proprietà seguenti:

Property Description Required
headNodeSize Specifica le dimensioni del nodo head Il valore predefinito è Standard_D3. Vedere la sezione Specificare le dimensioni dei nodi per informazioni dettagliate. No
dataNodeSize Specifica le dimensioni del nodo dei dati. Il valore predefinito è Standard_D3. No
zookeeperNodeSize Specifica le dimensioni del nodo Zookeeper. Il valore predefinito è Standard_D3. No
  • Specificazione delle dimensioni dei nodi Vedere l'articolo Dimensioni delle macchine virtuali per il valore stringa che devi specificare per le proprietà indicate nella sezione precedente. I valori devono essere conformi a CMDLET e API a cui si fa riferimento nell'articolo. Come si vede nell'articolo, il nodo dei dati di grandi dimensioni (per impostazione predefinita) ha 7 GB di memoria, che potrebbe non essere adatto al proprio scenario.

Per creare nodi head e nodi di lavoro di dimensioni D4, specificare Standard_D4 come valore per le proprietà headNodeSize e dataNodeSize.

"headNodeSize": "Standard_D4",    
"dataNodeSize": "Standard_D4",

Se si specifica un valore errato per queste proprietà, è possibile che venga visualizzato l'errore seguente: Impossibile creare il cluster. Eccezione: impossibile completare l'operazione di creazione del cluster. L'operazione non è riuscita con codice '400'. Nello stato del cluster è apparso il messaggio 'Errore'. Messaggio: 'PreClusterCreationValidationFailure'. Quando si verifica questo errore, assicurarsi di usare il nome di CMDLET & APIS dalla tabella nell'articolo Dimensioni delle macchine virtuali.

Ambiente di calcolo “bring your own”

In questo tipo di configurazione, gli utenti possono registrare un ambiente informatico già esistente come servizio collegato. L'ambiente di elaborazione viene gestito dall'utente e il servizio viene utilizzato per eseguire le attività.

Questo tipo di configurazione è supportato per gli ambienti di calcolo seguenti:

  • Azure HDInsight
  • Azure Batch
  • Azure Machine Learning
  • Azure Data Lake Analytics
  • Azure SQL DB, Azure Synapse Analytics, SQL Server

Servizio collegato di Azure HDInsight

È possibile creare un servizio collegato Azure HDInsight per registrare il proprio cluster HDInsight con una data factory o un'area di lavoro di Synapse.

Esempio di utilizzo dell'autenticazione di base

{
    "name": "HDInsightLinkedService",
    "properties": {
      "type": "HDInsight",
      "typeProperties": {
        "clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
        "userName": "username",
        "password": {
            "value": "passwordvalue",
            "type": "SecureString"
          },
        "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Esempio di uso dell'identità gestita assegnata dal sistema

{
    "name": "HDInsightLinkedService",
    "properties": {
      "type": "HDInsight",
      "typeProperties": {
        "clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
        "clusterAuthType": "SystemAssignedManagedIdentity",
        "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Esempio di uso dell'identità gestita assegnata dall'utente

{
    "name": "HDInsightLinkedService",
    "properties": {
      "type": "HDInsight",
      "typeProperties": {
        "clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
         "clusterAuthType": "UserAssignedManagedIdentity",
         "credential": {
                "referenceName": "CredentialName",
                "type": "CredentialReference"
            },
        "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Properties

Property Description Required
type La proprietà type deve essere impostata su HDInsight. Yes
clusterUri L'URI del cluster HDInsight. Yes
username Specifica il nome dell'utente da utilizzare per connettersi a un cluster HDInsight esistente. Yes
password Specifica la password per l'account utente. Yes
linkedServiceName Nome del servizio collegato Azure Storage che fa riferimento al Azure blob storage usato dal cluster HDInsight.

Attualmente non è possibile specificare un servizio collegato Azure Data Lake Storage (generazione 2) per questa proprietà. Se il cluster HDInsight ha accesso al Data Lake Store, è possibile accedere ai dati nell'Azure Data Lake Storage (Gen 2) dagli script Hive/Pig.

Yes
isEspEnabled Specificare "true" se il cluster HDInsight è abilitato per Enterprise Security Package . Il valore predefinito è 'false'. No
connectVia Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito.
Per il cluster HDInsight abilitato per l'Enterprise Security Package (ESP), utilizzare un runtime di integrazione autogestito, che abbia una connessione visibile al cluster o che debba essere distribuito all'interno della stessa Rete Virtuale del cluster ESP HDInsight.
No
clusterAuthType Specificare il tipo di autenticazione del cluster HDInsight. I tipi di autenticazione supportati sono "BasicAuth", "SystemAssignedManagedIdentity", "UserAssignedManagedIdentity". Obbligatorio per l'uso dell'autenticazione tramite Identità Gestite. Se il campo non è presente, per impostazione predefinita verrà utilizzata l'autenticazione di base.
credential Specificare il riferimento delle credenziali contenente informazioni sull'oggetto Identità gestita per il cluster HDInsight. Obbligatorio solo per l'autenticazione "UserAssignedManagedIdentity"

Authentication

Il servizio collegato Azure Storage per ADLS Gen2 supporta ora identità gestite assegnate dal sistema e assegnate dall'utente oltre ai metodi di autenticazione esistenti. Questo supporto è disponibile per impostazione predefinita quando si usa Azure Integration Runtime (Azure IR) ed è supportato in Integration Runtime self-hosted (SHIR) a partire dalla versione 5.55.9306.2 o successiva. Per Azure Blob Storage, il servizio collegato Azure Storage continua a supportare solo l'autenticazione della chiave dell'account. L'autenticazione dell'identità gestita del cluster è ora disponibile per impostazione predefinita quando si utilizza Azure IR ed è supportata su SHIR a partire dalla versione 5.58 o successive. Quando si crea un cluster, è possibile usare un solo metodo di autenticazione per ogni cluster. Per informazioni dettagliate sulla creazione e la gestione di cluster con identità gestita, vedere Creare e gestire Azure cluster HDInsight con l'autenticazione entra ID

Important

HDInsight supporta più versioni cluster di Hadoop che possono essere distribuite. Ogni versione scelta crea una versione specifica della distribuzione HDP (Hortonworks Data Platform) e un set di componenti contenuti in tale distribuzione. L'elenco delle versioni supportate di HDInsight viene continuamente aggiornato per offrire i componenti dell'ecosistema Hadoop e le correzioni più recenti. Verificare sempre di fare riferimento alle informazioni più recenti della Versione supportata di HDInsight e del tipo di sistema operativo per assicurarsi di usare la versione supportata di HDInsight.

Important

Attualmente, i servizi collegati HDInsight non supportano HBase, Interactive Query (Hive LLAP), Storm.

Servizio collegato Azure Batch

Note

È consigliabile usare il modulo Az PowerShell Azure per interagire con Azure. Per iniziare, vedere Installare Azure PowerShell. Per informazioni su come eseguire la migrazione al modulo Az PowerShell, vedere Migrate Azure PowerShell da AzureRM ad Az.

È possibile creare un servizio collegato Azure Batch per registrare un pool Batch di macchine virtuali (VM) in un'area di lavoro dati o in un'area di lavoro Synapse. È possibile eseguire attività personalizzate usando Azure Batch.

Se sei nuovo al servizio Azure Batch, consulta i seguenti articoli:

Important

Quando si crea un nuovo pool di Azure Batch, è necessario usare 'VirtualMachineConfiguration' e NON 'CloudServiceConfiguration'.

Example

{
    "name": "AzureBatchLinkedService",
    "properties": {
      "type": "AzureBatch",
      "typeProperties": {
        "accountName": "batchaccount",
        "accessKey": {
          "type": "SecureString",
          "value": "access key"
        },
        "batchUri": "https://batchaccount.region.batch.azure.com",
        "poolName": "poolname",
        "linkedServiceName": {
          "referenceName": "StorageLinkedService",
          "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Properties

Property Description Required
type La proprietà type deve essere impostata su AzureBatch. Yes
accountName Nome dell'account Azure Batch. Yes
accessKey Chiave di accesso per l'account Azure Batch. Yes
batchUri URL per il tuo account Azure Batch, nel formato https://batchaccountname.region.batch.azure.com. Yes
poolName Nome del pool di macchine virtuali. Yes
linkedServiceName Nome del servizio di collegamento Azure Storage associato a questo servizio di collegamento Azure Batch. Questo servizio collegato viene usato per organizzare i file necessari per eseguire l'attività. Yes
connectVia Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. No

servizio collegato Machine Learning Studio (versione classica)

Important

Il supporto per Azure Machine Learning Studio (versione classica) terminerà il 31 agosto 2024. È consigliabile passare a Azure Machine Learning entro tale data.

A partire dal 1° dicembre 2021, non è possibile creare nuove risorse di Machine Learning Studio (versione classica) (area di lavoro e piano di servizio Web). Fino al 31 agosto 2024, è possibile continuare a usare gli esperimenti e i servizi Web esistenti di Machine Learning Studio (versione classica). Per altre informazioni, vedere:

Machine Learning Studio (versione classica) è in fase di ritiro e potrebbe non essere aggiornato in futuro.

Si crea un servizio collegato Machine Learning Studio (versione classica) per registrare un endpoint di assegnazione dei punteggi batch di Machine Learning Studio (versione classica) in un'area di lavoro di Data Factory o Synapse.

Example

{
    "name": "AzureMLLinkedService",
    "properties": {
      "type": "AzureML",
      "typeProperties": {
        "mlEndpoint": "https://[batch scoring endpoint]/jobs",
        "apiKey": {
            "type": "SecureString",
            "value": "access key"
        }
     },
     "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
}

Properties

Property Description Required
Type La proprietà type deve essere impostata su: AzureML. Yes
mlEndpoint L’URL del batch punteggio. Yes
apiKey Modello dell'area di lavoro pubblicato di API. Yes
updateResourceEndpoint L'URL della risorsa di aggiornamento per un endpoint del servizio Web studio di Azure Machine Learning (versione classica) usato per aggiornare il servizio Web predittivo con il file del modello con training No
servicePrincipalId Specificare l'ID client dell'applicazione. Obbligatorio se è specificato updateResourceEndpoint
servicePrincipalKey Specificare la chiave dell'applicazione. Obbligatorio se è specificato updateResourceEndpoint
tenant Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. Obbligatorio se è specificato updateResourceEndpoint
connectVia Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. No

servizio collegato di Azure Machine Learning

Si crea un servizio collegato Azure Machine Learning per connettere un'area di lavoro Azure Machine Learning a una data factory o a un'area di lavoro di Synapse.

Note

Attualmente è supportata solo l'autenticazione tramite service principal per il servizio Azure Machine Learning collegato.

Example

{
    "name": "AzureMLServiceLinkedService",
    "properties": {
        "type": "AzureMLService",
        "typeProperties": {
            "subscriptionId": "subscriptionId",
            "resourceGroupName": "resourceGroupName",
            "mlWorkspaceName": "mlWorkspaceName",
            "servicePrincipalId": "service principal id",
            "servicePrincipalKey": {
                "value": "service principal key",
                "type": "SecureString"
            },
            "tenant": "tenant ID"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime?",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Properties

Property Description Required
Type La proprietà type deve essere impostata su: AzureMLService. Yes
subscriptionId ID sottoscrizione Azure Yes
resourceGroupName name Yes
mlWorkspaceName Azure Machine Learning nome dell'area di lavoro Yes
servicePrincipalId Specificare l'ID client dell'applicazione. Yes
servicePrincipalKey Specificare la chiave dell'applicazione. Yes
tenant Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. Obbligatorio se è specificato updateResourceEndpoint
connectVia Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. No

Azure Data Lake Analytics servizio associato

Si crea un servizio collegato Azure Data Lake Analytics per collegare un servizio di calcolo Azure Data Lake Analytics a un'area di lavoro di Data Factory o Synapse. L'attività di U-SQL Data Lake Analytics nella pipeline si riferisce a questo servizio collegato.

Example

{
    "name": "AzureDataLakeAnalyticsLinkedService",
    "properties": {
        "type": "AzureDataLakeAnalytics",
        "typeProperties": {
            "accountName": "adftestaccount",
            "dataLakeAnalyticsUri": "azuredatalakeanalytics URI",
            "servicePrincipalId": "service principal id",
            "servicePrincipalKey": {
                "value": "service principal key",
                "type": "SecureString"
            },
            "tenant": "tenant ID",
            "subscriptionId": "<optional, subscription ID of ADLA>",
            "resourceGroupName": "<optional, resource group name of ADLA>"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Properties

Property Description Required
type La proprietà type deve essere impostata su AzureDataLakeAnalytics. Yes
accountName Nome account di Azure Data Lake Analytics. Yes
dataLakeAnalyticsUri Azure Data Lake Analytics URI. No
subscriptionId ID sottoscrizione Azure No
resourceGroupName Nome del gruppo di risorse di Azure No
servicePrincipalId Specificare l'ID client dell'applicazione. Yes
servicePrincipalKey Specificare la chiave dell'applicazione. Yes
tenant Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. Yes
connectVia Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. No

Servizio collegato Azure Databricks

È possibile creare servizio collegato Azure Databricks per registrare un'area di lavoro Databricks che usi per eseguire i carichi di lavoro Databricks (notebook, jar, python).

Important

I servizi collegati di Databricks supportano i pool di istanze e l'autenticazione dell'identità gestita assegnata dal sistema.

Esempio - Uso di un nuovo cluster dei processi in Databricks

{
    "name": "AzureDatabricks_LS",
    "properties": {
        "type": "AzureDatabricks",
        "typeProperties": {
            "domain": "https://eastus.azuredatabricks.net",
            "newClusterNodeType": "Standard_D3_v2",
            "newClusterNumOfWorker": "1:10",
            "newClusterVersion": "4.0.x-scala2.11",
            "accessToken": {
                "type": "SecureString",
                "value": "YourAccessToken"
            }
        }
    }
}

Esempio - Uso di un cluster interattivo esistente in Databricks

{
    "name": " AzureDataBricksLinkedService",
    "properties": {
      "type": " AzureDatabricks",
      "typeProperties": {
        "domain": "https://westeurope.azuredatabricks.net",
        "accessToken": {
            "type": "SecureString", 
            "value": "YourAccessToken"
          },
        "existingClusterId": "{clusterId}"
        }
}

Properties

Property Description Required
name Nome del servizio collegato Yes
type La proprietà type deve essere impostata su: Azure Databricks. Yes
domain Specificare di conseguenza l'area Azure in base all'area dell'area di lavoro di Databricks. Esempio: https://eastus.azuredatabricks.net Yes
accessToken Access token è necessario affinché il servizio esegua l'autenticazione per Azure Databricks. Il token di accesso deve essere generato dall'area di lavoro Databricks. I passaggi più dettagliati per trovare il token di access sono disponibili here No
MSI Usare l'identità gestita del servizio (assegnata dal sistema) per eseguire l'autenticazione per Azure Databricks. Non è necessario Access Token quando si usa l'autenticazione 'MSI'. Altre informazioni sull'autenticazione dell'identità gestita sono disponibili here No
existingClusterId ID cluster di un cluster esistente in cui eseguire tutti i processi. Dovrebbe essere un cluster interattivo già creato. Se il cluster smette di rispondere, potrebbe essere necessario riavviarlo manualmente. Databricks suggerisce di eseguire i processi su nuovi cluster per una maggiore affidabilità. È possibile trovare l'ID cluster di un cluster interattivo nell'area di lavoro di Databricks -> Cluster -> Nome cluster interattivo -> Configurazione -> Tag. Altri dettagli No
instancePoolId ID pool di istanze di un pool esistente nell'area di lavoro di Databricks. No
newClusterVersion Versione Spark del cluster. Crea un cluster dei processi in Databricks. No
newClusterNumOfWorker Numero di nodi del ruolo di lavoro che il cluster dovrebbe avere. Un cluster ha un driver Spark e num_ruoli_lavoro executor per un totale di num_ruoli_lavoro + 1 nodi Spark. Una stringa in formato Int32, come "1", significa che numOfWorker ha valore 1 oppure "1:10" indica il ridimensionamento automatico da 1 come valore minimo a 10 come valore massimo. No
newClusterNodeType Questo campo codifica, con un solo valore, le risorse disponibili in ognuno dei nodi Spark del cluster. Ad esempio, è possibile effettuare il provisioning e l'ottimizzazione della memoria dei nodi Spark o calcolare i carichi di lavoro intensivi. Questo campo è obbligatorio per il nuovo cluster No
newClusterSparkConf Set di coppia chiave-valore di configurazione Spark facoltative specificate dall'utente. Gli utenti possono anche passare una stringa di opzioni JVM aggiuntive al driver e agli executor rispettivamente tramite spark.driver.extraJavaOptions e spark.executor.extraJavaOptions. No
newClusterInitScripts set di script facoltativi di inizializzazione definiti dall'utente per il nuovo cluster. È possibile specificare gli script init nei file dell'area di lavoro (scelta consigliata) o tramite il percorso DBFS (legacy). No

Azure SQL Database servizio collegato

Creare un servizio collegato Azure SQL e usarlo con l'attività Stored Procedure per richiamare una stored procedure da una pipeline. Per informazioni dettagliate su questo servizio collegato, vedere Azure SQL Connector.

servizio collegato Azure Synapse Analytics

Crea un servizio collegato Azure Synapse Analytics e utilizzalo con l'attività Stored Procedure per richiamare una "stored procedure" da una pipeline. Vedere Azure Synapse Analytics Connector articolo per informazioni dettagliate su questo servizio collegato.

Servizio collegato di SQL Server

Crea un servizio collegato SQL Server e usalo con l'attività Stored Procedure per richiamare una stored procedure da una pipeline. Vedere SQL Server connector articolo per informazioni dettagliate su questo servizio collegato.

servizio collegato di Azure Synapse Analytics (Artifacts)

Crei un servizio collegato di Azure Synapse Analytics (Artifacts) e lo usi con l'attività Synapse Notebook e l'attività di definizione del job di Synapse Spark.

Example

{
    "name": "AzureSynapseArtifacts",
    "type": "Microsoft.DataFactory/factories/linkedservice",
    "properties": {
      "properties": {
        "a":{
          "type": "String"
        }
      },
        "annotations": [],
        "type": "AzureSynapseArtifacts",
        "typeProperties": {
            "endpoint": "@{linkedService().a}",
            "authentication": "MSI",
            "workspaceResourceId": ""
        },
        "ConnectVia":{
          "referenceName": "integrationRuntime1",
          "type": "IntegrationRuntimeReference"
        }
    }
}

Properties

Property Description Required
name Nome del servizio collegato Yes
description descrizione del servizio collegato No
annotations annotazione del servizio collegato No
type La proprietà type deve essere impostata su AzureSynapseArtifacts Yes
endpoint URL di Azure Synapse Analytics Yes
authentication L'impostazione predefinita è Identità gestita assegnata dal sistema Yes
workspaceResourceId ID risorsa area di lavoro Yes
connectVia Integration runtime da usare per connettersi all'archivio dati. È possibile usare Azure Integration Runtime. Se non specificato, usa il Azure Integration Runtime predefinito. L'integration runtime autogestito non è attualmente supportato. Yes

servizio collegato a Funzione di Azure

Crei un servizio collegato Azure Function e lo usi con l'attività Azure Function per eseguire Azure Functions in una pipeline. Il tipo restituito della funzione Azure deve essere un JObject valido. (Tenere presente che JArraynon è un JObject.) Qualsiasi tipo restituito diverso da JObject ha esito negativo e genera l'errore utente il contenuto della risposta non è un JObject valido.

Property Description Required
type La proprietà type deve essere impostata su: AzureFunction yes
URL dell'app per le funzioni URL per l'app per le funzioni Azure. Il formato è https://<accountname>.azurewebsites.net. Questo URL è il valore nella sezione URL quando si visualizza l'app delle funzioni nel portale di Azure yes
tasto funzione Chiave di accesso per la funzione Azure. Fare clic sulla sezione Gestisci per la rispettiva funzione e copiare la chiave della funzione o la chiave host. Altre informazioni sono disponibili qui: Lavora con chiavi di accesso yes

Per un elenco delle attività di trasformazione supportate, vedere Trasformare i dati.