Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
APPLIES TO:
Azure Data Factory
Azure Synapse Analytics
Tip
Provare Data Factory in Microsoft Fabric, una soluzione di analisi completa per le aziende. Microsoft Fabric copre tutti gli elementi, dallo spostamento dei dati all'analisi scientifica dei dati, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Vedere le informazioni su come iniziare una nuova prova gratuita.
Important
Il supporto per Azure Machine Learning Studio (versione classica) terminerà il 31 agosto 2024. È consigliabile passare a Azure Machine Learning entro tale data.
A partire dal 1° dicembre 2021, non è possibile creare nuove risorse di Machine Learning Studio (versione classica) (area di lavoro e piano di servizio Web). Fino al 31 agosto 2024, è possibile continuare a usare gli esperimenti e i servizi Web esistenti di Machine Learning Studio (versione classica). Per altre informazioni, vedere:
- Migrare verso Azure Machine Learning da Machine Learning Studio (versione classica)
- Che cos'è Azure Machine Learning?
Machine Learning Studio (versione classica) è in fase di ritiro e potrebbe non essere aggiornato in futuro.
Questo articolo spiega i diversi ambienti di calcolo che è possibile utilizzare per elaborare o una trasformare dati. Fornisce inoltre informazioni dettagliate sulle diverse configurazioni (on-demand e bring your own) supportate durante la configurazione di servizi collegati che collegano questi ambienti.
La seguente tabella presenta un elenco degli ambienti di calcolo supportati e le attività eseguibili in tali ambienti.
Ambiente di calcolo di HDInsight
Consultare la tabella seguente per informazioni dettagliate sui tipi di servizio di archiviazione collegati supportati per la configurazione nell'ambiente on-demand e BYOC (Bring your own compute).
| Servizi collegati di calcolo | Nome della proprietà | Description | Blob | ADLS Gen2 | Azure SQL DB | ADLS Gen 1 |
|---|---|---|---|---|---|---|
| On-demand | linkedServiceName | Azure Storage servizio collegato da usare dal cluster su richiesta per l'archiviazione e l'elaborazione dei dati. | Yes | Yes | No | No |
| additionalLinkedServiceNames | Specifica altri account storage per il servizio collegato HDInsight in modo che il servizio possa registrarli per conto dell'utente. | Yes | No | No | No | |
| hcatalogLinkedServiceName | Il nome del servizio connesso di Azure SQL che punta al database HCatalog. Il cluster HDInsight su richiesta viene creato usando il Azure SQL database come metastore. | No | No | Yes | No | |
| BYOC | linkedServiceName | Riferimento al servizio collegato Azure Storage. | Yes | Yes | No | No |
| additionalLinkedServiceNames | Specifica altri account storage per il servizio collegato HDInsight in modo che il servizio possa registrarli per conto dell'utente. | No | No | No | No | |
| hcatalogLinkedServiceName | Riferimento al servizio collegato Azure SQL che punta al database HCatalog. | No | No | No | No |
Azure servizio collegato HDInsight su richiesta
In questo tipo di configurazione, l'ambiente informatico è completamente gestito dal servizio. Viene automaticamente creato dal servizio prima che un processo venga inviato per l’elaborazione dati e rimosso quando il processo viene completato. Gli utenti possono configurare e controllare le impostazioni granulari dell'ambiente di elaborazione su richiesta per l'esecuzione del processo, la gestione del cluster e azioni di avvio automatico.
Note
La configurazione su richiesta è attualmente supportata solo per i cluster HDInsight Azure. Azure Databricks supporta anche processi su richiesta usando cluster di processi. Per ulteriori informazioni, vedere servizio collegato di Azure Databricks.
Il servizio può creare automaticamente un cluster HDInsight su richiesta per elaborare i dati. Il cluster viene creato nella stessa area dell'account storage (proprietà linkedServiceName nel codice JSON) associato al cluster. L'account storage must è un account standard di Azure Storage per utilizzo generico.
Si notino i punti importanti seguenti sul servizio collegato HDInsight su richiesta:
- Il cluster HDInsight su richiesta viene creato nella sottoscrizione Azure. È possibile visualizzare il cluster nel Azure portal quando il cluster è operativo.
- I log per i processi eseguiti in un cluster HDInsight su richiesta vengono copiati nell'account storage associato al cluster HDInsight. ClusterUserName, clusterPassword, clusterSshUserName, clusterSshPassword definiti nella definizione del servizio collegato vengono usati per accedere al cluster per la risoluzione approfondita dei problemi durante il ciclo di vita del cluster.
- Viene addebitato solo il tempo in cui il cluster HDInsight è attivo e i processi in esecuzione.
- È possibile usare un'azione Script con il servizio collegato su richiesta di Azure HDInsight.
Important
In genere sono necessari 20 minuti o più per effettuare il provisioning di un cluster HDInsight Azure su richiesta.
Esempio di utilizzo della chiave dell'entità servizio
Il codice JSON seguente definisce un servizio collegato HDInsight su richiesta basato su Linux. Il servizio crea automaticamente un cluster HDInsight basato su Linux per elaborare l'attività richiesta.
{
"name": "HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterType": "hadoop",
"clusterSize": 1,
"timeToLive": "00:15:00",
"hostSubscriptionId": "<subscription ID>",
"servicePrincipalId": "<service principal ID>",
"servicePrincipalKey": {
"value": "<service principal key>",
"type": "SecureString"
},
"tenant": "<tenant id>",
"clusterResourceGroup": "<resource group name>",
"clusterResourceGroupAuthType": "ServicePrincipalKey",
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Esempio di uso dell'identità gestita assegnata dal sistema
Il codice JSON seguente definisce un servizio collegato HDInsight su richiesta basato su Linux. Il servizio crea automaticamente un cluster HDInsight basato su Linux per elaborare l'attività richiesta.
{
"name": "HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterType": "hadoop",
"clusterSize": 1,
"timeToLive": "00:15:00",
"hostSubscriptionId": "<subscription ID>",
"clusterResourceGroup": "<resource group name>",
"clusterResourceGroupAuthType": "SystemAssignedManagedIdentity",
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Esempio di uso dell'identità gestita assegnata dall'utente
Il codice JSON seguente definisce un servizio collegato HDInsight su richiesta basato su Linux. Il servizio crea automaticamente un cluster HDInsight basato su Linux per elaborare l'attività richiesta.
{
"name": "HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterType": "hadoop",
"clusterSize": 1,
"timeToLive": "00:15:00",
"hostSubscriptionId": "<subscription ID>",
"clusterResourceGroup": "<resource group name>",
"clusterResourceGroupAuthType": "UserAssignedManagedIdentity",
"credential": {
"referenceName": "CredentialName",
"type": "CredentialReference"
},
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Important
Il cluster HDInsight crea un contenitore default nel blob storage specificato in JSON (linkedServiceName). HDInsight non elimina il contenitore quando viene eliminato il cluster. Questo comportamento dipende dalla progettazione. Con il servizio collegato HDInsight su richiesta, viene creato un cluster HDInsight ogni volta che è necessario elaborare una sezione, a meno che non sia presente un cluster live esistente (timeToLive) e venga eliminato al termine dell'elaborazione.
Man mano che vengono eseguite altre attività, nella Azure blob storage vengono visualizzati molti contenitori. Se non sono necessari per la risoluzione dei problemi dei processi, è possibile eliminarli per ridurre il costo storage. I nomi dei contenitori seguono il modello adf**yourfactoryorworkspacename**-**linkedservicename**-datetimestamp. Usare strumenti come Microsoft Azure Storage Explorer per eliminare i contenitori nel Azure blob storage.
Properties
| Property | Description | Required |
|---|---|---|
| type | La proprietà type deve essere impostata su HDInsightOnDemand. | Yes |
| clusterSize | Numero di nodi del ruolo di lavoro/nodi dati nel cluster. Il cluster HDInsight viene creato con 2 nodi head e il numero di nodi del ruolo di lavoro specificato per questa proprietà. I nodi sono di dimensione Standard_D3, con 4 core, quindi un cluster di 4 nodi del ruolo di lavoro ha 24 core, ossia 4*4 = 16 core per i nodi del ruolo di lavoro + 2*4 = 8 core per i nodi head. Per altre informazioni vedere Configurare i cluster di HDInsight con Hadoop, Spark, Kafka e altro ancora. | Yes |
| linkedServiceName | Azure Storage servizio collegato da usare dal cluster su richiesta per l'archiviazione e l'elaborazione dei dati. Il cluster HDInsight viene creato nella stessa area di questo account Azure Storage. Azure HDInsight presenta limitazioni per il numero totale di core che è possibile usare in ogni area Azure supportata. Assicurarsi di disporre di quote di core sufficienti in tale area Azure per soddisfare il clusterSize richiesto. Per altre informazioni vedere Configurare i cluster di HDInsight con Hadoop, Spark, Kafka e altro ancora Attualmente, non è possibile creare un cluster HDInsight su richiesta che usa un Azure Data Lake Storage (Gen 2) come storage. Se si desidera archiviare i dati dei risultati dall'elaborazione di HDInsight in un Azure Data Lake Storage (generazione 2), usare un Copy Activity per copiare i dati dal Azure Blob Storage al Azure Data Lake Storage (generazione 2). |
Yes |
| clusterResourceGroup | In questo gruppo di risorse viene creato il cluster di HDInsight. | Yes |
| clusterResourceGroupAuthType | Specificare il tipo di autenticazione del gruppo di risorse cluster HDInsight on demand. I tipi di autenticazione supportati sono "ServicePrincipalKey", "SystemAssignedManagedIdentity", "UserAssignedManagedIdentity". | Obbligatorio per l'uso dell'autenticazione dell'identità gestita. Se il campo non è presente, per impostazione predefinita sarà impostato su ServicePrincipalKey |
| credential | Specificare il riferimento alle credenziali contenente l'oggetto Identità gestita che ha accesso sul gruppo di risorse. | Obbligatorio solo per l'autenticazione "UserAssignedManagedIdentity". |
| timetolive | Il tempo di inattività consentito per il cluster HDInsight su richiesta. Specifica per quanto tempo il cluster HDInsight su richiesta rimane attivo dopo il completamento di un'attività eseguita se non sono presenti altri processi attivi del cluster. Il valore minimo consentito è 5 minuti (00:05:00). Ad esempio, se un'esecuzione di attività accetta 6 minuti e timetolive è impostato su 5 minuti, il cluster rimane attivo per altri 5 minuti dopo i 6 minuti di elaborazione dell'attività. Se un'altra attività viene eseguita entro i 6 minuti consentiti, verrà elaborata dallo stesso cluster. Poiché la creazione di un cluster HDInsight su richiesta è un'operazione che usa un numero elevato di risorse e potrebbe richiedere alcuni minuti, usare questa impostazione a seconda delle necessità per migliorare le prestazioni del servizio riutilizzando un cluster HDInsight su richiesta. Se si imposta il valore della proprietà timetolive su 0, il cluster viene eliminato non appena l'esecuzione dell'attività viene completata. Invece, se si imposta un valore elevato, il cluster può rimanere inattivo per consentire all'utente di effettuare l'accesso al fine di risolvere i problemi; tuttavia questo può comportare costi elevati. È quindi importante impostare il valore appropriato in base alle esigenze. Se il valore della proprietà timetolive è impostato in modo appropriato, più pipelines possono condividere l'istanza del cluster HDInsight su richiesta. |
Yes |
| clusterType | Tipo di cluster HDInsight da creare. I valori consentiti sono "hadoop" e "spark". Se non è specificato, il valore predefinito è hadoop. Non è possibile creare su richiesta un cluster abilitato per il pacchetto di sicurezza aziendale, ma utilizzare un cluster esistente/portare il proprio calcolo. | No |
| version | Versione del cluster HDInsight Se non specificato, si usa la versione attuale predefinita da HDInsight. | No |
| hostSubscriptionId | ID sottoscrizione Azure usato per creare un cluster HDInsight. Se non specificato, viene utilizzato l'ID di sottoscrizione del contesto di accesso ad Azure. | No |
| clusterNamePrefix | Il prefisso del nome cluster HDI. Un timestamp verrà aggiunto automaticamente alla fine del nome del cluster | No |
| sparkVersion | Versione di Spark se il tipo di cluster è "Spark" | No |
| additionalLinkedServiceNames | Specifica altri account storage per il servizio collegato HDInsight in modo che il servizio possa registrarli per conto dell'utente. Questi account storage devono trovarsi nella stessa area del cluster HDInsight, creato nella stessa area dell'account storage specificato da linkedServiceName. | No |
| osType | Tipo di sistema operativo. I valori consentiti sono: Linux e Windows, solo per HDInsight 3.3. Il valore predefinito è Linux. | No |
| hcatalogLinkedServiceName | Il nome del servizio connesso di Azure SQL che punta al database HCatalog. Il cluster HDInsight su richiesta viene creato usando il Azure SQL Database come metastore. | No |
| connectVia | Il Integration Runtime da usare per inviare le attività a questo servizio collegato HDInsight. Per il servizio collegato HDInsight a richiesta, esso supporta solo Azure Integration Runtime. Se non specificato, usa il Azure Integration Runtime predefinito. | No |
| clusterUserName | Il nome utente per accedere al cluster. | No |
| clusterPassword | La password nel formato di stringa sicura per accedere al cluster. | No |
| clusterSshUserName | Il nome utente per connettersi in remoto con SSH al nodo del cluster, per Linux. | No |
| clusterSshPassword | La password nel tipo di stringa protetta per connettersi in remoto con SSH al nodo del cluster, per Linux. | No |
| scriptActions | Specificare uno script per personalizzazioni del cluster HDInsight durante la creazione del cluster su richiesta. Attualmente, lo strumento di creazione dell'Interfaccia utente consente di specificare una sola azione script, tuttavia è possibile aggirare questa limitazione in JSON (specificare più azioni script in JSON). |
No |
Important
HDInsight supporta più versioni cluster di Hadoop che possono essere distribuite. Ogni versione scelta crea una versione specifica della distribuzione HDP (Hortonworks Data Platform) e un set di componenti contenuti in tale distribuzione. L'elenco delle versioni supportate di HDInsight viene continuamente aggiornato per offrire i componenti dell'ecosistema Hadoop e le correzioni più recenti. Verificare sempre di fare riferimento alle informazioni più recenti della Versione supportata di HDInsight e del tipo di sistema operativo per assicurarsi di usare la versione supportata di HDInsight.
Important
Attualmente, i servizi collegati HDInsight non supportano HBase, Interactive Query (Hive LLAP), Storm.
- Esempio di codice JSON additionalLinkedServiceNames
"additionalLinkedServiceNames": [{
"referenceName": "MyStorageLinkedService2",
"type": "LinkedServiceReference"
}]
Authentication
Autenticazione di un'entità servizio
Il servizio collegato di HDInsight su richiesta richiede un'autenticazione dell'entità servizio per creare i cluster HDInsight per conto dell'utente. Per usare l'autenticazione del principale del servizio, registrare un'entità applicazione in Microsoft Entra ID e assegnargli il ruolo di Contributor della sottoscrizione o del gruppo di risorse in cui è creato il cluster HDInsight. Per i passaggi dettagliati, vedere Usare il portale per creare un'applicazione Microsoft Entra e un'entità servizio in grado di accedere a risorse. Prendere nota dei valori seguenti che si usano per definire il servizio collegato:
- ID dell'applicazione
- Chiave applicazione
- ID del locatario
Usare l'autenticazione basata su entità servizio specificando le proprietà seguenti:
| Property | Description | Required |
|---|---|---|
| servicePrincipalId | Specificare l'ID client dell'applicazione. | Yes |
| servicePrincipalKey | Specificare la chiave dell'applicazione. | Yes |
| tenant | Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. | Yes |
Autenticazione dell'identità gestita
Quando si utilizza l'autenticazione tramite identità gestita per i servizi collegati HDInsight di Azure su richiesta, assicurarsi che l'oggetto Identità gestita disponga del ruolo di Collaboratore per il gruppo di risorse.
Gli account di storage primari di ADLS Gen2 supportano ora l'autenticazione basata su Identità gestita assegnata dall'utente (UAMI) oltre all'autenticazione basata su chiavi esistente. L'UAMI deve avere autorizzazioni di proprietario dei dati BLOB Storage per l'account storage primario.
Limitazioni:
- L'account di storage primario DI ADLS Gen2 e l'UAMI devono trovarsi nello stesso gruppo di risorse del gruppo di risorse usato per creare il cluster HDInsight su richiesta.
- Il nome dell'oggetto credenziale per UAMI in Data Factory deve corrispondere esattamente al nome UAMI.
Per altre informazioni, vedere Creare Azure HDInsight - Azure Data Lake Storage Gen2 - portal e Managed identities in Azure HDInsight
Proprietà avanzate
È inoltre possibile specificare le seguenti proprietà per la configurazione granulare del cluster HDInsight su richiesta.
| Property | Description | Required |
|---|---|---|
| coreConfiguration | Specifica i parametri di configurazione di base (ad esempio core-site.xml) per il cluster HDInsight da creare. | No |
| hBaseConfiguration | Specifica i parametri di configurazione HBase (hbase-site.xml) per il cluster HDInsight. | No |
| hdfsConfiguration | Specifica i parametri di configurazione HDFS (hdfs-site.xml) per il cluster HDInsight. | No |
| hiveConfiguration | Specifica i parametri di configurazione hive (hive-site.xml) per il cluster HDInsight. | No |
| mapReduceConfiguration | Specifica i parametri di configurazione MapReduce (mapred-site.xml) per il cluster HDInsight. | No |
| oozieConfiguration | Specifica i parametri di configurazione Oozie (oozie-site.xml) per il cluster HDInsight. | No |
| stormConfiguration | Specifica i parametri di configurazione Storm (storm-site.xml) per il cluster HDInsight. | No |
| yarnConfiguration | Specifica i parametri di configurazione Yarn (yarn-site.xml) per il cluster HDInsight. | No |
- Esempio: configurazione del cluster HDInsight on demand con le proprietà avanzate
{
"name": " HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterSize": 16,
"timeToLive": "01:30:00",
"hostSubscriptionId": "<subscription ID>",
"servicePrincipalId": "<service principal ID>",
"servicePrincipalKey": {
"value": "<service principal key>",
"type": "SecureString"
},
"tenant": "<tenant id>",
"clusterResourceGroup": "<resource group name>",
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
},
"coreConfiguration": {
"templeton.mapper.memory.mb": "5000"
},
"hiveConfiguration": {
"templeton.mapper.memory.mb": "5000"
},
"mapReduceConfiguration": {
"mapreduce.reduce.java.opts": "-Xmx4000m",
"mapreduce.map.java.opts": "-Xmx4000m",
"mapreduce.map.memory.mb": "5000",
"mapreduce.reduce.memory.mb": "5000",
"mapreduce.job.reduce.slowstart.completedmaps": "0.8"
},
"yarnConfiguration": {
"yarn.app.mapreduce.am.resource.mb": "5000",
"mapreduce.map.memory.mb": "5000"
},
"additionalLinkedServiceNames": [{
"referenceName": "MyStorageLinkedService2",
"type": "LinkedServiceReference"
}]
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
Dimensioni dei nodi
È possibile specificare le dimensioni dei nodi head, di dati e zookeeper usando le proprietà seguenti:
| Property | Description | Required |
|---|---|---|
| headNodeSize | Specifica le dimensioni del nodo head Il valore predefinito è Standard_D3. Vedere la sezione Specificare le dimensioni dei nodi per informazioni dettagliate. | No |
| dataNodeSize | Specifica le dimensioni del nodo dei dati. Il valore predefinito è Standard_D3. | No |
| zookeeperNodeSize | Specifica le dimensioni del nodo Zookeeper. Il valore predefinito è Standard_D3. | No |
- Specificazione delle dimensioni dei nodi Vedere l'articolo Dimensioni delle macchine virtuali per il valore stringa che devi specificare per le proprietà indicate nella sezione precedente. I valori devono essere conformi a CMDLET e API a cui si fa riferimento nell'articolo. Come si vede nell'articolo, il nodo dei dati di grandi dimensioni (per impostazione predefinita) ha 7 GB di memoria, che potrebbe non essere adatto al proprio scenario.
Per creare nodi head e nodi di lavoro di dimensioni D4, specificare Standard_D4 come valore per le proprietà headNodeSize e dataNodeSize.
"headNodeSize": "Standard_D4",
"dataNodeSize": "Standard_D4",
Se si specifica un valore errato per queste proprietà, è possibile che venga visualizzato l'errore seguente: Impossibile creare il cluster. Eccezione: impossibile completare l'operazione di creazione del cluster. L'operazione non è riuscita con codice '400'. Nello stato del cluster è apparso il messaggio 'Errore'. Messaggio: 'PreClusterCreationValidationFailure'. Quando si verifica questo errore, assicurarsi di usare il nome di
Ambiente di calcolo “bring your own”
In questo tipo di configurazione, gli utenti possono registrare un ambiente informatico già esistente come servizio collegato. L'ambiente di elaborazione viene gestito dall'utente e il servizio viene utilizzato per eseguire le attività.
Questo tipo di configurazione è supportato per gli ambienti di calcolo seguenti:
- Azure HDInsight
- Azure Batch
- Azure Machine Learning
- Azure Data Lake Analytics
- Azure SQL DB, Azure Synapse Analytics, SQL Server
Servizio collegato di Azure HDInsight
È possibile creare un servizio collegato Azure HDInsight per registrare il proprio cluster HDInsight con una data factory o un'area di lavoro di Synapse.
Esempio di utilizzo dell'autenticazione di base
{
"name": "HDInsightLinkedService",
"properties": {
"type": "HDInsight",
"typeProperties": {
"clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
"userName": "username",
"password": {
"value": "passwordvalue",
"type": "SecureString"
},
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Esempio di uso dell'identità gestita assegnata dal sistema
{
"name": "HDInsightLinkedService",
"properties": {
"type": "HDInsight",
"typeProperties": {
"clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
"clusterAuthType": "SystemAssignedManagedIdentity",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Esempio di uso dell'identità gestita assegnata dall'utente
{
"name": "HDInsightLinkedService",
"properties": {
"type": "HDInsight",
"typeProperties": {
"clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
"clusterAuthType": "UserAssignedManagedIdentity",
"credential": {
"referenceName": "CredentialName",
"type": "CredentialReference"
},
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Properties
| Property | Description | Required |
|---|---|---|
| type | La proprietà type deve essere impostata su HDInsight. | Yes |
| clusterUri | L'URI del cluster HDInsight. | Yes |
| username | Specifica il nome dell'utente da utilizzare per connettersi a un cluster HDInsight esistente. | Yes |
| password | Specifica la password per l'account utente. | Yes |
| linkedServiceName | Nome del servizio collegato Azure Storage che fa riferimento al Azure blob storage usato dal cluster HDInsight. Attualmente non è possibile specificare un servizio collegato Azure Data Lake Storage (generazione 2) per questa proprietà. Se il cluster HDInsight ha accesso al Data Lake Store, è possibile accedere ai dati nell'Azure Data Lake Storage (Gen 2) dagli script Hive/Pig. |
Yes |
| isEspEnabled | Specificare "true" se il cluster HDInsight è abilitato per Enterprise Security Package . Il valore predefinito è 'false'. | No |
| connectVia | Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. Per il cluster HDInsight abilitato per l'Enterprise Security Package (ESP), utilizzare un runtime di integrazione autogestito, che abbia una connessione visibile al cluster o che debba essere distribuito all'interno della stessa Rete Virtuale del cluster ESP HDInsight. |
No |
| clusterAuthType | Specificare il tipo di autenticazione del cluster HDInsight. I tipi di autenticazione supportati sono "BasicAuth", "SystemAssignedManagedIdentity", "UserAssignedManagedIdentity". | Obbligatorio per l'uso dell'autenticazione tramite Identità Gestite. Se il campo non è presente, per impostazione predefinita verrà utilizzata l'autenticazione di base. |
| credential | Specificare il riferimento delle credenziali contenente informazioni sull'oggetto Identità gestita per il cluster HDInsight. | Obbligatorio solo per l'autenticazione "UserAssignedManagedIdentity" |
Authentication
Il servizio collegato Azure Storage per ADLS Gen2 supporta ora identità gestite assegnate dal sistema e assegnate dall'utente oltre ai metodi di autenticazione esistenti. Questo supporto è disponibile per impostazione predefinita quando si usa Azure Integration Runtime (Azure IR) ed è supportato in Integration Runtime self-hosted (SHIR) a partire dalla versione 5.55.9306.2 o successiva. Per Azure Blob Storage, il servizio collegato Azure Storage continua a supportare solo l'autenticazione della chiave dell'account. L'autenticazione dell'identità gestita del cluster è ora disponibile per impostazione predefinita quando si utilizza Azure IR ed è supportata su SHIR a partire dalla versione 5.58 o successive. Quando si crea un cluster, è possibile usare un solo metodo di autenticazione per ogni cluster. Per informazioni dettagliate sulla creazione e la gestione di cluster con identità gestita, vedere Creare e gestire Azure cluster HDInsight con l'autenticazione entra ID
Important
HDInsight supporta più versioni cluster di Hadoop che possono essere distribuite. Ogni versione scelta crea una versione specifica della distribuzione HDP (Hortonworks Data Platform) e un set di componenti contenuti in tale distribuzione. L'elenco delle versioni supportate di HDInsight viene continuamente aggiornato per offrire i componenti dell'ecosistema Hadoop e le correzioni più recenti. Verificare sempre di fare riferimento alle informazioni più recenti della Versione supportata di HDInsight e del tipo di sistema operativo per assicurarsi di usare la versione supportata di HDInsight.
Important
Attualmente, i servizi collegati HDInsight non supportano HBase, Interactive Query (Hive LLAP), Storm.
Servizio collegato Azure Batch
Note
È consigliabile usare il modulo Az PowerShell Azure per interagire con Azure. Per iniziare, vedere Installare Azure PowerShell. Per informazioni su come eseguire la migrazione al modulo Az PowerShell, vedere Migrate Azure PowerShell da AzureRM ad Az.
È possibile creare un servizio collegato Azure Batch per registrare un pool Batch di macchine virtuali (VM) in un'area di lavoro dati o in un'area di lavoro Synapse. È possibile eseguire attività personalizzate usando Azure Batch.
Se sei nuovo al servizio Azure Batch, consulta i seguenti articoli:
- Azure Batch nozioni di base per una panoramica del servizio Azure Batch.
- New-AzBatchAccount cmdlet per creare un account Azure Batch (o) Azure portal per creare l'account Azure Batch usando Azure portal. Per istruzioni dettagliate sull'uso del cmdlet, vedere l'articolo Utilizzo di PowerShell per gestire un account Azure Batch.
- cmdlet New-AzBatchPool per creare un pool di Azure Batch.
Important
Quando si crea un nuovo pool di Azure Batch, è necessario usare 'VirtualMachineConfiguration' e NON 'CloudServiceConfiguration'.
Example
{
"name": "AzureBatchLinkedService",
"properties": {
"type": "AzureBatch",
"typeProperties": {
"accountName": "batchaccount",
"accessKey": {
"type": "SecureString",
"value": "access key"
},
"batchUri": "https://batchaccount.region.batch.azure.com",
"poolName": "poolname",
"linkedServiceName": {
"referenceName": "StorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Properties
| Property | Description | Required |
|---|---|---|
| type | La proprietà type deve essere impostata su AzureBatch. | Yes |
| accountName | Nome dell'account Azure Batch. | Yes |
| accessKey | Chiave di accesso per l'account Azure Batch. | Yes |
| batchUri | URL per il tuo account Azure Batch, nel formato https://batchaccountname.region.batch.azure.com. | Yes |
| poolName | Nome del pool di macchine virtuali. | Yes |
| linkedServiceName | Nome del servizio di collegamento Azure Storage associato a questo servizio di collegamento Azure Batch. Questo servizio collegato viene usato per organizzare i file necessari per eseguire l'attività. | Yes |
| connectVia | Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. | No |
servizio collegato Machine Learning Studio (versione classica)
Important
Il supporto per Azure Machine Learning Studio (versione classica) terminerà il 31 agosto 2024. È consigliabile passare a Azure Machine Learning entro tale data.
A partire dal 1° dicembre 2021, non è possibile creare nuove risorse di Machine Learning Studio (versione classica) (area di lavoro e piano di servizio Web). Fino al 31 agosto 2024, è possibile continuare a usare gli esperimenti e i servizi Web esistenti di Machine Learning Studio (versione classica). Per altre informazioni, vedere:
- Migrare verso Azure Machine Learning da Machine Learning Studio (versione classica)
- Che cos'è Azure Machine Learning?
Machine Learning Studio (versione classica) è in fase di ritiro e potrebbe non essere aggiornato in futuro.
Si crea un servizio collegato Machine Learning Studio (versione classica) per registrare un endpoint di assegnazione dei punteggi batch di Machine Learning Studio (versione classica) in un'area di lavoro di Data Factory o Synapse.
Example
{
"name": "AzureMLLinkedService",
"properties": {
"type": "AzureML",
"typeProperties": {
"mlEndpoint": "https://[batch scoring endpoint]/jobs",
"apiKey": {
"type": "SecureString",
"value": "access key"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Properties
| Property | Description | Required |
|---|---|---|
| Type | La proprietà type deve essere impostata su: AzureML. | Yes |
| mlEndpoint | L’URL del batch punteggio. | Yes |
| apiKey | Modello dell'area di lavoro pubblicato di API. | Yes |
| updateResourceEndpoint | L'URL della risorsa di aggiornamento per un endpoint del servizio Web studio di Azure Machine Learning (versione classica) usato per aggiornare il servizio Web predittivo con il file del modello con training | No |
| servicePrincipalId | Specificare l'ID client dell'applicazione. | Obbligatorio se è specificato updateResourceEndpoint |
| servicePrincipalKey | Specificare la chiave dell'applicazione. | Obbligatorio se è specificato updateResourceEndpoint |
| tenant | Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. | Obbligatorio se è specificato updateResourceEndpoint |
| connectVia | Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. | No |
servizio collegato di Azure Machine Learning
Si crea un servizio collegato Azure Machine Learning per connettere un'area di lavoro Azure Machine Learning a una data factory o a un'area di lavoro di Synapse.
Note
Attualmente è supportata solo l'autenticazione tramite service principal per il servizio Azure Machine Learning collegato.
Example
{
"name": "AzureMLServiceLinkedService",
"properties": {
"type": "AzureMLService",
"typeProperties": {
"subscriptionId": "subscriptionId",
"resourceGroupName": "resourceGroupName",
"mlWorkspaceName": "mlWorkspaceName",
"servicePrincipalId": "service principal id",
"servicePrincipalKey": {
"value": "service principal key",
"type": "SecureString"
},
"tenant": "tenant ID"
},
"connectVia": {
"referenceName": "<name of Integration Runtime?",
"type": "IntegrationRuntimeReference"
}
}
}
Properties
| Property | Description | Required |
|---|---|---|
| Type | La proprietà type deve essere impostata su: AzureMLService. | Yes |
| subscriptionId | ID sottoscrizione Azure | Yes |
| resourceGroupName | name | Yes |
| mlWorkspaceName | Azure Machine Learning nome dell'area di lavoro | Yes |
| servicePrincipalId | Specificare l'ID client dell'applicazione. | Yes |
| servicePrincipalKey | Specificare la chiave dell'applicazione. | Yes |
| tenant | Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. | Obbligatorio se è specificato updateResourceEndpoint |
| connectVia | Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. | No |
Azure Data Lake Analytics servizio associato
Si crea un servizio collegato Azure Data Lake Analytics per collegare un servizio di calcolo Azure Data Lake Analytics a un'area di lavoro di Data Factory o Synapse. L'attività di U-SQL Data Lake Analytics nella pipeline si riferisce a questo servizio collegato.
Example
{
"name": "AzureDataLakeAnalyticsLinkedService",
"properties": {
"type": "AzureDataLakeAnalytics",
"typeProperties": {
"accountName": "adftestaccount",
"dataLakeAnalyticsUri": "azuredatalakeanalytics URI",
"servicePrincipalId": "service principal id",
"servicePrincipalKey": {
"value": "service principal key",
"type": "SecureString"
},
"tenant": "tenant ID",
"subscriptionId": "<optional, subscription ID of ADLA>",
"resourceGroupName": "<optional, resource group name of ADLA>"
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Properties
| Property | Description | Required |
|---|---|---|
| type | La proprietà type deve essere impostata su AzureDataLakeAnalytics. | Yes |
| accountName | Nome account di Azure Data Lake Analytics. | Yes |
| dataLakeAnalyticsUri | Azure Data Lake Analytics URI. | No |
| subscriptionId | ID sottoscrizione Azure | No |
| resourceGroupName | Nome del gruppo di risorse di Azure | No |
| servicePrincipalId | Specificare l'ID client dell'applicazione. | Yes |
| servicePrincipalKey | Specificare la chiave dell'applicazione. | Yes |
| tenant | Specificare le informazioni sul tenant (nome di dominio o ID tenant) in cui si trova l'applicazione. È possibile recuperarlo passando il puntatore del mouse nell'angolo superiore destro del Azure portal. | Yes |
| connectVia | Il Integration Runtime da utilizzare per inviare le attività a questo servizio collegato. È possibile usare Azure Integration Runtime o Integration Runtime self-hosted. Se non specificato, usa il Azure Integration Runtime predefinito. | No |
Servizio collegato Azure Databricks
È possibile creare servizio collegato Azure Databricks per registrare un'area di lavoro Databricks che usi per eseguire i carichi di lavoro Databricks (notebook, jar, python).
Important
I servizi collegati di Databricks supportano i pool di istanze e l'autenticazione dell'identità gestita assegnata dal sistema.
Esempio - Uso di un nuovo cluster dei processi in Databricks
{
"name": "AzureDatabricks_LS",
"properties": {
"type": "AzureDatabricks",
"typeProperties": {
"domain": "https://eastus.azuredatabricks.net",
"newClusterNodeType": "Standard_D3_v2",
"newClusterNumOfWorker": "1:10",
"newClusterVersion": "4.0.x-scala2.11",
"accessToken": {
"type": "SecureString",
"value": "YourAccessToken"
}
}
}
}
Esempio - Uso di un cluster interattivo esistente in Databricks
{
"name": " AzureDataBricksLinkedService",
"properties": {
"type": " AzureDatabricks",
"typeProperties": {
"domain": "https://westeurope.azuredatabricks.net",
"accessToken": {
"type": "SecureString",
"value": "YourAccessToken"
},
"existingClusterId": "{clusterId}"
}
}
Properties
| Property | Description | Required |
|---|---|---|
| name | Nome del servizio collegato | Yes |
| type | La proprietà type deve essere impostata su: Azure Databricks. | Yes |
| domain | Specificare di conseguenza l'area Azure in base all'area dell'area di lavoro di Databricks. Esempio: https://eastus.azuredatabricks.net | Yes |
| accessToken | Access token è necessario affinché il servizio esegua l'autenticazione per Azure Databricks. Il token di accesso deve essere generato dall'area di lavoro Databricks. I passaggi più dettagliati per trovare il token di access sono disponibili here | No |
| MSI | Usare l'identità gestita del servizio (assegnata dal sistema) per eseguire l'autenticazione per Azure Databricks. Non è necessario Access Token quando si usa l'autenticazione 'MSI'. Altre informazioni sull'autenticazione dell'identità gestita sono disponibili here | No |
| existingClusterId | ID cluster di un cluster esistente in cui eseguire tutti i processi. Dovrebbe essere un cluster interattivo già creato. Se il cluster smette di rispondere, potrebbe essere necessario riavviarlo manualmente. Databricks suggerisce di eseguire i processi su nuovi cluster per una maggiore affidabilità. È possibile trovare l'ID cluster di un cluster interattivo nell'area di lavoro di Databricks -> Cluster -> Nome cluster interattivo -> Configurazione -> Tag. Altri dettagli | No |
| instancePoolId | ID pool di istanze di un pool esistente nell'area di lavoro di Databricks. | No |
| newClusterVersion | Versione Spark del cluster. Crea un cluster dei processi in Databricks. | No |
| newClusterNumOfWorker | Numero di nodi del ruolo di lavoro che il cluster dovrebbe avere. Un cluster ha un driver Spark e num_ruoli_lavoro executor per un totale di num_ruoli_lavoro + 1 nodi Spark. Una stringa in formato Int32, come "1", significa che numOfWorker ha valore 1 oppure "1:10" indica il ridimensionamento automatico da 1 come valore minimo a 10 come valore massimo. | No |
| newClusterNodeType | Questo campo codifica, con un solo valore, le risorse disponibili in ognuno dei nodi Spark del cluster. Ad esempio, è possibile effettuare il provisioning e l'ottimizzazione della memoria dei nodi Spark o calcolare i carichi di lavoro intensivi. Questo campo è obbligatorio per il nuovo cluster | No |
| newClusterSparkConf | Set di coppia chiave-valore di configurazione Spark facoltative specificate dall'utente. Gli utenti possono anche passare una stringa di opzioni JVM aggiuntive al driver e agli executor rispettivamente tramite spark.driver.extraJavaOptions e spark.executor.extraJavaOptions. | No |
| newClusterInitScripts | set di script facoltativi di inizializzazione definiti dall'utente per il nuovo cluster. È possibile specificare gli script init nei file dell'area di lavoro (scelta consigliata) o tramite il percorso DBFS (legacy). | No |
Azure SQL Database servizio collegato
Creare un servizio collegato Azure SQL e usarlo con l'attività Stored Procedure per richiamare una stored procedure da una pipeline. Per informazioni dettagliate su questo servizio collegato, vedere Azure SQL Connector.
servizio collegato Azure Synapse Analytics
Crea un servizio collegato Azure Synapse Analytics e utilizzalo con l'attività Stored Procedure per richiamare una "stored procedure" da una pipeline. Vedere Azure Synapse Analytics Connector articolo per informazioni dettagliate su questo servizio collegato.
Servizio collegato di SQL Server
Crea un servizio collegato SQL Server e usalo con l'attività Stored Procedure per richiamare una stored procedure da una pipeline. Vedere SQL Server connector articolo per informazioni dettagliate su questo servizio collegato.
servizio collegato di Azure Synapse Analytics (Artifacts)
Crei un servizio collegato di Azure Synapse Analytics (Artifacts) e lo usi con l'attività Synapse Notebook e l'attività di definizione del job di Synapse Spark.
Example
{
"name": "AzureSynapseArtifacts",
"type": "Microsoft.DataFactory/factories/linkedservice",
"properties": {
"properties": {
"a":{
"type": "String"
}
},
"annotations": [],
"type": "AzureSynapseArtifacts",
"typeProperties": {
"endpoint": "@{linkedService().a}",
"authentication": "MSI",
"workspaceResourceId": ""
},
"ConnectVia":{
"referenceName": "integrationRuntime1",
"type": "IntegrationRuntimeReference"
}
}
}
Properties
| Property | Description | Required |
|---|---|---|
| name | Nome del servizio collegato | Yes |
| description | descrizione del servizio collegato | No |
| annotations | annotazione del servizio collegato | No |
| type | La proprietà type deve essere impostata su AzureSynapseArtifacts | Yes |
| endpoint | URL di Azure Synapse Analytics | Yes |
| authentication | L'impostazione predefinita è Identità gestita assegnata dal sistema | Yes |
| workspaceResourceId | ID risorsa area di lavoro | Yes |
| connectVia | Integration runtime da usare per connettersi all'archivio dati. È possibile usare Azure Integration Runtime. Se non specificato, usa il Azure Integration Runtime predefinito. L'integration runtime autogestito non è attualmente supportato. | Yes |
servizio collegato a Funzione di Azure
Crei un servizio collegato Azure Function e lo usi con l'attività Azure Function per eseguire Azure Functions in una pipeline. Il tipo restituito della funzione Azure deve essere un JObject valido. (Tenere presente che JArraynon è un JObject.) Qualsiasi tipo restituito diverso da JObject ha esito negativo e genera l'errore utente il contenuto della risposta non è un JObject valido.
| Property | Description | Required |
|---|---|---|
| type | La proprietà type deve essere impostata su: AzureFunction | yes |
| URL dell'app per le funzioni | URL per l'app per le funzioni Azure. Il formato è https://<accountname>.azurewebsites.net. Questo URL è il valore nella sezione URL quando si visualizza l'app delle funzioni nel portale di Azure |
yes |
| tasto funzione | Chiave di accesso per la funzione Azure. Fare clic sulla sezione Gestisci per la rispettiva funzione e copiare la chiave della funzione o la chiave host. Altre informazioni sono disponibili qui: Lavora con chiavi di accesso | yes |
Contenuti correlati
Per un elenco delle attività di trasformazione supportate, vedere Trasformare i dati.