Freigeben über


Von Azure Data Factory und Synapse pipelines unterstützte Computeumgebungen

GILT FÜR DIE FOLGENDEN BEREICHE: Azure Data Factory Azure Synapse Analytics

Tip

Probieren Sie Data Factory in Microsoft Fabric aus, einer All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alles ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!

Important

Der Support für Azure Machine Learning Studio (klassisch) endet am 31. August 2024. Es wird empfohlen, bis zu diesem Datum zu Azure Machine Learning zu wechseln.

Ab dem 1. Dezember 2021 können Sie keine neuen Machine Learning Studio-Ressourcen (klassische) Ressourcen (Arbeitsbereich und Webdienstplan) erstellen. Bis zum 31. August 2024 können Sie weiterhin die vorhandenen Experimente und Webdienste von Machine Learning Studio (klassische) verwenden. Weitere Informationen finden Sie unter

Machine Learning Studio(klassische) Dokumentation wird eingestellt und wird möglicherweise in Zukunft nicht aktualisiert.

In diesem Artikel werden verschiedene Compute-Umgebungen beschrieben, mit denen Sie Daten verarbeiten oder transformieren können. Darüber hinaus werden Einzelheiten zu verschiedenen Konfigurationen beschrieben (bedarfsgesteuerte Compute-Umgebung im Vergleich zu einer eigenen Compute-Umgebung). Diese beiden Konfigurationen werden unterstützt, wenn Sie verknüpfte Dienste zum Verknüpfen dieser Compute-Umgebungen konfigurieren.

Die folgende Tabelle enthält eine Liste unterstützter Compute-Umgebungen und die Aktivitäten, die darin ausgeführt werden können.

Compute-Umgebung Activities
On-demand HDInsight-Cluster oder your own HDInsight Cluster Hive, Pig, Spark, MapReduce, Hadoop Streaming
Azure Batch Custom
ML Studio (klassisch) Aktivitäten in ML Studio (klassisch): Batchausführung und Ressourcenaktualisierung
Azure Machine Learning Azure Machine Learning Pipeline ausführen
Azure Data Lake Analytics Data Lake Analytics U-SQL
Azure SQL, Azure Synapse Analytics, SQL Server Gespeicherte Prozedur
Azure Databricks Laptop, Jar, Python
Azure Synapse Analytics (Artifacts) Synapse-Notebook-Aktivität, Synapse Spark-Auftragsdefinition
Azure Function Azure Funktionsaktivität

HDInsight-Compute-Umgebung

Ausführliche Informationen zu den unterstützten Speicher verknüpften Diensttypen für die Konfiguration in On-Demand- und BYOC-Umgebungen (Bring your own compute) finden Sie in der folgenden Tabelle.

In Compute verknüpfter Dienst Objektname Description Blob ADLS Gen2 Azure SQL DB ADLS Gen 1
On-demand linkedServiceName Azure Storage verbundener Dienst, der vom On-Demand-Cluster zum Speichern und Verarbeiten von Daten verwendet werden soll. Yes Yes No No
additionalLinkedServiceNames Gibt zusätzliche Speicherkonten für den verknüpften HDInsight-Dienst an, um sie in Ihrem Auftrag zu registrieren. Yes No No No
hcatalogLinkedServiceName Der Name des von Azure SQL verknüpften Dienstes, der auf die HCatalog-Datenbank verweist. Der On-Demand-HDInsight-Cluster wird mithilfe des Azure SQL database als Metastore erstellt. No No Yes No
BYOC linkedServiceName Der Verweis auf den verknüpften Azure Storage-Dienst. Yes Yes No No
additionalLinkedServiceNames Gibt zusätzliche Speicherkonten für den verknüpften HDInsight-Dienst an, um sie in Ihrem Auftrag zu registrieren. No No No No
hcatalogLinkedServiceName Ein Verweis auf den verknüpften Azure SQL-Dienst, der die HCatalog-Datenbank referenziert. No No No No

Azure HDInsight bedarfsabhängig verknüpfter Dienst

Bei dieser Konfiguration wird die Compute-Umgebung vollständig vom Dienst verwaltet. Der Dienst erstellt diese Umgebung automatisch, bevor ein Auftrag zur Verarbeitung von Daten übermittelt wird. Sobald der Auftrag abgeschlossen wurde, wird die Umgebung entfernt. Sie können einen verknüpften Dienst für die bedarfsgesteuerte Compute-Umgebung erstellen, diesen konfigurieren und differenzierte Einstellungen für Auftragsausführung, Clusterverwaltung und Bootstrappingaktionen festlegen.

Note

Die On-Demand-Konfiguration wird derzeit nur für Azure HDInsight-Cluster unterstützt. Azure Databricks unterstützt auch On-Demand-Aufträge mithilfe von Auftragsclustern. Weitere Informationen finden Sie unter Azure databricks linked service.

Der Dienst kann zum Verarbeiten von Daten automatisch einen bedarfsgesteuerten HDInsight-Cluster erstellen. Der Cluster wird in derselben Region wie das Speicherkonto (linkedServiceName-Eigenschaft in der JSON) erstellt, das dem Cluster zugeordnet ist. Das Speicherkonto must soll ein allgemeiner Azure Storage-Standardkonto sein.

Beachten Sie die folgenden wichtigen Punkte zu on-demand HDInsight Linked Service:

  • Der On-Demand-HDInsight-Cluster wird unter Ihrem Azure-Abonnement erstellt. Sie können den Cluster in Ihrem Azure-Portal sehen, wenn der Cluster läuft und betriebsbereit ist.
  • Die Protokolle für Aufträge, die auf einem On-Demand-HDInsight-Cluster ausgeführt werden, werden in das dem HDInsight-Cluster zugeordnete Speicherkonto kopiert. Die in Ihrer Definition des verknüpften Diensts definierten Elemente clusterUserName, clusterPassword, clusterSshUserName und clusterSshPassword werden während des Lebenszyklus des Clusters zur Anmeldung bei dem Cluster für die eingehende Problembehandlung verwendet.
  • Ihnen wird nur die Zeit in Rechnung gestellt, in der der HDInsight-Cluster verfügbar ist und Aufträge ausführt.
  • Sie können eine Script Action mit dem Azure HDInsight-verknüpften On-Demand-Dienst verwenden.

Important

Normalerweise dauert es 20 Minuten oder mehr, um einen Azure HDInsight-Cluster bei Bedarf bereitzustellen.

Beispiel für die Verwendung des Dienstprinzipalschlüssels

Die folgende JSON definiert einen bedarfsgesteuerten Linux-basierten mit HDInsight verknüpften Dienst. Der Dienst erstellt automatisch einen Linux-basierten HDInsight-Cluster , um die erforderliche Aktivität zu verarbeiten.

{
  "name": "HDInsightOnDemandLinkedService",
  "properties": {
    "type": "HDInsightOnDemand",
    "typeProperties": {
      "clusterType": "hadoop",
      "clusterSize": 1,
      "timeToLive": "00:15:00",
      "hostSubscriptionId": "<subscription ID>",
      "servicePrincipalId": "<service principal ID>",
      "servicePrincipalKey": {
        "value": "<service principal key>",
        "type": "SecureString"
      },
      "tenant": "<tenant id>",
      "clusterResourceGroup": "<resource group name>",
      "clusterResourceGroupAuthType": "ServicePrincipalKey",
      "version": "3.6",
      "osType": "Linux",
      "linkedServiceName": {
        "referenceName": "AzureStorageLinkedService",
        "type": "LinkedServiceReference"
      }
    },
    "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
  }
}

Beispiel für die Verwendung der vom System zugewiesenen verwalteten Identität

Die folgende JSON definiert einen bedarfsgesteuerten Linux-basierten mit HDInsight verknüpften Dienst. Der Dienst erstellt automatisch einen Linux-basierten HDInsight-Cluster , um die erforderliche Aktivität zu verarbeiten.

{
  "name": "HDInsightOnDemandLinkedService",
  "properties": {
    "type": "HDInsightOnDemand",
    "typeProperties": {
      "clusterType": "hadoop",
      "clusterSize": 1,
      "timeToLive": "00:15:00",
      "hostSubscriptionId": "<subscription ID>",
      "clusterResourceGroup": "<resource group name>",
      "clusterResourceGroupAuthType": "SystemAssignedManagedIdentity",
      "version": "3.6",
      "osType": "Linux",
      "linkedServiceName": {
        "referenceName": "AzureStorageLinkedService",
        "type": "LinkedServiceReference"
      }
    },
    "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
  }
}

Beispiel für die Verwendung der vom Benutzer zugewiesenen verwalteten Identität

Die folgende JSON definiert einen bedarfsgesteuerten Linux-basierten mit HDInsight verknüpften Dienst. Der Dienst erstellt automatisch einen Linux-basierten HDInsight-Cluster , um die erforderliche Aktivität zu verarbeiten.

{
  "name": "HDInsightOnDemandLinkedService",
  "properties": {
    "type": "HDInsightOnDemand",
    "typeProperties": {
      "clusterType": "hadoop",
      "clusterSize": 1,
      "timeToLive": "00:15:00",
      "hostSubscriptionId": "<subscription ID>",
      "clusterResourceGroup": "<resource group name>",
      "clusterResourceGroupAuthType": "UserAssignedManagedIdentity",
      "credential": {
            "referenceName": "CredentialName",
            "type": "CredentialReference"
       },
      "version": "3.6",
      "osType": "Linux",
      "linkedServiceName": {
        "referenceName": "AzureStorageLinkedService",
        "type": "LinkedServiceReference"
      }
    },
    "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
  }
}

Important

Der HDInsight-Cluster erstellt einen default-Container in der im JSON angegebenen blob storage (linkedServiceName). HDInsight löscht diesen Container nicht, wenn der Cluster gelöscht wird. Dieses Verhalten ist beabsichtigt. Durch den bedarfsgesteuerten, mit HDInsight verknüpften Dienst wird jedes Mal ein HDInsight-Cluster erstellt, wenn ein Slice verarbeitet werden muss, es sei denn, ein aktiver Cluster (timeToLive) ist vorhanden und wird gelöscht, nachdem die Verarbeitung abgeschlossen ist.

Wenn mehr Aktivitäten ausgeführt werden, werden viele Container in Ihrer Azure blob storage angezeigt. Wenn Sie sie nicht für die Problembehandlung der Aufträge benötigen, sollten Sie sie löschen, um die Speicherkosten zu senken. Die Namen dieser Container folgen einem Muster: adf**yourfactoryorworkspacename**-**linkedservicename**-datetimestamp. Verwenden Sie Tools wie Microsoft Azure Storage Explorer, um Container in Ihrer Azure blob storage zu löschen.

Properties

Property Description Required
type Die Typeigenschaft sollte auf HDInsightOnDemand festgelegt werden. Yes
clusterSize Anzahl der Worker-/Datenknoten im Cluster. Der HDInsight-Cluster wird mit zwei Hauptknoten sowie der Anzahl der Workerknoten erstellt, die Sie für diese Eigenschaft angeben. Die Knoten haben die Größe Standard_D3, die vier Kerne aufweist. Ein Cluster mit vier Workerknoten nutzt also 24 Kerne (4 4 = 16 für die Workerknoten + 2 4 = 8 für die Hauptknoten). Nähere Informationen finden Sie unter Einrichten von Clustern in HDInsight mit Hadoop, Spark, Kafka usw. Yes
linkedServiceName Verknüpfte Azure Storage-Dienst, der vom On-Demand-Cluster zum Speichern und Verarbeiten von Daten verwendet werden soll. Der HDInsight-Cluster wird in derselben Region wie dieses Azure Storage Konto erstellt. Azure HDInsight beschränkt sich auf die Gesamtanzahl der Kerne, die Sie in jeder unterstützten Azure Region verwenden können. Stellen Sie sicher, dass sie genügend Kernkontingente in dieser Azure Region haben, um die erforderliche ClusterSize zu erfüllen. Nähere Informationen finden Sie unter Einrichten von Clustern in HDInsight mit Hadoop, Spark, Kafka usw.

Derzeit können Sie keinen On-Demand-HDInsight-Cluster erstellen, der eine Azure Data Lake Storage (Gen 2) als storage verwendet. Wenn Sie die Ergebnisdaten aus der HDInsight-Verarbeitung in einem Azure Data Lake Storage (Gen 2) speichern möchten, verwenden Sie eine Copy Activity, um die Daten aus dem Azure Blob Storage in die Azure Data Lake Storage (Gen 2) zu kopieren.

Yes
clusterResourceGroup Der HDInsight-Cluster wird in dieser Ressourcengruppe erstellt. Yes
clusterResourceGroupAuthType Geben Sie den Authentifizierungstyp der On-demand-HDInsight-Clusterressourcengruppe an. Unterstützte Authentifizierungstypen sind "ServicePrincipalKey", "SystemAssignedManagedIdentity", "UserAssignedManagedIdentity". Erforderlich für die Verwendung der verwalteten Identitätsauthentifizierung. Wenn das Feld nicht vorhanden ist, wird standardmäßig "ServicePrincipalKey" verwendet.
credential Geben Sie den Anmeldeinformationen an, die das Verwaltete Identitätsobjekt enthalten, das Zugriff auf die Ressourcengruppe hat. Nur erforderlich für den Authentifizierungstyp „UserAssignedManagedIdentity“.
timetolive Die zulässige Leerlaufzeit für den bedarfsgesteuerten HDInsight-Cluster. Gibt an, wie lange der bedarfsgesteuerte HDInsight-Cluster nach dem Abschluss einer Aktivitätsausführung aktiv bleibt, wenn keine anderen aktiven Aufträge im Cluster vorhanden sind. Der minimal zulässige Wert beträgt 5 Minuten (00:05:00).

Beispiel: Wenn eine Aktivitätsausführung 6 Minuten dauert und „timetolive“ auf 5 Minuten festgelegt ist, bleibt der Cluster für 5 Minuten nach den 6 Minuten für die Verarbeitung der Aktivitätsausführung aktiv. Wenn eine weitere Aktivitätsausführung mit einem Zeitfenster von 6 Minuten ausgeführt wird, wird sie von demselben Cluster verarbeitet.

Das Erstellen eines bedarfsgesteuerten HDInsight-Clusters ist ein aufwändiger Vorgang (er kann eine Weile dauern). Verwenden Sie daher diese Einstellung bei Bedarf, um die Leistung des Diensts zu verbessern, indem Sie einen bedarfsgesteuerten HDInsight-Cluster wiederverwenden.

Wenn der timetolive-Wert auf 0 festgelegt wird, wird der Cluster gelöscht, sobald die Aktivitätsausführung abgeschlossen ist. Wenn Sie hingegen einen hohen Wert festlegen, kann der Cluster im Leerlauf bleiben, damit Sie sich zur Problembehandlung anmelden können. Dies kann jedoch hohe Kosten verursachen. Aus diesem Grund ist es wichtig, dass Sie den entsprechenden Wert basierend auf Ihren Anforderungen festlegen.

Wenn der Wert der timetolive-Eigenschaft entsprechend festgelegt ist, können mehrere pipelines die Instanz des On-Demand-HDInsight-Clusters gemeinsam nutzen.
Yes
clusterType Der Typ des zu erstellenden HDInsight-Clusters. Zulässige Werte sind „hadoop“ und „spark“. Wenn Sie hier nichts angeben, lautet der Standardwert „hadoop“. Ein Cluster mit aktiviertem Enterprise-Sicherheitspaket kann nicht auf Abruf erstellt werden. Verwenden Sie stattdessen einen bestehenden Cluster oder bringen Sie Ihre eigene Rechenleistung mit. No
version Version des HDInsight-Clusters. Wenn nichts angegeben wird, ist dies die aktuelle definierte HDInsight-Standardversion. No
hostSubscriptionId Die Abonnement-ID von Azure, die zur Erstellung des HDInsight-Clusters verwendet wird. Wenn nicht angegeben, verwendet sie die Abonnement-ID Ihres Azure Anmeldekontexts. No
clusterNamePrefix Das Präfix des HDI-Clusternamens, ein Zeitstempel, wird am Ende des Clusternamens automatisch angefügt. No
sparkVersion Die Spark-Version, wenn der Clustertyp „Spark“ ist. No
additionalLinkedServiceNames Gibt zusätzliche Speicherkonten für den verknüpften HDInsight-Dienst an, um sie in Ihrem Auftrag zu registrieren. Diese storage Konten müssen sich in derselben Region wie der HDInsight-Cluster befinden, der in derselben Region wie das durch linkedServiceName angegebene storage Konto erstellt wird. No
osType Typ des Betriebssystems. Zulässige Werte sind: Linux und Windows (nur für HDInsight 3.3). Der Standardwert ist „Linux“. No
hcatalogLinkedServiceName Der Name des von Azure SQL verknüpften Dienstes, der auf die HCatalog-Datenbank verweist. Der On-Demand-HDInsight-Cluster wird mithilfe des Azure SQL Database als Metastore erstellt. No
connectVia Die Integration Runtime, die verwendet werden sollen, um die Aktivitäten an diesen HDInsight-verknüpften Dienst zu verteilen. Bei on-Demand-HDInsight-verknüpften Diensten wird nur Azure Integration Runtime unterstützt. Wenn nicht angegeben, wird die Standard-Azure Integration Runtime verwendet. No
clusterUserName Der Benutzername zum Zugriff auf den Cluster. No
clusterPassword Das Kennwort vom Typ sichere Zeichenfolge, um auf den Cluster zuzugreifen. No
clusterSshUserName Der Benutzername zum Herstellen einer SSH-Remoteverbindung mit dem Knoten des Clusters (für Linux). No
clusterSshPassword Das Kennwort als sichere Zeichenfolge zum Herstellen einer SSH-Remoteverbindung mit dem Knoten des Clusters (für Linux). No
scriptActions Geben Sie beim Erstellen bedarfsgesteuerter Cluster Skripts für HDInsight-Clusteranpassungen an.
Derzeit unterstützt das Erstellungstool für die Benutzeroberfläche die Angabe von nur einer Skriptaktion. Sie können diese Einschränkung jedoch durch die Angabe mehrerer Skriptaktionen im JSON-Code beseitigen.
No

Important

HDInsight unterstützt mehrere Hadoop-Clusterversionen, die bereitgestellt werden können. Jede ausgewählte Version erstellt eine bestimmte Version der HDP-Distribution (Hortonworks Data Platform) und eine Reihe von Komponenten innerhalb dieser Distribution. Die Liste der unterstützten Versionen von HDInsight wird ständig aktualisiert, um die aktuellsten Komponenten und Fixes für das Hadoop-Ökosystem bereitzustellen. Nutzen Sie unbedingt stets die aktuellsten Informationen über Unterstützte HDInsight-Versionen, um sicherzustellen, dass Sie die unterstützte Version von HDInsight verwenden.

Important

Derzeit unterstützt HDInsight-verknüpfte Dienste HBase, Interactive Query (Hive LLAP), Storm nicht.

  • additionalLinkedServiceNames (JSON-Beispiel)
"additionalLinkedServiceNames": [{
    "referenceName": "MyStorageLinkedService2",
    "type": "LinkedServiceReference"          
}]

Authentifizierung

Dienstprinzipalauthentifizierung

Der verknüpfte, bedarfsgesteuerte HDInsight-Dienst erfordert eine Dienstprinzipalauthentifizierung, um HDInsight-Cluster in Ihrem Namen zu erstellen. Um die Dienstprinzipalauthentifizierung zu verwenden, registrieren Sie eine Anwendungsentität in Microsoft Entra ID, und gewähren Sie ihr die Contributor Rolle des Abonnements oder der Ressourcengruppe, in der der HDInsight-Cluster erstellt wird. Ausführliche Schritte finden Sie unter Verwenden des Portals zum Erstellen einer Microsoft Entra-Anwendung und eines Dienstprinzipals, der auf Ressourcen zugreifen kann. Notieren Sie sich die folgenden Werte, die Sie zum Definieren des verknüpften Diensts verwenden:

  • Anwendungs-ID
  • Anwendungsschlüssel
  • Mieter-ID

Verwenden Sie die Dienstprinzipalauthentifizierung, indem Sie die folgenden Eigenschaften angeben:

Property Description Required
servicePrincipalId Geben Sie die Client-ID der Anwendung an. Yes
servicePrincipalKey Geben Sie den Schlüssel der Anwendung an. Yes
tenant Geben Sie die Mandanteninformationen (Domänenname oder Mandanten-ID) für Ihre Anwendung an. Sie können es abrufen, indem Sie mit der Maus in der oberen rechten Ecke des Azure-Portals bewegen. Yes

Verwaltete Identitätsauthentifizierung

Stellen Sie bei der Verwendung der Authentifizierung mit verwalteter Identität für die auf Abruf bereitgestellten verknüpften Dienste von Azure HDInsight sicher, dass das Managed Identity-Objekt über die "Mitwirkender"-Rolle zum Zugriff auf die Ressourcengruppe verfügt.

Primäre ADLS Gen2-storage-Konten unterstützen jetzt die vom Benutzer zugewiesene verwaltete Identität (UAMI)-basierte Authentifizierung zusätzlich zur vorhandenen schlüsselbasierten Authentifizierung. Das UAMI muss über Berechtigungen als Daten-Eigentümer von Speicherblobs auf dem primären Speicherkonto verfügen.

Limitations:

  • Das primäre ADLS Gen2-Speicherkonto und das UAMI müssen sich in derselben Ressourcengruppe befinden, die zur Erstellung des HDInsight-Clusters bei Bedarf verwendet wird.
  • Der Name des Anmeldeinformationsobjekts für das UAMI in Data Factory muss exakt mit dem UAMI-Namen übereinstimmen.

Weitere Informationen finden Sie unter Erstellen von Azure HDInsight - Azure Data Lake Storage Gen2 - Portal und Verwaltete Identitäten in Azure HDInsight.

Erweiterte Eigenschaften

Für eine präzisere Konfiguration des bedarfsgesteuerten HDInsight-Clusters können Sie die folgenden Eigenschaften festlegen.

Property Description Required
coreConfiguration Gibt die wichtigsten Konfigurationsparameter (wie in "core-site.xml") für den HDInsight-Cluster an, der erstellt werden soll. No
hBaseConfiguration Gibt die HBase-Konfigurationsparameter (hbase-site.xml) für den HDInsight-Cluster an. No
hdfsConfiguration Gibt die HDFS-Konfigurationsparameter (hdfs-site.xml) für den HDInsight-Cluster an. No
hiveConfiguration Gibt die Hive-Konfigurationsparameter (hive-site.xml) für den HDInsight-Cluster an. No
mapReduceConfiguration Gibt die MapReduce-Konfigurationsparameter (mapred-site.xml) für den HDInsight-Cluster an. No
oozieConfiguration Gibt die Oozie-Konfigurationsparameter (oozie-site.xml) für den HDInsight-Cluster an. No
stormConfiguration Gibt die Storm-Konfigurationsparameter (storm-site.xml) für den HDInsight-Cluster an. No
yarnConfiguration Gibt die Yarn-Konfigurationsparameter (yarn-site.xml) für den HDInsight-Cluster an. No
  • Beispiel: Konfiguration eines bedarfsgesteuerten HDInsight-Clusters mit erweiterten Eigenschaften
{
    "name": " HDInsightOnDemandLinkedService",
    "properties": {
      "type": "HDInsightOnDemand",
      "typeProperties": {
          "clusterSize": 16,
          "timeToLive": "01:30:00",
          "hostSubscriptionId": "<subscription ID>",
          "servicePrincipalId": "<service principal ID>",
          "servicePrincipalKey": {
            "value": "<service principal key>",
            "type": "SecureString"
          },
          "tenant": "<tenant id>",
          "clusterResourceGroup": "<resource group name>",
          "version": "3.6",
          "osType": "Linux",
          "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
            },
            "coreConfiguration": {
                "templeton.mapper.memory.mb": "5000"
            },
            "hiveConfiguration": {
                "templeton.mapper.memory.mb": "5000"
            },
            "mapReduceConfiguration": {
                "mapreduce.reduce.java.opts": "-Xmx4000m",
                "mapreduce.map.java.opts": "-Xmx4000m",
                "mapreduce.map.memory.mb": "5000",
                "mapreduce.reduce.memory.mb": "5000",
                "mapreduce.job.reduce.slowstart.completedmaps": "0.8"
            },
            "yarnConfiguration": {
                "yarn.app.mapreduce.am.resource.mb": "5000",
                "mapreduce.map.memory.mb": "5000"
            },
            "additionalLinkedServiceNames": [{
                "referenceName": "MyStorageLinkedService2",
                "type": "LinkedServiceReference"          
            }]
        }
    },
      "connectVia": {
      "referenceName": "<name of Integration Runtime>",
      "type": "IntegrationRuntimeReference"
    }
}

Knotengrößen

Sie können die Größe der Head-, Daten- und Zookeeper-Knoten mit den folgenden Eigenschaften angeben:

Property Description Required
headNodeSize Gibt die Größe des Hauptknotens an. Der Standardwert ist „Standard_D3“. Weitere Details finden Sie im Abschnitt Knotengrößen angeben. No
dataNodeSize Gibt die Größe des Datenknotens an. Der Standardwert ist „Standard_D3“. No
zookeeperNodeSize Gibt die Größe des Zoo Keeper-Knotens an. Der Standardwert ist „Standard_D3“. No
  • Angeben von Knotengrößen Siehe Sizes of Virtual Machines Artikel für Zeichenfolgenwerte, die Sie für die im vorherigen Abschnitt erwähnten Eigenschaften angeben müssen. Die Werte müssen den CMDLETs und APIs entsprechen, auf die im Artikel verwiesen wird. Wie Sie in diesem Artikel sehen können, hat der Datenknoten „Large“ (Standard) 7 GB Arbeitsspeicher, was für Ihr Szenario möglicherweise nicht ausreichend ist.

Wenn Sie D4-Größen-Kopfknoten und Arbeitsknoten erstellen möchten, geben Sie Standard_D4 als Wert für die Eigenschaften "headNodeSize" und "dataNodeSize" an.

"headNodeSize": "Standard_D4",    
"dataNodeSize": "Standard_D4",

Wenn Sie einen falschen Wert für diese Eigenschaften angeben, wird möglicherweise die folgende Fehlermeldung angezeigt: Fehler beim Erstellen des Clusters. Ausnahme: Vorgang der Clustererstellung kann nicht abgeschlossen werden. Vorgang mit Code ‚400‘ fehlgeschlagen. Cluster hinterließ folgenden Status: "Fehler". Nachricht: 'PreClusterCreationValidationFailure'. Wenn Sie diesen Fehler erhalten, stellen Sie sicher, dass Sie den Namen des CMDLETs & APIs aus der Tabelle im Artikel zu Größen von virtuellen Maschinen verwenden.

Eigene Compute-Umgebung

Bei dieser Konfiguration können Benutzer eine bereits vorhandene Compute-Umgebung als verknüpften Dienst registrieren. Die Compute-Umgebung wird vom Benutzer verwaltet und vom Dienst zum Ausführen von Aktivitäten verwendet.

Diese Art von Konfiguration wird für die folgenden Compute-Umgebungen unterstützt:

  • Azure HDInsight
  • Azure Batch
  • Azure Machine Learning
  • Azure Data Lake Analytics
  • Azure SQL DB, Azure Synapse Analytics, SQL Server

Azure HDInsight-verknüpfter Dienst

Sie können einen verknüpften Azure HDInsight-Dienst erstellen, um Ihren eigenen HDInsight-Cluster mit einer Data Factory oder einem Synapse-Arbeitsbereich zu registrieren.

Beispiel für die Verwendung der Standardauthentifizierung

{
    "name": "HDInsightLinkedService",
    "properties": {
      "type": "HDInsight",
      "typeProperties": {
        "clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
        "userName": "username",
        "password": {
            "value": "passwordvalue",
            "type": "SecureString"
          },
        "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Beispiel für die Verwendung der vom System zugewiesenen verwalteten Identität

{
    "name": "HDInsightLinkedService",
    "properties": {
      "type": "HDInsight",
      "typeProperties": {
        "clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
        "clusterAuthType": "SystemAssignedManagedIdentity",
        "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Beispiel für die Verwendung der vom Benutzer zugewiesenen verwalteten Identität

{
    "name": "HDInsightLinkedService",
    "properties": {
      "type": "HDInsight",
      "typeProperties": {
        "clusterUri": " https://<hdinsightclustername>.azurehdinsight.net/",
         "clusterAuthType": "UserAssignedManagedIdentity",
         "credential": {
                "referenceName": "CredentialName",
                "type": "CredentialReference"
            },
        "linkedServiceName": {
              "referenceName": "AzureStorageLinkedService",
              "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Properties

Property Description Required
type Die Typeigenschaft sollte auf HDInsight festgelegt werden. Yes
clusterUri Der URI des HDInsight-Clusters. Yes
username Geben Sie den Namen des Benutzers ein, der mit einem vorhandenen HDInsight-Cluster verbunden werden soll. Yes
password Geben Sie ein Kennwort für das Benutzerkonto an. Yes
linkedServiceName Name des Azure Storage verknüpften Dienstes, der auf den vom HDInsight-Cluster verwendeten Azure Blob-Speicher verweist.

Derzeit können Sie keinen Azure Data Lake Storage (Gen 2)-verknüpften Dienst für diese Eigenschaft angeben. Wenn der HDInsight-Cluster Zugriff auf den Data Lake-Speicher hat, können Sie auf Daten in der Azure Data Lake Storage (Gen 2) von Hive-/Pig-Scripts zugreifen.

Yes
isEspEnabled Geben Sie 'true' an, wenn der HDInsight-Cluster enterprise Security Package aktiviert ist. Der Standardwert ist 'false'. No
connectVia Die Integration Runtime, die verwendet werden soll, um Aktivitäten an diesen verknüpften Dienst zu übermitteln. Sie können Azure Integration Runtime oder selbst gehostete Integration Runtime verwenden. Wenn nicht angegeben, wird die Standard-Azure Integration Runtime verwendet.
Für mit dem Enterprise Security Package (ESP) aktivierte HDInsight-Cluster verwende eine selbst gehostete Integration Runtime, die Sicht auf den Cluster hat oder innerhalb desselben Virtual Network wie der ESP HDInsight-Cluster bereitgestellt werden sollte.
No
clusterAuthType Geben Sie den HDInsight-Clusterauthentifizierungstyp an. Unterstützte Authentifizierungstypen sind "BasicAuth", "SystemAssignedManagedIdentity", "UserAssignedManagedIdentity". Erforderlich für die Verwendung der verwalteten Identitätsauthentifizierung. Wenn das Feld nicht vorhanden ist, wird standardmäßig "BasicAuth" verwendet.
credential Geben Sie den Anmeldeinformationsverweis an, der die Objektinformationen der verwalteten Identität für den HDInsight-Cluster enthält. Nur erforderlich für den Authentifizierungstyp „UserAssignedManagedIdentity“.

Authentifizierung

Der Azure Storage verknüpfte Dienst für ADLS Gen2 unterstützt nun zusätzlich zu den vorhandenen Authentifizierungsmethoden vom System zugewiesene und vom Benutzer zugewiesene verwaltete Identitäten. Diese Unterstützung ist standardmäßig verfügbar, wenn Azure Integration Runtime (Azure IR) verwendet wird, und ab Version 5.55.9306.2 oder höher in Self-hosted Integration Runtime (SHIR) unterstützt. Für Azure Blob Storage unterstützt der Azure Storage verknüpfte Dienst weiterhin nur die Kontoschlüsselauthentifizierung. Die Clusteridentitätsauthentifizierung ist jetzt standardmäßig verfügbar, wenn Sie Azure IR verwenden, und wird ab Version 5.58 oder höher auf SHIR unterstützt. Beim Erstellen eines Clusters kann pro Cluster nur eine Authentifizierungsmethode verwendet werden. Ausführliche Informationen zum Erstellen und Verwalten von Clustern mit verwalteter Identität finden Sie unter Create and manage Azure HDInsight cluster with Entra ID authentication

Important

HDInsight unterstützt mehrere Hadoop-Clusterversionen, die bereitgestellt werden können. Jede ausgewählte Version erstellt eine bestimmte Version der HDP-Distribution (Hortonworks Data Platform) und eine Reihe von Komponenten innerhalb dieser Distribution. Die Liste der unterstützten Versionen von HDInsight wird ständig aktualisiert, um die aktuellsten Komponenten und Fixes für das Hadoop-Ökosystem bereitzustellen. Nutzen Sie unbedingt stets die aktuellsten Informationen über Unterstützte HDInsight-Versionen, um sicherzustellen, dass Sie die unterstützte Version von HDInsight verwenden.

Important

Derzeit unterstützt HDInsight-verknüpfte Dienste HBase, Interactive Query (Hive LLAP), Storm nicht.

Azure Batch verknüpften Dienst

Note

Es wird empfohlen, das Azure Az PowerShell-Modul für die Interaktion mit Azure zu verwenden. Informationen zum get started finden Sie unter Install Azure PowerShell. Informationen zum Migrieren zum Az PowerShell-Modul finden Sie unter Migrate Azure PowerShell von AzureRM zu Az.

Sie können einen Azure Batch verknüpften Dienst erstellen, um einen Batchpool von virtual machines (VMs) für einen Daten- oder Synapse-Arbeitsbereich zu registrieren. Sie können benutzerdefinierte Aktivitäten mit Azure Batch ausführen.

Lesen Sie die folgenden Artikel, wenn Sie neu beim Azure Batch-Dienst sind.

Important

Beim Erstellen eines neuen Azure Batch Pools muss "VirtualMachineConfiguration" verwendet werden und NICHT "CloudServiceConfiguration".

Example

{
    "name": "AzureBatchLinkedService",
    "properties": {
      "type": "AzureBatch",
      "typeProperties": {
        "accountName": "batchaccount",
        "accessKey": {
          "type": "SecureString",
          "value": "access key"
        },
        "batchUri": "https://batchaccount.region.batch.azure.com",
        "poolName": "poolname",
        "linkedServiceName": {
          "referenceName": "StorageLinkedService",
          "type": "LinkedServiceReference"
        }
      },
      "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
  }

Properties

Property Description Required
type Die Typeigenschaft sollte auf AzureBatch festgelegt werden. Yes
accountName Name des Azure Batch Kontos. Yes
accessKey Access Schlüssel für das Azure Batch Konto. Yes
batchUri URL zu Ihrem Azure Batch Konto im Format https://batchaccountname.region.batch.azure. Com. Yes
poolName Name des Pools für virtuellen Maschinen. Yes
linkedServiceName Name des mit Azure Storage verknüpften Dienstes, der dem mit Azure Batch verknüpften Dienst zugeordnet ist. Dieser verknüpfte Dienst wird für Stagingdateien verwendet, die für die Ausführung der Aktivität benötigt werden. Yes
connectVia Die Integration Runtime, die verwendet werden sollen, um die Aktivitäten an diesen verknüpften Dienst zu verteilen. Sie können Azure Integration Runtime oder selbst gehostete Integration Runtime verwenden. Wenn nicht angegeben, wird die Standard-Azure Integration Runtime verwendet. No

Machine Learning Studio (klassischer) verknüpfter Dienst

Important

Der Support für Azure Machine Learning Studio (klassisch) endet am 31. August 2024. Es wird empfohlen, bis zu diesem Datum zu Azure Machine Learning zu wechseln.

Ab dem 1. Dezember 2021 können Sie keine neuen Machine Learning Studio-Ressourcen (klassische) Ressourcen (Arbeitsbereich und Webdienstplan) erstellen. Bis zum 31. August 2024 können Sie weiterhin die vorhandenen Experimente und Webdienste von Machine Learning Studio (klassisch) verwenden. Weitere Informationen finden Sie unter

Machine Learning Studio(klassische) Dokumentation wird eingestellt und wird möglicherweise in Zukunft nicht aktualisiert.

Sie erstellen einen verknüpften Dienst für Machine Learning Studio (Classic), um einen Batchbewertungsendpunkt von Machine Learning Studio (Classic) für eine Daten-Factory oder einen Synapse-Arbeitsbereich zu registrieren.

Example

{
    "name": "AzureMLLinkedService",
    "properties": {
      "type": "AzureML",
      "typeProperties": {
        "mlEndpoint": "https://[batch scoring endpoint]/jobs",
        "apiKey": {
            "type": "SecureString",
            "value": "access key"
        }
     },
     "connectVia": {
        "referenceName": "<name of Integration Runtime>",
        "type": "IntegrationRuntimeReference"
      }
    }
}

Properties

Property Description Required
Type Die Typeigenschaft sollte auf AzureML festgelegt werden. Yes
mlEndpoint Die Batchbewertungs-URL. Yes
apiKey Die veröffentlichte API des Arbeitsbereichsmodells. Yes
updateResourceEndpoint Die Update Resource URL für einen ML Studio (classic) Web Service Endpunkt, der verwendet wird, um den prädiktiven Web Service mit der trainierten Modelldatei zu aktualisieren No
servicePrincipalId Geben Sie die Client-ID der Anwendung an. Erforderlich, wenn updateResourceEndpoint angegeben wird
servicePrincipalKey Geben Sie den Schlüssel der Anwendung an. Erforderlich, wenn updateResourceEndpoint angegeben wird
tenant Geben Sie die Mandanteninformationen (Domänenname oder Mandanten-ID) für Ihre Anwendung an. Sie können es abrufen, indem Sie mit der Maus in der oberen rechten Ecke des Azure-Portals bewegen. Erforderlich, wenn updateResourceEndpoint angegeben wird
connectVia Die Integration Runtime, die verwendet werden sollen, um die Aktivitäten an diesen verknüpften Dienst zu verteilen. Sie können Azure Integration Runtime oder selbst gehostete Integration Runtime verwenden. Wenn nicht angegeben, wird die Standard-Azure Integration Runtime verwendet. No

Azure Machine Learning verknüpfter Dienst

Sie erstellen einen Azure Machine Learning verknüpften Dienst, um einen Azure Machine Learning Arbeitsbereich mit einem Data Factory- oder Synapse-Arbeitsbereich zu verbinden.

Note

Derzeit wird nur die Dienstprinzipalauthentifizierung für den Azure Machine Learning verknüpften Dienst unterstützt.

Example

{
    "name": "AzureMLServiceLinkedService",
    "properties": {
        "type": "AzureMLService",
        "typeProperties": {
            "subscriptionId": "subscriptionId",
            "resourceGroupName": "resourceGroupName",
            "mlWorkspaceName": "mlWorkspaceName",
            "servicePrincipalId": "service principal id",
            "servicePrincipalKey": {
                "value": "service principal key",
                "type": "SecureString"
            },
            "tenant": "tenant ID"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime?",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Properties

Property Description Required
Type Die Typeigenschaft sollte auf AzureMLService festgelegt werden. Yes
subscriptionId Azure Abonnement-ID Yes
resourceGroupName name Yes
mlWorkspaceName Azure Machine Learning Arbeitsbereichsname Yes
servicePrincipalId Geben Sie die Client-ID der Anwendung an. Yes
servicePrincipalKey Geben Sie den Schlüssel der Anwendung an. Yes
tenant Geben Sie die Mandanteninformationen (Domänenname oder Mandanten-ID) für Ihre Anwendung an. Sie können es abrufen, indem Sie mit der Maus in der oberen rechten Ecke des Azure-Portals bewegen. Erforderlich, wenn updateResourceEndpoint angegeben wird
connectVia Die Integration Runtime, die verwendet werden sollen, um die Aktivitäten an diesen verknüpften Dienst zu verteilen. Sie können Azure Integration Runtime oder selbst gehostete Integration Runtime verwenden. Wenn nicht angegeben, wird die Standard-Azure Integration Runtime verwendet. No

Azure Data Lake Analytics verknüpfter Dienst

Sie erstellen einen Azure Data Lake Analytics verknüpften Dienst, um einen Azure Data Lake Analytics Computedienst mit einem Data Factory- oder Synapse-Arbeitsbereich zu verknüpfen. Die Data Lake Analytics U-SQL-Aktivität in der Pipeline bezieht sich auf diesen verknüpften Dienst.

Example

{
    "name": "AzureDataLakeAnalyticsLinkedService",
    "properties": {
        "type": "AzureDataLakeAnalytics",
        "typeProperties": {
            "accountName": "adftestaccount",
            "dataLakeAnalyticsUri": "azuredatalakeanalytics URI",
            "servicePrincipalId": "service principal id",
            "servicePrincipalKey": {
                "value": "service principal key",
                "type": "SecureString"
            },
            "tenant": "tenant ID",
            "subscriptionId": "<optional, subscription ID of ADLA>",
            "resourceGroupName": "<optional, resource group name of ADLA>"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Properties

Property Description Required
type Die Typeigenschaft sollte auf " AzureDataLakeAnalytics" festgelegt werden. Yes
accountName Azure Data Lake Analytics Kontoname. Yes
dataLakeAnalyticsUri Azure Data Lake Analytics URI. No
subscriptionId Azure Abonnement-ID No
resourceGroupName Azure Ressourcengruppenname No
servicePrincipalId Geben Sie die Client-ID der Anwendung an. Yes
servicePrincipalKey Geben Sie den Schlüssel der Anwendung an. Yes
tenant Geben Sie die Mandanteninformationen (Domänenname oder Mandanten-ID) für Ihre Anwendung an. Sie können es abrufen, indem Sie mit der Maus in der oberen rechten Ecke des Azure-Portals bewegen. Yes
connectVia Die Integration Runtime, die verwendet werden sollen, um die Aktivitäten an diesen verknüpften Dienst zu verteilen. Sie können Azure Integration Runtime oder selbst gehostete Integration Runtime verwenden. Wenn nicht angegeben, wird die Standard-Azure Integration Runtime verwendet. No

Azure-Databricks-Verknüpfter-Dienst

Sie können Azure mit Databricks verknüpften Dienst erstellen, um den Databricks-Arbeitsbereich zu registrieren, den Sie zum Ausführen der Databricks-Workloads(Notizbuch, Jar, Python) verwenden.

Important

Verknüpfte Databricks-Dienste unterstützen Instanzpools und vom System zugewiesene verwaltete Identitätsauthentifizierung.

Beispiel: Verwenden eines neuen Auftragsclusters in Databricks

{
    "name": "AzureDatabricks_LS",
    "properties": {
        "type": "AzureDatabricks",
        "typeProperties": {
            "domain": "https://eastus.azuredatabricks.net",
            "newClusterNodeType": "Standard_D3_v2",
            "newClusterNumOfWorker": "1:10",
            "newClusterVersion": "4.0.x-scala2.11",
            "accessToken": {
                "type": "SecureString",
                "value": "YourAccessToken"
            }
        }
    }
}

Beispiel: Verwenden eines vorhandenen interaktiven Auftragsclusters in Databricks

{
    "name": " AzureDataBricksLinkedService",
    "properties": {
      "type": " AzureDatabricks",
      "typeProperties": {
        "domain": "https://westeurope.azuredatabricks.net",
        "accessToken": {
            "type": "SecureString", 
            "value": "YourAccessToken"
          },
        "existingClusterId": "{clusterId}"
        }
}

Properties

Property Description Required
name Name des verknüpften Diensts Yes
type Die Typeigenschaft sollte auf: Azure Databricks festgelegt werden. Yes
domain Geben Sie die Azure Region entsprechend basierend auf der Region des Databricks-Arbeitsbereichs an. Beispiel: https://eastus.azuredatabricks.net Yes
accessToken Access Token ist erforderlich, damit der Dienst sich bei Azure Databricks authentifiziert. Der Zugangstoken muss aus dem Databricks-Arbeitsbereich generiert werden. Ausführlichere Schritte zum Auffinden des access Tokens finden Sie here No
MSI Verwenden Sie die verwaltete Identität des Diensts (vom System zugewiesen), um sich bei Azure Databricks zu authentifizieren. Sie benötigen kein Access Token bei Verwendung der MSI-Authentifizierung. Weitere Details zur Verwalteten Identitätsauthentifizierung finden Sie here No
existingClusterId Cluster-ID eines vorhandenen Clusters, in dem alle Aufträge ausgeführt werden. Dabei sollte es sich um einen bereits erstellten interaktiven Cluster handeln. Möglicherweise müssen Sie den Cluster manuell neu starten, falls er nicht mehr reagiert. Databricks empfiehlt, Aufträge in neuen Clustern auszuführen, um die Zuverlässigkeit zu erhöhen. Sie finden die Cluster-ID eines interaktiven Clusters unter: Databricks-Arbeitsbereich -> Cluster -> Name des interaktiven Clusters -> Konfiguration -> Tags. Weitere Informationen No
instancePoolId Instanzenpool-ID eines vorhandenen Pools im Databricks-Arbeitsbereich. No
newClusterVersion Die Spark-Version des Clusters. Damit wird ein Auftragscluster in Databricks erstellt. No
newClusterNumOfWorker Die Anzahl der Workerknoten, die dieser Cluster haben sollte. Ein Cluster hat einen Spark Driver und Executors entsprechend der Workeranzahl, also insgesamt Workeranzahl + 1 Spark-Knoten. Eine als Int32 formatierte Zeichenfolge wie „1“ bedeutet, dass numOfWorker den Wert 1 hat. „1:10“ steht für eine Autoskalierung von 1 als Minimum und 10 als Maximum. No
newClusterNodeType Dieses Feld codiert mithilfe eines einzigen Werts die Ressourcen, die jedem der Spark-Knoten in diesem Cluster zur Verfügung stehen. Beispielsweise können die Spark-Knoten für arbeitsspeicher- oder rechenintensive Workloads bereitgestellt und optimiert werden. Dieses Feld wird für neue Cluster benötigt. No
newClusterSparkConf Eine Gruppe optionaler, benutzerdefinierter Spark-Konfigurationsschlüssel-Wert-Paare. Benutzer können auch über „spark.driver.extraJavaOptions“ bzw. „spark.executor.extraJavaOptions“ eine Zeichenfolge mit zusätzlichen JVM-Optionen an den Driver und die Executors übergeben. No
newClusterInitScripts Eine Gruppe optionaler, benutzerdefinierter Initialisierungsskripts für den neuen Cluster. Sie können die Initialisierungsskripts in Arbeitsbereichsdateien (empfohlen) oder über den DBFS-Pfad (Legacy) angeben. No

Azure SQL Database verbundener Dienst

Sie erstellen einen Azure SQL verknüpften Dienst und verwenden ihn mit der Stored Procedure Activity, um eine gespeicherte Prozedur aus einer Pipeline aufzurufen. Details zu diesem verknüpften Dienst finden Sie im Artikel Azure SQL Connector.

verknüpfter Azure Synapse Analytics-Dienst

Sie erstellen einen verknüpften Azure Synapse Analytics-Dienst und verwenden ihn mit der Stored Procedure Activity, um eine gespeicherte Prozedur aus einer Pipeline aufzurufen. Details zu diesem verknüpften Dienst finden Sie im Artikel Azure Synapse Analytics Connector.

SQL Server verknüpfter Dienst

Sie erstellen einen SQL Server verknüpften Dienst und verwenden ihn mit der Stored Procedure Activity, um eine gespeicherte Prozedur aus einer Pipeline aufzurufen. Details zu diesem verknüpften Dienst finden Sie im Artikel SQL Server Connector.

Azure Synapse Analytics (Artifacts) verknüpfter Dienst

Sie erstellen einen mit Azure Synapse Analytics (Artifacts) verknüpften Dienst und verwenden ihn mit der Synapse-Notizbuchaktivität und Synapse Spark-Auftragsdefinitionsaktivität.

Example

{
    "name": "AzureSynapseArtifacts",
    "type": "Microsoft.DataFactory/factories/linkedservice",
    "properties": {
      "properties": {
        "a":{
          "type": "String"
        }
      },
        "annotations": [],
        "type": "AzureSynapseArtifacts",
        "typeProperties": {
            "endpoint": "@{linkedService().a}",
            "authentication": "MSI",
            "workspaceResourceId": ""
        },
        "ConnectVia":{
          "referenceName": "integrationRuntime1",
          "type": "IntegrationRuntimeReference"
        }
    }
}

Properties

Property Description Required
name Name des verknüpften Diensts Yes
description Beschreibung des verknüpften Diensts No
annotations Anmerkungen des verknüpften Diensts No
type Die Typeigenschaft sollte auf AzureSynapseArtifacts festgelegt werden. Yes
endpoint Die url der Azure Synapse Analytics Yes
authentication Die Standardeinstellung ist systemseitig zugewiesene verwaltete Identität. Yes
workspaceResourceId Arbeitsbereichsressourcen-ID Yes
connectVia Die Integration Runtime, die zum Herstellen einer Verbindung mit dem Datenspeicher verwendet werden soll. Sie können Azure Integration Runtime verwenden. Wenn nicht angegeben, wird die Standard-Azure Integration Runtime verwendet. Die selbst gehostete integration runtime wird derzeit nicht unterstützt. Yes

Azure Functions-verknüpfter Dienst

Sie erstellen einen Azure Function-verbundenen Dienst und verwenden ihn mit der Azure Function-Aktivität, um Azure Functions in einer Pipeline auszuführen. Der Rückgabetyp der Azure-Funktion muss eine gültige JObject sein. (Beachten Sie, dass JArraykeinJObject ist.) Jeder andere Rückgabetyp als JObject führt zu dem Benutzerfehler Antwortinhalt ist kein gültiges JObject.

Property Description Required
type Die Typ-Eigenschaft muss auf festgelegt werden: AzureFunction yes
Funktions-App-URL URL für die Azure-Funktions-App. Format ist https://<accountname>.azurewebsites.net. Diese URL ist der Wert im Abschnitt URL bei der Anzeige Ihrer Funktions-App im Azure-Portal. yes
Funktionstaste Zugriffsschlüssel für die Azure-Funktion. Klicken Sie auf den Abschnitt "Verwalten" für die jeweilige Funktion, und kopieren Sie entweder den Funktionsschlüssel oder den Hostschlüssel. Weitere Informationen finden Sie hier: Mit Zugriffsschlüsseln arbeiten yes

Eine Liste der unterstützten Transformationsaktivitäten finden Sie unter Transformieren von Daten.