Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
GILT FÜR:
Azure Data Factory
Azure Synapse Analytics
Tipp
Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!
In diesem Artikel wird beschrieben, wie Sie eine Data Factory in Azure Data Factory kopieren oder klonen.
Anwendungsfälle für das Klonen einer Data Factory
Hier sind einige der Umstände, unter denen Sie es möglicherweise hilfreich finden, eine Datenfabrik zu kopieren oder zu klonen:
Verschieben einer Data Factory in eine neue Region. Wenn Sie Ihre Data Factory in eine andere Region verschieben möchten, empfiehlt es sich, eine Kopie in der Zielregion zu erstellen und die vorhandene Factory zu löschen.
Umbenennen der Data Factory. Azure unterstützt die Umbenennung von Ressourcen nicht. Wenn Sie eine Data Factory umbenennen möchten, können Sie sie unter einem anderen Namen klonen und die vorhandene löschen.
Debuggen von Änderungen, wenn die Debugfeatures nicht ausreichen. In den meisten Szenarien können Sie das Debuggen nutzen. In anderen Szenarien ist das Testen von Änderungen in einer geklonten Sandboxumgebung sinnvoller. Das Verhalten der parametrisierten ETL-Pipelines beim Auslösen eines Triggers bei Dateieingang im Vergleich zu einem rollierenden Zeitfenster könnte möglicherweise nicht einfach durch Debuggen getestet werden. In diesen Fällen möchten Sie möglicherweise eine Sandkastenumgebung zum Experimentieren klonen. Da Azure Data Factory hauptsächlich anhand der Anzahl der Ausführungen abgerechnet wird, führt eine zweite Instanz nicht zu zusätzlichen Gebühren.
Wie man eine Data Factory klont
Als Voraussetzung müssen Sie zunächst die Ziel-Data Factory im Azure-Portal erstellen.
Im Git-Modus:
- Bei jedem Veröffentlichen über das Portal wird die Resource Manager-Vorlage der Factory in Git im Branch „adf_publish“ des Repositorys gespeichert.
- Verbinden Sie die neue Factory mit demselben Repository, und erstellen Sie sie über den Branch „adf_publish“. Ressourcen wie z. B. Pipelines, Datensätze und Trigger werden weitergeleitet.
Im Livemodus:
- In der Data Factory-Benutzeroberfläche können Sie die gesamte Payload der Data Factory in eine Resource Manager-Vorlagendatei und eine Parameterdatei exportieren. Sie können im Portal über die Schaltfläche ARM template \ Export Resource Manager template aufgerufen werden.
- Möglicherweise nehmen Sie geeignete Änderungen an der Parameterdatei vor und setzen neue Werte für die neue Fabrik ein.
- Dann können Sie es über die Standardbereitstellungsmethoden für Resource Manager-Vorlagen bereitstellen. Ausführliche Schritte finden Sie unter Bereitstellen von Ressourcen mit ARM-Vorlagen
Wenn Sie eine SelfHosted IntegrationRuntime in Ihrer Quellfactory haben, müssen Sie sie mit dem gleichen Namen in der Zielfactory vorab erstellen. Wenn Sie die selbstgehostete Integration Runtime zwischen verschiedenen Factorys freigeben möchten, können Sie das hier veröffentlichte entsprechende Muster verwenden.
Aus Sicherheitsgründen enthält die generierte Resource Manager-Vorlage keine Geheimnisinformationen wie Kennwörter für verknüpfte Dienste. Daher müssen Sie die Anmeldeinformationen als Bereitstellungsparameter angeben. Wenn die manuelle Eingabe von Anmeldeinformationen für Ihre Einstellungen nicht wünschenswert ist, sollten Sie stattdessen die Verbindungszeichenfolgen und Kennwörter aus Azure Key Vault abrufen. Weitere Informationen
Zugehöriger Inhalt
Lesen Sie die Anleitung zum Erstellen einer Data Factory im Azure-Portal unter Erstellen einer Data Factory über die Azure Data Factory-Benutzeroberfläche.