Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Handledningarna i det här avsnittet är utformade för att hjälpa dig att lära dig om SDP. Följande handledningar är tillgängliga:
Kom igång med Lakeflow Spark Deklarativa Pipelines
| Ämne | Description |
|---|---|
| Självstudie: Skapa en ETL-pipeline med Lakeflow Spark Deklarativa pipelines | Den här självstudien visar hur du skapar och distribuerar en enkel ETL-pipeline (extrahera, transformera och läsa in) för dataorkestrering med Auto Loader. |
Handledningar
| Ämne | Description |
|---|---|
| Självstudie: Skapa din första pipeline med Lakeflow Pipelines-redigeraren | Den här guiden visar hur du skapar din första pipeline genom att utöka den exempel-kod som har skapats med en ny pipeline. |
| Självstudie: Skapa en ETL-pipeline med hjälp av insamling av ändringsdata | I den här självstudien går vi igenom stegen för att skapa och distribuera en ETL-pipeline med CDC (Change Data Capture) med hjälp av SDP för dataorkestrering ochAuto Loader. |
| Handledning: Skapa en geospatial pipeline med inbyggda spatiala typer | Den här självstudien beskriver hur du skapar en geospatial pipeline som matar in GPS-data, konverterar koordinater till inbyggda rumsliga typer och kopplar mot informationslagergeofences med hjälp av SDP och Auto Loader. |
| Skapa en källkontrollerad pipeline | Den här handledningen visar hur du skapar en källkontrollerad pipeline med Databricks Asset Bundles och Git-mappar. |
| Konvertera en pipeline till ett Databricks Asset Bundle-projekt | Den här självstudien visar hur du konverterar en befintlig pipeline till ett Databricks Asset Bundles-projekt för att tillhandahålla enklare underhåll och automatiserad distribution till målmiljöer. |