Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Importante
La scalabilità automatica di Lakebase è disponibile nelle aree seguenti: eastus, eastus2, centralus, southcentralus, westus, westus2, canadacentral, brazilsouth, northeurope, uksouth, westeurope, australiaeast, centralindia, southeastasia.
La scalabilità automatica di Lakebase è la versione più recente di Lakebase, con calcolo autoscalabile, scalabilità fino a zero, ramificazione e ripristino immediato. Se sei un utente provisioning di Lakebase, vedere Lakebase provisioning.
Le tabelle sincronizzate consentono di gestire i dati lakehouse tramite Lakebase Postgres. Le tabelle del catalogo Unity vengono sincronizzate in Postgres in modo che le applicazioni possano eseguire query sui dati lakehouse direttamente con bassa latenza. Questo processo è comunemente noto come ETL inverso. Il lakehouse è ottimizzato per l'analisi e l'arricchimento, mentre Lakebase è progettato per carichi di lavoro operativi che richiedono query in stile ricerca veloce e coerenza transazionale.
Che cosa sono le tabelle sincronizzate?
Le tabelle sincronizzate consentono di gestire dati di livello di analisi da Unity Catalog tramite Lakebase Postgres, rendendoli disponibili per le applicazioni che necessitano di query a bassa latenza (sub-10 ms) e transazioni ACID complete. Consentono di colmare il divario tra l'archiviazione analitica e i sistemi operativi mantenendo i dati pronti per la gestione in applicazioni in tempo reale.
Fonti supportate
Le tabelle sincronizzate supportano i tipi di origine del catalogo Unity seguenti:
- Tabelle Delta gestite ed esterne
- Tabelle Di Iceberg gestite ed esterne
- Viste e viste materializzate
Come funziona
Le tabelle sincronizzate di Databricks creano una copia gestita dei dati di Unity Catalog in Lakebase. Quando si crea una tabella sincronizzata, si ottiene:
- Tabella sincronizzata in Unity Catalog che fa riferimento alla pipeline di sincronizzazione
- Una tabella Postgres in Lakebase (di sola lettura, su cui è possibile eseguire query dalle applicazioni)
Ad esempio, è possibile sincronizzare tabelle gold, funzionalità ingegneriate o output ml da analytics.gold.user_profiles in una nuova tabella analytics.gold.user_profiles_syncedsincronizzata. In Postgres il nome dello schema del catalogo Unity diventa il nome dello schema Postgres, quindi viene visualizzato come "gold"."user_profiles_synced":
SELECT * FROM "gold"."user_profiles_synced" WHERE "user_id" = 12345;
Le applicazioni si connettono con i driver Postgres standard ed eseguono query sui dati sincronizzati insieme al proprio stato operativo.
Avviso
Anche se è possibile modificare una tabella sincronizzata direttamente in Postgres, Azure Databricks consiglia rigorosamente di eseguire solo query di lettura per proteggere l'integrità dei dati con l'origine. Per le operazioni supportate sulle tabelle sincronizzate, vedere Operazioni supportate.
Le pipeline di sincronizzazione utilizzano le Lakeflow Spark Declarative Pipelines gestite per aggiornare continuamente sia la tabella sincronizzata di Unity Catalog che la tabella Postgres con le modifiche dalla tabella di origine. Ogni sincronizzazione può usare fino a 16 connessioni al database Lakebase.
Lakebase Postgres supporta fino a 1.000 connessioni simultanee con garanzie transazionali, in modo che le applicazioni possano leggere dati arricchiti gestendo al tempo stesso inserimenti, aggiornamenti ed eliminazioni nello stesso database.
Modalità di sincronizzazione
Scegliere la modalità di sincronizzazione corretta in base alle esigenze dell'applicazione:
| Modalità | Descrizione | Quando utilizzare | Prestazioni |
|---|---|---|---|
| Snapshot | Copia monouso di tutti i dati | Le modifiche >cambiano il 10% delle righe per ciclo o la sorgente non supporta CDF (viste, tabelle Iceberg) | 10 volte più efficiente se si modificano >10% di dati di origine |
| Attivato | Aggiornamenti pianificati eseguiti su richiesta o a intervalli | Le righe di origine cambiano in base a una frequenza nota. Gli inserimenti, gli aggiornamenti e le eliminazioni vengono propagati ogni volta che si aggiorna. | Buon rapporto costo/ritardo. Costoso se si eseguono <intervalli di 5 minuti |
| Continuo | Streaming in tempo reale con secondi di latenza | Le modifiche devono essere visualizzate in Lakebase quasi in tempo reale | Ritardo più basso, costo più alto. Intervalli minimi di 15 secondi |
Le modalità attivate e continue richiedono l'abilitazione del feed di dati delle modifiche (CDF) nella tabella di origine. Se CDF non è abilitato, verrà visualizzato un avviso nell'interfaccia utente con il comando esatto ALTER TABLE da eseguire. Per altre informazioni sul feed di dati delle modifiche, vedere Usare il feed di dati delle modifiche Delta Lake in Databricks.
Casi d'uso di esempio
È possibile usare tabelle sincronizzate per i casi d'uso di gestione dei dati, ad esempio:
- Motori di personalizzazione che servono profili utente aggiornati alle app di Databricks
- Applicazioni che gestiscono stime del modello o valori di funzionalità calcolati nella lakehouse
- Dashboard rivolti ai clienti che servono gli indicatori KPI in tempo reale
- Servizi di rilevamento delle frodi che forniscono punteggi di rischio per un intervento immediato
- Strumenti di supporto che forniscono i record dei clienti arricchiti dai dati del lakehouse
Creare una tabella sincronizzata (UI)
Il flusso di lavoro dell'interfaccia utente è descritto di seguito.
Prerequisiti
È necessario:
- Un'area di lavoro di Databricks con Lakebase abilitata.
- Un progetto Lakebase (vedere Creare un progetto).
- Tabella del catalogo Unity da sincronizzare.
- Autorizzazioni per creare tabelle sincronizzate. È necessario USE_SCHEMA e CREATE_TABLE in qualsiasi schema usato. Le opzioni del catalogo e dello schema nel flusso Crea tabella sincronizzata elencano solo gli schemi in cui l'identità dispone di questi privilegi.
Per la pianificazione della capacità e la compatibilità dei tipi di dati, vedere Tipi di dati e compatibilità e pianificazione della capacità.
Passaggio 1: Selezionare la tabella di origine
Passare a Catalogo nella barra laterale dell'area di lavoro e selezionare la tabella del catalogo Unity da sincronizzare.
Passaggio 2: Abilitare il feed di dati delle modifiche (se necessario)
Se si prevede di usare le modalità di sincronizzazione Attivate o Continua, la tabella di origine richiede l'abilitazione del feed di dati delle modifiche. Controllare se la tabella dispone già di CDF abilitata oppure eseguire questo comando in un editor SQL o in un notebook:
ALTER TABLE your_catalog.your_schema.your_table
SET TBLPROPERTIES (delta.enableChangeDataFeed = true)
Sostituire your_catalog.your_schema.your_table con il nome effettivo della tabella.
Passaggio 3: Creare una tabella sincronizzata
Fare clic su Crea>tabella sincronizzata nella vista dettagli della tabella.
Passaggio 4: Configurare
Nella finestra di dialogo Crea tabella sincronizzata :
Gli elenchi di catalogo e schema includono solo schemi del catalogo Unity in cui l'utente corrente ha USE_SCHEMA e CREATE_TABLE privilegi. Se non viene visualizzato uno schema previsto, confermare le autorizzazioni con l'amministratore del catalogo.
- Nome tabella: immettere un nome per la tabella sincronizzata(viene creato nello stesso catalogo e schema della tabella di origine). In questo modo viene creata sia una tabella sincronizzata del catalogo Unity che una tabella Postgres su cui è possibile eseguire query.
- Tipo di database: scegliere Lakebase Serverless (scalabilità automatica).
- Modalità di sincronizzazione: scegliere Snapshot, Attivato o Continuo in base alle proprie esigenze (vedere le modalità di sincronizzazione precedenti).
- Configurare le selezioni di progetto, ramo e database.
- Verificare che la chiave primaria sia corretta (in genere rilevata automaticamente).
Se hai scelto la modalità Triggered o Continua e non hai ancora abilitato il Feed dati delle modifiche, verrà visualizzato un avviso con il comando esatto da eseguire. Per domande sulla compatibilità dei tipi di dati, vedere Tipi di dati e compatibilità.
Fare clic su Crea per creare la tabella sincronizzata.
Passaggio 5: Monitorare
Dopo la creazione, monitorare la tabella sincronizzata in Catalog. La scheda Panoramica mostra lo stato di sincronizzazione, la configurazione, lo stato della pipeline e il timestamp dell'ultima sincronizzazione. Usare Sincronizzazione ora per l'aggiornamento manuale.
Pianificare o attivare le sincronizzazioni successive
Alla creazione, lo snapshot iniziale viene eseguito automaticamente. Per le modalità snapshot e attivate , le sincronizzazioni successive devono essere attivate in modo esplicito. La modalità continua si gestisce automaticamente.
Attività di sincronizzazione della tabella del database nella pipeline
L'attività della pipeline di sincronizzazione delle tabelle del database nei Processi Lakeflow esegue la pipeline di una tabella sincronizzata come passaggio nel flusso di lavoro. Configurare l'attività con un trigger di aggiornamento tabella o una pianificazione.
Trigger per gli aggiornamenti delle tabelle di origine
Genera il compito quando viene aggiornata la tabella del Catalogo Unity di origine. Con la modalità attivata , vengono applicate in modo incrementale solo le nuove modifiche, offrendo aggiornamenti quasi in tempo reale senza il costo sempre attivo della modalità continua.
- Nella barra laterale fare clic su Flussi di lavoro.
- Fare clic su Crea processo o aprire un processo esistente.
- Nella scheda Attività fare clic su + Aggiungi un altro tipo di attività.
- In Inserimento e trasformazione selezionare Pipeline di sincronizzazione tabelle di database.
- Nel campo Pipeline selezionare la pipeline associata alla tabella sincronizzata.
- In Pianificazioni e trigger fare clic su Aggiungi trigger.
- Selezionare Aggiornamento tabella come tipo di trigger.
- In Tabelle selezionare la tabella del catalogo Unity di origine da monitorare.
- Fare clic su Salva.
Generare attività in base a una pianificazione
Esegue la sincronizzazione a cadenza fissa. Ideale per la modalità snapshot , in cui un aggiornamento completo notturno o settimanale è in genere il modello più efficiente.
- Seguire i passaggi da 1 a 5 precedenti per aggiungere un'attività della pipeline di sincronizzazione tabelle di database a un processo.
- In Pianificazioni e trigger fare clic su Aggiungi trigger.
- Scegli Pianificato come tipo di trigger.
- Impostare la pianificazione cron e il fuso orario, quindi fare clic su Salva.
Uso dell'SDK
Attivare un'esecuzione di sincronizzazione a livello di codice, ad esempio alla fine di un notebook o di una pipeline upstream:
from databricks.sdk import WorkspaceClient
w = WorkspaceClient()
# Get the pipeline ID from the synced table
table = w.database.get_synced_database_table(name="catalog.schema.synced_table")
pipeline_id = table.data_synchronization_status.pipeline_id
# Trigger a sync run
w.pipelines.start_update(pipeline_id=pipeline_id)
Tipi di dati e compatibilità
I tipi di dati di Unity Catalog vengono mappati ai tipi Postgres durante la creazione di tabelle sincronizzate. I tipi complessi (ARRAY, MAP, STRUCT) vengono archiviati come JSONB in Postgres.
| Tipo di colonna di origine | Tipo di colonna Postgres |
|---|---|
| BIGINT | BIGINT |
| BINARY | BYTEA |
| BOOLEAN | BOOLEAN |
| DATTERO | DATTERO |
| DECIMAL(p,s) | NUMERICO |
| DOPPIO | PRECISIONE DOPPIA |
| FLOAT | REALE |
| INT | INTEGER |
| INTERVAL | INTERVAL |
| SMALLINT | SMALLINT |
| filo | TESTO |
| TIMESTAMP | TIMESTAMP CON FUSO ORARIO |
| TIMESTAMP_NTZ | TIMESTAMP SENZA FUSO ORARIO |
| TINYINT | SMALLINT |
| ARRAY<tipoElemento> | JSONB |
| MAP<keyType,valueType> | JSONB |
| STRUCT<NomeCampo:TipoCampo[, ...]> | JSONB |
Annotazioni
I tipi GEOGRAPHY, GEOMETRY, VARIANT e OBJECT non sono supportati.
Gestire caratteri non validi
Alcuni caratteri come byte Null (0x00) sono consentiti nelle colonne STRING, ARRAY, MAP o STRUCT del catalogo Unity, ma non supportate nelle colonne POSTGRES TEXT o JSONB. Ciò può causare errori di sincronizzazione con errori come:
ERROR: invalid byte sequence for encoding "UTF8": 0x00
ERROR: unsupported Unicode escape sequence DETAIL: \u0000 cannot be converted to text
Soluzioni:
Purificare i campi stringa: rimuovere i caratteri non supportati prima della sincronizzazione. Per i byte Null nelle colonne STRING:
SELECT REPLACE(column_name, CAST(CHAR(0) AS STRING), '') AS cleaned_column FROM your_tableConverti in BINARY: per le colonne STRING in cui è necessario conservare i byte non elaborati, convertire in tipo BINARY.
Pianificazione della capacità
Quando si pianifica l'implementazione delle tabelle sincronizzate, prendere in considerazione i requisiti delle risorse seguenti:
- Utilizzo connessione: ogni tabella sincronizzata usa fino a 16 connessioni al database Lakebase, che vengono conteggiate per il limite di connessione dell'istanza.
- Limiti di dimensioni: il limite totale delle dimensioni dei dati logici in tutte le tabelle sincronizzate è di 8 TB. Le singole tabelle non hanno limiti, ma Databricks consiglia di non superare 1 TB per le tabelle che richiedono aggiornamenti.
-
Requisiti di denominazione: i nomi di database, schema e tabella possono contenere solo caratteri alfanumerici e caratteri di sottolineatura (
[A-Za-z0-9_]+). - Evoluzione dello schema: sono supportate solo le modifiche dello schema additive (ad esempio l'aggiunta di colonne) per le modalità attivate e continue.
- Frequenza di aggiornamento: Lakebase Autoscaling supporta nella pipeline di sincronizzazione scritture continue e con trigger a circa 150 righe al secondo per unità di capacità (CU) e scritture snapshot fino a 2.000 righe al secondo per CU.
Operazioni consentite nelle tabelle sincronizzate in Postgres
Azure Databricks consiglia di eseguire solo le operazioni seguenti in Postgres per le tabelle sincronizzate per evitare sovrascrizioni accidentali o incoerenze dei dati:
- Query di sola lettura
- Creazione di indici
- Eliminazione della tabella (per liberare spazio dopo la rimozione della tabella sincronizzata dal catalogo unity)
Anche se è possibile modificare le tabelle sincronizzate in Postgres in altri modi, interferisce con la pipeline di sincronizzazione.
Eliminare una tabella sincronizzata
Per eliminare una tabella sincronizzata, è necessario rimuoverla sia dal catalogo unity che da Postgres:
Elimina da Unity Catalog: nel Catalog, trova la tua tabella sincronizzata, fai clic sull'icona del
, quindi seleziona Elimina. Ciò arresta gli aggiornamenti dei dati ma lascia la tabella in Postgres.
Eliminare da Postgres: connettersi al database Lakebase ed eliminare la tabella per liberare spazio:
DROP TABLE your_database.your_schema.your_table;
È possibile usare l'editor SQL o gli strumenti esterni per connettersi a Postgres.
Ulteriori informazioni
| Attività | Descrizione |
|---|---|
| Creare un progetto | Configurare un progetto Lakebase |
| Connettersi al database | Informazioni sulle opzioni di connessione per Lakebase |
| Registrare il database nel catalogo unity | Rendere visibili i dati di Lakebase in Unity Catalog per una governance unificata e le query tra più origini. |
| Integrazione del catalogo Unity | Informazioni sulla governance e sulle autorizzazioni |
Altre opzioni
Per la sincronizzazione dei dati in sistemi non Databricks, vedere Soluzioni ETL inverse di Partner Connect , ad esempio Census o Hightouch.