Del via


Lag tilpassede Spark-pooler i Microsoft Fabric

Bruk tilpassede Spark-pooler for å tilpasse beregningen til arbeidsbelastningene dine i Fabric. Du kan velge nodestørrelse, konfigurere autoskaleringsoppførsel og aktivere dynamisk utførelsesallokering.

Tilpassede pooler hjelper deg å balansere ytelse og kostnad ved å la deg sette skaleringsgrenser som matcher arbeidsbelastningens behov.

Hvis du allerede bruker startpooler, er custom pools et komplementært alternativ når du trenger mer kontroll over størrelse og skalering for spesifikke arbeidsbelastninger. Bruk startpooler for rask oppstart og standardinnstillinger, og gå over til egendefinerte pooler når du trenger arbeidsbelastningsspesifikk beregningsjustering. For å lære mer om startbassenger, se Konfigurer startbassenger i Fabric.

Forutsetninger

For å lage en egendefinert Spark-pool:

  • Du trenger admin-rollen i arbeidsområdet.
  • En kapasitetsadministrator må aktivere tilpassede arbeidsområdepooler i Spark Compute-innstillingene for kapasiteten.

For mer informasjon, se Konfigurer og administrer dataingeniør- og datavitenskapsinnstillinger for Fabric-kapasiteter.

Opprette egendefinerte Spark-bassenger

Slik oppretter eller administrerer du Spark-utvalget som er knyttet til arbeidsområdet:

  1. Gå til arbeidsområdet ditt, og velg Arbeidsområdeinnstillinger.

    Skjermbilde som viser hvor du velger Dataingeniør i innstillinger-menyen for arbeidsområdet.

  2. Velg alternativet datateknikk/vitenskap for å utvide menyen, og velg deretter Spark-innstillinger.

    Skjermbilde som viser detaljvisning for Spark-innstillinger.

  3. Velg Ny pool fra nedtrekksmenyen Default pool for workspace for å lage en ny tilpasset Spark-pool. Du kan lage flere egendefinerte pooler og velge hvilken som helst av dem som standardpool for arbeidsområdet ditt.

  4. På siden Opprett ny pool , skriv inn et poolnavn. Velg en nodefamilie (for eksempel minneoptimalisert) og nodestørrelse basert på arbeidsbelastningskrav. For mer informasjon om nodestørrelser, se avsnittet om nodestørrelsesalternativer nedenfor.

    Tips

    Nodestørrelsen bestemmes av Capacity Units (CU), som representerer beregningskapasiteten tildelt hver node.

    Skjermbilde som viser alternativer for oppretting av egendefinert utvalg.

  5. I redigeringsvisningen konfigurerer du Autoscale og Dynamisk allokerer eksekutorer.

    Skjermbilde som viser alternativer for oppretting av egendefinert utvalg for autoskalering og dynamisk tildeling.

    Bruk skyveknappene til å øke eller redusere hver innstilling basert på arbeidsmengden din.

    • Hvis Autoscale er aktivert, skalerer poolen mellom de konfigurerte minimums- og maksimumsnodeverdiene basert på aktivitet.

    • Hvis Dynamisk allokering av eksekutører er aktivert, justerer Fabric eksekutorallokering basert på arbeidsbelastningens behov innenfor de konfigurerte grensene.

  6. Velg Opprett.

Egendefinerte pooler har en standard autopause-varighet på 2 minutter etter inaktivitet. Når autopause oppnås, utløper økten og klyngen frigjøres. Fakturering gjelder kun mens datakraft er aktivt i bruk. Tilpassede Spark-pooler i Microsoft Fabric støtter for øyeblikket en maksimal nodegrense på 200, så sørg for at minimums- og maksimumsverdiene for autoscale holder seg innenfor denne grensen.

Alternativer for nodestørrelse

Når du konfigurerer et egendefinert Spark-utvalg, velger du blant følgende nodestørrelser:

Nodestørrelse vCores Minne (GB) Beskrivelse
Liten 4 32 For lette utviklings- og testjobber.
Middels 8 64 For generelle arbeidsbelastninger og typiske operasjoner.
Stor 16 128 For minnekrevende oppgaver eller store databehandlingsjobber.
X-Large 32 256 For de mest krevende Spark-arbeidsbelastningene som trenger betydelige ressurser.
XX-Large 64 512 For de største Spark-arbeidsbelastningene som krever mest datakraft og minne per node.