Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Bruk tilpassede Spark-pooler for å tilpasse beregningen til arbeidsbelastningene dine i Fabric. Du kan velge nodestørrelse, konfigurere autoskaleringsoppførsel og aktivere dynamisk utførelsesallokering.
Tilpassede pooler hjelper deg å balansere ytelse og kostnad ved å la deg sette skaleringsgrenser som matcher arbeidsbelastningens behov.
Hvis du allerede bruker startpooler, er custom pools et komplementært alternativ når du trenger mer kontroll over størrelse og skalering for spesifikke arbeidsbelastninger. Bruk startpooler for rask oppstart og standardinnstillinger, og gå over til egendefinerte pooler når du trenger arbeidsbelastningsspesifikk beregningsjustering. For å lære mer om startbassenger, se Konfigurer startbassenger i Fabric.
Forutsetninger
For å lage en egendefinert Spark-pool:
- Du trenger admin-rollen i arbeidsområdet.
- En kapasitetsadministrator må aktivere tilpassede arbeidsområdepooler i Spark Compute-innstillingene for kapasiteten.
For mer informasjon, se Konfigurer og administrer dataingeniør- og datavitenskapsinnstillinger for Fabric-kapasiteter.
Opprette egendefinerte Spark-bassenger
Slik oppretter eller administrerer du Spark-utvalget som er knyttet til arbeidsområdet:
Gå til arbeidsområdet ditt, og velg Arbeidsområdeinnstillinger.
Velg alternativet datateknikk/vitenskap for å utvide menyen, og velg deretter Spark-innstillinger.
Velg Ny pool fra nedtrekksmenyen Default pool for workspace for å lage en ny tilpasset Spark-pool. Du kan lage flere egendefinerte pooler og velge hvilken som helst av dem som standardpool for arbeidsområdet ditt.
På siden Opprett ny pool , skriv inn et poolnavn. Velg en nodefamilie (for eksempel minneoptimalisert) og nodestørrelse basert på arbeidsbelastningskrav. For mer informasjon om nodestørrelser, se avsnittet om nodestørrelsesalternativer nedenfor.
Tips
Nodestørrelsen bestemmes av Capacity Units (CU), som representerer beregningskapasiteten tildelt hver node.
I redigeringsvisningen konfigurerer du Autoscale og Dynamisk allokerer eksekutorer.
Bruk skyveknappene til å øke eller redusere hver innstilling basert på arbeidsmengden din.
Hvis Autoscale er aktivert, skalerer poolen mellom de konfigurerte minimums- og maksimumsnodeverdiene basert på aktivitet.
Hvis Dynamisk allokering av eksekutører er aktivert, justerer Fabric eksekutorallokering basert på arbeidsbelastningens behov innenfor de konfigurerte grensene.
Velg Opprett.
Egendefinerte pooler har en standard autopause-varighet på 2 minutter etter inaktivitet. Når autopause oppnås, utløper økten og klyngen frigjøres. Fakturering gjelder kun mens datakraft er aktivt i bruk. Tilpassede Spark-pooler i Microsoft Fabric støtter for øyeblikket en maksimal nodegrense på 200, så sørg for at minimums- og maksimumsverdiene for autoscale holder seg innenfor denne grensen.
Alternativer for nodestørrelse
Når du konfigurerer et egendefinert Spark-utvalg, velger du blant følgende nodestørrelser:
| Nodestørrelse | vCores | Minne (GB) | Beskrivelse |
|---|---|---|---|
| Liten | 4 | 32 | For lette utviklings- og testjobber. |
| Middels | 8 | 64 | For generelle arbeidsbelastninger og typiske operasjoner. |
| Stor | 16 | 128 | For minnekrevende oppgaver eller store databehandlingsjobber. |
| X-Large | 32 | 256 | For de mest krevende Spark-arbeidsbelastningene som trenger betydelige ressurser. |
| XX-Large | 64 | 512 | For de største Spark-arbeidsbelastningene som krever mest datakraft og minne per node. |
Relatert innhold
- Mer informasjon fra den offentlige Apache Spark-dokumentasjonen.
- Kom i gang med Spark arbeidsområdeadministrasjonsinnstillinger i Microsoft Fabric.