Del via


Opret brugerdefinerede Spark-pools i Microsoft Fabric

Brug brugerdefinerede Spark-pools til at tilpasse compute til dine arbejdsbelastninger i Fabric. Du kan vælge nodestørrelse, konfigurere autoskaleringsadfærd og aktivere dynamisk eksekvertillokering.

Brugerdefinerede pools hjælper dig med at balancere ydeevne og omkostninger ved at lade dig sætte skaleringsgrænser, der matcher arbejdsbelastningens efterspørgsel.

Hvis du allerede bruger starterpools, er custom pools en supplerende mulighed, når du har brug for mere kontrol over størrelses- og skaleringsadfærd for specifikke arbejdsbelastninger. Brug startpools til hurtig opstart og standardindstillinger, og skift til brugerdefinerede pools, når du har brug for workload-specifik compute-tuning. For at lære mere om starterpuljer, se Konfigurér startpuljer i Fabric.

Forudsætninger

For at oprette en brugerdefineret Spark-pool:

  • Du skal have admin-rollen i arbejdsområdet.
  • En kapacitetsadministrator skal aktivere tilpassede arbejdsområdepuljer i Spark Compute-indstillingerne for kapaciteten.

For mere information, se Konfigurér og administrer data engineering- og data science-indstillinger for Fabric-kapaciteter.

Opret brugerdefinerede Spark-puljer

Sådan opretter eller administrerer du den Spark-gruppe, der er knyttet til dit arbejdsområde:

  1. Gå til dit arbejdsområde og vælg Arbejdsområdeindstillinger.

    Skærmbillede, der viser, hvor du kan vælge Dataudvikler i menuen Indstillinger for arbejdsområde.

  2. Vælg indstillingen Data Engineering/Science for at udvide menuen, og vælg derefter Spark-indstillinger.

    Skærmbillede, der viser detaljevisning af Spark-indstillinger.

  3. Vælg Ny Pool fra Default pool for workspace dropdown-menuen for at oprette en ny brugerdefineret Spark pool. Du kan oprette flere brugerdefinerede pools og vælge en af dem som standardpool for dit workspace.

  4. På siden Opret ny pool indtast et poolnavn. Vælg en nodefamilie (såsom hukommelsesoptimeret) og nodestørrelse baseret på arbejdsbelastningens krav. For mere information om nodestørrelser, se afsnittet om nodestørrelsesmuligheder nedenfor.

    Tips

    Nodestørrelsen bestemmes af Capacity Units (CU), som repræsenterer den beregningskapacitet, der er tildelt hver node.

    Skærmbillede, der viser indstillinger for oprettelse af brugerdefinerede grupper.

  5. I redigeringsvisningen konfigurerer du Autoscale og tilloker eksekutorer dynamisk.

    Skærmbillede, der viser indstillinger for oprettelse af brugerdefinerede grupper til automatisk skalering og dynamisk allokering.

    Brug skyderne til at øge eller mindske hver indstilling baseret på dine arbejdsbyrdebehov.

    • Hvis Autoscale er aktiveret, skalerer puljen mellem de konfigurerede minimums- og maksimumsnodeværdier baseret på aktivitet.

    • Hvis Dynamisk allokering af eksekutører er aktiveret, justerer Fabric eksekvertillokering baseret på arbejdsbelastningens behov inden for de konfigurerede grænser.

  6. Vælg Opret.

Brugerdefinerede pools har en standard autopause-varighed på 2 minutter efter inaktivitet. Når autopause opnås, udløber sessionen, og klyngen frigør. Fakturering gælder kun, mens beregningen er aktivt. Brugerdefinerede Spark-pools i Microsoft Fabric understøtter i øjeblikket en maksimal nodegrænse på 200, så sørg for, at dine minimums- og maksimale autoskaleringsværdier forbliver inden for denne grænse.

Indstillinger for nodestørrelse

Når du konfigurerer en brugerdefineret Spark-pulje, skal du vælge mellem følgende nodestørrelser:

Nodestørrelse vCores Hukommelse (GB) Beskrivelse
Lille 4 32 Til lette udviklings- og testopgaver.
Mellem 8 64 Til generelle arbejdsbelastninger og typiske operationer.
Stor 16 128 Til hukommelseskrævende opgaver eller store databehandlingsjob.
X-stor 32 256 Til de mest krævende Spark-arbejdsbelastninger, der kræver betydelige ressourcer.
XX-stor 64 512 For de største Spark-arbejdsbelastninger, der kræver den højeste compute og hukommelse pr. node.