Partager via


Calcul de GPU serverless

Importante

Cette fonctionnalité est en version bêta. Les administrateurs d’espace de travail peuvent contrôler l’accès à cette fonctionnalité à partir de la page Aperçus . Consultez Gérer les préversions d’Azure Databricks.

Cet article décrit le calcul GPU serverless sur Databricks et fournit des cas d’utilisation recommandés, des conseils sur la configuration des ressources de calcul GPU et des limitations des fonctionnalités.

Qu’est-ce que le calcul GPU serverless ?

Le calcul GPU sans serveur fait partie de l’offre de calcul sans serveur. Le calcul GPU serverless est spécialisé pour les charges de travail personnalisées d'apprentissage profond à nœud unique et multi-nœuds. Vous pouvez utiliser le calcul GPU serverless pour entraîner et affiner des modèles personnalisés à l’aide de vos frameworks favoris et obtenir une efficacité, des performances et une qualité de pointe.

Le calcul GPU serverless inclut :

  • Expérience intégrée entre notebooks, catalogue Unity et MLflow : Vous pouvez développer votre code de manière interactive à l’aide de notebooks.
  • Les accélérateurs GPU A10 :A10 GPU sont conçus pour accélérer les charges de travail Machine Learning et Deep Learning de petite à moyenne taille, y compris les modèles ML classiques et le réglage des modèles de langage plus petits. Les A10 sont bien adaptés aux tâches avec des exigences de calcul modérées.
  • Prise en charge multi-GPU et multi-nœuds : Vous pouvez exécuter des charges de travail d’entraînement distribuées en utilisant plusieurs GPU et plusieurs nœuds grâce à l’API Python GPU Serverless. Consultez la formation distribuée.

Les packages préinstallés sur le calcul sans serveur GPU ne sont pas un remplacement pour Databricks Runtime ML. Bien qu’il existe des packages courants, toutes les dépendances et bibliothèques Databricks Runtime ML ne sont pas reflétées dans l’environnement de calcul GPU serverless.

Environnements Python sur le calcul GPU serverless

Databricks fournit deux environnements managés pour traiter différents cas d’usage.

Remarque

Les environnements de base de l'espace de travail ne sont pas pris en charge pour le calcul GPU sans serveur. Utilisez plutôt l’environnement par défaut ou l'environnement d'intelligence artificielle, et spécifiez des dépendances supplémentaires directement dans le panneau latéral Environnements ou pip install celles-ci.

Environnement de base par défaut

Cela fournit un environnement minimal avec une API cliente stable pour garantir la compatibilité des applications. Seuls les packages Python requis sont installés. Cela permet à Databricks de mettre à niveau le serveur indépendamment, de fournir des améliorations des performances, des améliorations de sécurité et des correctifs de bogues sans nécessiter de modifications de code apportées aux charges de travail. Il s’agit de l’environnement par défaut lorsque vous choisissez le calcul GPU serverless. Choisissez cet environnement si vous souhaitez personnaliser entièrement l’environnement pour votre formation.

Pour plus d’informations sur les versions de package installées dans différentes versions, consultez les notes de publication :

Environnement IA

L’environnement Databricks AI est disponible dans l’environnement GPU serverless 4. L'environnement d'IA est construit sur l'environnement de base par défaut avec des packages d'exécution courants et des packages spécifiques au machine learning sur des GPU. Il contient des bibliothèques de Machine Learning populaires, notamment PyTorch, LangChain, Transformers, Ray et XGBoost pour l’apprentissage et l’inférence des modèles. Choisissez cet environnement pour exécuter des charges de travail d’entraînement. Pour plus d’informations, consultez la documentation.

Pour plus d’informations sur les versions de package installées dans différentes versions, consultez les notes de publication :

Databricks recommande le calcul GPU serverless pour tout cas d'utilisation d'entraînement de modèles nécessitant des personnalisations de l'entraînement et des GPU.

Par exemple:

  • Réglage précis de LLM
  • Vision par ordinateur
  • systèmes de recommandation.
  • Apprentissage par renforcement
  • Prévision de séries chronologiques basées sur le Deep Learning

Spécifications

  • Un espace de travail dans l’une des régions prises en charge par Azure suivantes :
    • eastus
    • eastus2
    • centralus
    • northcentralus
    • westcentralus
    • westus
    • westus2

Configurer le calcul GPU serverless

Pour connecter votre notebook à un calcul GPU serverless et configurer l’environnement :

  1. Dans un bloc-notes, cliquez sur le menu déroulant Se connecter en haut et sélectionnez GPU serverless.
  2. Cliquez sur l’icône Environnement. Pour ouvrir le volet latéral Environnement .
  3. Sélectionnez A10 dans le champ Accélérateur .
  4. Sélectionnez Aucun pour l’environnement par défaut ou l’IA v4 pour l’environnement IA dans le champ Environnement de base .
  5. Cliquez sur Appliquer , puis Confirmez que vous souhaitez appliquer le calcul GPU serverless à votre environnement de notebook.

Remarque

La connexion à votre calcul se termine automatiquement après 60 minutes d’inactivité.

Ajouter des bibliothèques à l’environnement

Vous pouvez installer des bibliothèques supplémentaires dans l’environnement de calcul GPU serverless. Consultez Ajouter des dépendances au bloc-notes.

Remarque

L’ajout de dépendances à l’aide du panneau Environnements , comme indiqué dans Ajouter des dépendances au notebook, n’est pas pris en charge pour les travaux planifiés de calcul GPU serverless.

Créer et planifier un travail

Les étapes suivantes montrent comment créer et planifier des travaux pour vos charges de travail de calcul GPU serverless. Pour en savoir plus, consultez Créer et gérer des travaux de notebook planifiés.

Après avoir ouvert le bloc-notes que vous souhaitez utiliser :

  1. Sélectionnez le bouton Planification en haut à droite.
  2. Sélectionnez Ajouter une planification.
  3. Remplissez le formulaire Nouvelle planification avec le nom du travail, la planification et le ressources de calcul.
  4. Cliquez sur Créer.

Vous pouvez également créer et planifier des travaux à partir de l’interface utilisateur travaux et pipelines . Consultez Créer un travail pour obtenir des instructions pas à pas.

Créer et planifier un travail par programmation

Vous pouvez également créer une tâche avec le calcul GPU serverless directement via l'API Jobs. Spécifiez l’accélérateur GPU dans le tasks > compute > hardware_accelerator champ. La spécification complète de l’API est disponible dans la documentation de l’API Travaux. Cela est utile pour la création de tâches programmées, l’intégration et la livraison continues (CI/CD) et les déploiements basés sur des DABs.

Formation distribuée

Consultez La formation distribuée.

Limites

  • Le calcul GPU serverless prend uniquement en charge les accélérateurs A10.
  • Private Link n’est pas pris en charge. Les stockages ou les dépôts pip protégés par un Private Link ne sont pas pris en charge.
  • Le calcul GPU sans serveur n’est pas pris en charge pour les espaces de travail conformes aux profils de sécurité (comme HIPAA ou PCI). Le traitement des données réglementées n’est pas pris en charge pour l’instant.
  • Pour les travaux planifiés sur le calcul GPU "serverless", la fonctionnalité de récupération automatique pour les versions de paquets incompatibles liées à votre notebook n’est pas prise en charge.
  • Le runtime maximal d’une charge de travail est de sept jours. Pour les travaux d’entraînement de modèle qui dépassent cette limite, implémentez des points de contrôle et redémarrez le travail une fois le temps d'exécution maximal atteint.

Étapes suivantes