Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
Cette version databricks Runtime a atteint la fin de vie et n’est plus disponible. Pour connaître les dates de fin de vie, consultez l’historique de fin de support et de fin de vie. Pour plus d’informations sur la stratégie et le calendrier de prise en charge de Databricks Runtime, consultez les cycles de vie de la prise en charge de Databricks.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 10.0 et Databricks Runtime 10.0 Photon, avec Apache Spark 3.2.0. Databricks a publié cette version en octobre 2021. Photon est en préversion publique.
Améliorations et nouvelles fonctionnalités
- Nouvelle version de Apache Spark
- SELECT l’instruction prend désormais en charge la clause QUALIFY pour filtrer les résultats de la fonction de fenêtre
- Support de cluster pour JDK 11 (aperçu public)
- Auto Loader traite désormais les schémas comme pouvant accepter la valeur null
Nouvelle version d’Apache Spark
Databricks Runtime 10.0 et Databricks Runtime 10.0 Photon incluent Apache Spark 3.2.0. Pour plus d’informations, consultez Apache Spark.
SELECT l'instruction prend désormais en charge la clause QUALIFY pour filtrer les résultats des fonctions de fenêtre
L’instruction SELECT prend désormais en charge la clause QUALIFY. La clause QUALIFY peut être utilisée pour filtrer les résultats de fonctions de fenêtre. Une ou plusieurs fonctions de fenêtre doivent être présentes dans la liste SELECT ou la condition QUALIFY. Par exemple :
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
Prise en charge des clusters pour JDK 11 (aperçu public)
Databricks fournit désormais la prise en charge des clusters pour le kit de développement Java (JDK) 11.
Lorsque vous créez un cluster, vous pouvez spécifier que celui-ci utilise JDK 11 (tant pour le pilote que pour l’exécuteur). Pour ce faire, ajoutez la variable d’environnement suivante à Options avancées > Spark > Variables d’environnement :
JNAME=zulu11-ca-amd64
Auto Loader traite désormais les schémas comme nullables
Auto Loader traite désormais par défaut tous les schémas inférés et fournis par l’utilisateur comme pouvant accepter la valeur null. Cela permet d’éviter une éventuelle altération des données quand celles-ci contiennent des champs null pour des colonnes ne pouvant pas accepter la valeur null. Une nouvelle configuration est introduite pour suivre ce comportement, spark.databricks.cloudFiles.schema.forceNullable. Par défaut, cette configuration contient le paramètre spark.sql.streaming.fileSource.schema.forceNullable que la FileStreamSource dans Apache Spark utilise et qui a la valeur true par défaut.
Changements cassants
Changements cassants pour tous les utilisateurs de Spark SQL
- Nouvelle configuration de
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled: si la valeur est définie surtrue, autorise un sous-ensemble de prédicats d’égalité corrélés quand une sous-requête est agrégée. La valeur par défaut esttrue. - Nouvelle configuration de
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled: si la valeur est définie surtrue, bloque les alias générés automatiquement lors de la création d’affichages. La valeur par défaut esttrue. - Nouvelle configuration de
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled: si la valeur est définie surtrue, interditCREATE TABLE AS SELECTavec un emplacement non vide. La valeur par défaut esttrue. Notez que quandspark.sql.legacy.allowNonEmptyLocationInCTASest également défini surtrue, cette configuration est sans effet, etCREATE TABLE AS SELECTavec un emplacement non vide est toujours autorisé.
Modifications majeures pour les utilisateurs de Spark SQL qui activent le mode ANSI
Pour plus d’informations sur le mode ANSI, consultez Conformité ANSI dans Databricks Runtime.
Nouvelle configuration de
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled: lorsqu'elle est définie surtrue, un argumentdayOfWeeknon valide pour la fonctionnext_daygénère une exceptionIllegalArgumentExceptionen mode ANSI ; sinon, elle retournenull. La valeur par défaut esttrue.Nouvelle configuration de
spark.databricks.behaviorChange.SC83796CanCast.enabled: si la valeur est définie surtrue, active de nouvelles règles de syntaxe de cast explicite en mode ANSI. La valeur par défaut esttrue.Nouvelle configuration de
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled: si la valeur est définie surtrue, une exception d'erreur de parsing est déclenchée lors de la conversion d’une chaîne en valeur booléenne ; sinon, retournenull. La valeur par défaut esttrue.Nouvelle configuration de
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled: si la valeur est définie surtrue, la fonctionabslève une exception si l’entrée est hors limites. La valeur par défaut esttrue.
Changements cassants pour tous les utilisateurs de Python
- L’API Python
delta.tables.DeltaTable.convertToDeltaretourne désormais l’objet PythonDeltaTablecorrect qui peut être utilisé pour exécuter des commandes Delta Lake. Auparavant, elle retournait un objet interne qui ne pouvait pas être appelé directement.
Mises à niveau de la bibliothèque
Mise à niveau d’Apache Hadoop 3
- Databricks Runtime 10.0 met à niveau la dépendance Hadoop de Hadoop 2.7.4 vers Hadoop 3.3.1.
Changements de comportement
- Hadoop 3 utilise les bibliothèques hadoop-client-api et hadoop-client-runtime au lieu de la bibliothèque hadoop-common qui ombre certaines dépendances tierces qui pourraient être utilisées dans des API ou extensions publiques Hadoop.
- Les options de configuration de Hadoop 3 ont changé par rapport à Hadoop 2. Pour les options de Hadoop 3.3.1, consultez core-default.xml.
- Databricks a mis à jour certaines configurations par défaut pour Hadoop 3 de façon à ce qu’elles soient cohérentes avec Hadoop 2, pour s’assurer que les connecteurs de stockage aient par défaut les mêmes paramètres d’authentification et niveaux de performances :
fs.azure.authorization.caching.enable=falsefs.s3a.attempts.maximum=10fs.s3a.block.size=67108864fs.s3a.connection.timeout=50000fs.s3a.max.total.tasks=1000fs.s3a.retry.limit=20fs.s3a.retry.throttle.interval=500msfs.s3a.assumed.role.credentials.provider=com.amazonaws.auth.InstanceProfileCredentialsProviderfs.s3a.aws.credentials.provider=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
- Le connecteur Google Cloud Stockage (GCS) a été mis à niveau de 2.1.6 à 2.2.2.
- Le connecteur Amazon Redshift utilise désormais le schéma
s3a://. Le schémas3n://est déconseillé. - Gère les noms de classes OSS pour l’API Amazon S3 MetadataStore en plus des classes ombrées. Cela permet de traiter des configurations OSS sans exiger des noms de classe ombrées.
- Par exemple, vous pouvez spécifier la classe
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStoredans la configuration d’Hadoop.
- Par exemple, vous pouvez spécifier la classe
- Rend
new Configuration()etsparkContext.hadoopConfigurationuniformes.- Désormais, chaque fois qu’une nouvelle configuration d’Hadoop est créée, elle est cohérente avec la configuration d’Hadoop prédéfinie dans
sparkContext.hadoopConfigurationdans le Databricks Runtime, y compris avec les schémas du système de fichiers et leur configuration par défaut.
- Désormais, chaque fois qu’une nouvelle configuration d’Hadoop est créée, elle est cohérente avec la configuration d’Hadoop prédéfinie dans
- Bien que les connecteurs de stockage Hadoop inclus dans les Databricks Runtime soient entièrement compatibles avec Hadoop 3.3.1, il n’est pas garanti qu’ils soient synchronisés avec les connecteurs OSS Hadoop 3.3.1 et ils pourraient présenter un comportement différent.
- Le connecteur Amazon S3 autorise toujours (bien qu’avec un avertissement) l’authentification par user:secret dans les URL S3, au contraire de HADOOP-14833 qui la supprime.
- globStatus retourne désormais toujours des résultats triés (HADOOP-10798)
- Ajout de fs.s3a.endpoint si non défini et la région fs.s3a.endpoint est nulle (SPARK-35878)
- La résolution automatique de la région Amazon S3 fournie par Databricks pourrait ne pas être déclenchée dans certains cas, en raison du fait que le point de terminaison global est défini. Ce n’est pas un problème, car le Kit de développement logiciel (SDK) AWS peut résoudre la région correctement.
- Ajouter fs.s3a.downgrade.syncable.exceptions si non défini (SPARK-35868)
- Les codecs LZ4 et Snappy ne reposent pas sur la bibliothèque Hadoop native (Hadoop-17125)
Problèmes connus
- SPARK-36681 L’utilisation de SnappyCodec pour écrire un fichier de séquence échoue avec l’erreur UnsatisfiedLinkError en raison d’un problème connu dans Hadoop 3.3.1 (Hadoop-17891)
Apache Spark
Databricks Runtime 10.0 inclut Apache Spark 3.2.0.
Dans cette section :
- Points forts
- Core et Spark SQL
- Diffusion en continu structurée
- PySpark
- MLlib
- Désapprobations et suppressions
Points forts
- Prise en charge de la couche API Pandas sur PySpark (SPARK-34849)
- Sessionisation basée sur EventTime (fenêtre de session) (SPARK-10816)
- Prise en charge des types ANSI SQL INTERVAL (SPARK-27790)
- Mode ANSI en disponibilité générale (SPARK-35030)
- Standardisation des messages d’exception dans Spark (SPARK-33539)
Core et Spark SQL
Améliorations de la compatibilité ANSI SQL
- Prise en charge des types ANSI SQL INTERVAL (SPARK-27790)
- Nouvelles règles de syntaxe de coercion de type en mode ANSI (SPARK-34246)
Une amélioration du niveau de performance
- Optimisation des requêtes
- Suppression des agrégats redondants dans l’Optimiseur (SPARK-33122)
- Appliquer la limite via Project avec Join (SPARK-34622)
- Estimation de la cardinalité de l’opérateur union, sort et range (SPARK-33411)
- Prise en charge du prédicat In/InSet par UnwrapCastInBinaryComparison (SPARK-35316)
- Conservation des statistiques nécessaires après nettoyage de partition (SPARK-34119)
- Exécution d’une requête
- Activation du pool de mémoires tampons Zstandard par défaut (SPARK-34340, SPARK-34390)
- Ajouter la génération de code pour tous les types de jointures de la jointure fusion par tri (SPARK-34705)
- Amélioration de la jointure de boucle imbriquée de transmission (SPARK-34706)
- Prendre en charge deux niveaux de hash maps pour l'agrégation finale de hachage (SPARK-35141)
- Autoriser des rédacteurs simultanés pour l’écriture de partitions dynamiques et de table en compartiments (SPARK-26164)
- Amélioration des performances de traitement de FETCH_PRIOR dans Thriftserver (SPARK-33655)
Améliorations des connecteurs
- Parquet
- Mise à niveau de Parquet vers 1.12.1 (SPARK-36726)
- Lecture des types non signés Parquet qui sont stockés en tant que type physique Int32 dans Parquet (SPARK-34817)
- Lecture de type logique Int64 non signé Parquet stocké en tant que type physique Int64 signé au format décimal (20, 0) (SPARK-34786)
- Améliorer Parquet dans le filtrage par pushdown (SPARK-32792)
- ORC
- Mise à niveau d’ORC vers la version 1.6.11 (SPARK-36482)
- Prise en charge de l'évolution forcée du positionnement ORC (SPARK-32864)
- Prise en charge des colonnes imbriquées dans le lecteur vectorisé ORC (SPARK-34862)
- Prise en charge de la compression ZSTD et LZ4 dans la source de données ORC (SPARK-33978, SPARK-35612)
- Avro
- Mise à niveau d’Avro vers la version 1.10.2 (SPARK-34778)
- Prise en charge de l’évolution du schéma Avro pour les tables Hive partitionnées avec « avro.schema.literal » (SPARK-26836)
- Ajouter de nouvelles options de source de données Avro pour contrôler le rebasage de date-heure lors de la lecture (SPARK-34404)
- Ajout de la prise en charge de l’URL de schéma fournie par l’utilisateur dans Avro (SPARK-34416)
- Ajout de la prise en charge de la correspondance positionnelle des schémas Catalyst-to-Avro (SPARK-34365)
- JSON
- Mise à niveau de Jackson vers la version 2.12.3 (SPARK-35550)
- Autorisation aux sources de données Json d’écrire des caractères non-ascii sous la forme de points de code (SPARK-35047)
- JDBC
- Calculer un stride de partition plus précis dans JDBCRelation (SPARK-34843)
- Prise en charge du filtrage du metastore Hive par not-in (SPARK-34538)
Améliorations de la fonctionnalité
- Sous-requête
- Amélioration des sous-requêtes corrélées (SPARK-35553)
- Nouvelles fonctions intégrées
- ilike (SPARK-36674, SPARK-36736)
- current_user (SPARK-21957)
- product (SPARK-33678)
- regexp_like,regexp (SPARK-33597, SPARK-34376)
- try_add (SPARK-35162)
- try_divide (SPARK-35162)
- bit_get (SPARK-33245)
- Utilisation d’Apache Hadoop 3.3.1 par défaut (SPARK-29250)
- Ajout de somme de contrôle pour les blocs de shuffle (SPARK-35275)
- Activation de spark.storage.replication.proactive par défaut (SPARK-33870)
- Prise en charge du nettoyage du stockage de secours lors de l’arrêt de SparkContext (SPARK-34142)
- Prise en charge des énumérations Java à partir de l’API Scala DataSet (SPARK-23862)
- ADD JAR avec les coordonnées Ivy doit être compatible avec le comportement transitif de Hive (SPARK-34506)
- Prise en charge ADD ARCHIVE et LIST ARCHIVEcommandeS (SPARK-34603)
- Soutien de plusieurs chemins d'accès pour les commandes ADD FILE/JAR/ARCHIVE(SPARK-35105)
- Prendre en charge les fichiers d’archivage en tant que ressources pour CREATE FUNCTION à l'aide de la syntaxe USING (SPARK-35236)
- Chargement de SparkSessionExtensions à partir de ServiceLoader (SPARK-35380)
- Ajout de la fonction sentences à {scala,py} dans les fonctions (SPARK-35418)
- Application de spark.sql.hive.metastorePartitionPruning pour les tables non Hive qui utilisent le metastore Hive pour la gestion des partitions (SPARK-36128)
- Propagation de la raison de la perte de processus à l'interface utilisateur web (SPARK-34764)
- Éviter l'incorporation des CTE non déterministes (SPARK-36447)
- Prise en charge de l’analyse de toutes les tables dans une base de données spécifique (SPARK-33687)
- Standardisation des messages d’exception dans Spark (SPARK-33539)
- Support des valeurs NULL (IGNORE | RESPECT) pour LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE(SPARK-30789)
Autres changements notables
- Surveiller
- Nouvelles métriques pour ExternalShuffleService (SPARK-35258)
- Ajout de nouveaux paramètres et API REST au niveau de la phase (SPARK-26399)
- Prise en charge des distributions des métriques des tâches et des exécuteurs dans l’API REST (SPARK-34488)
- Ajout de métriques de secours pour l’agrégat de hachage (SPARK-35529)
- Ajout de count_distinct en tant qu’option à Dataset#summary (SPARK-34165)
- Implémentation de ScriptTransform dans sql/core (SPARK-31936)
- Rendre le délai d'expiration du battement de coeur du pilote BlockManagerMaster configurable (SPARK-34278)
- Rendre configurable le nom du service de shuffle côté client et permettre le remplacement de la configuration basée sur le classpath au niveau du serveur (SPARK-34828)
- ExecutorMetricsPoller doit conserver l’entrée intermédiaire dans stageTCMP jusqu’à ce qu’une pulsation se produise (SPARK-34779)
- Remplacer if par une clause filter dans RewriteDistinctAggregates (SPARK-34882)
- Corriger l’échec lors de l’application de CostBasedJoinReorder sur une auto-jointure (SPARK-34354)
- CREATE TABLE LIKE doit respecter les propriétés de table réservées (SPARK-34935)
- Envoi du fichier ivySettings au pilote en mode cluster YARN (SPARK-34472)
- Résoudre les colonnes communes dupliquées de USING/NATURAL JOIN(SPARK-34527)
- Masquage des propriétés d’affichage interne pour la commande DESCRIBE TABLE (SPARK-35318)
- Prise en charge de la résolution d’attributs manquants pour indicateur distribution/cluster by/repartition (SPARK-35331)
- Ignorer l’erreur lors de la vérification du chemin d’accès dans FileStreamSink.hasMetadata (SPARK-34526)
- Améliorer la prise en charge du committer magique s3a en déduisant les configurations manquantes (SPARK-35383)
- Autorisation d’omission de : dans la chaîne de type STRUCT (Spark-35706)
- Ajout d’un nouvel opérateur pour déterminer si AQE peut optimiser en toute sécurité (SPARK-35786)
- Ajouter des nouveaux champs de structure imbriqués au lieu de trier pour unionByName avec remplissage avec des valeurs nulles (SPARK-35290)
- ArraysZip devrait conserver les noms de champs afin d’éviter qu’ils soient réécrits par l’analyseur/optimiseur (SPARK-35876)
- Utilisez Void comme nom de type NullType (SPARK-36224)
- Introduction d’une nouvelle API pour que FileCommitProtocol autorise le nommage de fichier flexible (SPARK-33298)
Changements de comportement
Consultez les guides de migration pour chaque composant : Spark Core.
Diffusion Structurée
Fonctionnalités majeures
- Sessionisation basée sur EventTime (fenêtre de session) (SPARK-10816)
- Mise à niveau du client Kafka vers 2.8.0 (SPARK-33913)
- Trigger.AvailableNow pour l’exécution de requêtes de streaming comme Trigger.Once dans plusieurs lots dans Scala (SPARK-36533)
Autres changements notables
- Introduction d’une nouvelle option dans la source Kafka pour spécifier un nombre minimal d’enregistrements à lire par déclencheur (SPARK-35312)
- Ajout des derniers décalages à la progression de la source (SPARK-33955)
PySpark
Project Zen
- API Pandas sur Spark (SPARK-34849)
- Activation de mypy pour pandas-on-Spark (SPARK-34941)
- Implémentation de la prise en charge de CategoricalDtype (SPARK-35997, SPARK-36185)
- Accomplissement des opérations de base des séries et des index (SPARK-36103, SPARK-36104, SPARK-36192)
- Mise en correspondance des comportements avec 1.3 pandas (SPARK-36367)
- Mettre en correspondance les comportements de série avec NaN à pandas'(SPARK-36031, SPARK-36310)
- Implémenter l'opérateur unaire 'invert' pour les Series et Index intégrales (SPARK-36003)
- Implémentation de CategoricalIndex.map et DatetimeIndex.map (SPARK-36470)
- Implémentation de Index.map (SPARK-36469)
- Prise en charge du gestionnaire de défauts pour le worker Python qui a planté (SPARK-36062)
- Utiliser la règle de nommage en serpent sur les API de fonction (SPARK-34306)
- Activation de spark.sql.execution.pyspark.udf.simplifiedTraceback.enabled par défaut (SPARK-35419)
- Support de l'inférence des dictionnaires imbriqués en tant que structures lors de la création d'un DataFrame (SPARK-35929)
Autres changements notables
- Activation du mode thread épinglé par défaut (SPARK-35303)
- Ajouter le support de NullType pour les exécutions Arrow (SPARK-33489)
- Ajout de la fonctionnalité self_destruct d'Arrow pour la méthode toPandas (SPARK-32953)
- Ajout de l'API de wrapper cible de thread pour PySpark en mode thread épinglé (SPARK-35498)
Changements de comportement
Consultez les guides de migration.
MLlib
Optimisation des performances
- Optimisation de la transformation BucketedRandomProjectionLSH (SPARK-34220)
- Optimisation de w2v findSynonyms (SPARK-34189)
- Optimisation de GEMM épars en ignorant la vérification des limites (SPARK-35707)
- Amélioration des performances de ML ALS recommendForAll par GEMV (SPARK-33518)
Améliorations de l’apprentissage du modèle
- Refactorisation de l’agrégateur logistique - Prise en charge du centrage virtuel (SPARK-34797)
- Régression logistique binaire avec centrage de support d’interception (SPARK-34858, SPARK-34448)
- Régression logistique multinomiale avec centrage de support d’interception (SPARK-34860)
Améliorations de BLAS
- Remplacement entier de com.github.fommil.netlib par dev.ludovic.netlib:2.0 (SPARK-35295)
- Ajout d’une implémentation de BLAS vectorisée (SPARK-33882)
- Accélérez le BLAS de repli avec dev.ludovic.netlib (SPARK-35150)
Autres changements notables
- Transformation OVR corrigeant un conflit de colonne potentiel (SPARK-34356)
Désapprobations et suppressions
- Désapprobation de spark.launcher.childConnectionTimeout (SPARK-33717)
- désapprouver GROUP BY ... GROUPING SETS (...) et promouvoir GROUP BY GROUPING SETS (...)(SPARK-34932)
- Obsolescence de l’API ps.broadcast (SPARK-35810)
- Dépréciation de l’argument
num_files(SPARK-35807) - Déprécier DataFrame.to_spark_io (SPARK-35811)
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 10.0.
Environnement du système
- Système d’exploitation : Ubuntu 20.04.3 LTS
- Java : Zulu 8.56.0.21-CA-linux64
- Scala : 2.12.14
- Python : 3.8.10
- R : 4.1.1
- Delta Lake : 1.0.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| Antergos Linux | 2015,10 (ISO-Rolling) | appdirs | 1.4.4 | appel de retour | 0.2.0 |
| boto3 | 1.16.7 | botocore | 1.19.7 | certifi | 2020.12.5 |
| chardet | 4.0.0 | cycliste | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | décorateur | 5.0.6 | distlib | 0.3.3 |
| distro-info | 0.23ubuntu1 | aperçu des facettes | 1.0.0 | verrou de fichier | 3.0.12 |
| idna | 2.10 | ipykernel | 5.3.4 | ipython | 7.22.0 |
| ipython-genutils | 0.2.0 | Jedi | 0.17.2 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jupyter-client | 6.1.12 | jupyter-core | 4.7.1 |
| kiwisolver | 1.3.1 | Koalas | 1.8.1 | matplotlib | 3.4.2 |
| numpy | 1.19.2 | Pandas | 1.2.4 | parso | 0.7.0 |
| dupe | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Oreiller | 8.2.0 | pépin | 21.0.1 | tracé | 5.1.0 |
| prompt-toolkit | 3.0.17 | protobuf | 3.17.2 | psycopg2 | 2.8.5 |
| ptyprocess | 0.7.0 | pyarrow | 4.0.0 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | pyparsing | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.6 |
| python-dateutil | 2.8.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
| requêtes | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn | 0.24.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.6.2 | seaborn | 0.11.1 |
| setuptools | 52.0.0 | Six | 1.15.0 | ssh-import-id | 5.10 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.12.2 | ténacité | 8.0.1 | threadpoolctl | 2.1.0 |
| tornade | 6.1 | traitlets | 5.0.5 | mises à niveau automatiques | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| roue | 0.36.2 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de la version instantanée de CRAN fournie par Microsoft, datant du 21/09/2021.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| Askpass | 1.1 | assertthat | 0.2.1 | rétroportage | 1.2.1 |
| base | 4.1.1 | base64enc | 0.1-3 | morceau | 4.0.4 |
| bit64 | 4.0.5 | objet BLOB | 1.2.2 | botte | 1.3-28 |
| brasser | 1.0-6 | brio | 1.1.2 | balai | 0.7.9 |
| bslib | 0.3.0 | cachemire | 1.0.6 | appelant | 3.7.0 |
| caret | 6.0-88 | cellranger | 1.1.0 | Chron | 2.3-56 |
| classe | 7.3-19 | Cli | 3.0.1 | clipr | 0.7.1 |
| Grappe | 2.1.2 | codetools | 0.2-18 | espace colorimétrique | 2.0-2 |
| commonmark | 1.7 | compilateur | 4.1.1 | config | 0.3.1 |
| cpp11 | 0.3.1 | crayon | 1.4.1 | Références | 1.3.1 |
| friser | 4.3.2 | data.table | 1.14.0 | jeux de données | 4.1.1 |
| DBI | 1.1.1 | dbplyr | 2.1.1 | Desc | 1.3.0 |
| devtools | 2.4.2 | diffobj | 0.3.4 | digérer | 0.6.27 |
| dplyr | 1.0.7 | dtplyr | 1.1.0 | ellipse | 0.3.2 |
| évaluer | 0.14 | fans | 0.5.0 | couleurs | 2.1.0 |
| carte rapide | 1.1.0 | forcats | 0.5.1 | foreach | 1.5.1 |
| étranger | 0.8-81 | forger | 0.2.0 | fs | 1.5.0 |
| futur | 1.22.1 | future.apply | 1.8.1 | se gargariser | 1.2.0 |
| produits génériques | 0.1.0 | Gert | 1.4.1 | ggplot2 | 3.3.5 |
| gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-2 |
| globales | 0.14.0 | colle | 1.4.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.0 | Gower | 0.2.2 | graphisme | 4.1.1 |
| grDevices | 4.1.1 | grille | 4.1.1 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtable | 0.3.0 | havre | 2.4.3 |
| supérieur | 0.9 | hms | 1.1.0 | outils HTML | 0.5.2 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.3 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | Id | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-12 | isoband | 0.2.5 |
| itérateurs | 1.0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
| KernSmooth | 2,23-20 | knitr | 1.34 | étiquetage | 0.4.2 |
| plus tard | 1.3.0 | treillis | 0.20-44 | lave | 1.6.10 |
| cycle de vie | 1.0.0 | listenv | 0.8.0 | lubridate | 1.7.10 |
| magrittr | 2.0.1 | Markdown | 1.1 | MASSE | 7.3-54 |
| Matrice | 1.3-4 | mémorisation | 2.0.0 | méthodes | 4.1.1 |
| mgcv | 1.8-37 | mime | 0.11 | ModelMetrics | 1.2.2.2 |
| modèleur | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-152 |
| nnet | 7.3-16 | numDeriv | 2016.8-1.1 | openssl | 1.4.5 |
| parallèle | 4.1.1 | parallèlement | 1.28.1 | pilier | 1.6.2 |
| pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | pkgload | 1.2.2 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.6 | éloge | 1.0.0 |
| joliesunits | 1.1.1 | pROC | 1.18.0 | processx | 3.5.2 |
| prodlim | 2019.11.13 | progrès | 1.2.2 | progresseur | 0.8.0 |
| promesses | 1.2.0.1 | proto | 1.0.0 | p.s. | 1.6.0 |
| purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| randomForest (algorithme d'apprentissage automatique) | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.3.3 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | readr | 2.0.1 |
| readxl | 1.3.1 | recettes | 0.1.16 | match retour | 1.0.1 |
| revanche2 | 2.1.2 | Télécommandes | 2.4.0 | exemple reproductible | 2.0.1 |
| reshape2 | 1.4.4 | rlang | 0.4.11 | rmarkdown | 2,11 |
| RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
| rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
| rstudioapi | 0,13 | rversions | 2.1.1 | rvest | 1.0.1 |
| Sass | 0.4.0 | écailles | 1.1.1 | sélecteur | 0,4-2 |
| informations sur la session | 1.1.1 | forme | 1.4.6 | brillant | 1.6.0 |
| sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
| spatial | 7.3-11 | Cannelures | 4.1.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiques | 4.1.1 | statistiques4 | 4.1.1 |
| stringi | 1.7.4 | stringr | 1.4.0 | survie | 3.2-13 |
| sys | 3.4 | tcltk | 4.1.1 | Démos Pédagogiques | 2.10 |
| testthat | 3.0.4 | tibble | 3.1.4 | tidyr | 1.1.3 |
| tidyselect | 1.1.1 | tidyverse | 1.3.1 | date-heure | 3043.102 |
| tinytex | 0,33 | outils | 4.1.1 | tzdb | 0.1.2 |
| Utilise ça | 2.0.1 | utf8 | 1.2.2 | utils | 4.1.1 |
| Identifiant unique universel (UUID) | 0.1-4 | vctrs | 0.3.8 | viridisLite | 0.4.0 |
| Vroom | 1.5.5 | Waldo | 0.3.1 | vibrisse | 0,4 |
| flétrir | 2.4.2 | xfun | 0,26 | xml2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
| fermeture éclair | 2.2.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | Outil de support aws-java-sdk | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | flux | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.12.2 |
| com.fasterxml.jackson.core | jackson-core | 2.12.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
| com.github.ben-manes.caffeine | caféine | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | goyave | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1.15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 1.3.2 |
| dev.ludovic.netlib | Blas | 1.3.2 |
| dev.ludovic.netlib | lapack | 1.3.2 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0.19 |
| io.delta | delta-sharing-spark_2.12 | 0.1.0 |
| io.dropwizard.metrics | métriques de base | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | servlets de métriques | 4.1.1 |
| io.netty | netty-all | 4.1.63.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collecteur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pyrolite (roche pyrolitique) | 4 h 30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.3 |
| net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 2.0.0 |
| org.apache.arrow | arrow-memory-core | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | vecteur-flèche | 2.0.0 |
| org.apache.avro | avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1.20 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | texte commun | 1.6 |
| org.apache.curator | curateur-client | 2.13.0 |
| org.apache.curator | curateur-framework | 2.13.0 |
| org.apache.curator | curateur-recettes | 2.13.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.1 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-en incubation |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | lierre | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.10 |
| org.apache.orc | orc-mapreduce | 1.6.10 |
| org.apache.orc | orc-shims | 1.6.10 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
| org.apache.parquet | encodage parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | structures-de-format-parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | annotations du public | 0.5.0 |
| org.apache.zookeeper | gardien de zoo | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-continuation | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-http | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-plus | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.40.v20210413 |
| org.eclipse.jetty | serveur jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-webapp | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-client | 2,34 |
| org.glassfish.jersey.core | jersey-commun | 2,34 |
| org.glassfish.jersey.core | jersey-server | 2,34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | Cales | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | inutilisé | 1.0.0 |
| org.springframework | spring-core | 4.1.4.RELEASE |
| org.springframework | test de printemps | 4.1.4.RELEASE |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | machinist_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly.openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |