Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Diese Databricks-Runtime-Version hat das Ende der Lebensdauer erreicht und ist nicht mehr verfügbar. Informationen zu End-of-Life-Daten finden Sie unter Ende des Supports und End-of-Life-Historie. Informationen über die Richtlinie und den Zeitplan für den Support von Databricks Runtime finden Sie unter Databricks Support-Laufzeiten.
Diese Version wurde von Databricks im Dezember 2020 veröffentlicht.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 7.5, unterstützt von Apache Spark 3.0.
Neue Funktionen
Delta Lake-Features und -Verbesserungen
In diesem Release sind die folgenden Delta Lake-Features und -Verbesserungen enthalten:
- Asynchrone Prüfpunktausführung eliminiert Spitzen bei der Dauer des Mikrobatchstreamings
- Neueste Tabelleninformationen werden jetzt an die Kataloge weitergegeben
-
Der Vorgang
MERGE INTOunterstützt jetzt die Schema-Evolution für geschachtelte Spalten -
MERGE INTOVorgang verwendet jetzt automatisch optimierte Schreibvorgänge -
MERGE INTO- undUPDATE-Vorgänge lösen jetzt geschachtelte Strukturspalten nach Namen auf -
CLONEist allgemein verfügbar und Sie können jetzt Tabelleneigenschaften überschreiben -
RESTOREist allgemein verfügbar - Implizite Scala-Funktionen vereinfachen die Lese- und Schreib-APIs von Spark
-
Verbessern des Streamingdurchsatzes mit der
fetchParallelism-Connectoroption - Nachverfolgen des Streamfortschritts mit neuen Autoloader-Metriken
Asynchrone Prüfpunktausführung eliminiert Spitzen bei der Dauer des Mikrobatchstreamings
Delta Lake führt standardmäßig für alle 10 Commits Prüfpunkte aus. Bei Streamingworkloads kann die Prüfpunktausführung zu geringfügigen Spitzen bei der Mikrobatchdauer nach jeweils 10 Commits führen. Durch die asynchrone Prüfpunktausführung werden diese Spitzen beseitigt.
Die asynchrone Prüfpunktausführung ist standardmäßig für alle Streamingworkloads aktiviert, die nicht nur einmalig ausgelöst werden. Mit asynchroner Prüfpunkterstellung schreiben Streamingautoren auch erweiterte Prüfpunkte, sodass Sie sich nicht explizit für erweiterte Prüfpunkte anmelden müssen.
Um die asynchrone Prüfpunktausführung zu deaktivieren, legen Sie die SQL-Konfiguration spark.databricks.delta.checkpoint.async.enabled false fest.
Batchworkloads schreiben Prüfpunkte weiterhin synchron und wir empfehlen, die asynchrone Prüfpunktausführung für Batchworkloads nicht zu aktivieren.
Neueste Tabelleninformationen werden jetzt an die Kataloge weitergegeben
Delta Lake überträgt jetzt auf einer Best-Effort-Basis die neuesten Tabelleninformationen, wie Schema- und Tabelleneigenschaften, auf Kataloge wie den Hive-Metastore. Solche Informationen können Ihnen helfen, Katalogisierungstools zu nutzen, um das Schema Ihrer Delta-Tabellen zu verstehen.
Delta Lake verlässt sich intern nicht auf diese Informationen, versucht aber, sie auf dem neuesten Stand zu halten. Darüber hinaus speichert Delta Lake die Tabelleneigenschaften delta.lastUpdateVersion und delta.lastCommitTimestamp, um die Version und den Zeitstempel des Commits anzugeben, der eine Änderung zuletzt per Push in den Metastore übertragen hat. Der Metastore wird nur aktualisiert, wenn das Schema der Tabelle oder die Eigenschaften in der Tabelle nicht übereinstimmen.
Daher spiegeln die oben genannten Tabelleneigenschaften nicht unbedingt die neueste Version der Tabelle wider.
Wenn die Tabelleninformationen und die Informationen im Metastore nicht synchron sind, können Sie einen Befehl wie DESCRIBE <table> ausführen, um den Metastore zu aktualisieren.
Hinweis
Da Hive die sich ändernden Partitionsspalten nicht zulässt, Delta-Tabellen jedoch ihre Partitionierung ändern können, werden Delta-Tabellen nicht als partitioniert in Hive angezeigt.
MERGE INTO-Vorgang unterstützt jetzt die Schemaentwicklung von geschachtelten Spalten
Die Schemaentwicklung von geschachtelten Spalten weist jetzt die gleiche Semantik wie bei Spalten der obersten Ebene auf. Beispielsweise können einer StructType-Spalte automatisch neue geschachtelte Spalten hinzugefügt werden. Details finden Sie unter Automatische Schemaentwicklung bei der Zusammenführung.
MERGE INTO-Vorgang verwendet jetzt automatisch optimierte Schreibvorgänge
Optimierte Schreibvorgänge können standardmäßig eine wesentlich bessere Leistung für MERGE INTO bieten, insbesondere für MERGE INTO bei partitionierten Tabellen. Um optimierte Schreibvorgänge zu deaktivieren, legen Sie die Spark-Konfiguration spark.databricks.delta.optimizeWrite.enabled auf false fest.
MERGE INTO- und UPDATE-Vorgänge lösen jetzt geschachtelte Strukturspalten nach Namen auf.
Aktualisierungsvorgänge und die Befehle UPDATE und MERGE INTO lösen jetzt geschachtelte Strukturspalten nach Namen auf. Das heißt, beim Vergleichen oder Zuweisen von Spalten des Typs „StructType“ spielt die Reihenfolge der geschachtelten Spalten keine Rolle (genauso wie die Reihenfolge der Spalten der obersten Ebene). Legen Sie die Spark-Konfiguration spark.databricks.delta.resolveMergeUpdateStructsByName.enabled auf false fest, um die Auflösung nach Position wiederherzustellen.
CLONE ist GA, und Sie können jetzt Tabelleneigenschaften überschreiben
Der Befehl CLONE ist jetzt allgemein verfügbar. Siehe CREATE TABLE CLONE. Darüber hinaus können Sie jetzt Außerkraftsetzungen von Tabelleneigenschaften angeben, wenn Sie CLONE verwenden. Beispiele finden Sie unter Klonen einer Tabelle in Azure Databricks.
RESTORE ist GA
Der Befehl RESTORE ist jetzt allgemein verfügbar. Siehe RESTORE.
Implizite Scala-Funktionen vereinfachen die Lese- und Schreib-APIs von Spark
Sie können io.delta.implicits._ importieren, um die delta-Methode mit Spark-Lese- und -Schreib-APIs zu verwenden.
import io.delta.implicits._
spark.read.delta("/my/table/path")
df.write.delta("/my/table/path")
spark.readStream.delta("/my/table/path")
df.writeStream.delta("/my/table/path")
Verbessern des Streamingdurchsatzes mit der fetchParallelism-Connectoroption
Der AQS-Connector unterstützt jetzt eine neue Option fetchParallelism zum Angeben der Parallelität zum Abrufen von Nachrichten aus dem Warteschlangendienst.
Nachverfolgen des Streamfortschritts mit neuen Autoloader-Metriken
Autoloader meldet jetzt nach jedem Batch, wie viele Dateien sich im Backlog befinden und wie groß der Backlog ist. Sie können diese Metriken zum Nachverfolgen des Datenstromfortschritts verwenden. Weitere Informationen zum Anzeigen der Metriken finden Sie unter Autoloader.
Verbesserungen
Umfassendere Unterstützung für notebookspezifische Bibliotheken mithilfe von %pip- und %conda-Magic Commands
Sie können jetzt notebookspezifische Bibliotheken mithilfe der Magie-Befehle %pip und %conda auf Hochkonkurrenz-Clustern installieren, bei denen entweder Tabellen-ACLs oder Berechtigungsweitergabe aktiviert ist.
Präzise Spark SQL-Anzeige DECIMAL
Der Datentyp Spark SQL DECIMAL wird jetzt in Tabellen ohne Verlust von Genauigkeit und Skalierung angezeigt.
ADLS Gen 2-Speicherconnector basierend auf Hadoop 3.3 für ABFS
Eine aktualisierte Version des ADLS Gen 2-Speicherconnectors basiert auf Hadoop 3.3 für ABFS. Der aktualisierte Connector enthält viele Stabilitätsverbesserungen (siehe Hadoop-Stabilität) und unterstützt die SAS-Tokenauthentifizierung.
Weitere Korrekturen
Der Databricks Kafka-Connector für Spark-Streaming wurde entfernt. Verwenden Sie den Apache Spark-Connector.
Bibliotheksaktualisierungen
- Aktualisierte Python-Bibliotheken:
- Upgrade von koalas von 1.3.0 auf 1.4.0.
- Mehrere installierte R-Bibliotheken haben ein Upgrade erhalten. Weitere Informationen finden Sie unter Installierte R-Bibliotheken.
- OpenJDK 8-Build aktualisiert auf Zulu 8.50.0.51-CA-linux64 (Build 1.8.0_275-b01).
Apache Spark
Databricks Runtime 7.5 enthält Apache Spark 3.0.1. Diese Version enthält alle Spark Fixes und Verbesserungen, die in Databricks Runtime 7.4 (EoL) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-33611] [UI] Zweimalige Codierung für den Abfrageparameter der neu generierten Proxy-URL vermeiden
- [SPARK-33587] [CORE] Executor bei verschachtelten fatalen Fehlern beenden (7.x)
- [SPARK-33140] [SQL] Code wiederherstellen, der nicht die übergebene SparkSession verwendet, um SQLConf abzurufen
- [SPARK-33472] [SQL] Reihenfolge der RemoveRedundantSorts-Regeln anpassen
- [SPARK-33422] [DOC] Korrekte Darstellung des linken Menüpunkts korrigieren
- [SPARK-27421] [SQL] Filter für int-Spalte und Werteklasse java.lang.String beim Bereinigen der Partitionsspalte beheben
- [SPARK-33483] [ INFRA][Tests] Beheben von Rattenausschlussmustern und Hinzufügen einer LIZENZ
- [SPARK-33464] [INFRA] (Nicht) notwendigen Cache hinzufügen/entfernen und GitHub Actions YAML umstrukturieren
- [SPARK-33407] [PYTHON][7.x] Vereinfachung der Ausnahmemeldungen bei Python UDFs (standardmäßig deaktiviert)
- [SPARK-33435] [SQL] DSv2: REFRESHREFRESH TABLE sollten Caches, die auf die Tabelle verweisen, ungültig werden.
- [SPARK-33358] [SQL] Rückgabecode, wenn ein Fehler beim Befehlsprozess aufgetreten ist
- [SPARK-33183] [DBCONNECT] RemoveRedundantSorts.scala zu ALLOW_LIST.txt hinzufügen
- [SPARK-33290] [SQL] REFRESHREFRESH TABLE sollte den Cache ungültig machen, obwohl die Tabelle selbst möglicherweise nicht zwischengespeichert wird.
- [SPARK-33140] [SQL] Delta-Kompilierung beheben
- [SPARK-33316] [SQL] Einheitstests für from_avro und to_avro mit Schema Registry und benutzerdefiniertem nullable Avro-Schema hinzufügen
-
[SPARK-33404] [SQL] Falsche Ergebnisse im
date_trunc-Ausdruck beheben - [SPARK-33339] [PYTHON] Pyspark-Anwendung hängt aufgrund eines Fehlers, der keine Ausnahme ist
- [SPARK-33412] [SQL] OverwriteByExpression sollte seine Löschbedingung auf der Grundlage der Tabellenbeziehung und nicht der Eingabeabfrage auflösen
- [SPARK-33391] [SQL] element_at berücksichtigt mit CreateArray keinen auf 1 basierenden Index.
- [SPARK-33316] [SQL] Unterstützung des vom Benutzer bereitgestellten nullbaren Avro-Schemas für das nicht-nullbare Catalyst-Schema beim Schreiben in Avro
- [SPARK-33372] [SQL] InSet-Bucketbereinigung beheben
- [SPARK-33371] [PYTHON] „setup.py“ und Tests für Python 3.9 aktualisieren
- [SPARK-33140] [SQL] SQLConf und SparkSession in allen Unterklassen von Rule[QueryPlan] entfernen
- [SPARK-33338] [SQL] Für GROUP BY sollte bei der Verwendung der Literalzuordnung kein Fehler auftreten
- [SPARK-33306] [SQL] Zeitzone wird bei der Umwandlung von Datum in Zeichenfolge benötigt
- [SPARK-33284] [WEB-UI] Wenn Sie auf der Seite für die Speicherbenutzeroberfläche auf ein beliebiges Feld klicken, um die Tabelle zu sortieren, geht der Headerinhalt verloren
- [SPARK-33362] [SQL] skipSchemaResolution sollte weiterhin die Auflösung der Abfrage erfordern
- [SPARK-32257] [SQL] meldet explizite Fehler für die ungültige Verwendung des Befehls SET/RESET
- [SPARK-32406] [SQL] Festlegen, dass die RESET-Syntax das Zurücksetzen einer einzelnen Konfiguration unterstützt
- [SPARK-32376] [SQL] Festlegen, dass das unionByName-Verhalten beim Auffüllen mit Nullen mit struct-Spalten funktioniert
- [SPARK-32308] [SQL] „Move by-name“-Auflösungslogik von unionByName vom API-Code in die Analysephase verschieben
- [SPARK-20044] [UI] Unterstützung der Spark-Benutzeroberfläche hinter dem Front-End-Reverseproxy mithilfe einer Pfadpräfix-Revert-Proxy-URL
- [SPARK-33268] [SQL][python] Beheben von Fehlern beim Umwandeln von Daten aus/in PythonUserDefinedType
- [SPARK-33292] [SQL] String-Darstellung von Literal ArrayBasedMapData eindeutig machen.
- [SPARK-33183] [SQL] Optimiererregel EliminateSorts beheben und eine physische Regel hinzufügen, um redundante Sortierungen zu entfernen
- [SPARK-33272] [SQL] Attributzuordnung in QueryPlan.transformUpWithNewOutput bereinigen
- [SPARK-32090] [SQL] UserDefinedType.equal() verbessern, damit es symmetrisch ist
- [SPARK-33267] [SQL] Beheben des NPE-Problems im Filter "In", wenn einer der Werte NULL enthält
- [SPARK-33208] [SQL] Dokument von SparkSession#sql aktualisieren
- [SPARK-33260] [SQL] Falsche Ergebnisse von SortExec beheben, wenn sortOrder auf „Stream“ steht.
- [SPARK-33230] [SQL] Hadoop-Committer zum Abrufen der eindeutigen Auftrags-ID in „spark.sql.sources.writeJobUUID“ verwenden
- [SPARK-33197] [SQL] Änderungen an spark.sql.analyzer.maxIterations vornehmen, die zur Laufzeit wirksam werden
- [SPARK-33228] [SQL] Zwischenspeicherung der Daten nicht aufheben, wenn eine Ansicht durch denselben logischen Plan ersetzt wird.
- [SPARK-32557] [CORE] Protokollierung und Ignorieren der Ausnahme pro Eintrag im Verlaufsserver
- [SPARK-32436] [CORE] „numNonEmptyBlocks“ in HighlyCompressedMapStatus.readExternal initialisieren
- [SPARK-33131] [SQL] Korrektur: Gruppierungssets mit HAVING-Klausel können qualifizierte Spaltennamen nicht auflösen.
- [SPARK-32761] [SQL] Aggregation mehrerer faltbarer distinkter Ausdrücke zulassen
- [SPARK-33094] [SQL] Veranlassen, dass das ORC-Format die Hadoop-Konfiguration von DS-Optionen an das zugrunde liegende HDFS-Dateisystem verteilt
Wartungsupdates
Weitere Informationen finden Sie unter Databricks Runtime 7.5-Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 18.04.5 LTS
- Java: Zulu 8.50.0.51-CA-linux64 (Build 1.8.0_275-b01)
- Scala: 2.12.10
- Python: 3.7.5
- R: R-Version 3.6.3 (2020-02-29)
- Delta Lake 0.7.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| asn1crypto | 1.3.0 | Backcall | 0.1.0 | Boto3 | 1.12.0 |
| Botocore | 1.15.0 | Zertifizieren | 2020.6.20 | CFFI | 1.14.0 |
| Chardet | 3.0.4 | Kryptographie | 2.8 | Fahrradfahrer | 0.10.0 |
| Cython | 0.29.15 | Dekorateur | 4.4.1 | docutils | 0.15.2 |
| Einstiegspunkte | 0,3 | idna | 2.8 | ipykernel | 5.1.4 |
| ipython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.17.2 |
| jmespath | 0.10.0 | joblib | 0.14.1 | Jupyter-Client | 5.3.4 |
| jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | Koalas | 1.4.0 |
| matplotlib | 3.1.3 | numpy | 1.18.1 | Pandas | 1.0.1 |
| Parso | 0.7.0 | Sündenbock | 0.5.1 | pexpect | 4.8.0 |
| Pickleshare | 0.7.5 | pip | 20.0.2 | Prompt-Toolkit | 3.0.3 |
| psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | Pyarrow | 1.0.1 |
| Pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
| pyOpenSSL | 19.1.0 | Pyparsing | 2.4.6 | PySocks | 1.7.1 |
| python-apt | 1.6.5+ubuntu0.3 | Python-dateutil | 2.8.1 | Pytz | 2019.3 |
| pyzmq | 18.1.1 | Anforderungen | 2.22.0 | s3transfer | 0.3.3 |
| scikit-lernen | 0.22.1 | SciPy | 1.4.1 | Seegeboren | 0.10.0 |
| setuptools | 45.2.0 | sechs | 1.14.0 | ssh-import-id | 5.7 |
| StatistikModelle | 0.11.0 | Tornado | 6.0.3 | Traitlets | 4.3.3 |
| unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
| wcwidth | 0.1.8 | Rad | 0.34.2 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 2.11.2020 installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Askpass | 1.1 | prüfen, dass | 0.2.1 | Backports | 1.1.10 |
| Basis | 3.6.3 | base64enc | 0.1-3 | Bahrain | 1.72.0-3 |
| Bit | 4.0.4 | Bit64 | 4.0.5 | Blob | 1.2.1 |
| Boot | 1.3-25 | brauen | 1.0-6 | Brio | 1.1.0 |
| Besen | 0.7.2 | Callr | 3.5.1 | Caret | 6.0-86 |
| CellRanger | 1.1.0 | Chron | 2.3-56 | Klasse | 7.3-17 |
| cli | 2.1.0 | Schermaschine | 0.7.1 | Gruppe | 2.1.0 |
| Codetools | 0.2-18 | Farbraum | 1.4-1 | Commonmark | 1.7 |
| Kompilierer | 3.6.3 | Konfiguration | 0,3 | Covr | 3.5.1 |
| cpp11 | 0.2.3 | Buntstift | 1.3.4 | Übersprechen | 1.1.0.1 |
| curl | 4.3 | data.table | 1.13.2 | Datensätze | 3.6.3 |
| DBI | 1.1.0 | dbplyr | 1.4.4 | Beschreibung | 1.2.0 |
| devtools | 2.3.2 | diffobj | 0.3.2 | verdauen | 0.6.27 |
| dplyr | 0.8.5 | DT | 0,16 | Ellipse | 0.3.1 |
| Evaluieren | 0.14 | Fans | 0.4.1 | Farben | 2.0.3 |
| fastmap | 1.0.1 | Sträflinge | 0.5.0 | foreach | 1.5.1 |
| Fremd | 0.8-76 | schmieden | 0.2.0 | fs | 1.5.0 |
| Generika | 0.1.0 | ggplot2 | 3.3.2 | Gh | 1.1.0 |
| git2r | 0.27.1 | glmnet | 3.0-2 | Globale Werte | 0.13.1 |
| Klebstoff | 1.4.2 | Gower | 0.2.2 | Grafiken | 3.6.3 |
| grGeräte | 3.6.3 | Raster | 3.6.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | g-Tabelle | 0.3.0 | Hafen | 2.3.1 |
| Highr | 0,8 | HMS | 0.5.3 | HTML-Werkzeuge | 0.5.0 |
| htmlwidgets | 1.5.2 | httpuv | 1.5.4 | httr | 1.4.2 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| IPRED | 0.9-9 | Isobande | 0.2.2 | Iteratoren | 1.0.13 |
| jsonlite | 1.7.1 | KernSmooth | 2.23-18 | Knitr | 1.30 |
| Etikettierung | 0.4.2 | später | 1.1.0.1 | Gitter | 0.20-41 |
| Lava | 1.6.8 | Lazyeval | 0.2.2 | Lebenszyklus | 0.2.0 |
| Schmiermittel | 1.7.9 | magrittr | 1.5 | Abschlag | 1.1 |
| MASSE | 7.3-53 | Matrix | 1.2-18 | Zwischenspeichern | 1.1.0 |
| Methodik | 3.6.3 | mgcv | 1.8-33 | Mime-Kunst | 0.9 |
| ModelMetrics | 1.2.2.2 | Modellierer | 0.1.8 | munsell | 0.5.0 |
| nlme | 3.1-150 | NNET | 7.3-14 | numDeriv | 2016.8 bis 1.1 |
| OpenSSL | 1.4.3 | parallel | 3.6.3 | Säule | 1.4.6 |
| pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
| PLOGR | 0.2.0 | plyr | 1.8.6 | loben | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.16.2 | Prozessx | 3.4.4 |
| prodlim | 2019.11.13 | Fortschritt | 1.2.2 | Versprechungen | 1.1.1 |
| Prototyp | 1.0.0 | P.S. | 1.4.0 | schnurren | 0.3.4 |
| r2d3 | 0.2.3 | R6 | 2.5.0 | randomForest (Zufälliger Wald) | 4.6-14 |
| Rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrauer | 1.1-2 |
| Rcpp | 1.0.5 | READR | 1.4.0 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.3.1 |
| Rezepte | 0.1.14 | Rückspiel | 1.0.1 | Rückspiel2 | 2.1.2 |
| fernbedienungen | 2.2.0 | reproduzierbares Beispiel | 0.3.0 | Umform2 | 1.4.4 |
| Rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.8 |
| RMarkdown | 2,5 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
| rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
| RSQLite | 2.2.1 | rstudioapi | 0,11 | rversions | 2.0.2 |
| RVEST | 0.3.6 | Waage | 1.1.1 | Selektor | 0.4-2 |
| Sitzungsinformationen | 1.1.1 | Gestalt | 1.4.4 | glänzend | 1.5.0 |
| sourcetools | 0.1.7 | Sparklyr | 1.4.0 | SparkR | 3.0.0 |
| räumlich | 7.3-11 | Splines | 3.6.3 | sqldf | 0.4-11 |
| SQUAREM | 2020.5 | Statistiken | 3.6.3 | Statistiken4 | 3.6.3 |
| Stringi | 1.5.3 | stringr | 1.4.0 | Überleben | 3.2-7 |
| sys | 3.4 | TCLTK | 3.6.3 | Lehrdemos | 2,10 |
| testthat | 3.0.0 | Tibble | 3.0.4 | tidyr | 1.1.2 |
| tidyselect | 1.1.0 | tidyverse | 1.3.0 | timeDatum | 3043.102 |
| tinytex | 0,27 | Werkzeuge | 3.6.3 | Nutze dies | 1.6.3 |
| utf8 | 1.1.4 | Dienstprogramme und Funktionen | 3.6.3 | Universelle eindeutige Kennung (UUID) | 0.1-4 |
| VCTRS | 0.3.4 | viridisLite | 0.3.0 | Waldo | 0.2.2 |
| Backenbart | 0,4 | Withr | 2.3.0 | xfun | 0,19 |
| xml2 | 1.3.2 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML-Dateiformat | 2.2.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-Config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-schattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.10.0 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.coffein | Koffein | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | Kern | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.4-3 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | Profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers | 2.9.0 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| commons-collections | commons-collections | 3.2.2 |
| Commons-Konfiguration | Commons-Konfiguration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,10 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 4.1.1 |
| io.dropwizard.metrics | Metrics-Graphit | 4.1.1 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 4.1.1 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | Metrik-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.47.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-Erweiterungen | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | Pyrolit | 4,30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.Schneeflocke | Snowflake-JDBC | 3.12.8 |
| net.Schneeflocke | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.7.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | Ant-Launcher | 1.9.2 |
| org.apache.arrow | Pfeilformat | 0.15.1 |
| org.apache.arrow | Pfeilspeicher | 0.15.1 |
| org.apache.arrow | Pfeil-Vektor | 0.15.1 |
| org.apache.avro | avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.9 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | Commons-Text | 1.6 |
| org.apache.curator | Kurator-Klient | 2.7.1 |
| org.apache.curator | Kurator-Framework | 2.7.1 |
| org.apache.curator | Rezepte des Kurators | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | Hadoop-Anmerkungen | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | Hadoop-Client | 2.7.4 |
| org.apache.hadoop | hadoop-common | 2.7.4 |
| org.apache.hadoop | hadoop-hdfs | 2.7.4 |
| org.apache.hadoop | Hadoop-MapReduce-Client-Anwendung | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient (MapReduce-Client für Jobverwaltung) | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
| org.apache.hive | hive-beeline | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-common | 2.3.7 |
| org.apache.hive | hive-exec-core | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | hive-llap-Client | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | Hive-Metadatenbank | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | hive-shims | 2.3.7 |
| org.apache.hive | hive-speicher-api | 2.7.1 |
| org.apache.hive | hive-vector-code-gen | 2.3.7 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | Hive-Anpassungen-Common | 2.3.7 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0-Inkubieren |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | Efeu | 2.4.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.5.10 |
| org.apache.orc | orc-mapreduce | 1.5.10 |
| org.apache.orc | Orc-Shims | 1.5.10 |
| org.apache.parkett | Parkettsäule | 1.10.1-databricks6 |
| org.apache.parkett | Parquet-Gemeinsam | 1.10.1-databricks6 |
| org.apache.parkett | Parquet-Kodierung | 1.10.1-databricks6 |
| org.apache.parkett | Parquet-Format | 2.4.0 |
| org.apache.parkett | Parkett-Hadoop | 1.10.1-databricks6 |
| org.apache.parkett | Parkett-Jackson | 1.10.1-databricks6 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | Geschwindigkeit | 1.5 |
| org.apache.xbean | xbean-asm7-shaded | 4.15 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.5.0 |
| org.apache.zookeeper | Tierpfleger | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-io | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-jndi | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Plus | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty Server | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Util | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-xml | 9.4.18.v20190429 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
| org.glassfish.jersey.core | Jersey-Client | 2,30 |
| org.glassfish.jersey.core | jersey-common | 2,30 |
| org.glassfish.jersey.core | Jersey-Server | 2,30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,30 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.6.6 |
| org.json4s | json4s-core_2.12 | 3.6.6 |
| org.json4s | json4s-jackson_2.12 | 3.6.6 |
| org.json4s | json4s-scalap_2.12 | 3.6.6 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | Klemmstücke | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | ungenutzt | 1.0.0 |
| org.springframework | Federkern | 4.1.4.RELEASE |
| org.springframework | Frühlingstest | 4.1.4.RELEASE |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | Katzen-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | Maschinist_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.5 |
| org.yaml | snakeyaml | 1,24 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0,52 |