Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Diese Databricks-Runtime-Version hat das Ende der Lebensdauer erreicht und ist nicht mehr verfügbar. Informationen zu End-of-Life-Daten finden Sie unter Ende des Supports und End-of-Life-Historie. Informationen über die Richtlinie und den Zeitplan für den Support von Databricks Runtime finden Sie unter Databricks Support-Laufzeiten.
Diese Version wurde von Databricks im November 2020 veröffentlicht.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 7.4, unterstützt von Apache Spark 3.0.
Neue Funktionen
Inhalt dieses Abschnitts:
- Delta Lake-Features und -Verbesserungen
- Autoloader unterstützt jetzt das Delegieren des Setups von Dateibenachrichtigungsressourcen an Administratoren
-
Neue
USAGE-Berechtigungen ermöglichen Administratoren mehr Kontrolle über Datenzugriffsberechtigungen - DBFS FUSE ist jetzt für Passthrough-fähige Cluster aktiviert
Delta Lake-Features und -Verbesserungen
In diesem Release sind die folgenden Delta Lake-Features und -Verbesserungen enthalten:
- Mit der neuen API kann Delta Lake überprüfen, ob zu einer Tabelle hinzugefügte Daten Einschränkungen erfüllen
- Mit der neuen API können Sie ein Rollback für eine Delta-Tabelle auf eine ältere Version der Tabelle ausführen
- Die neue Startversion ermöglicht, ausschließlich die neuesten Änderungen in einer Delta Lake-Streamingquelle zurückzugeben
-
Verbesserte Stabilität von
OPTIMIZE
Mit der neuen API kann Delta Lake überprüfen, ob zu einer Tabelle hinzugefügte Daten Einschränkungen erfüllen.
Delta Lake unterstützt jetzt CHECK-Einschränkungen. Wenn diese Angabe erfolgt, überprüft Delta Lake automatisch, ob einer Tabelle hinzugefügte Daten den angegebenen Ausdruck erfüllen.
Verwenden Sie zum Hinzufügen von CHECK-Einschränkungen den Befehl ALTER TABLE ADD CONSTRAINTS. Einzelheiten finden Sie unter Einschränkungen für Azure Databricks.
Mit der neuen API können Sie ein Rollback für eine Delta-Tabelle auf eine ältere Version der Tabelle ausführen.
Sie können jetzt ein Rollback für Ihre Delta-Tabellen auf ältere Versionen ausführen, indem Sie den Befehl RESTORE verwenden:
SQL
RESTORE <table> TO VERSION AS OF n;
RESTORE <table> TO TIMESTAMP AS OF 'yyyy-MM-dd HH:mm:ss';
Python
from delta.tables import DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp('yyyy-MM-dd')
Scala
import io.delta.tables.DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp("yyyy-MM-dd")
RESTORE erstellt einen neuen Commit, der ein Rollback für alle Änderungen an der Tabelle seit der Version ausführt, die Sie wiederherstellen möchten. Alle vorhandenen Daten und Metadaten werden wiederhergestellt, einschließlich Schema, Einschränkungen, Streamingtransaktions-IDs, COPY INTO-Metadaten und der Tabellenprotokollversion. Weitere Informationen finden Sie unter Wiederherstellen einer Delta-Tabelle.
Die neue Startversion ermöglicht, ausschließlich die neuesten Änderungen in einer Delta Lake-Streamingquelle zurückzugeben
Um nur die neuesten Änderungen zurückzugeben, geben Sie startingVersion als latest an. Weitere Informationen finden Sie unter Angeben der Anfangsposition.
Verbesserte Stabilität von OPTIMIZE
OPTIMIZE (ohne Partitionsprädikate) kann zur Ausführung für Tabellen mit Dutzenden Millionen kleiner Dateien skaliert werden. Zuvor konnte der Apache Spark-Treiber nicht mehr genügend Arbeitsspeicher haben und OPTIMIZE würde nicht abgeschlossen.
OPTIMIZE verarbeitet jetzt sehr große Tabellen mit Dutzenden Millionen von Dateien.
Auto Loader unterstützt jetzt das Delegieren der Einrichtung von Benachrichtigungsressourcen für Dateien an Administratoren.
Mit einer neuen Scala-API können Administratoren Dateibenachrichtigungsressourcen für den Autoloader einrichten. Technische Fachkräfte für Daten können jetzt ihre Autoloader-Datenströme mit weniger Berechtigungen betreiben, indem sie die anfängliche Ressourceneinrichtung an ihre Administratoren delegieren. Siehe Manuelles Konfigurieren oder Verwalten von Dateibenachrichtigungsressourcen.
Neue USAGE-Berechtigungen ermöglichen Administratoren mehr Kontrolle über Datenzugriffsberechtigungen
Um eine Aktion für ein Objekt in einer Datenbank durchzuführen, müssen Sie nun zusätzlich zu den Berechtigungen, die zum Ausführen der Aktion erforderlich sind, die USAGE-Berechtigung für diese Datenbank erhalten. Die USAGE-Berechtigung wird für eine Datenbank oder einen Katalog gewährt. Mit der Einführung der USAGE-Berechtigung kann ein Tabellenbesitzer nicht mehr einseitig entscheiden, die Tabelle für einen anderen Benutzer frei zu geben. Der Benutzer muss auch über die USAGE-Berechtigung für die Datenbank verfügen, die die Tabelle enthält.
In Arbeitsbereichen mit aktivierter Tabellenzugriffssteuerung verfügt die users-Gruppe automatisch über die USAGE-Berechtigung für den Stamm CATALOG.
Ausführliche Informationen finden Sie unter USAGE "Berechtigungen".
DBFS FUSE ist jetzt für Passthrough-fähige Cluster aktiviert
Sie können nun aus DBFS lesen und schreiben, indem Sie die FUSE-Einhängung unter /dbfs/ verwenden, wenn Sie einen Clustertyp mit hoher Parallelität nutzen, der für die Anmeldeweitergabe aktiviert ist. Normale Einbindungen werden unterstützt. Bereitstellungen, die Passthrough-Anmeldeinformationen erfordern, werden nicht unterstützt.
Verbesserungen
Spark SQL unterstützt IFF und CHARINDEX als Synonyme für IF und POSITION
In Databricks Runtime ist IF() ein Synonym für CASE WHEN <cond> THEN <expr1> ELSE <expr2> END
Databricks Runtime unterstützt jetzt IFF() als Synonym für IF()
SELECT IFF(c1 = 1, 'Hello', 'World'), c1 FROM (VALUES (1), (2)) AS T(c1)
=> (Hello, 1)
(World, 2)
CHARINDEX ist ein alternativer Name für die POSITION-Funktion.
CHARINDEX sucht die Position des ersten Vorkommens einer Zeichenfolge innerhalb einer anderen Zeichenfolge mit einem optionalen Startindex.
VALUES(CHARINDEX('he', 'hello from hell', 2))
=> 12
Standardmäßig sind mehrere Ausgaben pro Zelle für Python-Notebooks aktiviert.
Mit Databricks Runtime 7.1 wurde die Unterstützung mehrerer Ausgaben pro Zelle in Python-Notebooks (und %python-Zellen in Nicht-Python-Notebooks) eingeführt, aber Sie mussten das Feature für Ihr Notebook aktivieren. In Databricks Runtime 7.4 ist dieses Feature standardmäßig aktiviert. Siehe Anzeigen mehrerer Ausgaben pro Zelle.
Verbesserungen der Autovervollständigung für Python-Notebooks
AutoVervollständigen für Python zeigt zusätzliche Typinformationen an, die aus der statischen Analyse des Codes mithilfe der Jedi-Bibliothek generiert wurden. Sie können die TAB-TASTE drücken, um eine Liste der Optionen zu sehen.
Verbessertes display von Spark-ML-Vektoren in Spark DataFrame-Vorschau
Das display-Format zeigt jetzt Bezeichnungen für Vektortyp (geringe oder hohe Dichte), Länge, Indizes (für Vektoren mit geringer Dichte) und Werte an.
Weitere Korrekturen
- Ein Pickling-Problem mit
collections.namedtuplein Notebooks wurde behoben. - Ein Pickling-Problem bei interaktiv definierten Klassen und Methoden wurde behoben.
- Ein Bug wurde behoben, der dazu führte, dass bei Aufrufen von
mlflow.start_run()ein Fehler bei Passthrough oder bei Clustern mit aktivierter Tabellenzugriffssteuerung auftrat.
Bibliotheksaktualisierungen
- Aktualisierte Python-Bibliotheken:
- jedi aktualisiert von 0.14.1 auf 0.17.2.
- koalas aktualisiert von 1.2.0 auf 1.3.0.
- parso aktualisiert von 0.5.2 auf 0.7.0.
- Mehrere installierte R-Bibliotheken haben ein Upgrade erhalten. Weitere Informationen finden Sie unter Installierte R-Bibliotheken.
Apache Spark
Databricks Runtime 7.4 enthält Apache Spark 3.0.1. Diese Version enthält alle Spark Fixes und Verbesserungen, die in Databricks Runtime 7.3 LTS (EoL) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-33170] [SQL] Hinzufügen der SQL-Konfiguration, um das Verhalten bei plötzlichem Ausfall in FileFormatWriter zu steuern
- [SPARK-33136] [SQL] Korrektur des fälschlicherweise ausgetauschten Parameters in V2WriteCommand.outputResolved
- [SPARK-33134] [SQL] Zurückgeben von Teilergebnissen nur für JSON-Stammobjekte
- [SPARK-33038] [SQL] Kombinieren von anfänglichen und aktuellen AQE-Plänen...
- [SPARK-33118] [SQL] Fehler bei CREATE TEMPORARY TABLE mit Speicherort
- [SPARK-33101] [ML] Veranlassen, dass das LibSVM-Format die Hadoop-Konfiguration von DS-Optionen an das zugrunde liegende HDFS-Dateisystem verteilt
- [SPARK-33035] [SQL] Aktualisiert die veralteten Einträge der Attributzuordnung in QueryPlan#transformUpWithNewOutput
- [SPARK-33091] [SQL] Vermeidung der Verwendung von „map“ anstelle von „foreach“, um potenzielle Nebeneffekte bei Aufrufern von OrcUtils.readCatalystSchema zu vermeiden
- [SPARK-33073] [PYTHON] Verbesserung der Fehlerbehandlung bei Pandas-zu-Arrow-Konvertierungsfehlern
- [SPARK-33043] [ML] Behandlung von spark.driver.maxResultSize=0 bei der heuristischen Berechnung von RowMatrix
- [SPARK-29358] [SQL] Veranlassen, dass unionByName optional fehlende Spalten mit NULL-Werten füllt
- [SPARK-32996] [WEB-UI] Verarbeitung von leeren ExecutorMetrics in ExecutorMetricsJsonSerializer
- [SPARK-32585] [SQL] Unterstützung der Scala-Enumeration in ScalaReflection
- [SPARK-33019] [CORE] Verwenden Sie standardmäßig spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version=1
- [SPARK-33018] [SQL] Behandlung des Problems mit der Schätzungsstatistik, wenn untergeordnete Objekte 0 Bytes enthalten
- [SPARK-32901] [CORE] Beim Auslagern von UnsafeExternalSorter keinen Speicher zuweisen
- [SPARK-33015] [SQL] Verwenden von millisToDays() in der ComputeCurrentTime-Regel
- [SPARK-33015] [SQL] Aktuelles Datum nur einmal berechnen
- de-DE: [SPARK-32999] [SQL] Verwenden Sie Utils.getSimpleName, um einen fehlerhaft formatierten Klassennamen in TreeNode zu vermeiden
- [SPARK-32659] [SQL] Array anstelle von Set in InSubqueryExec übertragen
- [SPARK-32718] [SQL] Entfernen unnötiger Schlüsselwörter für Intervalleinheiten
- [SPARK-32886] [WEBUI] 'undefined'-Link in der Ereigniszeitachsenansicht fixen
- [SPARK-32898] [CORE] Korrektur der falschen executorRunTime, wenn die Aufgabe vor dem eigentlichen Start beendet wird
- [SPARK-32635] [SQL] Hinzufügen eines neuen Testfalls in einem Katalysatormodul
- [SPARK-32930] [CORE] Ersetzen der veralteten isFile/isDirectory-Methoden
- [SPARK-32906] [SQL] Strukturfeldnamen sollten sich nach dem Normalisieren von Gleitkommawerten nicht ändern
- [SPARK-24994] [SQL] Hinzufügen des UnwrapCastInBinaryComparison-Optimierers zur Vereinfachung von Integralliteralen
- [SPARK-32635] [SQL] Korrektur der zusammenklappbaren Weitergabe
-
[SPARK-32738] [CORE] Die Anzahl aktiver Threads Sollte reduziert werden, wenn ein schwerwiegender Fehler in
Inbox.processauftritt - [SPARK-32900] [CORE] Zulassen, dass UnsafeExternalSorter auslagert, wenn NULL-Werte enthalten sind.
- [SPARK-32897] [PYTHON] Zeigen Sie bei SparkSession.builder.getOrCreate keine Veraltungswarnung an.
- [SPARK-32715] [CORE] Behebung von Speicherauslaufen, wenn Teile der Übertragung nicht gespeichert werden können
- [SPARK-32715] [CORE] Behebung eines Speicherlecks, wenn Teile der Ausstrahlung nicht gespeichert werden konnten
- [SPARK-32872] [CORE] Verhindern, dass BytesToBytesMap bei MAX_CAPACITY Zuwachsschwellenwert überschreitet
- [SPARK-32876] [SQL] Ändern der Standardfallbackversionen in HiveExternalCatalogVersionsSuite in 3.0.1 und 2.4.7
- [SPARK-32840] [SQL] Ungültiger Intervallwert kann direkt an der Einheit haften
- [SPARK-32819] [SQL] IgnoreNullability-Parameter sollte rekursiv wirksam sein
- [SPARK-32832] [SS] Verwenden von CaseInsensitiveMap für DataStreamReader- bzw. Writer-Optionen
- [SPARK-32794] [SS] Korrektur des seltenen Fehlers in der Microbatch-Engine mit einigen zustandsbehafteten Abfragen + No-Data-Batches + V1-Quellen
- [SPARK-32813] [SQL] Abrufen der Standardkonfiguration des vektorisierten ParquetSource-Lesers, wenn keine SparkSession aktiv ist
- [SPARK-32823] [WEB UI] Korrektur der Berichterstattung der Master UI-Ressourcen
- [SPARK-32824] [CORE] Verbesserung der Fehlermeldung, wenn der Benutzer „.amount“ in einer Ressourcenkonfiguration vergisst
- [SPARK-32614] [SQL] Wenden Sie keine Kommentarverarbeitung an, wenn "Comment" für CSV nicht festgelegt ist.
- [SPARK-32638] [SQL] Korrigiert Verweise beim Hinzufügen von Aliasen in WidenSetOperationTypes
- [SPARK-32810] [SQL] CSV/JSON-Datenquellen sollten beim Ableiten eines Schemas vermeiden, Platzhalter für Pfade anzugeben
- [SPARK-32815] [ML] Fehlerkorrektur beim Laden der LibSVM-Datenquelle aus Dateipfaden mit Glob-Metazeichen.
- [SPARK-32753] [SQL] Tags nur auf Knoten ohne Tags kopieren
- [SPARK-32785] [SQL] Intervall mit verwaisten Teilen sollte nicht NULL ergeben
- [SPARK-32764] [SQL] -0.0 sollte gleich 0.0 sein
- [SPARK-32810] [SQL] CSV/JSON-Datenquellen sollten beim Ableiten eines Schemas vermeiden, Platzhalter für Pfade anzugeben
- [SPARK-32779] [SQL] Vermeiden der Verwendung der synchronisierten API von SessionCatalog in withClient-Flow; Dies führt zu DeadLock
- [SPARK-32791] [SQL] Die Metrik für nicht partitionierte Tabellen sollte keine Dynamische Partitionsbereinigungszeit haben
- [SPARK-32767] [SQL] Bucketjoin sollte funktionieren, wenn spark.sql.shuffle.partitions größer als die Bucketnummer ist
- [SPARK-32788] [SQL] Der nicht partitionierte Tabellenscan sollte keinen Partitionsfilter enthalten
- [SPARK-32776] [SS] Grenzwert beim Streaming-Prozess sollte nicht wegoptimiert werden durch PropagateEmptyRelation
- [SPARK-32624] [SQL] Korrektur der Regression in CodegenContext.addReferenceObj für geschachtelte Scala-Typen
- [SPARK-32659] [SQL] Test zur Verbesserung des Beschneidens von DPP auf einem nicht-atomaren Typ
- [SPARK-31511] [SQL] BytesToBytesMap-Iteratoren threadsicher machen
- [SPARK-32693] [SQL] Vergleichen zweier Datenrahmen mit demselben Schema außer der Nullable-Eigenschaft
- [SPARK-28612] [SQL] Korrektes Methodendokument von DataFrameWriterV2.replace()
Wartungsupdates
Weitere Informationen finden Sie unter Databricks Runtime 7.4-Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 18.04.5 LTS
- Java: Zulu 8.48.0.53-CA-linux64 (Build 1.8.0_265-b11)
- Scala: 2.12.10
- Python: 3.7.5
- R: R-Version 3.6.3 (2020-02-29)
- Delta Lake 0.7.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| asn1crypto | 1.3.0 | Backcall | 0.1.0 | Boto3 | 1.12.0 |
| Botocore | 1.15.0 | Zertifizieren | 2020.6.20 | CFFI | 1.14.0 |
| Chardet | 3.0.4 | Kryptographie | 2.8 | Fahrradfahrer | 0.10.0 |
| Cython | 0.29.15 | Dekorateur | 4.4.1 | docutils | 0.15.2 |
| Einstiegspunkte | 0,3 | idna | 2.8 | ipykernel | 5.1.4 |
| ipython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.17.2 |
| jmespath | 0.10.0 | joblib | 0.14.1 | Jupyter-Client | 5.3.4 |
| jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | Koalas | 1.3.0 |
| matplotlib | 3.1.3 | numpy | 1.18.1 | Pandas | 1.0.1 |
| Parso | 0.7.0 | Sündenbock | 0.5.1 | pexpect | 4.8.0 |
| Pickleshare | 0.7.5 | pip | 20.0.2 | Prompt-Toolkit | 3.0.3 |
| psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | Pyarrow | 1.0.1 |
| Pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
| pyOpenSSL | 19.1.0 | Pyparsing | 2.4.6 | PySocks | 1.7.1 |
| python-apt | 1.6.5+ubuntu0.3 | Python-dateutil | 2.8.1 | Pytz | 2019.3 |
| pyzmq | 18.1.1 | Anforderungen | 2.22.0 | s3transfer | 0.3.3 |
| scikit-lernen | 0.22.1 | SciPy | 1.4.1 | Seegeboren | 0.10.0 |
| setuptools | 45.2.0 | sechs | 1.14.0 | ssh-import-id | 5.7 |
| StatistikModelle | 0.11.0 | Tornado | 6.0.3 | Traitlets | 4.3.3 |
| unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
| wcwidth | 0.1.8 | Rad | 0.34.2 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus Microsoft CRAN-Momentaufnahme am XXXX-XX-XX installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Askpass | 1.1 | prüfen, dass | 0.2.1 | Backports | 1.1.8 |
| Basis | 3.6.3 | base64enc | 0.1-3 | Bahrain | 1.72.0-3 |
| Bit | 1.1-15.2 | Bit64 | 0.9-7 | Blob | 1.2.1 |
| Boot | 1.3-25 | brauen | 1.0-6 | Besen | 0.7.0 |
| Callr | 3.4.3 | Caret | 6.0-86 | CellRanger | 1.1.0 |
| Chron | 2,3-55 | Klasse | 7.3-17 | cli | 2.0.2 |
| Schermaschine | 0.7.0 | Gruppe | 2.1.0 | Codetools | 0,2 bis 16 |
| Farbraum | 1.4-1 | Commonmark | 1.7 | Kompilierer | 3.6.3 |
| Konfiguration | 0,3 | Covr | 3.5.0 | Buntstift | 1.3.4 |
| Übersprechen | 1.1.0.1 | curl | 4.3 | data.table | 1.12.8 |
| Datensätze | 3.6.3 | DBI | 1.1.0 | dbplyr | 1.4.4 |
| Beschreibung | 1.2.0 | devtools | 2.3.0 | verdauen | 0.6.25 |
| dplyr | 0.8.5 | DT | 0.14 | Ellipse | 0.3.1 |
| Evaluieren | 0.14 | Fans | 0.4.1 | Farben | 2.0.3 |
| fastmap | 1.0.1 | Sträflinge | 0.5.0 | foreach | 1.5.0 |
| Fremd | 0.8-76 | schmieden | 0.2.0 | fs | 1.4.2 |
| Generika | 0.0.2 | ggplot2 | 3.3.2 | Gh | 1.1.0 |
| git2r | 0.27.1 | glmnet | 3.0-2 | Globale Werte | 0.12.5 |
| Klebstoff | 1.4.1 | Gower | 0.2.2 | Grafiken | 3.6.3 |
| grGeräte | 3.6.3 | Raster | 3.6.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | g-Tabelle | 0.3.0 | Hafen | 2.3.1 |
| Highr | 0,8 | HMS | 0.5.3 | HTML-Werkzeuge | 0.5.0 |
| htmlwidgets | 1.5.1 | httpuv | 1.5.4 | httr | 1.4.1 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| IPRED | 0.9-9 | Isobande | 0.2.2 | Iteratoren | 1.0.12 |
| jsonlite | 1.7.0 | KernSmooth | 2.23-17 | Knitr | 1.29 |
| Etikettierung | 0,3 | später | 1.1.0.1 | Gitter | 0.20-41 |
| Lava | 1.6.7 | Lazyeval | 0.2.2 | Lebenszyklus | 0.2.0 |
| Schmiermittel | 1.7.9 | magrittr | 1.5 | Abschlag | 1.1 |
| MASSE | 7.3-53 | Matrix | 1.2-18 | Zwischenspeichern | 1.1.0 |
| Methodik | 3.6.3 | mgcv | 1.8-33 | Mime-Kunst | 0.9 |
| ModelMetrics | 1.2.2.2 | Modellierer | 0.1.8 | munsell | 0.5.0 |
| nlme | 3.1-149 | NNET | 7.3-14 | numDeriv | 2016.8 bis 1.1 |
| OpenSSL | 1.4.2 | parallel | 3.6.3 | Säule | 1.4.6 |
| pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
| PLOGR | 0.2.0 | plyr | 1.8.6 | loben | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.16.2 | Prozessx | 3.4.3 |
| prodlim | 2019.11.13 | Fortschritt | 1.2.2 | Versprechungen | 1.1.1 |
| Prototyp | 1.0.0 | P.S. | 1.3.3 | schnurren | 0.3.4 |
| r2d3 | 0.2.3 | R6 | 2.4.1 | randomForest (Zufälliger Wald) | 4.6-14 |
| Rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrauer | 1.1-2 |
| Rcpp | 1.0.5 | READR | 1.3.1 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.3.1 |
| Rezepte | 0.1.13 | Rückspiel | 1.0.1 | Rückspiel2 | 2.1.2 |
| fernbedienungen | 2.1.1 | reproduzierbares Beispiel | 0.3.0 | Umform2 | 1.4.4 |
| Rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.7 |
| RMarkdown | 2.3 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
| rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
| RSQLite | 2.2.0 | rstudioapi | 0,11 | rversions | 2.0.2 |
| RVEST | 0.3.5 | Waage | 1.1.1 | Selektor | 0.4-2 |
| Sitzungsinformationen | 1.1.1 | Gestalt | 1.4.4 | glänzend | 1.5.0 |
| sourcetools | 0.1.7 | Sparklyr | 1.3.1 | SparkR | 3.0.0 |
| räumlich | 7.3-11 | Splines | 3.6.3 | sqldf | 0.4-11 |
| SQUAREM | 2020.3 | Statistiken | 3.6.3 | Statistiken4 | 3.6.3 |
| Stringi | 1.4.6 | stringr | 1.4.0 | Überleben | 3.2-7 |
| sys | 3.3 | TCLTK | 3.6.3 | Lehrdemos | 2,10 |
| testthat | 2.3.2 | Tibble | 3.0.3 | tidyr | 1.1.0 |
| tidyselect | 1.1.0 | tidyverse | 1.3.0 | timeDatum | 3043.102 |
| tinytex | 0,24 | Werkzeuge | 3.6.3 | Nutze dies | 1.6.1 |
| utf8 | 1.1.4 | Dienstprogramme und Funktionen | 3.6.3 | Universelle eindeutige Kennung (UUID) | 0.1-4 |
| VCTRS | 0.3.1 | viridisLite | 0.3.0 | Backenbart | 0,4 |
| Withr | 2.2.0 | xfun | 0,15 | xml2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | YAML-Dateiformat | 2.2.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-Config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-schattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.10.0 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.coffein | Koffein | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | Kern | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.4-3 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | Profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers | 2.9.0 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| commons-collections | commons-collections | 3.2.2 |
| Commons-Konfiguration | Commons-Konfiguration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,10 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 4.1.1 |
| io.dropwizard.metrics | Metrics-Graphit | 4.1.1 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 4.1.1 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | Metrik-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.47.Final |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-Erweiterungen | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | Pyrolit | 4,30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.Schneeflocke | Snowflake-JDBC | 3.12.8 |
| net.Schneeflocke | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.7.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | Ant-Launcher | 1.9.2 |
| org.apache.arrow | Pfeilformat | 0.15.1 |
| org.apache.arrow | Pfeilspeicher | 0.15.1 |
| org.apache.arrow | Pfeil-Vektor | 0.15.1 |
| org.apache.avro | avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.9 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | Commons-Text | 1.6 |
| org.apache.curator | Kurator-Klient | 2.7.1 |
| org.apache.curator | Kurator-Framework | 2.7.1 |
| org.apache.curator | Rezepte des Kurators | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | Hadoop-Anmerkungen | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | Hadoop-Client | 2.7.4 |
| org.apache.hadoop | hadoop-common | 2.7.4 |
| org.apache.hadoop | hadoop-hdfs | 2.7.4 |
| org.apache.hadoop | Hadoop-MapReduce-Client-Anwendung | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient (MapReduce-Client für Jobverwaltung) | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
| org.apache.hive | hive-beeline | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-common | 2.3.7 |
| org.apache.hive | hive-exec-core | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | hive-llap-Client | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | Hive-Metadatenbank | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | hive-shims | 2.3.7 |
| org.apache.hive | hive-speicher-api | 2.7.1 |
| org.apache.hive | hive-vector-code-gen | 2.3.7 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | Hive-Anpassungen-Common | 2.3.7 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0-Inkubieren |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | Efeu | 2.4.0 |
| org.apache.orc | orc-core | 1.5.10 |
| org.apache.orc | orc-mapreduce | 1.5.10 |
| org.apache.orc | Orc-Shims | 1.5.10 |
| org.apache.parkett | Parkettsäule | 1.10.1-databricks6 |
| org.apache.parkett | Parquet-Gemeinsam | 1.10.1-databricks6 |
| org.apache.parkett | Parquet-Kodierung | 1.10.1-databricks6 |
| org.apache.parkett | Parquet-Format | 2.4.0 |
| org.apache.parkett | Parkett-Hadoop | 1.10.1-databricks6 |
| org.apache.parkett | Parkett-Jackson | 1.10.1-databricks6 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | Geschwindigkeit | 1.5 |
| org.apache.xbean | xbean-asm7-shaded | 4.15 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.5.0 |
| org.apache.zookeeper | Tierpfleger | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-io | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-jndi | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Plus | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty Server | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Util | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.18.v20190429 |
| org.eclipse.jetty | Jetty-xml | 9.4.18.v20190429 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
| org.glassfish.jersey.core | Jersey-Client | 2,30 |
| org.glassfish.jersey.core | jersey-common | 2,30 |
| org.glassfish.jersey.core | Jersey-Server | 2,30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,30 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.6.6 |
| org.json4s | json4s-core_2.12 | 3.6.6 |
| org.json4s | json4s-jackson_2.12 | 3.6.6 |
| org.json4s | json4s-scalap_2.12 | 3.6.6 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | Klemmstücke | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | ungenutzt | 1.0.0 |
| org.springframework | Federkern | 4.1.4.RELEASE |
| org.springframework | Frühlingstest | 4.1.4.RELEASE |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | Katzen-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | Maschinist_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.5 |
| org.yaml | snakeyaml | 1,24 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0,52 |