Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 17.2, con tecnología de Apache Spark 4.0.0.
Esta versión incorpora todas las características, mejoras y correcciones de errores de todas las versiones anteriores de Databricks Runtime. Databricks publicó esta versión en septiembre de 2025.
Nuevas características y mejoras
- LIKE admite UTF8_LCASE intercalación
-
st_exteriorringahora se admite la función -
Mostrar los detalles de la aplicación de filtros en
EXPLAINy en la interfaz de usuario de Spark para escaneos remotos -
Declarar varias variables locales o de sesión en una sola
DECLAREinstrucción -
Soporte para la palabra clave
TEMPORARYpara la creación de vistas de métricas - Compatibilidad con comandos adicionales con control de acceso específico
-
Reemplazar datos de forma selectiva y atómica por
INSERT REPLACE USINGyINSERT REPLACE ON(GA) -
Utilizar E/S nativa para
LokiFileSystem.getFileStatusen S3 - Modo ANSI habilitado de forma predeterminada para pandas API en Spark
-
Auto Loader deduce columnas de partición en modo
singleVariantColumn
LIKE admite la intercalación UTF8_LCASE
El operador LIKE ahora admite la clasificación UTF8_LCASE, lo que permite coincidencias sin distinguir entre mayúsculas y minúsculas.
Ahora se admite la función st_exteriorring
Ahora puede usar la st_exteriorring función para extraer el límite exterior de un polígono y devolverlo como una cadena de líneas. Consulte la st_exteriorring función.
Mostrar detalles de pushdown en EXPLAIN y en la interfaz de usuario de Spark para escaneos remotos
El comando EXPLAIN y la interfaz de usuario de Spark para RemoteSparkConnectScan en un entorno de computación dedicado ahora muestran predicados, agregaciones, cláusulas de agrupación, límites y muestras que son aplicados en el examen remoto.
Declarar varias variables locales o de sesión en una sola DECLARE instrucción
En Databricks Runtime 17.2 y versiones posteriores, puede declarar varias variables locales o de sesión del mismo tipo y valor predeterminado en una sola DECLARE instrucción. Vea DECLARE VARIABLE y la instrucción compuesta BEGIN END.
Compatibilidad con la palabra clave TEMPORARY para la creación de vistas de métricas
Ahora puede usar la TEMPORARY palabra clave al crear una vista de métrica. Las vistas de métricas temporales solo son visibles en la sesión que las creó y se quitan cuando finaliza la sesión. Consulte CREATE VIEW.
Compatibilidad con comandos adicionales con control de acceso específico
El control de acceso detallado en el cómputo dedicado ahora admite los comandos FSCK REPAIR TABLE y DESCRIBE DETAIL.
Reemplazar datos de forma selectiva y atómica por INSERT REPLACE USING y INSERT REPLACE ON (GA)
INSERT REPLACE USING y INSERT REPLACE ON ahora están disponibles con carácter general para Databricks Runtime 17.2. Ambos comandos SQL reemplazan parte de la tabla por el resultado de una consulta.
INSERT REPLACE USING reemplaza las filas cuando las USING columnas se comparan iguales con igualdad.
INSERT REPLACE ON reemplaza las filas cuando coinciden con una condición definida por el usuario.
Consulte INSERT la referencia del lenguaje SQL y sobrescriba de forma selectiva los datos con Delta Lake.
Uso de E/S nativa para LokiFileSystem.getFileStatus en S3
LokiFileSystem.getFileStatus ahora usa la pila de E/S nativa para el tráfico de Amazon S3 y devuelve org.apache.hadoop.fs.FileStatus objetos en lugar de shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
Modo ANSI habilitado por defecto en la API de Pandas de Spark
ANSI_MODE ahora está habilitado de forma predeterminada para la API de Pandas en Spark con compute.ansi_mode_support=True, lo que garantiza la paridad de cumplimiento de ANSI con pandas nativos. La compute.fail_on_ansi_mode opción todavía se aplica si compute.ansi_mode_support se establece en False.
Auto Loader deduce columnas de partición en el modo singleVariantColumn
El cargador automático ahora deduce las columnas de partición a partir de las rutas de archivo al procesar datos como un tipo de variante semiestructurada usando la opción singleVariantColumn. Anteriormente, las columnas de partición no se detectaron automáticamente. Consulte Opciones del cargador automático.
Cambios de comportamiento
-
DESCRIBE CONNECTIONmuestra la configuración del entorno para las conexiones JDBC. - Opción para truncar el historial uniforme durante la migración de tablas administradas
- Sintaxis SQL para opciones de lectura delta en consultas de streaming
-
Resultados correctos para
splitcon regex vacío y límite positivo -
Corregir el control de errores
url_decodeytry_url_decodeen Photon - Entorno de ejecución compartido para las UDTF de Python de Unity Catalog
- Seguimiento de filas habilitado de forma predeterminada para las nuevas tablas
- TABLE compatibilidad de argumentos para UDTF de Python en Unity Catalog
DESCRIBE CONNECTION muestra la configuración del entorno para las conexiones JDBC.
Azure Databricks ahora incluye la configuración de entorno definida por el usuario en la salida de las DESCRIBE CONNECTION conexiones JDBC que admiten controladores personalizados y se ejecutan de forma aislada. Otros tipos de conexión permanecen sin cambios.
Opción para truncar el historial uniforme durante la migración de tablas administradas
Ahora puede truncar el historial uniforme al migrar tablas con Uniform/Iceberg habilitado mediante ALTER TABLE...SET MANAGED. Esto simplifica las migraciones y reduce el tiempo de inactividad en comparación con deshabilitar y volver a habilitar Uniforme manualmente.
Sintaxis SQL para opciones de lectura delta en consultas de streaming
Ahora puede especificar opciones de lectura delta para consultas de streaming basadas en SQL mediante la WITH cláusula . Por ejemplo:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Resultados correctos para split con regex vacío y límite positivo
Azure Databricks ahora devuelve resultados correctos cuando se usa split function con una expresión regular vacía y un límite positivo. Anteriormente, la función truncaba incorrectamente la cadena restante en lugar de incluirla en el último elemento.
Corrección del manejo de errores de url_decode y try_url_decode en Photon.
En Photon, try_url_decode() y url_decode() con failOnError = false ahora devuelven NULL por cadenas codificadas como URL no válidas en lugar de fallar la consulta.
Entorno de ejecución compartido para UDTF de Python del Unity Catalog
Azure Databricks ahora comparte el entorno de ejecución para las funciones de tabla definidas por el usuario (UDF) de Python desde el mismo propietario y sesión de Spark. Hay disponible una cláusula opcional STRICT ISOLATION para deshabilitar el uso compartido de UDF con efectos secundarios, como modificar variables de entorno o ejecutar código arbitrario.
Seguimiento de filas habilitado de forma predeterminada para las nuevas tablas
Azure Databricks ahora habilita el seguimiento de filas de forma predeterminada para todas las tablas administradas del catálogo de Unity recién creadas. Las tablas existentes no se ven afectadas y mantienen su configuración de seguimiento de filas actual.
TABLE compatibilidad de argumentos para UDTF de Python del Catálogo de Unity
Las UDF de Python del catálogo de Unity admiten TABLE argumentos, lo que permite que las funciones acepten tablas completas como parámetros de entrada, lo que permite transformaciones de datos y agregaciones más complejas en conjuntos de datos estructurados. Consulte Funciones de tabla definidas por el usuario (UDF) de Python en el catálogo de Unity. (Retroportado desde 17.3 LTS).
Actualizaciones de bibliotecas
Bibliotecas de Python actualizadas:
No se actualizaron bibliotecas de Python en esta versión.
Bibliotecas de R actualizadas:
No se actualizaron bibliotecas de R en esta versión.
Bibliotecas de Java actualizadas:
- io.delta.delta-sharing-client_2.13 de 1.3.3 a 1.3.5
Apache Spark
Databricks Runtime 17.2 incluye Apache Spark 4.0.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en la versión anterior, así como las siguientes:
-
SPARK-53183 Uso de Java
Files.readStringen lugar deo.a.s.sql.catalyst.util.fileToString - SPARK-51817 Reintroducir los campos ansiConfig en los messageParameters de CAST_INVALID_INPUT y CAST_OVERFLOW
- SPARK-53124 Eliminación de campos innecesarios de JsonTuple
- SPARK-53106 Adición de pruebas de evolución de esquemas para conjuntos de conexiones spark de TWS Scala
-
SPARK-53201 Usar
SparkFileUtils.contentEqualsen lugar deFiles.equal - SPARK-53308 No quite alias en RemoveRedundantAliases que provocarían duplicados
-
SPARK-53241 Soporte
createArrayenSparkCollectionUtils -
SPARK-53239 Mejorar
MapSorty elSortArrayrendimiento medianteparallelSort - SPARK-53184 Corrección de melt() cuando las columnas de valor mezclan cadenas y números
- SPARK-53144 Eliminar efectos secundarios de CreateViewCommand en SparkConnectPlanner
- SPARK-53303 Use el codificador de estado vacío cuando no se proporcione el estado inicial en TWS.
- SPARK-52917 Compatibilidad de lectura para habilitar el recorrido de ida y vuelta para binarios en formato xml
- SPARK-53110 Implementación de la función time_trunc en PySpark
- SPARK-53107 Implementación de la función time_trunc en Scala
- SPARK-52146 Detección de referencias de funciones cíclicas en UDF de SQL
- SPARK-52469 Uso de la API de JEP 223 para procesar la versión de Java
- SPARK-53094 Corrección de CUBE con agregados que contienen cláusulas HAVING
- SPARK-51874 Agregar TypedConfigBuilder para la enumeración de Scala
- SPARK-53287 Agregar guía de migración de ANSI
- SPARK-43100 Las métricas de mezcla por empuje deben deserializarse correctamente.
- SPARK-53045 DESCRIBIR EXTENDED debe ser resistente a metadatos dañados
-
SPARK-53114 Soporte técnico
joinenJavaUtils - SPARK-53297 Corregir la docstring de la API de Canalizaciones Declarativas de StreamingTable
- SPARK-53181 Habilitación de pruebas de documentos en ANSI
- SPARK-52482 Mejora del control de excepciones para leer determinados archivos zstd dañados
-
SPARK-52990 Apoyo
StringSubstitutor - SPARK-51874 Agregar TypedConfigBuilder para Scala Enumeration
-
SPARK-53169 Quitar comentarios relacionados con "
Set the logger level of File Appender to" delog4j2.properties -
SPARK-53080 Soporte
cleanDirectoryenSparkFileUtilsyJavaUtils - SPARK-53045 DESCRIBIR EXTENDED debe ser resistente a metadatos dañados
-
SPARK-53000 Cambiar el nombre
StringUtils.scalaaStringConcat.scalaen elsql/apimódulo - SPARK-52952 Agregar script de desarrollo para coerción de tipos UDF de PySpark
- SPARK-52998 Varias variables dentro de declare
- SPARK-51817 Vuelva a introducir campos ansiConfig en messageParameters de CAST_INVALID_INPUT y CAST_OVERFLOW
- SPARK-52820 Captura de planes completos en archivos dorados
- SPARK-53274 Soporte para optimización de unión izquierda y derecha en JDBCScanBuilder
- SPARK-52110 Implementación de la compatibilidad con la sintaxis SQL para canalizaciones
- SPARK-52950 Habilitación del modo ANSI en DataSourceV2StrategySuite
- SPARK-52947 Corrección de la ruta de acceso de imagen en la guía de programación para canalizaciones declarativas
- SPARK-52592 Compatibilidad con la creación de un ps.Series a partir de un ps.Series
- SPARK-53301 Diferenciar las sugerencias de tipo de UDF de Pandas y UDF de Arrow
- SPARK-53146 Hacer que MergeIntoTable en SparkConnectPlanner no tenga efectos secundarios
-
SPARK-53166 Uso
SparkExitCode.EXIT_FAILUREen elSparkPipelinesobjeto - SPARK-53288 Corrección del error de aserción con el límite global de streaming
- SPARK-52394 Corrección del error de división por cero del autocorr en modo ANSI
- SPARK-51555 Adición de la función time_diff()
- SPARK-52948 Habilitar test_np_spark_compat_frame en ANSI
- SPARK-53134 Realizar una limpieza de importaciones ANSI no utilizadas en las pruebas
-
SPARK-52593 Evitar CAST_INVALID_INPUT de
MultiIndex.to_series,Series.dotyDataFrame.doten modo ANSI - SPARK-53291 Corrección de la nulabilidad de la columna de valor
- SPARK-53097 Hacer que WriteOperationV2 en SparkConnectPlanner no tenga efectos secundarios
- SPARK-53305 Compatibilidad con TimeType en createDataFrame
-
SPARK-52914 Compatibilidad
On-Demand Log Loadingcon registros rotativos enHistory Server - SPARK-33538 Inserción directa de predicados IN/NOT en el metastore de Hive
-
SPARK-52849 Agregar
stringifyExceptionao.a.s.util.Utils -
SPARK-52771 Corrección de la ampliación de tipos float32 en
truediv/floordiv - SPARK-52502 Descripción general del recuento de hilos
- SPARK-52788 Corrección del error de conversión de valor binario en BinaryType a XML
-
SPARK-53123 Soporte técnico
getRootCauseenSparkErrorUtils -
SPARK-53129 Mejorar
SparkShellpara importarjava.net._por defecto -
SPARK-53061 Soporte
copyFileToDirectoryenSparkFileUtils - SPARK-52683 Compatibilidad con ExternalCatalog alterTableSchema
-
SPARK-52871 Combinar
o.a.s.sql.catalyst.util.SparkStringUtilscono.a.s.util.SparkStringUtils -
SPARK-52817 Corrección del
Likerendimiento de expresiones - SPARK-52545 Estandarizar el escape de comillas dobles para cumplir con la especificación de SQL
-
SPARK-52711 Corregir la ampliación de tipo float32 bajo
mul/rmulANSI - SPARK-52615 Reemplazar File.mkdirs por Utils.createDirectory
- SPARK-52381 JsonProtocol: acepte solo subclases de SparkListenerEvent.
- SPARK-52613 Restaurar la impresión de la traza completa de la pila cuando HBase/Hive DelegationTokenProvider enfrente una excepción
- SPARK-52651 Gestionar el tipo definido por el usuario en ColumnVector anidado
- SPARK-52611 Corrija la versión de SQLConf para excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Saltar la aplicación de restricción CHECK para las eliminaciones mediante vectores de eliminación
- Soporte SPARK-52587 para spark-shell 2.13
-i-Iparámetro - SPARK-52492 Permitir que InMemoryRelation.convertToColumnarIfPossible sea personalizable
- SPARK-52451 Hacer que WriteOperation en SparkConnectPlanner no tenga efectos secundarios
- SPARK-53272 Refactorización de la lógica de aplicación de SPJ fuera de BatchScanExec
-
SPARK-53071 Soporte técnico
copyFileenSparkFileUtils - SPARK-51415 Admitir el tipo de tiempo al usar make_timestamp()
- SPARK-51554 Adición de la función time_trunc()
- SPARK-52426 Compatibilidad con la redirección de stdout/stderr al sistema de registro
- SPARK-51834 Soporte para la gestión integral de restricciones de tabla
- SPARK-53063 Implementación y llamada a nuevas API en FileCommitProtocol en lugar de las API en desuso.
- SPARK-52546 comprueba sparkContext si se ha detenido al ejecutar el bloque de código catch en execute(), de lo contrario, devolverá un estado incorrecto.
-
SPARK-53023 Eliminar
commons-iodependencia delsql/apimódulo - SPARK-52396 El directorio raíz del artefacto debe usar tmpdir
-
SPARK-53131 Mejorar
SparkShellpara importarjava.nio.file._por defecto - SPARK-42322 Asignar nombre a to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 Soporte para la administración de restricciones de tabla de extremo a extremo
- SPARK-52484 Omitir la aserción child.supportsColumnar del lado del controlador en ColumnarToRowExec
- SPARK-52384 Corrección del error Connect no debe tener en cuenta las opciones de JDBC.
- SPARK-52034 Añadir métodos comunes en el rasgo SparkOperation para las operaciones Thriftserver
-
SPARK-53031 Soporte
getFileenSparkFileUtils - SPARK-52976 Corregir que la UDF de Python no acepte una cadena ordenada como tipo de parámetro de entrada o de retorno (17.x)
- SPARK-52943 Habilitar arrow_cast para todos los tipos de evaluación de UDF de Pandas
- SPARK-53263 Compatibilidad con TimeType en df.toArrow
- SPARK-53141 Agregar APIs para obtener el tamaño de memoria de sobrecarga y el tamaño de memoria fuera de montón del perfil de recursos
- SPARK-53259 Corregir el mensaje de INVALID_UDF_EVAL_TYPE
- SPARK-53167 El iniciador de Spark isRemote también respeta el archivo de propiedades
-
SPARK-53165 Agregar
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Mejora de la repetición de UTF8String
-
SPARK-53170 Mejora
SparkUserAppExceptionpara tenercauseun parámetro - SPARK-52989 Añadir un API explícito close() a los iteradores del State Store
- SPARK-53074 Evitar la agrupación en clústeres parciales en SPJ para satisfacer la distribución necesaria de un elemento secundario
- SPARK-52252 Los codificadores de ScalaUDF en subconsultas deben resolverse
- SPARK-53244 No almacenar configuraciones habilitadas para doble ejecución y modo tentativo durante la creación de vistas
- SPARK-53192 Almacenar siempre en caché un origen de datos en la caché del plan de Spark Connect
- SPARK-51813 Agregue un defaultCachedBatchKryoSerializer que no acepta valores NULL para evitar la propagación nula en defaultCachedBatch serde
- SPARK-52904 Volver a aplicar "[SC-202233][python] Habilitar convertToArrowArrayS...
-
SPARK-53253 Corrección del registro de UDF de tipo
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 Enumera los tipos de eval admitidos en los nodos Arrow
-
SPARK-53130 Corrección
toJsondel comportamiento de los tipos de cadena ordenados -
SPARK-53003 Soporte técnico
stripenSparkStringUtils - SPARK-51902 Sincronización OSS: imposición de la restricción de verificación en la inserción de tablas
- SPARK-52047 Genera PySparkValueError para tipos de gráficos no admitidos
-
SPARK-53004 Soporte técnico
abbreviateenSparkStringUtils - SPARK-53066 Mejora de EXPLAIN la salida de la inserción de combinación de DSv2
- SPARK-30848 Eliminación de productHash de TreeNode
-
SPARK-53046 Uso de Java
readAllBytesen lugar deIOUtils.toByteArray -
SPARK-53206 Usar
SparkFileUtils.moveen lugar decom.google.common.io.Files.move - SPARK-53066 Mejorar el rendimiento de proyección de combinaciones en DSv2
- SPARK-53069 Corrección de métricas de almacén de estado incorrectas con familias de columnas virtuales
- SPARK-52904 Habilite convertToArrowArraySafely de forma predeterminada [17.x]
- Añadir la coerción de tipo para el retorno udf de SPARK-52821 int-DecimalType en pyspark.
-
SPARK-51562 Agregar
timefunción - SPARK-52971 Limitar el tamaño de la cola de trabajo de Python inactiva
-
SPARK-53057 Soporte
sizeOfenSparkFileUtilsyJavaUtils - SPARK-53040 Prohibir las referencias propias dentro de las CTE más altas en CTE recursivas
- SPARK-53104 Introducir el ansi_mode_context para evitar varias comprobaciones de configuración por cada llamada a la API
-
SPARK-47547 Agregue
BloomFilterV2 y úselo como valor predeterminado -
SPARK-53098
DeduplicateRelationsno debe reasignar expresiones si todavía existe elExprIdantiguo en la salida -
SPARK-53049 Soporte
toStringenSparkStreamUtils -
SPARK-53062 Soporte
deleteQuietlyenSparkFileUtilsyJavaUtils -
SPARK-53070 Soporte técnico
is(Not)?EmptyenSparkCollectionUtils - SPARK-53020 Los argumentos de JPMS también se deben aplicar al proceso que no sea SparkSubmit.
- SPARK-52968 Emisión de métricas de almacén de estado adicionales
- SPARK-52975 Simplificación de los nombres de campo en la combinación de inserción sql
- SPARK-52926 Se ha agregado SQLMetric para la duración de la captura de esquemas remotos.
- SPARK-53059 Arrow UDF no es necesario depender de pandas
-
SPARK-52646 Evitar CAST_INVALID_INPUT de
__eq__en modo ANSI -
SPARK-52622 Evitar CAST_INVALID_INPUT de
DataFrame.melten modo ANSI - SPARK-52985 Generar TypeError para operando numpy pandas en operadores de comparación
-
SPARK-52580 Evitar CAST_INVALID_INPUT de
replaceen modo ANSI - SPARK-52549 Deshabilitar las referencias automáticas de CTE recursivas desde funciones de ventana y dentro de las ordenaciones
-
SPARK-52895 No agregue elementos duplicados en
resolveExprsWithAggregate - SPARK-50748 Corrección de un problema de condición de carrera que se produce cuando se interrumpen las operaciones
- SPARK-52737 Predicado de inserción y número de aplicaciones en FsHistoryProvider al enumerar aplicaciones
- SPARK-53018 ArrowStreamArrowUDFSerializer debe respetar el argumento arrow_cast
- SPARK-53013 Corrección de la UDTF de Python optimizada con Apache Arrow que no devuelve filas en la combinación lateral
- SPARK-51834 Sincronización de OSS: compatibilidad con la gestión completa de alteración de restricciones de tabla para agregar/eliminar restricciones.
- SPARK-52921 Especificar particionamientoDeSalida para UnionExec para el mismo particionamiento de salida que los operadores hijos.
- SPARK-52908 Evitar que el nombre de la variable de iterador entre en conflicto con los nombres de las etiquetas de la ruta de acceso a la raíz de AST
- SPARK-52954 Compatibilidad con coerción de tipos de retorno en UDF de Arrow
- SPARK-52925 Devuelve el mensaje de error correcto para las referencias a sí mismo de ancla en rCTEs
- SPARK-52889 Implementación de la función current_time en PySpark
- SPARK-52675 Interrumpir controladores de ML colgados en pruebas
- SPARK-52959 Compatibilidad con UDT en UDTF de Python optimizado para Arrow
- SPARK-52962 BroadcastExchangeExec no debe restablecer las métricas
- SPARK-52956 Conservar los metadatos de alias al simplificar proyectos
- SPARK-52890 Implementación de las funciones de to_time y try_to_time en PySpark
- SPARK-52888 Implementación de la función make_time en PySpark
- SPARK-52892 Compatibilidad con TIME en las funciones hour, minute y second en PySpark
- SPARK-52837 Compatibilidad con TimeType en pyspark
- SPARK-52023 Corrección de la corrupción de datos y el fallo de segmentación al devolver Option[Product] desde una función UDAF.
- SPARK-52955 Cambiar los tipos devueltos de WindowResolution.resolveOrder y WindowResolution.resolveFrame a WindowExpression
- SPARK-52166 Adición de compatibilidad con PipelineEvents
- SPARK-51834 Corrección: eliminar "valid" de toDDL
- SPARK-52735 Corrección de las condiciones de error que faltan para las UDF de SQL
- SPARK-51834 Sincronizar el soporte de OSS de extremo a extremo para crear/reemplazar tabla con restricción
- SPARK-51834 Sincronización de la actualización de OSS para las llamadas de unapply de ResolvedIdentifier.
- SPARK-52929 Compatibilidad con los conectores MySQL y SQLServer para la aplicación de Join de DSv2.
- SPARK-52448 Adición de Struct Expression.Literal simplificado
- SPARK-52882 Implementación de la función current_time en Scala
- SPARK-52905 UDF de flecha para la ventana
-
SPARK-52876 Corrección de un error tipográfico de
bufferporbodyenChunkFetchSuccess.toString - SPARK-52883 Implementación de las funciones de to_time y try_to_time en Scala
-
SPARK-52751 No valide diligentemente el nombre de columna en
dataframe['col_name'] - SPARK-52791 Corrección del error al deducir un UDT con un primer elemento NULL
-
SPARK-52686
Unionsolo se debe resolver si no hay duplicados - SPARK-52881 Implementación de la función make_time en Scala
- SPARK-52919 Corrección de la inserción de combinación de DSv2 para usar la columna con alias anterior
-
SPARK-52866 Adición de compatibilidad con
try_to_date - SPARK-52846 Agregar una métrica en JDBCRDD para medir cuánto tiempo se tarda en obtener el conjunto de resultados.
- SPARK-52859 Adición del rasgo SparkSystemUtils
- SPARK-52823 Compatibilidad con el empuje de unión DSv2 para el conector de Oracle
- SPARK-52165 Configurar el andamiaje de construcción para el proyecto de canalizaciones
- SPARK-52869 Agregar la validación de FrameLessOffsetWindowFunction para validateResolvedWindowExpression con el fin de su reutilización en el analizador de un solo paso.
- SPARK-52885 Implementación de las funciones hour, minute y second en Scala para el tipo TIME
- SPARK-52903 Recorte de alias que no son de nivel superior antes de la resolución LCA
- SPARK-52832 Corrección de las comillas en el identificador del dialecto JDBC
-
SPARK-52870 Citar correctamente los nombres de las variables en la
FORinstrucción -
SPARK-52859 Agregar
SparkSystemUtilstrait -
SPARK-52900 Uso
SparkStringUtils.stringToSeqenFsHistoryProvider - SPARK-52809 No mantenga referencias de lector e iterador para todas las particiones en los escuchadores de finalización de tareas para la actualización de métricas.
-
SPARK-52815 Mejorar
SparkClassUtilspara admitirgetAllInterfaces - SPARK-52795 Incluir ID de ejecución en los registros del almacenamiento de estado
- SPARK-52779 Soporte para el literal TimeType en Connect
- SPARK-52899 Corrección de la prueba QueryExecutionErrorsSuite para registrar H2Dialect de nuevo
-
SPARK-52862 Revisar la comprobación de nulabilidad de
Decimal('NaN') - SPARK-52214 UDF de flecha para la agregación
- SPARK-52787 Reorganización del directorio de ejecución de streaming alrededor del tiempo de ejecución y las áreas de punto de control
- SPARK-51564 Análisis de hora en el formato de reloj de 12 horas
-
SPARK-52859 Agregar
SparkSystemUtilstrait -
SPARK-51562 Agregar
timefunción - SPARK-52850 Omitir las conversiones de invocación si es una función de identidad
- SPARK-52863 Limpieza de rutas de acceso de código para versiones anteriores de Pandas
- SPARK-52516 No mantenga la referencia previa del iterador después de avanzar al siguiente archivo en ParquetPartitionReaderFactory
-
SPARK-52848 Evitar la conversión a
Doubleal convertir TIME/TIMESTAMP a DECIMAL -
SPARK-52770 Soporte para tipo
TIMEen el protocolo de conexión - SPARK-52842 Nuevas funcionalidades y correcciones de errores para el analizador de paso único
- SPARK-52620 Soporte para la conversión de TIME a DECIMAL
- SPARK-52783 Refactorización de la lógica de validación de windowFunction de checkAnalysis para su reutilización en el analizador de paso único
- SPARK-51695 Sincronizar OSS crear/reemplazar/modificar tabla para restricción única a través de DSv2
- SPARK-51695 Sincronizar restricción de eliminación de OSS usando DSv2
- SPARK-52824 Clasificación de errores de CheckpointFileManager
- SPARK-52829 Corrección de LocalDataToArrowConversion.convert para controlar las filas vacías correctamente
- SPARK-52811 Optimizar ArrowTableToRowsConversion.convert para mejorar su rendimiento
- SPARK-52796 Optimizar LocalDataToArrowConversion.convert para incrementar su eficiencia.
- SPARK-51695 Cambios en el analizador del comando Alter Table para agregar restricciones en la sincronización de software de código abierto
- SPARK-52619 Convertir TimeType en IntegralType
- SPARK-52187 Introducir optimización de join para DSv2
- SPARK-52782 Devolver NULL desde +/- en datetime con NULL
- SPARK-51695 Introducción de cambios del analizador para las restricciones de tabla (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationsdebe ser positivo - SPARK-52776 No dividir el campo comm en ProcfsMetricsGetter
-
SPARK-52793 Soporte técnico
isUnixeno.a.s.util.Utils -
SPARK-52792 Quitar
commons-lang3dependencia denetwork-common -
SPARK-52797 Usar
Utils.isWindowsen lugar de volver a evaluar enPythonWorkerFactory - SPARK-52784 Añadir la conversión TimeZoneAware en WindowFrameTypeCoercion.createBoundaryCast
- SPARK-52725 Retrasar la inicialización del administrador de perfiles de recursos hasta que se cargue el complemento
- SPARK-52565 Exigir la resolución ordinal antes de otras expresiones de orden de clasificación
- SPARK-52740 Corrige el NPE en HDFSBackedStateStoreProvider al acceder a StateStoreConf.sqlConf cuando la versión del formato del punto de control es >=2
- SPARK-52673 Incorporación del manejo de grpc RetryInfo a las políticas de reintentos de Spark Connect
- SPARK-52724 Mejora del manejo de errores de OOM en la combinación por difusión con compatibilidad con sugerencias de SHUFFLE_MERGE
- SPARK-52781 Corrección de errores tipográficos de dtyeps en internal.py
- SPARK-52730 Almacenar la versión subyacente del controlador y la base de datos en JDBCRDD
- SPARK-52727 Refactorización de la resolución de ventanas para reutilizarla en el analizador de paso único
- SPARK-52695 Compatibilidad de escritura de tipo definido por el usuario para el formato de archivo xml
- SPARK-52722 Desuso de la clase JdbcRDD
- SPARK-51695 Introducción de cambios del analizador para las restricciones de tabla (CHECK, PK, FK)
- SPARK-52763 Resta de TIEMPO de soporte técnico
- SPARK-52768 Corregir el error tipográfico "moveing" en pandas/series.py
- SPARK-52730 Almacenar la versión subyacente del controlador y la base de datos en JDBCRDD
-
SPARK-52694 Agregar
o.a.s.sql.Encoders#udtAPI -
SPARK-52720 Corrección de la ampliación de tipos float32 bajo
add/raddANSI - SPARK-52723 Validación del nombre de columna del lado servidor
-
SPARK-52760 Corrección de la ampliación de tipos float32 en
sub/rsubbajo ANSI -
SPARK-52738 Admite la agregación del tipo TIME con un UDAF cuando el búfer subyacente es un
UnsafeRow - SPARK-52704 Simplificación de las interoperaciones entre SQLConf y las opciones de formato de archivo en TextBasedFileFormats
- SPARK-52706 Corrección de incoherencias y refactorización de tipos primitivos en el analizador
-
SPARK-52718 Corrección de la ampliación de tipo float32 en
rmod/modsegún ANSI - SPARK-52736 Corrección de tipos "moveing" en pyspark/pandas/generic.py
Compatibilidad con controladores ODBC/JDBC de Azure Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Entorno del sistema
- Sistema operativo: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flecha | 1.3.0 | "asttokens" | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | atributos | 24.3.0 |
| comando automático | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | Servicio de Azure Storage File Data Lake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | negro | 24.10.0 |
| blanquear | 6.2.0 | intermitente | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| Haz clic | 8.1.7 | cloudpickle | 3.0.0 | Comunicación | 0.2.1 |
| contourpy | 1.3.1 | criptografía | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | SDK de Databricks | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorator | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | Conversión de docstring a markdown | 0.11 |
| executing | 0.8.3 | visión general de las facetas | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | bloqueo de archivos | 3.18.0 | fonttools | 4.55.3 |
| Fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| google-cloud-core | 2.4.3 | Google Cloud Storage (almacenamiento en la nube de Google) | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (medios reanudables de Google) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifications | 2023.7.1 | jupyter_events | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server (servidor de JupyterLab) | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| convenciones-semánticas-de-opentelemetry | 0.53b1 | overrides | 7.4.0 | embalaje | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | chivo expiatorio | 1.0.1 | pexpect | 4.8.0 |
| almohada | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.12.0 |
| configuración de herramienta Python | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referencing | 0.30.2 | solicitudes | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rico | 13.9.4 |
| cuerda | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | Starlette | 0.46.2 |
| statsmodels (paquete de Python para análisis estadístico) | 0.14.4 | strictyaml | 1.7.3 | tenacidad | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unattended-upgrades | 0,1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 24.11.1 | codificaciones web | 0.5.1 |
| cliente de websocket | 1.8.0 | ¿Qué es el parche? | 1.0.2 | rueda | 0.45.1 |
| widgetsnbextension | 3.6.6 | envuelto | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de paquetes dePositiv en 2025-03-20.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 19.0.1 | askpass | 1.2.1 | asegúrate de que | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | mancha | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | escoba | 1.0.7 |
| bslib | 0.9.0 | cachemir | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 | chron | 2.3-62 |
| class | 7.3-22 | Interfaz de línea de comandos (CLI) | 3.6.5 | clipr | 0.8.0 |
| reloj | 0.7.2 | conglomerado | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.5 | compilador | 4.4.2 |
| config | 0.3.2 | Confuso | 1.2.0 | cpp11 | 0.5.2 |
| crayón | 1.5.3 | credentials | 2.0.2 | curl | 6.4.0 |
| tabla de datos | 1.17.0 | Conjuntos de datos | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | descripción | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | digerir | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | elipsis | 0.3.2 | evaluar | 1.0.3 |
| fans | 1.0.6 | colores | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| extranjero | 0,8-86 | forge | 0.2.0 | fs | 1.6.5 |
| futuro | 1.34.0 | aplicación futura | 1.11.3 | gargle | 1.5.2 |
| genéricos | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | pegamento | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| gráficos | 4.4.2 | grDevices | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | hardhat | 1.4.1 | refugio | 2.5.4 |
| más alto | 0.11 | hms | 1.1.3 | herramientas de HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.50 | etiquetado | 0.4.3 |
| más tarde | 1.4.1 | retícula | 0.22-5 | lava | 1.8.1 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Formato Markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matrix | 1.6-5 | memorización | 2.0.1 | métodos | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI (Interfaz de Usuario) | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.3.3 | paralelo | 4.4.2 |
| Paralelamente | 1.42.0 | pilar | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | progreso | 1.2.3 |
| progressr | 0.15.1 | promesas | 1.3.2 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | ps | 1.9.0 | ronroneo | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | Bosque Aleatorio (randomForest) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | r-reactable | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl | 1.4.5 |
| recetas | 1.2.0 | partido de revancha | 2.0.0 | segunda revancha | 2.1.2 |
| remotes | 2.5.0 | ejemplo reproducible | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2,29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| balanzas | 1.3.0 | selectr | 0.4-2 | información de sesión | 1.2.3 |
| forma | 1.4.6.1 | brillante | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Estadísticas | 4.4.2 | estadísticas4 | 4.4.2 |
| stringi | 1.8.7 | stringr | 1.5.1 | supervivencia | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | Formateo de texto | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | cambio de hora | 0.3.0 | timeDate | 4041.110 |
| tinytex | 0.56 | herramientas | 4.4.2 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usa esto | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| archivo comprimido | 2.3.2 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | flujo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1. nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1. nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1. nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1. nativos |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | guayaba | 33.4.0-jre |
| com.google.guava | listenablefuture | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | código fuente_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | métricas-anotación | 4.2.30 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | metrics-servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | cliente_simple_común | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | coleccionista | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.10.11 |
| org.apache.arrow | arrow-format | 18.2.0 |
| org.apache.arrow | núcleo de memoria de flecha | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | arrow-vector | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.13.0 |
| org.apache.curator | curador-cliente | 5.7.1 |
| org.apache.curator | marco de trabajo para curadores | 5.7.1 |
| org.apache.curator | recetas del curador | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | calzos de orco | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | Anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.9.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | servidor Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | validador de hibernación | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Sugerencia
Para ver las notas de las versiones de Databricks Runtime que han llegado al fin de soporte (EoS), consulte las Notas de lanzamiento de fin de soporte de Databricks Runtime. Las versiones de EoS Databricks Runtime se han retirado y es posible que no se actualicen.