Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 18.1 (Beta).
Esta versión incorpora todas las características, mejoras y correcciones de errores de todas las versiones anteriores de Databricks Runtime. Databricks publicó esta versión en febrero de 2026.
Important
Databricks Runtime 18.1 está en beta. El contenido de los entornos admitidos puede cambiar durante la versión Beta. Los cambios pueden incluir la lista de paquetes o versiones de paquetes instalados.
Nuevas características y mejoras
- Auto Loader usa eventos de archivo de forma predeterminada cuando está disponible
- Escrituras optimizadas para tablas de catálogo de Unity con particiones creadas con CRTAS
- Compatibilidad con el tipo de datos DATETIMEOFFSET para Microsoft Azure Synapse
- Comentarios de la tabla BigQuery de Google
- Evolución del esquema con sentencias INSERT
- Se conservan los valores de estructura NULL en INSERT las operaciones
- Soporte de transacciones de varias instrucciones en Delta Sharing
- Puntos de control de DataFrame en rutas de acceso de volumen
- Los comandos SQL ya no se vuelven a ejecutar al llamar a cache()
- función SQL parse_timestamp
- Compatibilidad con cursores SQL en instrucciones compuestas
- Funciones aproximadas de croquis top-k
- Funciones de boceto de tupla
Auto Loader usa eventos de archivo de forma predeterminada cuando está disponible
El cargador automático usa eventos de archivo de forma predeterminada al cargar desde una ubicación externa con eventos de archivo habilitados, lo que reduce las operaciones de lista y el costo en comparación con la lista de directorios. Consulte Auto Loader con la descripción general de eventos de archivo. Los eventos de archivo no se usan si el código de secuencia establece useIncrementalListing o useNotifications. Para usar la lista de directorios en su lugar, establezca useManagedFileEvents como false.
Escrituras optimizadas para tablas particionadas de Unity Catalog creadas con CRTAS
Las escrituras optimizadas se aplican a las tablas de catálogo de Unity con particiones creadas por CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), lo que genera menos archivos más grandes. Este comportamiento está habilitado de forma predeterminada. Para deshabilitarlo, establezca spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled en false.
Compatibilidad con el tipo de datos DATETIMEOFFSET para Microsoft Azure Synapse
El DATETIMEOFFSET tipo de datos es compatible con las conexiones de Microsoft Azure Synapse.
Comentarios de la tabla BigQuery de Google
Las descripciones de las tablas de Google BigQuery se resuelven y exponen como comentarios de tabla.
Evolución del esquema con INSERT declaraciones
Use la WITH SCHEMA EVOLUTION cláusula con instrucciones SQL INSERT para evolucionar automáticamente el esquema de la tabla de destino durante las operaciones de inserción. La cláusula se admite para INSERT INTO, INSERT OVERWRITE y INSERT INTO ... REPLACE. Por ejemplo:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
El esquema de la tabla Delta Lake de destino se actualiza para dar cabida a columnas adicionales o tipos ampliados del origen. Para obtener más información, consulte la sintaxis de la instrucción y INSERTla evolución del esquema.
Valores de estructura NULL conservados en operaciones INSERT
INSERT las operaciones con la evolución del esquema o la conversión implícita conservan NULL los valores de estructura cuando las tablas de origen y destino tienen órdenes diferentes de campos de estructura.
Compatibilidad con soporte para transacciones de múltiples declaraciones en Delta Sharing
Las tablas Delta Sharing que usan la URL prefirmada o los modos de uso compartido de tokens en la nube admiten transacciones con múltiples instrucciones. En el primer acceso dentro de una transacción, la versión de la tabla se ancla y reutiliza para todas las lecturas posteriores de esa transacción.
Limitaciones:
- No se admiten el viaje en el tiempo, el cambio de fuente de datos ni el streaming.
- Las transacciones de varias instrucciones no se admiten en tablas compartidas sin historial.
- Las vistas compartidas y las entidades externas no se permiten en sistemas no confiables.
Puntos de control de DataFrame en rutas de acceso de volumen
Los puntos de control de DataFrame admiten rutas de acceso de volumen del Catálogo de Unity. Configure la ruta de acceso del punto de control mediante SparkContext.setCheckpointDir en la computación dedicada o la configuración spark.checkpoint.dir en la computación estándar.
Los comandos SQL ya no se vuelven a ejecutar al llamar a cache()
Los comandos SQL ya no se vuelven a ejecutar al llamar a .cache() en el dataframe de resultados. Esto incluye comandos como SHOW TABLES y SHOW NAMESPACES.
Función SQL parse_timestamp
La parse_timestamp función SQL analiza las cadenas de marca de tiempo según múltiples patrones. Se fotoniza para una evaluación más rápida con marcas de tiempo en varios formatos. Consulte Patrones de fecha y hora para obtener información sobre el formato de patrones de fecha y hora.
Compatibilidad con cursores SQL en instrucciones compuestas
Las declaraciones compuestas de scripting SQL ahora admiten el procesamiento de cursores. Use DECLARE CURSOR para definir un cursor y, a continuación, una instrucción OPEN, una instrucción FETCH y una instrucción CLOSE para ejecutar la consulta y consumir filas de una en una. Los cursores pueden usar marcadores de parámetros y controladores de condición, como NOT FOUND para el procesamiento de filas por fila.
Funciones aproximadas de croquis top-k
Las nuevas funciones permiten crear y combinar bocetos de top-K aproximados para la agregación distribuida de top-K:
-
approx_top_k_accumulate: crea un boceto por grupo. Consulte laapprox_top_k_accumulatefunción de agregación. -
approx_top_k_combine: combina bocetos. Consulte laapprox_top_k_combinefunción de agregación. -
approx_top_k_estimate: devuelve los elementos K principales con recuentos estimados. Consulte laapprox_top_k_estimatefunción.
Para obtener más información, consulte approx_top_k funciones de agregado y funciones integradas.
Funciones de esquema de tupla
Las nuevas funciones de agregado y escalar para croquis de tupla admiten un recuento y una agregación distintos en pares clave-resumen.
Funciones de agregado:
-
tuple_sketch_agg_doublefunción de agregación -
tuple_sketch_agg_integerfunción de agregación -
tuple_union_agg_doublefunción de agregación -
tuple_union_agg_integerfunción de agregación -
tuple_intersection_agg_doublefunción de agregación -
tuple_intersection_agg_integerfunción de agregación
Funciones escalares:
tuple_sketch_estimatetuple_sketch_summarytuple_sketch_thetatuple_uniontuple_intersectiontuple_difference
Consulte Funciones integradas.
Cambios de comportamiento
- Cláusula FILTER para funciones de agregado MEASURE
- Escrituras optimizadas para las operaciones CRTAS del catálogo de Unity
- Actualización de caché de DataFrame para tablas de control de acceso específicas
- Los valores de partición de marca de tiempo usan la zona horaria de sesión
- Descripción de la palabra clave reservada flow
- Mejora del rendimiento de las operaciones geoespaciales
- Tipos de excepción para SQLSTATE
- Ampliación automática del tipo de streaming
Cláusula FILTER para funciones de agregación MEASURE
Funciones de agregación MEASURE ahora admiten cláusulas FILTER. Anteriormente, los filtros se omitían de forma silenciosa.
Escrituras optimizadas para las operaciones CRTAS del catálogo de Unity
CREATE OR REPLACE TABLE Las operaciones de AS SELECT (CRTAS) en tablas de catálogos de Unity con particiones ahora aplican escrituras optimizadas de forma predeterminada. Para deshabilitarlo, establezca spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled en false.
Actualización de caché de DataFrame para tablas de control de acceso específicas
Al escribir en tablas de control de acceso detallado en un proceso dedicado, ahora se actualizan los DataFrames almacenados en caché que dependen de estas tablas.
Los valores de partición de marca de tiempo usan la zona horaria de sesión
Los valores de partición de marca de tiempo usan la zona horaria de sesión de Spark en lugar de la zona horaria de JVM. Si tiene particiones de marca de tiempo escritas antes de Databricks Runtime 18.0, ejecute SHOW PARTITIONS para comprobar los metadatos de la partición antes de escribir nuevos datos.
Descripción de la palabra clave reservada flow
El DESCRIBE FLOW comando ya está disponible. Si tiene una tabla denominada flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow o DESCRIBE `flow` con comillas invertidas.
Mejora del rendimiento de las operaciones geoespaciales
Las operaciones de conjunto booleano geoespacial usan una nueva implementación con un rendimiento mejorado. Las pequeñas diferencias de precisión pueden producirse después del 15º decimal.
Tipos de excepción para SQLSTATE
Los tipos de excepción se actualizan para admitir SQLSTATE. Si el código analiza las excepciones por coincidencias de cadenas o detecta tipos de excepción específicos, actualice la lógica de control de errores.
Ampliación automática del tipo de streaming
Las lecturas de streaming en tablas Delta controlan automáticamente la ampliación del tipo de columna. Para requerir confirmación manual, establezca spark.databricks.delta.typeWidening.enableStreamingSchemaTracking en true.
Actualizaciones de bibliotecas
No se actualizaron bibliotecas en esta versión.
Apache Spark
Databricks Runtime 18.1 incluye Apache Spark 4.1.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 18.0, así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:
- SPARK-55350 Solucionar la pérdida de recuento de filas al crear un DataFrame a partir de pandas con 0 columnas
- SPARK-55364 Hacer que el protocolo SupportsIAdd y SupportsOrdering sean más razonables
- SPARK-53656 Refactorización de MemoryStream para usar SparkSession en lugar de SQLContext
-
SPARK-55472 Activar
AttributeErrordesde métodos eliminados en pandas 3 - SPARK-55224 Usar Spark DataType como referencia en la serialización de Pandas-Arrow
- SPARK-55402 Trasladar streamingSourceIdentifyingName de CatalogTable a DataSource
- SPARK-55459 Corrección de la regresión de rendimiento 3x en applyInPandas para grupos grandes
- SPARK-55317 Adición de un nodo de plan lógico SecuencialUnion y una regla de planeación
-
SPARK-55424 Pase explícitamente el nombre de la serie en
convert_numpy -
SPARK-55175 Extraer
to_pandastransformador de los serializadores - SPARK-55304 Introducir soporte para el control de admisión y Trigger.AvailableNow en el origen de datos de Python: lector de transmisión en continuo
-
SPARK-55382 Hacer
Executorpara registrarRunning Spark version - SPARK-55408 Control de errores inesperados de argumentos de palabra clave relacionados con datetime con pandas 3
- SPARK-55345 No transfiera la unidad ni se convierta a Timedelta para pandas 3
- SPARK-54759 Protección correcta de la lógica en el Administrador de variables de scripting después de la introducción del cursor
- SPARK-55409 Control de un error de argumento de palabra clave inesperado de read_excel con pandas 3
-
SPARK-55403 Corrección
no attribute 'draw'del error en los tests de representación gráfica con pandas 3 - SPARK-55256 Revertir "[SC-218596][SQL] Admite IGNORE NULLS/RESPECT NULLS para array_agg y collect_list"
- SPARK-55256 Compatibilidad con IGNORE NULLS/RESPECT NULLS para array_agg y collect_list
-
SPARK-55395 Deshabilitación de la caché de RDD en
DataFrame.zipWithIndex - SPARK-55131 Introduzca un nuevo delimitador de operador de combinación para RocksDB como una cadena vacía para concatenar sin delimitador
- Hacer que el argumento numeric_only en las funciones de groupby acepte solo booleanos con pandas 3
-
SPARK-55334 Habilitar
TimestampTypeyTimestampNTZTypeenconvert_numpy - SPARK-55281 Adición de ipykernel e IPython a la lista de paquetes opcionales de mypy
- SPARK-55336 Permita que createDF use la lógica de create_batch para el desacoplamiento
-
SPARK-55366 Elimina
errorOnDuplicatedFieldNamesde las UDFs de Python - SPARK-54759 Compatibilidad con cursores de scripting de SQL
-
SPARK-55302 Corrección de métricas personalizadas en caso de
KeyGroupedPartitioning - SPARK-55228 Implementación de Dataset.zipWithIndex en la API de Scala
- SPARK-55373 Mejora del mensaje de error noHandlerFoundForExtension
- SPARK-55356 Alias de compatibilidad con la PIVOT cláusula
-
SPARK-55359 Promover
TaskResourceRequestaStable - SPARK-55365 Generalización de las utilidades para la conversión de matriz de flechas
- SPARK-55106 Agregar prueba de integración de repartición para operadores TransformWithState
- SPARK-55086 Documentación sobre la adición de DataSourceReader.pushFilters a la API de origen de datos de Python
- SPARK-46165 Agregar compatibilidad con DataFrame.all axis=None
- SPARK-55289 Revertir "[SC-218749][SQL] Corregir la prueba in-set-operations.sql poco fiable deshabilitando la combinación de difusión"
- SPARK-55297 Restaurar timedelta dtype basado en el dtype original
- SPARK-55291 Preprocesar encabezados de metadatos durante la construcción del interceptor del cliente
-
SPARK-55155 Volver a aplicar "[SC-218401][SQL] Admitir expresiones plegables en la
SET CATALOGinstrucción - SPARK-55318 Optimizaciones de rendimiento para vector_avg/vector_sum
- SPARK-55295 Extensión de la función ST_GeomFromWKB para tomar un valor SRID opcional
- SPARK-55280 Adición de getStatus proto para admitir la supervisión del estado de ejecución
- SPARK-54969 Implementación de la nueva conversión de arrow-pandas>
-
SPARK-55176 Extracción
arrow_to_pandasdel convertidor en ArrowArrayToPandasConversion - SPARK-55111 Revert "[SC-217817][SC-210791][SS] Detección de repartición sin terminar al reiniciar la consulta"
-
SPARK-55252 Mejora
HttpSecurityFilterpara agregarContent-Security-Policyencabezado - SPARK-55111 Detección de redistribución sin terminar en el reinicio de las consultas
- SPARK-55105 Agregar prueba de integración para el operador join
- SPARK-55260 Implementación de la compatibilidad de escritura de Parquet con tipos geográficos
- SPARK-54523 Corrección de la resolución predeterminada durante la inserción de variantes
- SPARK-55328 Reutilización de PythonArrowInput.codec en GroupedPythonArrowInput
- SPARK-55246 Agregar prueba para Pyspark TWS y TWSInPandas y corregir statePartitionAllColumnFamiliesWriter Bug
- SPARK-55289 Corrección de la prueba inestable en in-set-operations.sql deshabilitando la unión de difusión
- SPARK-55040 Refactorice TaskContext y el protocolo de trabajo relacionado con la corrección en el motor PySpark.
- SPARK-47996 admite la combinación cruzada en la API de Pandas
- SPARK-55031 Agregar expresiones de función de agregación promedio/suma de vectores
- SPARK-54410 Corrección de la compatibilidad de lectura para la anotación de tipo lógico variant
- SPARK-54776 Revertir "[SC-216482][SQL] Se ha mejorado el mensaje de registros con respecto a la función lambda con UDF de SQL".
- SPARK-55123 Adición de SequentialUnionOffset para el seguimiento del procesamiento de origen secuencial
- SPARK-54972 Mejorar las subconsultas NOT IN con columnas que no aceptan valores NULL
- SPARK-54776 Se ha mejorado el mensaje de registros relativo a la función lambda con UDF de SQL.
-
SPARK-53807 Corregir problemas de condición de carrera entre
unlockyreleaseAllLocksForTaskenBlockInfoManager - SPARK-51831 Revertir "[SC-207389][SQL] Eliminación de columnas con existsJoin for Datasource V2"
-
SPARK-54881 Mejora
BooleanSimplificationpara controlar la negación de la conjunción y la disjunción en un paso - SPARK-54696 Limpieza de ArrowBuffers en Connect
-
SPARK-55009 Elimine la copia de memoria innecesaria del constructor de
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Hacer configurable la visualización del stacktrace en la página de error de la interfaz de usuario
- SPARK-51831 Eliminación de columnas con existsJoin for Datasource V2
-
SPARK-55285 Corrección de la inicialización de
PythonArrowInput - SPARK-53960 Permitir que approx_top_k_accumulate/combine/estimate maneje NULLs
- SPARK-49110 Simplifique SubqueryAlias.metadataOutput para propagar siempre las columnas de metadatos
-
SPARK-55155 Revertir "[SC-218401][SQL] Admitir expresiones plegables en la sentencia
SET CATALOG" -
SPARK-55155 Soporte para expresiones plegables en la instrucción
SET CATALOG - SPARK-49110 Revertir "[SC-218594][SQL] Simplifique SubqueryAlias.metadataOutput para propagar siempre las columnas de metadatos".
- SPARK-54399 Implementación de la función st_setsrid en Scala y PySpark
- SPARK-49110 Simplifique SubqueryAlias.metadataOutput para propagar siempre las columnas de metadatos
- SPARK-55133 Corrección de la condición de carrera en la administración del ciclo de vida de IsolatedSessionState
- SPARK-55262 Bloquear tipos geográficos en todos los orígenes de datos basados en archivos, excepto Parquet
- SPARK-54202 Permitir la conversión de GeometryType(srid) a GeometryType(ANY)
- SPARK-54142 Implementación de la función st_srid en Scala y PySpark
- SPARK-54887 Establecer siempre un estado sql en el cliente de spark connect
- SPARK-55237 Suprimir mensajes molestos al buscar bases de datos inexistentes
- SPARK-55040 Revertir "[SC-217628][PYTHON] Refactorizar TaskContext y el protocolo de trabajo relacionado"
- SPARK-55243 Permitir establecer encabezados binarios a través del sufijo -bin en el cliente de Scala Connect
- SPARK-55259 Implementación de la conversión de esquemas Parquet para tipos geográficos
- SPARK-55282 Evite usar worker_util en el lado controlador
- SPARK-54151 Introducción al marco para agregar funciones ST en PySpark
- SPARK-55194 Eliminar GroupArrowUDFSerializer moviendo la lógica de aplanado a mapeador
- SPARK-55020 Deshabilitar gc al ejecutar el comando gRPC
- SPARK-55053 Refactorización de los procesos de análisis de fuente de datos y UDTF para que tengan una entrada unificada
- SPARK-55040 Refactorización de TaskContext y protocolo de trabajo relacionado
- SPARK-55244 Uso de np.nan como valor predeterminado para los tipos de cadena pandas
- SPARK-55225 Restauración al dtype original para Datetime
- SPARK-55154 Quite fastpath a pd. Serie para pandas 3
- SPARK-55030 Se ha agregado compatibilidad con expresiones de función de normalización o norma vectorial
- SPARK-55202 Corregir UNEXPECTED_USE_OF_PARAMETER_MARKER al usar param...
- SPARK-54201 Permitir la conversión de GeographyType(srid) a GeographyType(ANY)
- SPARK-54244 Introducir compatibilidad con la coerción de tipos para los tipos de datos GEOMETRY
- SPARK-54160 Implementación de la expresión ST_SetSrid en SQL
- SPARK-55046 Añadir métrica de tiempo de procesamiento de udf en PySpark
- SPARK-54101 Introducción al marco para agregar funciones ST en Scala
- SPARK-54683 Unificar tipos geográficos y de tiempo que causan bloqueo
- SPARK-55249 Hacer que DataFrame.toJSON pueda devolver dataframe
- SPARK-54521 Agregar a y desde WKB para el tipo geometría
- SPARK-54162 Permitir la conversión de GeographyType a GeometryType
- SPARK-55146 Volver a comprobar la API de repartición de estado para PySpark
- SPARK-55140 No asignar funciones integradas a ninguna versión de numpy para pandas 3
- SPARK-54243 Introducción del soporte para la coerción de tipos en los tipos de datos GEOGRAPHY
- SPARK-55058 Generar un error en metadatos incoherentes de punto de comprobación
- SPARK-55108 Usar los códigos auxiliares pandas más recientes para la comprobación de tipos
- SPARK-54091 Implementación de la expresión ST_Srid en SQL
- SPARK-55104 Adición de compatibilidad con Spark Connect para DataStreamReader.name()
- SPARK-54996 Informe Hora de llegada para los registros de LowLatencyMemoryStream
- SPARK-55118 Reemplazar las importaciones de caracteres comodín de códigos de operación de ASM
- SPARK-54365 Agregar prueba de integración de repartición para operadores Aggregate, Dedup, FMGWS y SessionWindow
- SPARK-55119 Corrección del controlador de continuación: evitar INTERNAL_ERROR e interrupción de instrucciones condicionales incorrectas
- SPARK-54104 No permitir la conversión de tipos geoespaciales a otros tipos de datos o desde otros tipos de datos
- SPARK-55240 Refactorización de la gestión de la traza de pila de LazyTry para usar el envoltorio en lugar de la excepción suprimida.
-
SPARK-55238 Mover la lógica de asignación de Geo SRS de
main/scalaamain/java -
SPARK-55179 Omitir la validación de nombres de columna anticipada en
df.col_name - SPARK-55055 Compatibilidad con SparkSession.Builder.create para PySpark classic
- SPARK-55186 Permitir que ArrowArrayToPandasConversion.convert_legacy sea capaz de devolver pd.DataFrame
- SPARK-54079 Introducir el marco para agregar expresiones ST en Catalyst
- SPARK-54096 Compatibilidad con el mapeo del sistema de referencia espacial en PySpark
- SPARK-54801 Marcar algunas configuraciones nuevas de la versión 4.1 como internas
- SPARK-55146 Revertir "[SC-217936][SC-210779][SS] State Repartition API for PySpark"
- SPARK-54559 Uso de runnerConf para pasar la opción del generador de perfiles
- SPARK-55205 Corrección de pruebas en las que supone que el tipo de cadena se convertirá en objeto
- SPARK-55171 Corrección del generador de perfiles de memoria en UDF de iter
- SPARK-55226 Reconocer datetime y timedelta con unidades distintas de [ns]
- SPARK-55027 Traslado de writeConf a PythonWorkerUtils
- SPARK-55197 Extraer asistente para deduplicar la lógica de señal de START_ARROW_STREAM
- SPARK-54179 Agregar soporte nativo para Apache Tuple Sketches (#190848) (#191111)
- SPARK-55151 Corregir prueba RocksDBSuite testWithStateStoreCheckpointIds
- SPARK-55146 API de repartición de estado para PySpark
- SPARK-54232 Habilitar la serialización con Apache Arrow para los tipos Geography y Geometry
- SPARK-53957 Compatibilidad con GEOGRAPHY y GEOMETRY en SpatialReferenceSystemMapper
- SPARK-55169 Uso de ArrowBatchTransformer.flatten_struct en ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Arreglo
BasicExecutorFeatureSteppara lanzarIllegalArgumentExceptionconfiguraciones incorrectas de CPU del ejecutor - SPARK-54166 Introducción de codificadores de tipos para tipos geoespaciales en PySpark
-
SPARK-55138 Soluciona
convertToMapDataque lanza una excepciónNullPointerException - SPARK-55168 Utilizar ArrowBatchTransformer.flatten_struct dentro de GroupArrowUDFSerializer
- SPARK-55032 Refactorizar generadores de perfiles en workers.py
- SPARK-54990 Corrección de cómo se implementa classproperty en session.py
- SPARK-55076 Corrección del problema de la pista de tipo en ml/mllib y adición del requisito de scipy
- SPARK-55162 Extraer transformadores de ArrowStreamUDFSerializer
- SPARK-55121 Agregar DataStreamReader.name() a PySpark clásico
- SPARK-54887 Adición de sqlstate opcional a sparkthrowables
- SPARK-54169 Introducción de los tipos Geography y Geometry en Writer de Arrow
- SPARK-51658 Introducir formatos de envoltura de geometría y geografía en memoria
- SPARK-54110 Introducción de codificadores de tipos para los tipos Geografía y Geometría
- SPARK-54956 Unificar la solución de reintento de reorganización de datos indeterminada
-
SPARK-55137 Refactorizar
GroupingAnalyticsTransformeryAnalyzercódigo - SPARK-54103 Introducción a las clases Geography y Geometry del lado cliente
- SPARK-55160 Pasar directamente el esquema de entrada a los serializadores
- SPARK-55170 Extracción del patrón de lectura de flujos agrupados de serializadores
-
SPARK-55125 Eliminación de métodos redundantes
__init__en serializadores de flecha - SPARK-55126 Eliminar la zona horaria sin usar y assign_cols_by_name de ArrowStreamArrowUDFSerializer
- SPARK-54980 Convertir el nivel de aislamiento JDBC en una cadena
- SPARK-55051 La cadena de bytes acepta KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Mejora del rendimiento en pandas mediante la comprensión de listas
- SPARK-46165 Agregue compatibilidad con pandas. DataFrame.all axis=1
- SPARK-55037 Volver a implementar la observación sin usar queryExecutionListener
- SPARK-54965 Extraer convertidor de pa.Array heredado a pd.Series
- SPARK-55016 Convertir SQLConf en una propiedad directa de SparkSession para evitar el desbordamiento de la pila
- SPARK-55091 Reducción de llamadas RPC de Hive para el DROP TABLE comando
- SPARK-55097 Solución al problema de volver a agregar artefactos almacenados en caché que elimina los bloques de forma silenciosa.
- SPARK-55026 Optimice BestEffortLazyVal.
- SPARK-55091 Revertir "[SC-217410][SQL] Reducir las llamadas RPC de Hive para comando DROP TABLE"
- SPARK-54590 Compatibilidad con checkpoint V2 para reescritura de estado y repartición
- SPARK-55016 Convertir SQLConf en una propiedad directa de SparkSession para evitar el desbordamiento de la pila
- SPARK-55091 Reducción de llamadas RPC de Hive para el DROP TABLE comando
- SPARK-55016 Revertir "[SC-217401][SQL] Hacer que SQLConf sea una propiedad directa de SparkSession para prevenir un stack overflow"
- SPARK-55016 Convertir SQLConf en una propiedad directa de SparkSession para evitar el desbordamiento de la pila
- SPARK-55098 Las UDF vectorizadas con control de tamaño de lote de salida fallan debido a una pérdida de memoria.
- SPARK-54824 Adición de compatibilidad con multiGet y deleteRange for Rocksdb State Store
- SPARK-55054 Añadir soporte para IDENTIFIED BY para funciones de tabla con valores transmitidos
- SPARK-55029 Propagar nombre identificador del origen de streaming a través del proceso de resolución
- SPARK-55071 Hacer que spark.addArtifact funcione con rutas de acceso de Windows
- SPARK-54103 Revertir "[SC-210400][Geo][SQL] Introducir clases Geography y Geometry del lado del cliente"
- SPARK-54103 Introducción a las clases Geography y Geometry del lado cliente
- SPARK-54033 Introducción a las clases de ejecución geoespacial Catalyst del lado del servidor
- SPARK-54176 Introducir los tipos de datos geografía y geometría en PySpark Connect
- SPARK-55089 Corregir el esquema de salida de toJSON
- SPARK-55035 Realizar la limpieza aleatoria en ejecuciones secundarias
-
SPARK-55036 Agregar
ArrowTimestampConversionpara el control de zonas horarias de flecha -
SPARK-55090 Implementación
DataFrame.toJSONen el cliente de Python - SPARK-54873 Simplificar la resolución de la V2TableReference, ya que solo puede estar contenida en una vista temporal.
- SPARK-52828 Hacer que el hash de las cadenas intercaladas sea independiente de la intercalación
- SPARK-54175 Agregar los tipos geography y geometry a Proto de Spark Connect
-
SPARK-54961 Introducción
GroupingAnalyticsTransformer - SPARK-55088 Mantener los metadatos en/from_arrow_type/schema
- SPARK-55070 Permitir columna oculta en la resolución de columnas del dataframe
- SPARK-55044 Mantener los metadatos en toArrowSchema/fromArrowSchema
- SPARK-55043 Corregir el viaje en el tiempo con una subconsulta que contiene referencias de tabla
-
SPARK-54987 Cambie el valor predeterminado de prefer_timestamp_ntz a True en
from_arrow_type/from_arrow_schema - SPARK-54866 Refactorización de Drop/RefreshFunction para evitar la búsqueda de catálogos
- SPARK-55024 Utilizar el error REQUIRES_SINGLE_PART_NAMESPACE para la validación del espacio de nombres del catálogo de sesiones
- SPARK-54992 Reemplazar el cast por una comprobación en tiempo de ejecución para make_timestamp
- SPARK-55024 Revertir "[SC-216987][SQL] Usar REQUIRES_SINGLE_PART_NAMESPACE error para la validación del espacio de nombres del catálogo de sesiones"
- SPARK-54866 Revertir "[SC-216753][SQL] Refactorizar Drop/RefreshFunction para evitar la búsqueda de catálogos"
- SPARK-55024 Utilizar el error REQUIRES_SINGLE_PART_NAMESPACE para la validación del espacio de nombres del catálogo de sesiones.
- SPARK-54866 Refactorización de Drop/RefreshFunction para evitar la búsqueda de catálogos
- SPARK-54991 Corrección de la sugerencia de tipo para streaming y listener.py
- SPARK-54925 Adición de la funcionalidad para volcar subprocesos para pyspark
- SPARK-54803 Compatibilidad POR NOMBRE con INSERT ... REPLACE WHERE
- SPARK-54785 Se ha agregado compatibilidad con agregaciones de bocetos binarios en KLL (188370) (188860)
- SPARK-54949 Mover pyproject.toml a la raíz del repositorio
- SPARK-54954 Corrección de sugerencias de tipo relacionadas con el remoto en util.py
- SPARK-54922 Unificar cómo se pasan los argumentos a los trabajadores de Python
- SPARK-54870 Compatibilidad de intercalación con char/varchar y CTAS/RTAS
-
SPARK-54762 Corregir la firma de sobrecarga de
_create_converterycovert - SPARK-55019 Permitir DROP TABLE quitar vista
- SPARK-53103 Se produce un error si el directorio de estado no está vacío cuando se inicia la consulta
- SPARK-54995 Crear una ruta de acceso rápida para foreachPartition
- SPARK-54634 Adición de un mensaje de error claro para el predicado IN vacío
- SPARK-54984 Ejecución de repartición de estado e integración con State Rewriter
- SPARK-54443 Integración de PartitionKeyExtractor en el lector de re-partición
- SPARK-54907 Introducción a la regla del analizador NameStreamingSources para la evolución del origen de streaming
- SPARK-54609 Actualizar la configuración del tipo TIME para que coincida con el de OSS
- SPARK-54988 Simplificación de la implementación de ObservationManager.tryComplete
- SPARK-54959 Deshabilitar el reintento completo por discrepancia en la suma de comprobación cuando la mezcla basada en inserción está habilitada.
- SPARK-54940 Adición de pruebas para la inferencia de tipos pa.scalar
- SPARK-54634 Revertir "[SC-216478][SQL] Agregar mensaje de error claro para el predicado IN vacío"
- SPARK-54337 Adición de compatibilidad con PyCapsule a Pyspark
- SPARK-54634 Adición de un mensaje de error claro para el predicado IN vacío
- SPARK-53785 Fuente de memoria para RTM
- SPARK-54883 Limpieza de mensajes de error para la CLI y adición de un nuevo modo de error DEBUG
- SPARK-54713 Se ha agregado compatibilidad con expresiones de función de distancia y similitud de vectores
- SPARK-54962 Corrección del manejo de enteros anulables en UDF de Pandas
- SPARK-54864 Adición de nodos rCTE a NormalizePlan
- SPARK-53847 Adición de ContinuousMemorySink para pruebas en modo en tiempo real
- SPARK-54865 Adición del método foreachWithSubqueriesAndPruning a QueryPlan
- SPARK-54930 Quitar la llamada redundante _accumulatorRegistry.clear() en worker.py
- SPARK-54929 Corregir que el restablecimiento de taskContext._resources en bucle hace que solo se conserve el último recurso.
-
SPARK-54963 Asegurar que
createDataFramerespeteprefer_timestamp_ntzcuandoinfer_pandas_dict_as_map -
SPARK-54920 Mover la lógica de extracción de análisis de agrupación a un módulo común
GroupingAnalyticsExtractor - SPARK-54924 Reescritura de estado para leer el estado, transformarlo y escribir nuevo estado
- SPARK-54872 Unificar el control de valores predeterminados de columna entre los comandos v1 y v2
- SPARK-54905 Simplificación de la implementación de foreachWithSubqueries en QueryPlan
- SPARK-54682 Compatibilidad con la visualización de parámetros en DESCRIBE PROCEDURE
-
SPARK-54933 Evite obtener repetidamente la configuración
binary_as_bytesentoLocalIterator - SPARK-54872 Revertir "[SC-216260][SQL] Unificar la gestión de los valores predeterminados de columna entre los comandos v1 y v2"
- SPARK-51936 ReplaceTableAsSelect debe sobrescribir la nueva tabla en lugar de anexar
- SPARK-54771 Eliminación de la regla ResolveUserSpecifiedColumns de RuleIdCollection
- SPARK-54872 Unificar el control de valores predeterminados de columna entre los comandos v1 y v2
- SPARK-54313 Adición de la opción --extra-properties-file para la capa de configuración
- SPARK-54468 Agregar clases de error que faltan
- SPARK-46741 La tabla de caché con la CTE debe funcionar cuando la CTE esté en la subconsulta de la expresión de plan
- SPARK-46741 La tabla de caché con CTE no funcionará
- SPARK-54615 Pasar siempre runner_conf al worker de Python
- SPARK-53737 Agregar desencadenador en modo en tiempo real
- SPARK-54541 Cambiar el nombre de _LEGACY_ERROR_TEMP_1007 y agregar sqlState
- SPARK-54718 Conservar los nombres de atributos durante el newInstance() de CTE
- SPARK-54621 Combinar en conjunto de actualizaciones * conservar campos anidados si ... coerceNestedTypes está habilitado
- SPARK-54595 Mantener el comportamiento existente de MERGE INTO sin SCHEMA la cláusula EVOLUTION
- SPARK-54903 Hacer que to_arrow_schema/to_arrow_type puedan establecer la zona horaria
- SPARK-52326 Agregar particiones relacionadas con ExternalCatalogEvent y publicarlas en las operaciones correspondientes
- SPARK-54541 Revertir "[SC-215212][SQL] Cambiar el nombre de _LEGACY_ERROR_TEMP_1007 y agregar sqlState"
-
SPARK-54578 Realizar limpieza de código en
AssignmentUtils - SPARK-54830 Habilitar por defecto el reintento de barajado indeterminado basado en checksum
- SPARK-54525 Deshabilitar la coerción de estructura anidada en MERGE INTO en una configuración
- SPARK-53784 API de origen adicionales necesarias para admitir la ejecución de RTM
- SPARK-54496 Corrección de fusiones en la evolución del esquema para Dataframe API
- SPARK-54835 Evitar consultas temporales innecesarias para la ejecución de comandos anidados
- SPARK-54541 Cambiar el nombre de _LEGACY_ERROR_TEMP_1007 y agregar sqlState
- SPARK-54289 Permitir MERGE INTO conservar los campos de estructura existentes para UPDATESET * cuando la estructura de origen tiene menos campos anidados que la estructura de destino
- SPARK-54720 Agregar SparkSession.emptyDataFrame con un esquema
- SPARK-54800 Se ha cambiado la implementación predeterminada de isObjectNotFoundException
- SPARK-54686 Relajación de las comprobaciones de tabla DSv2 en vistas temporales para permitir nuevas columnas de nivel superior
- SPARK-54619 Adición de una comprobación de integridad para los números de configuración
- SPARK-54726 Mejora del rendimiento de InsertAdaptiveSparkPlan
- SPARK-51966 Reemplace select.select() por select.poll() cuando se ejecute en el sistema operativo POSIX
- SPARK-54749 Corrección de la métrica numOutputRows incorrecta en OneRowRelationExec
- SPARK-54411 Introduce un escritor de partición que admite Multi-CF
- SPARK-54835 Revertir "[SC-215823][SQL] Evitar la ejecución de consultas temporales innecesarias para la ejecución de comandos anidados"
- SPARK-54867 Introducción del envoltorio NamedStreamingRelation para la identificación del origen durante el análisis
- SPARK-54835 Evitar la ejecución innecesaria de consultas temporales para la ejecución de comandos anidados
- SPARK-54491 Arreglar el fallo de inserción en la vista temporal de la tabla DSv2.
- SPARK-54871 Eliminar alias de las expresiones de agrupación y agregado antes de gestionar el análisis de agrupación
- SPARK-51920 Corrección del control de tipos de namedTuple para transfromWithState
- SPARK-54526 Cambiar el nombre de _LEGACY_ERROR_TEMP_1133 y agregar sqlState
- SPARK-54424 Los errores durante la recacación no deben producir errores en las operaciones
-
SPARK-54894 Corregir la transmisión de argumentos en
to_arrow_type - SPARK-53448 Se produce un error en la conversión de una trama de datos pyspark con una columna Variant a pandas.
- SPARK-54882 Quitar la opción heredada PYARROW_IGNORE_TIMEZONE
- SPARK-54504 Corrección de la actualización de versiones para tablas DSv2 con subconsultas
- SPARK-544444 Relajación de las comprobaciones de tabla DSv2 para restaurar el comportamiento anterior
- SPARK-54859 Documento de referencia de la API UDF de PySpark con Arrow como predeterminado
- SPARK-54387 Revert "[ES-1688666] Revert "[SC-212394][SQL] Corrección del recaching de tablas DSv2""
- SPARK-54753 corrige la pérdida de memoria de ArtifactManager
- SPARK-54387 Revertir "[SC-212394][SQL] Corrección del recaching de tablas DSv2"
- SPARK-54436 Corrección del formato de error para comprobaciones de metadatos de tabla incompatibles
-
SPARK-54849 Actualización de la versión mínima de
pyarrowa 18.0.0 - SPARK-54022 Hacer que la resolución de tablas DSv2 sea consciente de las tablas almacenadas en caché
- SPARK-54387 Corregir el recacheo de tablas DSv2
- SPARK-53924 Recargar las tablas DSv2 en vistas que se crean mediante planes cada vez que se accede a la vista
-
SPARK-54561 Compatibilidad con puntos de interrupción() para
run-tests.py - SPARK-54157 Corrección del refresco de tablas DSv2 en Dataset
- SPARK-54830 Revertir "[CORE] Habilitar el reintento de barajado indeterminado basado en checksum de forma predeterminada"
- SPARK-54861 Restablecer el nombre del subproceso de tarea en IDLE_TASK_THREAD_NAME cuando se completa la tarea
- SPARK-54834 Agregar nuevas interfaces SimpleProcedure y SimpleFunction
- SPARK-54760 DelegatingCatalogExtension como catálogo de sesión admite tanto funciones V1 como V2
- SPARK-54685 Eliminación de respuestas redundantes de métricas observadas
-
SPARK-54853 Comprobar
hive.exec.max.dynamic.partitionssiempre en el lado de Spark - SPARK-54840 Asignación previa de OrcList
- SPARK-54830 Habilitar por defecto el reintento de barajado indeterminado basado en checksum
-
SPARK-54850 Mejora
extractShuffleIdspara buscarAdaptiveSparkPlanExecen cualquier lugar del árbol de plan - SPARK-54843 La función Try_to_number no funciona para una entrada de cadena vacía.
- SPARK-54556 Reversión de las etapas de mapa shuffle posteriores al detectar una discrepancia en la suma de comprobación de shuffle
- SPARK-54760 Restaurar "[SC-215670][SQL] DelegatingCatalogExtension como catálogo de sesión admite funciones V1 y V2".
- SPARK-54760 DelegarCatalogExtension como catálogo de sesiones admite funciones V1 y V2
- SPARK-54818 Error de asignación fallida en TaskMemoryManager debería registrar la pila de errores para ayudar a verificar el uso de memoria
-
SPARK-54827 Agregar función auxiliar
TreeNode.containsTag - SPARK-54777 Revertir "[SC-215740][SQL] Se cambió el control de errores dropTable en JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Se ha cambiado el control de errores de dropTable en JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Refactorizar la lógica de resolución
UnpivotaUnpivotTransformer -
SPARK-54820 Compatibilidad
pandas_on_spark_typecon numpy 2.4.0 -
SPARK-54799 Refactorización
UnpivotCoercion - SPARK-54754 OrcSerializer no debe analizar el esquema cada vez que se serializa
- SPARK-54226 Extender la compresión de Arrow a UDF de Pandas
- SPARK-54787 Utilizar la comprensión de listas en lugar de bucles for en pandas
-
SPARK-54690 Hacer
Frame.__repr__que no sea sensible a la optimización de flechas - SPARK-46166 Implementación de pandas.DataFrame.any con axis=None
- SPARK-54696 Limpieza de búferes de flechas: seguimiento
- SPARK-54769 Eliminación del código fallido en conversion.py
- SPARK-54787 Uso de la comprensión de listas en pandas _bool_column_labels
-
SPARK-54794 Suprimir registros de
FsHistoryProvider.checkForLogsescaneo detallados - SPARK-54745 Corrección del error de importación de PySpark causado por la falta de UnixStreamServer en Windows
- SPARK-54782 Corregir las versiones de configuración
- SPARK-54781 Devolver información de caché del modelo en formato JSON
- SPARK-54419 Lector de estado de repartición sin conexión admite familias de varias columnas
- SPARK-54722 Registrar UDF de agregado de iterador de grupo Pandas para uso en SQL
-
SPARK-54762 Revertir "[SC-215422][PYTHON] Corrección
_create_converterycovertsobrecarga de la firma" - SPARK-54652 Revertir "[SC-215452][SQL] Conversión completa de IDENTIFIER()"
-
SPARK-54762 Corregir la firma de sobrecarga de
_create_converterycovert - SPARK-52819 Hacer que KryoSerializationCodec sea serializable para corregir errores java.io.NotSerializableException en varios casos de uso
- SPARK-54711 Adición de un tiempo de espera para la conexión de trabajo creada por el demonio
- SPARK-54738 Añadir compatibilidad con Profiler para UDF de agregado iterado de grupos de Pandas
- SPARK-54652 Conversión completa de IDENTIFIER()
- SPARK-54581 Hacer que la opción fetchsize no distingue mayúsculas de minúsculas para el conector de Postgres
- SPARK-54589 Consolidar ArrowStreamAggPandasIterUDFSerializer en ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Distribuidor de torch: admite varios procesos de torchrun por tarea si task.gpu.amount > 1
-
SPARK-54707 Refactorización de
PIVOTla lógica principal de resolución enPivotTransformer - SPARK-54706 Hacer que DistributedLDAModel funcione con el sistema de archivos local
- SPARK-53616 Introducción de la API de iterador para UDF de agregación agrupada en pandas
- SPARK-54116 Agregar compatibilidad con el modo fuera de pila para LongHashedRelation
- SPARK-54656 Refactorizar SupportsPushDownVariants para que sea un mix-in de ScanBuilder
- SPARK-54687 Agregar un archivo dorado con los casos perimetrales de resolución de generadores
- SPARK-54708 Optimización de la limpieza de caché de ML con creación diferida de directorios
- SPARK-54116 Revertir "[SC-213108][SQL] Agregar compatibilidad con el modo fuera del montón para LongHashedRelation"
- SPARK-54116 Agregar soporte para el modo de memoria fuera del heap para LongHashedRelation
- SPARK-54443 Extracción de claves de partición para todos los operadores con estado de streaming
- SPARK-54687 Revertir "[SC-214791][SQL] Agregar un archivo dorado con los casos perimetrales de resolución de generadores"
- Revertir SPARK-54116 "[SC-213108][SQL] Agregar compatibilidad con el modo fuera de la pila para LongHashedRelation"
- SPARK-54687 Agregar un archivo de referencia con los casos extremos de resolución de generadores
- SPARK-54116 Agregar compatibilidad con el modo de memoria fuera del heap para LongHashedRelation
- SPARK-54420 Introducción a la repartición en modo offline StatePartitionWriter para una sola familia de columnas
-
SPARK-54689 Haz
org.apache.spark.sql.pipelinesel paquete interno y hazEstimatorUtilsprivado - SPARK-54673 Refactorización del código de análisis de sintaxis de canalización de SQL para compartir y reutilizar
- SPARK-54668 Adición de pruebas para CTEs en operadores con múltiples hijos
- SPARK-54669 Eliminar la conversión redundante en rCTEs
- SPARK-54587 Consolidar todo el código relacionado con runner_conf
- SPARK-54628 Quitar todos los argumentos super() explícitos innecesarios
- SPARK-54675 Añadir tiempo de espera de apagado forzado configurable para el grupo de subprocesos de mantenimiento de StateStore
- SPARK-54639 Evitar la creación innecesaria de tablas en serializadores de flechas
- SPARK-49635 Eliminación de la sugerencia de configuración ANSI en los mensajes de error CAST
-
SPARK-54664 Limpieza del código relacionado con
listenerCachedesdeconnect.StreamingQueryManager - SPARK-54640 Reemplace select.select por select.poll en UNIX
-
SPARK-54662 Agregar
viztracerydebugpyendev/requirements.txt - SPARK-54632 Agregar la opción para usar ruff para lint
- SPARK-54585 Corregir el rollback del almacén de estado cuando el subproceso está en estado interrumpido
- SPARK-54172 La fusión en la evolución del esquema solo debe añadir las columnas referenciadas
- SPARK-54438 Consolidar ArrowStreamAggArrowIterUDFSerializer en ArrowStreamAggArrowUDFSerializer
- SPARK-54627 Eliminación de inicializaciones redundantes en serializadores
- SPARK-54631 Añadir soporte para el generador de perfiles para la UDF de agregado de iteración agrupada de Arrow
-
SPARK-54316 Volver a aplicar [SC-213971][CORE][PYTHON][SQL] Consolidar
GroupPandasIterUDFSerializerconGroupPandasUDFSerializer - SPARK-54392 Optimización de la comunicación JVM-Python para el estado inicial de TWS
- SPARK-54617 Habilitar el registro de UDF de agregación agrupada de iteración para SQL
- SPARK-54544 Habilitar la comprobación de flake8 F811
-
SPARK-54650 Mover la conversión de int a decimal en
_create_converter_from_pandas -
SPARK-54316 Revertir "[SC-213971][CORE][PYTHON][SQL] Consolidar
GroupPandasIterUDFSerializerconGroupPandasUDFSerializer" - SPARK-53687 Introducir WATERMARK cláusula en la instrucción SQL
-
SPARK-54316 Consolidar
GroupPandasIterUDFSerializerconGroupPandasUDFSerializer - SPARK-54598 Extracción de lógica para leer UDF
-
SPARK-54622 Promover
RequiresDistributionAndOrderingy sus interfaces necesarias aEvolving - SPARK-54624 Asegúrese de que el nombre de usuario de la página del historial obtenga escape
- SPARK-54580 Considerar Hive 4.1 en HiveVersionSuite y HiveClientImpl
-
SPARK-54068 Corrección
to_featherpara admitir PyArrow 22.0.0 -
SPARK-54618 Promover
LocalScanaStable -
SPARK-54616 Marcar
SupportsPushDownVariantscomoExperimental -
SPARK-54607 Quitar el método
toStringHelperno utilizado deAbstractFetchShuffleBlocks.java - SPARK-53615 Introducir la API de iterador para la UDF de agregación agrupada de Arrow
- SPARK-54608 Evitar el almacenamiento en caché doble del convertidor de tipos en UDTF
-
SPARK-54600 No utilizar pickle para guardar y cargar modelos en
pyspark.ml.connect -
SPARK-54592 Hacer
estimatedSizeprivado - SPARK-54388 Introducir StatePartitionReader que escanea bytes sin procesar para Single ColFamily
- SPARK-54570 Propagar la clase de error correctamente en Spark Connect
- SPARK-54577 Optimización de llamadas py4J en la inferencia de esquema
- SPARK-54568 Evitar la conversión innecesaria de Pandas en la creación de DataFrame desde ndarray
- SPARK-54576 Adición de documentación para nuevas funciones de agregado basadas en Datasketches
- SPARK-54574 Volver a habilitar FPGrowth en la conexión
- SPARK-54557 Hacer que CSV/JSON/XmlOptions y CSV/JSON/XmlInferSchema sean comparables
- SPARK-52798 Añadir la función approx_top_k_combine
- SPARK-54446 FPGrowth admite el sistema de archivos local con el formato de archivo Arrow
-
SPARK-54547 Cambiar el nombre
hostPortde la variable ahostenTaskSchedulerImpl.(executorLost|logExecutorLoss)los métodos - SPARK-54558 Corrección de la excepción interna cuando se usan controladores de excepciones sin BEGIN/END
- SPARK-52923 Permitir que ShuffleManager controle la combinación de inserción durante el registro aleatorio
- SPARK-54474 Descartar el informe XML en las pruebas que se supone que deben fallar
- SPARK-54473 Adición de compatibilidad de lectura y escritura de Avro para el tipo TIME
- SPARK-54472 Agregar compatibilidad de lectura y escritura ORC para el tipo TIME
- SPARK-54463 Adición de compatibilidad con la serialización y deserialización de CSV para el tipo TIME
- SPARK-52588 Approx_top_k: acumulación y estimación
- SPARK-54461 Agregar soporte para la serialización y deserialización XML para el tipo TIME
- SPARK-54451 Adición de compatibilidad con la serialización y deserialización de JSON para el tipo TIME
- SPARK-54537 Corrección de SparkConnectDatabaseMetaData getSchemas/getTables en catálogos a los que les falta la capacidad del namespace
- SPARK-54442 Adición de funciones de conversión numéricas para el tipo TIME
- SPARK-54451 Revertir "[SC-212861][SQL] Agregar soporte para la serialización y deserialización de JSON para el tipo TIME"
- SPARK-54492 Cambiar el nombre de _LEGACY_ERROR_TEMP_1201 y agregar sqlState
- SPARK-54531 Presentación de ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Adición de métricas de datos y contexto de tareas a los registros del ejecutor de Python
- SPARK-54272 Agregar aggTime para SortAggregateExec
- SPARK-53469 Capacidad de limpiar la mezcla de datos en el servidor Thrift
-
SPARK-54219 Configuración de compatibilidad
spark.cleaner.referenceTracking.blocking.timeout - SPARK-54475 Agregar: master-server, branch-4.0-client, Python 3.11
- SPARK-54451 Adición de compatibilidad con la serialización y deserialización de JSON para el tipo TIME
- SPARK-54285 Caché de información de zona horaria para evitar una conversión costosa de marca de tiempo
-
SPARK-49133 Hacer que el miembro
MemoryConsumer#usedsea atómico para evitar que el código de usuario cause un interbloqueo - SPARK-46166 Implementación de pandas.DataFrame.any con axis=1
- SPARK-54532 Adición de compatibilidad con sqlstate para PySparkException
- Spark-54435 spark-pipelines init debe evitar sobrescribir el directorio existente
- SPARK-54247 Cerrar explícitamente el socket para util._load_from_socket
Compatibilidad con el controlador ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Entorno del sistema
- Sistema operativo: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.0.1
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| documento anotado | 0.0.4 | tipos anotados | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| flecha | 1.3.0 | "asttokens" | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | atributos | 24.3.0 | comando automático | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob | 12.28.0 |
| Servicio de Azure Storage File Data Lake | 12.22.0 | babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | negro | 24.10.0 | blanquear | 6.2.0 |
| intermitente | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| cachetools | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | charset-normalizer | 3.3.2 | Haz clic | 8.1.8 |
| cloudpickle | 3.0.0 | Comunicación | 0.2.1 | contourpy | 1.3.1 |
| criptografía | 44.0.1 | ciclista | 0.11.0 | Cython | 3.1.5 |
| databricks-agents | 1.9.1 | SDK de Databricks | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorator | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | Conversión de docstring a markdown | 0.11 | executing | 1.2.0 |
| visión general de las facetas | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| bloqueo de archivos | 3.17.0 | fonttools | 4.55.3 | fqdn | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth | 2.47.0 |
| google-cloud-core | 2.5.0 | Google Cloud Storage (almacenamiento en la nube de Google) | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media (medios reanudables de Google) | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | idna | 3.7 | importlib_metadata | 8.5.0 |
| inflect | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduration | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | jupyter_events | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | jupyter_server_terminals | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server (servidor de JupyterLab) | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | malvavisco | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| Multidic | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | notebook | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| convenciones-semánticas-de-opentelemetry | 0.60b1 | orjson | 3.11.5 | Reemplaza | 7.4.0 |
| empaquetado | 24,2 | Pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | chivo expiatorio | 1.0.1 |
| pexpect | 4.8.0 | almohada | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| piroaring | 1.0.3 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-servidor | 1.12.2 | configuración de herramienta Python | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | referencing | 0.30.2 |
| regex | 2024.11.6 | solicitudes | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rico | 13.9.4 |
| cuerda | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | scipy | 1.15.3 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 78.1.1 |
| Shellingham | 1.5.4 | seis | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | sortedcontainers | 2.4.0 | soupsieve | 2,5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | stack-data | 0.6.3 |
| Starlette | 0.50.0 | strictyaml | 1.7.3 | tenacidad | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokenizers | 0.22.2 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | inspección de escritura | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | unattended-upgrades | 0,1 |
| uri-template | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 25.10.0 | codificaciones web | 0.5.1 |
| cliente de websocket | 1.8.0 | ¿Qué es el parche? | 1.0.2 | rueda | 0.45.1 |
| cuando quiera | 0.7.3 | widgetsnbextension | 3.6.6 | envuelto | 1.17.0 |
| yapf | 0.40.2 | yarl | 1.18.0 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de Paquetes de Posit del 2025-11-20.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 22.0.0 | askpass | 1.2.1 | asegúrate de que | 0.2.1 |
| backports | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | mancha | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | escoba | 1.0.10 |
| bslib | 0.9.0 | cachemir | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 | chron | 2.3-62 |
| clase | 7.3-22 | Interfaz de línea de comandos (CLI) | 3.6.5 | clipr | 0.8.0 |
| reloj | 0.7.3 | conglomerado | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | compilador | 4.5.1 | config | 0.3.2 |
| Confuso | 1.2.0 | cpp11 | 0.5.2 | crayón | 1.5.3 |
| credentials | 2.0.3 | curl | 7.0.0 | tabla de datos | 1.17.8 |
| Conjuntos de datos | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| descripción | 1.4.3 | devtools | 2.4.6 | diagrama | 1.6.5 |
| diffobj | 0.3.6 | digerir | 0.6.39 | downlit | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| elipsis | 0.3.2 | evaluar | 1.0.5 | fans | 1.0.7 |
| colores | 2.1.2 | fastmap | 1.2.0 | fontawesome | 0.5.3 |
| forcats | 1.0.1 | foreach | 1.5.2 | extranjero | 0,8-86 |
| fs | 1.6.6 | futuro | 1.68.0 | aplicación futura | 1.20.0 |
| gargle | 1.6.0 | genéricos | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globals | 0.18.0 |
| pegamento | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| gower | 1.0.2 | gráficos | 4.5.1 | grDevices | 4.5.1 |
| grid | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | hardhat | 1.4.2 |
| refugio | 2.5.5 | más alto | 0.11 | hms | 1.1.4 |
| herramientas de HTML | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | ids | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | isoband | 0.2.7 |
| Iteradores | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr (paquete de generación de informes dinámicos en R) | 1.50 |
| etiquetado | 0.4.3 | más tarde | 1.4.4 | retícula | 0.22-5 |
| lava | 1.8.2 | ciclo de vida | 1.0.4 | listenv | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Formato Markdown | 2.0 | MASA | 7.3-60.0.1 | Matrix | 1.6-5 |
| memorización | 2.0.1 | métodos | 4.5.1 | mgcv | 1.9-1 |
| mime | 0,13 | miniUI (Interfaz de Usuario) | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.3.4 |
| otel | 0.2.0 | paralelo | 4.5.1 | Paralelamente | 1.45.1 |
| pilar | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | elogio | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | progreso | 1.2.3 | progressr | 0.18.0 |
| promesas | 1.5.0 | prototipo | 1.0.0 | intermediario | 0.4-27 |
| ps | 1.9.1 | ronroneo | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | Bosque Aleatorio (randomForest) | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | r-reactable | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | readxl | 1.4.5 | recetas | 1.3.1 |
| partido de revancha | 2.0.0 | segunda revancha | 2.1.2 | remotes | 2.5.0 |
| ejemplo reproducible | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | sass | 0.4.10 |
| balanzas | 1.4.0 | selectr | 0.4-2 | información de sesión | 1.2.3 |
| forma | 1.4.6.1 | brillante | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| spatial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Estadísticas | 4.5.1 | estadísticas4 | 4.5.1 |
| stringi | 1.8.7 | stringr | 1.6.0 | supervivencia | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | Formateo de texto | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | cambio de hora | 0.3.0 | timeDate | 4051.111 |
| tinytex | 0.58 | herramientas | 4.5.1 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usa esto | 3.2.1 | utf8 | 1.2.6 |
| utils | 4.5.1 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.6 |
| Waldo | 0.6.2 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| archivo comprimido | 2.3.3 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.15.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.681 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | flujo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1. nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1. nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1. nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1. nativos |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | anotaciones de valor automático | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | failureaccess | 1.0.3 |
| com.google.guava | guayaba | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | código fuente_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.4 |
| dev.ludovic.netlib | blas | 3.0.4 |
| dev.ludovic.netlib | lapack | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | metrics-annotation | 4.2.37 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrics-jmx | 4.2.37 |
| io.dropwizard.metrics | metrics-json | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | metrics-servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | serialización de códecs de netty | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver (resolución de netty) | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | cliente_simple_común | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | coleccionista | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.10.11 |
| org.apache.arrow | compresión de flecha | 18.3.0 |
| org.apache.arrow | arrow-format | 18.3.0 |
| org.apache.arrow | núcleo de memoria de flecha | 18.3.0 |
| org.apache.arrow | arrow-memory-netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | arrow-vector | 18.3.0 |
| org.apache.avro | avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.14.0 |
| org.apache.curator | curador-cliente | 5.9.0 |
| org.apache.curator | marco de trabajo para curadores | 5.9.0 |
| org.apache.curator | recetas del curador | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | calzos de orco | 2.2.0 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | Anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.9.4 |
| org.apache.zookeeper | Zookeeper-Jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Cliente Jetty-ALPN | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | jetty-plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | Seguridad de Jetty | 10.0.26 |
| org.eclipse.jetty | servidor Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | Aplicación web de Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | validador de hibernación | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |