Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o histórico de fim de suporte e fim de vida. Para todas as versões suportadas do Databricks Runtime, consulte Notas de lançamento e compatibilidade de versões do Databricks Runtime.
As notas de lançamento a seguir fornecem informações sobre o Databricks Runtime 11.1, impulsionado pela Apache Spark 3.3.0. O Databricks lançou essa versão em julho de 2022.
Novos recursos e aprimoramentos
- Photon é GA
- Photon: Tipos de instância com suporte
- Feed de dados de alterações agora pode lidar automaticamente com timestamps fora do intervalo
- As funções SQL descrevem e mostram agora os nomes do Unity Catalog na sua saída (Prévia Pública)
- Inferência e evolução de esquema para arquivos Parquet no Auto Loader (versão prévia pública)
- Auto Loader agora suporta evolução de esquema para Avro (GA)
- Suporte do Delta Lake para sobrescrições de partição dinâmica
- Suporte ao esquema de informações para objetos criados no catálogo do Unity
- Restrições informativas em tabelas do Delta Lake com Unity Catalog (Prévia Pública)
- O Unity Catalog agora está disponível ao público
- O Compartilhamento Delta está em Disponibilidade Geral
Photon está em Disponibilidade Geral
O Photon agora está disponível em geral, começando com o Databricks Runtime 11.1. O Photon é o mecanismo de consulta vetorizado nativo no Azure Databricks, escrito para ser diretamente compatível com APIs do Apache Spark, de modo que funcione com o seu código já existente. Photon foi desenvolvido em C++ a fim de aproveitar o hardware moderno e utiliza as técnicas mais recentes de processamento de consultas vetorizadas para tirar proveito do paralelismo de dados e de nível de instrução em CPUs, aprimorando o desempenho em dados e aplicativos do mundo real, tudo de forma nativa no seu data lake.
O Photon integra um runtime de alto desempenho que executa suas atuais chamadas de SQL e de DataFrame API mais rapidamente e reduz o custo total por carga de trabalho. O Photon é usado por padrão em SQL warehouses do Databricks.
Novos recursos e aprimoramentos:
- Novo operador de classificação vetorizada
- Novas funções de janela vetorizadas
- Novos tipos e tamanhos de instância em todas as nuvens
Limitações:
- Não há suporte para UDFs do Scala/Python pelo Photon
- O RDD não tem suporte do Photon
- O Streaming Estruturado não tem suporte do Photon
Para obter mais informações, consulte os seguintes comunicados do Photon.
Photon: Novo operador de ordenação vetorizada
O photon agora dá suporte a uma classificação vetorizada para quando uma consulta contém SORT_BY, CLUSTER_BYou uma função de janela com um ORDER BY.
Limitações: o Photon não dá suporte a uma cláusula global ORDER BY. Classificações para avaliação de janela serão processadas por fotonização, mas a classificação global continuará sendo executada no Spark.
Photon: novas funções de janela vetorizadas
O Photon agora dá suporte à avaliação de função de janela vetorizada para muitos tipos de quadros e funções. As novas funções de janela incluem: row_number, rank, dense_rank, lag, lead, percent_rank, ntile e nth_value. Tipos de quadro de janela com suporte: executando (UNBOUNDED PRECEDING AND CURRENT ROW), ilimitado (UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING), crescente (UNBOUNDED PRECEDING AND <OFFSET> FOLLOWING) e decrescente (<OFFSET> PRECEDING AND UNBOUNDED FOLLOWING).
Limitações:
- O Photon dá suporte apenas a versões
ROWSde todos os tipos de quadro. - O photon ainda não dá suporte ao tipo de quadro deslizante (
<OFFSET> PRECEDING AND <OFFSET> FOLLOWING).
Photon: Tipos de instância com suporte
- dds_v5
- ds_v5
- eas_v4
- eds_v4
- eds_v5
- es_v5
- las_v3
- ls_v3
Feed de dados de alteração agora pode lidar automaticamente com timestamps fora do intervalo.
O CDF (feed de dados de alteração) agora tem um novo modo para você fornecer carimbos de data/hora ou versões após a versão de uma confirmação mais recente sem gerar erros. Esse modo está desabilitado por padrão. Você pode habilitá-lo definindo a configuração spark.databricks.delta.changeDataFeed.timestampOutOfRange.enabled como true.
As funções SQL de descrever e mostrar agora exibem os nomes do Catálogo do Unity em sua saída (Prévia Pública)
Os comandos DESC TABLE, DESC DATABASE, DESC SCHEMA, DESC NAMESPACE, DESC FUNCTION, EXPLAIN e SHOW CREATE TABLE agora sempre mostram o nome do catálogo em sua saída.
Inferência e evolução de esquema para arquivos Parquet no Carregador Automático (versão prévia pública)
O Auto Loader agora oferece suporte à inferência e evolução de esquemas para arquivos Parquet. Assim como os formatos JSON, CSV e Avro, agora você pode usar a coluna de dados resgatada para resgatar dados inesperados que podem aparecer em seus arquivos Parquet. Isso inclui dados que não podem ser analisados no tipo de dados esperado, colunas que têm uma caixa diferente ou colunas adicionais que não fazem parte do esquema esperado. Você pode configurar o Carregador Automático para evoluir o esquema automaticamente ao encontrar a adição de novas colunas nos dados de entrada. Confira Configurar a inferência e a evolução de esquema no Auto Loader.
O Auto Loader agora dá suporte à evolução do esquema para Avro (GA)
Confira Configurar a inferência e a evolução de esquema no Auto Loader.
Suporte do Delta Lake para substituições de partição dinâmica
O Delta Lake agora permite que o modo dinâmico de sobrescrição de partição sobrescreva todos os dados existentes em cada partição lógica onde a gravação comprometerá novos dados. Confira Sobrescrever dados seletivamente com o Delta Lake.
Suporte ao esquema de informações para objetos criados no catálogo do Unity
O esquema de informações fornece uma API autodescritiva baseada em SQL para os metadados de vários objetos de banco de dados, incluindo tabelas e exibições, restrições e rotinas.
Dentro do esquema de informações, você encontra um conjunto de visões que descrevem os objetos conhecidos pelo catálogo do esquema que você tem o privilégio de ver.
O esquema de informações do catálogo SYSTEM retorna informações sobre objetos em todos os catálogos no metastore.
Consulte Esquema de informações.
Restrições informativas em tabelas do Delta Lake com Unity Catalog (Visualização Pública)
Agora, você pode definir restrições de chave primária e chave estrangeira informativas nas tabelas do Delta Lake com o catálogo do Unity. Restrições informativas não são aplicadas. Consulte a cláusula CONSTRAINT.
O Catálogo do Unity está agora disponível para uso geral
O Catálogo do Unity agora está em disponibilidade geral, começando com o Databricks Runtime 11.1. Veja O que é o Catálogo do Unity?.
O Compartilhamento Delta está em Disponibilidade Geral
O Compartilhamento Delta agora está em disponibilidade geral, começando com o Databricks Runtime 11.1.
O Compartilhamento Delta de Databricks para Databricks é totalmente gerenciado sem a necessidade de trocar tokens. Você pode criar e gerenciar provedores, destinatários e compartilhamentos na interface do usuário ou com APIs REST e SQL.
Alguns recursos incluem restringir o acesso do destinatário, consultar dados com listas de acesso IP e restrições de região e delegar o gerenciamento de compartilhamento Delta a não administradores. Você também pode consultar alterações nos dados ou compartilhar versões incrementais com os Feeds de dados de alterações. Confira O que é o Compartilhamento Delta?.
Alterações de comportamento
Rasura de propriedades confidenciais para DESCRIBE TABLE e SHOW TABLE PROPERTIES
As propriedades confidenciais são ocultadas em DataFrames e na saída dos comandos DESCRIBE TABLE e SHOW TABLE PROPERTIES.
Os clusters de trabalho assumem como padrão o modo de acesso de usuário único com o Databricks Runtime 11.1 e superior
Para poderem ser usados com o Catálogo do Unity, os clusters de trabalho usando o Databricks Runtime 11.1 e superior criados por meio da interface do usuário de trabalhos ou da API de trabalhos usarão como padrão o modo de acesso de usuário único. O modo de acesso de usuário único é compatível com a maioria das linguagens de programação, recursos de cluster e recursos de governança de dados. Você ainda pode configurar o modo de acesso padrão (antigo modo de acesso compartilhado) por meio da interface do usuário ou da API, mas os idiomas ou recursos podem ser limitados.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- filelock de 3.6.0 para 3.7.1
- plotly de 5.6.0 a 5.8.2
- protobuf de 3.20.1 a 4.21.2
- Bibliotecas do R atualizadas:
- chron de 2.3-56 a 2.3-57
- DBI de 1.1.2 a 1.1.3
- dbplyr de 2.1.1 a 2.2.0
- e1071 de 1.7-9 a 1.7-11
- Atualização de futuro da versão 1.25.0 para 1.26.1
- globals de 0.14.0 a 0.15.1
- atualização do hardhat de 0.2.0 para 1.1.0
- ipred de 0.9-12 a 0.9-13
- OpenSSL versão de 2.0.0 a 2.0.2
- em paralelo de 1.31.1 a 1.32.0
- processx de 3.5.3 a 3.6.1
- progressr de 0.10.0 para 0.10.1
- proxy de 0.4-26 a 0.4-27
- ps de 1.7.0 para 1.7.1
- randomForest de 4.7-1 para 4.7-1.1
- roxygen2 de 7.1.2 a 7.2.0
- Rserve da versão 1.8-10 para a 1.8-11
- RSQLite de 2.2.13 a 2.2.14
- sparklyr de 1.7.5 a 1.7.7
- tinytex de 0.38 a 0.40
- usethis de 2.1.5 a 2.1.6
- xfun de 0.30 a 0.31
- Bibliotecas do Java atualizadas:
- io.delta.delta-sharing-spark_2.12 de 0.4.0 a 0.5.0
Apache Spark
O Databricks Runtime 11.2 inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 11.1 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-40054] [SQL] Restaure a sintaxe de tratamento de erro de try_cast()
- [SPARK-39489] [CORE] Melhore o desempenho do registro em log de eventos JsonProtocol usando Jackson em vez de Json4s
-
[SPARK-39319] [CORE][sql] Fazer contextos de consulta como parte de
SparkThrowable - [SPARK-40085] [SQL] Use a classe de erro INTERNAL_ERROR em vez de IllegalStateException para indicar bugs
- [SPARK-40001] [SQL] Fazer com que gravações NULL em colunas DEFAULT JSON gravem 'null' no armazenamento
- [SPARK-39635] [SQL] Suporte a métricas do driver na API de métrica personalizada DS v2
- [SPARK-39184] [SQL] Lidar com matriz de resultados de tamanho inferior em sequências de data e timestamp
-
[SPARK-40019] [SQL] Refatorar o comentário do containsNull do ArrayType e refatorar as lógicas equivocadas na expressão do collectionOperator sobre
containsNull. - [SPARK-39989] [SQL] Suporte a estatísticas de coluna estimadas se for uma expressão dobrável
- [SPARK-39926] [SQL] Corrigir bug no suporte DEFAULT da coluna para varreduras Parquet não vetorizadas
- [SPARK-40052] [SQL] Manipule buffers de bytes diretos em VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Corrigir o tipo de intervalo alvo em casos de erro de estouro de conversão.
- [SPARK-39835] [SQL] Corrija a remoção de classificação global pelo EliminateSorts abaixo da classificação local
- [SPARK-40002] [SQL] Não efetue push do limite pela janela usando o ntile
- [SPARK-39976] [SQL] ArrayIntersect deve lidar corretamente com null na expressão à esquerda
- [SPARK-39985] [SQL] Permitir valores padrão implícitos de coluna em inserções a partir de DataFrames
- [SPARK-39776] [SQL] A cadeia de caracteres detalhada JOIN deve adicionar o tipo de junção
- [SPARK-38901] [SQL] O DS V2 dá suporte à propagação de funções diversas
- [SPARK-40028] [SQL][acompanhamento] Melhorar exemplos de funções de cadeia de caracteres
- [SPARK-39983] [CORE][sql] Não armazenar em cache relações de transmissão não credenciadas no driver
-
[SPARK-39812] [SQL] Simplifique o código que constrói
AggregateExpressioncomtoAggregateExpression - [SPARK-40028] [SQL] Adicione exemplos binários para expressões de cadeia de caracteres
- [SPARK-39981] [SQL] Lançar a exceção QueryExecutionErrors.castingCauseOverflowErrorInTableInsert na operação de conversão
- [SPARK-40007] [PYTHON][sql] Adicionar 'modo' às funções
- [SPARK-40008] [SQL] Suporte à conversão de integrais para intervalos ANSI
- [SPARK-40003] [PYTHON][sql] Adicionar 'mediana' às funções
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand deve armazenar novamente em cache a relação de resultado
- [SPARK-39951] [SQL] Atualizar a verificação de coluna do Parquet V2 para campos aninhados
- [SPARK-39775] [CORE][avro] Desabilitar valores padrão de validação ao analisar esquemas do Avro
- [SPARK-33236] [shuffle] Retrofiting para Databricks Runtime 11.x: Habilitar o serviço de shuffle baseado em push para armazenar o estado no banco de dados de nível NM para reinício com preservação de trabalho
- [SPARK-39836] [SQL] Simplifique V2ExpressionBuilder extraindo o método comum.
- [SPARK-39867] [SQL] O limite global não deve herdar OrderPreservingUnaryNode
-
[SPARK-39873] [SQL] Remova
OptimizeLimitZeroe mescle emEliminateLimits - [SPARK-39961] [SQL] Traduza a propagação de DS V2 Converter se a conversão for segura
-
[SPARK-39872] [SQL] Alterar para usar
BytePackerForLong#unpack8Valuescom a API de entrada de array emVectorizedDeltaBinaryPackedReader -
[SPARK-39858] [SQL] Remova
AliasHelperouPredicateHelperdesnecessários para algumas regras - [SPARK-39962] [WARMFIX][es-393486][PYTHON][sql] Aplicar projeção quando os atributos de grupo estiverem vazios
- [SPARK-39900] [SQL] Abordar condições parciais ou negadas no pushdown de predicado do formato binário
- [SPARK-39904] [SQL] Renomeie inferDate para prefersDate e esclareça a semântica da opção na fonte de dados CSV
- [SPARK-39958] [SQL] Adicione log de aviso quando não for possível carregar o objeto de métrica personalizado
- [SPARK-39936] [SQL] Armazene esquema em propriedades para exibições do Spark
- [SPARK-39932] [SQL] WindowExec deve limpar o buffer de partição final
- [SPARK-37194] [SQL] Evite classificação desnecessária na gravação v1 se não for partição dinâmica
- [SPARK-39902] [SQL] Adicione detalhes de verificação ao nó de verificação do plano Spark no SparkUI
- [SPARK-39865] [SQL] Exibir mensagens de erro adequadas nos erros de overflow da inserção de tabela
- [SPARK-39940] [SS] Atualize tabela de catálogo na consulta de streaming com o coletor DSv1
-
[SPARK-39827] [SQL] Use a classe de erro
ARITHMETIC_OVERFLOWno estouro int emadd_months() - [SPARK-39914] [SQL] Adicione filtro DS V2 à conversão de filtro V1
- [SPARK-39857] [SQL] Backport manual do Databricks Runtime 11.x; V2ExpressionBuilder usa o tipo de dados LiteralValue incorreto para o predicado In #43454
- [SPARK-39840] [SQL][python] Refatorar PythonArrowInput em relação a PythonArrowOutput para simetria
- [SPARK-39651] [SQL] Remova a condição de filtro se a comparação com rand for determinística
- [SPARK-39877] [PYTHON] Adicionar unpivot à API de DataFrame do PySpark
- [SPARK-39847] [WARMFIX][ss] Corrigir condição de disputa em RocksDBLoader.loadLibrary() caso o thread que fez a chamada seja interrompido
- [SPARK-39909] [SQL] Organizar a verificação das informações de push-down para JDBCV2Suite
- [SPARK-39834] [SQL][ss] Inclua as estatísticas de origem e restrições para LogicalRDD se ele vier do DataFrame
- [SPARK-39849] [SQL] Dataset.as(StructType) preenche novas colunas ausentes com valor nulo
- [SPARK-39860] [SQL] Mais expressões devem estender o Predicado
- [SPARK-39823] [SQL][python] Renomeie Dataset.as como Dataset.to e adicione DataFrame.to no PySpark
- [SPARK-39918] [SQL][minor] Substitua a redação "não comparável" por "incomparável" na mensagem de erro
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder usa o tipo de dados LiteralValue incorreto para o predicado In
- [SPARK-39862] [SQL] Backport manual para PR 43654 visando o Databricks Runtime 11.x: Atualizar SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS para autorização/negação ALTER TABLE ... Adicione comandos COLUMN separadamente.
- [SPARK-39844] [SQL] Backport manual para PR 43652 visando o Databricks Runtime 11.x
-
[SPARK-39899] [SQL] Corrija passagem de parâmetros de mensagem para
InvalidUDFClassException - [SPARK-39890] [SQL] Fazer com que TakeOrderedAndProjectExec herde AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Adicionar suporte ao CharType no PySpark
- [SPARK-38864] [SQL] Adicione unpivot/melt ao Conjunto de dados
- [SPARK-39864] [SQL] Registre preguiçosamente ExecutionListenerBus
- [SPARK-39808] [SQL] Suporte à função de agregação MODE
- [SPARK-39839] [SQL] Tratar o caso especial de decimal de comprimento variável nulo com offsetAndSize diferente de zero na verificação de integridade estrutural de UnsafeRow
-
[SPARK-39875] [SQL] Altere método
protectedna classe final paraprivateoupackage-visible - [SPARK-39731][SQL] Corrija problemas em fontes de dados CSV e JSON ao analisar datas no formato "yyyyMMdd" com política de analisador de tempo CORRIGIDA
- [SPARK-39805] [SS] Descontinuar "Trigger.Once" e tornar "Trigger.AvailableNow"
- [SPARK-39784] [SQL] Coloque valores literais no lado direito do filtro da fonte de dados depois de traduzir a Expressão Catalyst para o filtro da fonte de dados
- [SPARK-39672] [SQL][3.1] Corrija a remoção do projeto antes do filtro com subconsulta correlacionada
-
[SPARK-39552] [SQL] Unificar v1 e v2
DESCRIBE TABLE -
[SPARK-39806] [SQL] O acesso
_metadatana tabela particionada pode travar uma consulta - [SPARK-39810] [SQL] Catalog.tableExists deve lidar com namespace aninhado
- [SPARK-37287] [SQL] Retire partição dinâmica e classificação de bucket do FileFormatWriter
- [SPARK-39469] [SQL] Infira o tipo de data para inferência de esquema CSV
- [SPARK-39148] [SQL] O push down de agregação do DS V2 pode funcionar com o OFFSET ou o LIMIT
- [SPARK-39818] [SQL] Corrigir bug nos tipos ARRAY, STRUCT e MAP com valores padrão e campos NULL
- [SPARK-39792] [SQL] Adicione DecimalDivideWithOverflowCheck para a média decimal
-
[SPARK-39798] [SQL] Substitua
toSeq.toArraypor.toArray[Any]no construtor deGenericArrayData - [SPARK-39759] [SQL] Implementar listIndexes no JDBC (dialeto H2)
-
[SPARK-39385] [SQL] Dá suporte ao push down
REGR_AVGXeREGR_AVGY - [SPARK-39787] [SQL] Use a classe de erro no erro de análise da função to_timestamp
- [SPARK-39760] [PYTHON] Suporte Varchar no PySpark
- [SPARK-39557] [SQL] Backport manual para Databricks Runtime 11.x: Suporte a ARRAY, STRUCT, tipos MAP como valores PADRÃO
- [SPARK-39758] [SQL][3.3] Corrige NPE das funções regexp em padrões inválidos
- [SPARK-39749] [SQL] Modo ANSI SQL: use representação de texto simples ao converter decimal para texto
- [SPARK-39704] [SQL] Implementar createIndex, dropIndex e indexExists no JDBC (dialeto H2)
-
[SPARK-39803][SQL] Usar
LevenshteinDistanceem vez deStringUtils.getLevenshteinDistance - [SPARK-39339] [SQL] Dar suporte ao tipo TimestampNTZ na fonte de dados JDBC
- [SPARK-39781] [SS] Adicionar suporte para fornecer max_open_files ao provedor de repositório de estado rocksdb
- [SPARK-39719] [R] Implementar databaseExists/getDatabase no namespace 3L de suporte do SparkR
- [SPARK-39751] [SQL] Renomear a métrica de sondagem da chave de agregação de hash
- [SPARK-39772] [SQL] O namespace deve ser nulo quando o banco de dados for nulo nos construtores antigos
- [SPARK-39625] [SPARK-38904][sql] Adicionar Dataset.as(StructType)
- [SPARK-39384] [SQL] Compile funções de agregação de regressão linear embutidas para o dialeto JDBC
- [SPARK-39720] [R] Implemente tableExists/getTable no SparkR para namespace 3L
-
[SPARK-39744] [SQL] Adicione a função
REGEXP_INSTR - [SPARK-39716] [R] Fazer com que currentDatabase/setCurrentDatabase/listCatalogs no SparkR suportem o namespace 3L
-
[SPARK-39788] [SQL] Renomeie
catalogNamecomodialectNameparaJdbcUtils - [SPARK-39647] [CORE] Registre o executor no ESS antes de registrar o BlockManager
-
[SPARK-39754] [CORE][sql] Remover não utilizado
importou desnecessário{} -
[SPARK-39706] [SQL] Defina coluna ausente com defaultValue como constante em
ParquetColumnVector - [SPARK-39699] [SQL] Torne CollapseProject mais inteligente sobre expressões de criação de coleção
-
[SPARK-39737] [SQL]
PERCENTILE_CONTePERCENTILE_DISCdevem dar suporte ao filtro de agregação - [SPARK-39579] [SQL][python][R] Tornar ListFunctions/getFunction/functionExists compatível com namespace de 3 camadas
- [SPARK-39627] [SQL] O pushdown do JDBC V2 deve unificar a API de compilação
- [SPARK-39748] [SQL][ss] Inclua o plano lógico de origem para LogicalRDD se ele vier do DataFrame
- [SPARK-39385] [SQL] Traduza funções de agregação de regressão linear para pushdown
-
[SPARK-39695] [SQL] Adicionar a função
REGEXP_SUBSTR - [SPARK-39667] [SQL] Adicione outra solução alternativa quando não houver memória suficiente para compilar e transmitir a tabela
-
[SPARK-39666] [ES-337834][sql] Use UnsafeProjection.create para respeitar
spark.sql.codegen.factoryModeno ExpressionEncoder - [SPARK-39643] [SQL] Proibir expressões de subconsulta em valores DEFAULT
- [SPARK-38647] [SQL] Adicione combinação de SupportsReportOrdering na interface para Verificação (DataSourceV2)
- [SPARK-39497] [SQL] Melhore a exceção de análise da coluna de chave de mapa ausente
- [SPARK-39661] [SQL] Evite criar um Logger SLF4J desnecessário
- [SPARK-39713][SQL] Modo ANSI: adicione sugestão de uso de try_element_at para o erro INVALID_ARRAY_INDEX
- [SPARK-38899] [SQL] DS V2 suporta o "push down" de funções datetime
-
[SPARK-39638] [SQL] Altere para usar
ConstantColumnVectore armazenar colunas de partição emOrcColumnarBatchReader -
[SPARK-39653] [SQL] Limpe
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)deColumnVectorUtils -
[SPARK-39231] [SQL] Use
ConstantColumnVectorem vez deOn/OffHeapColumnVectorpara armazenar colunas de partição emVectorizedParquetRecordReader - [SPARK-39547] [SQL] V2SessionCatalog não deve lançar NoSuchDatabaseException em loadNamspaceMetadata
- [SPARK-39447] [SQL] Evite AssertionError em AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Retrabalhar MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec deve respeitar a ordenação de saída do child
- [SPARK-39606] [SQL] Use estatísticas dos filhos para estimar o operador de ordenação
- [SPARK-39611] [PYTHON][ps] Corrigir aliases errados em array_ufunc
- [SPARK-39656] [SQL][3.3] Corrija namespace errado em DescribeNamespaceExec
- [SPARK-39675] [SQL] Alterne a configuração 'spark.sql.codegen.factoryMode' da finalidade do teste para a finalidade interna
- [SPARK-39139] [SQL] O DS V2 suporta o empurramento de UDF do DS V2
- [SPARK-39434][SQL] Forneça o contexto da consulta de erro de runtime quando o índice de matriz estiver fora do limite
- [SPARK-39479] [SQL] DS V2 dá suporte a pushdown de funções matemáticas (não ANSI)
-
[SPARK-39618] [SQL] Adicionar a função
REGEXP_COUNT - [SPARK-39553] [CORE] O cancelamento do registro de vários threads não deve gerar NPE ao usar o Scala 2.13
- [SPARK-38755] [PYTHON][3.3] Adicione arquivo para resolver as funções do pandas ausentes
- [SPARK-39444] [SQL] Adicione OptimizeSubqueries à lista nonExcludableRules
- [SPARK-39316] [SQL] Mescle PromotePrecision e CheckOverflow em aritmética binária decimal
- [SPARK-39505] [UI] Escape conteúdo do log renderizado na interface do usuário
-
[SPARK-39448] [SQL] Adicione
ReplaceCTERefWithRepartitionà listanonExcludableRules - [SPARK-37961] [SQL] Sobrescrever maxRows/maxRowsPerPartition para alguns operadores lógicos
- [SPARK-35223] Reverta Adicionar IssueNavigationLink
- [SPARK-39633] [SQL] Suporte ao timestamp em segundos para TimeTravel usando opções de dataframe
- [SPARK-38796] [SQL] Atualize a documentação para cadeias de caracteres de formato de número com as funções {try_}to_number
- [SPARK-39650] [SS] Corrigir esquema de valor incorreto na deduplicação de streaming com compatibilidade com versões anteriores
- [SPARK-39636] [CORE][ui] Corrigir vários bugs no JsonProtocol, afetando o Heap StorageLevels e Task/Executor ResourceRequests
- [SPARK-39432] [SQL] Retorne ELEMENT_AT_BY_INDEX_ZERO a partir de element_at(*, 0)
- [SPARK-39349] Adicione um método CheckError centralizado para a garantia de qualidade do caminho do erro
- [SPARK-39453] [SQL] DS V2 suporta a aplicação de funções diversas não agregadas (não ANSI) através de push down.
- [SPARK-38978] [SQL] O DS V2 dá suporte ao operador OFFSET de push down
- [SPARK-39567] [SQL] Dê suporte a intervalos ANSI nas funções percentil
- [SPARK-39383] [SQL] Suporte para colunas DEFAULT em ALTER TABLE ALTER COLUMNS para fontes de dados da V2
- [SPARK-39396] [SQL] Corrigir exceção de logon LDAP 'código de erro 49 - credenciais inválidas'
- [SPARK-39548][SQL] O comando CreateView com uma consulta de cláusula de janela atingiu uma definição de janela errada. Problema não encontrado
- [SPARK-39575] [AVRO] Adicionar ByteBuffer#rewind após ByteBuffer#get no Avro…
- [SPARK-39543] A opção de DataFrameWriterV2 deve ser passada para propriedades de armazenamento se for feito o fallback para v1
- [SPARK-39564] [SS] Exponha as informações da tabela de catálogo ao plano lógico na consulta de streaming
-
[SPARK-39582] [SQL] Corrigir o marcador "Since" para
array_agg -
[SPARK-39388] [SQL] Reutilize
orcSchemaao reduzir predicados Orc - [SPARK-39511] [SQL] Melhore o limite local de pushdown 1 para o lado direito da semi/anti junção à esquerda se a condição de junção estiver vazia
- [SPARK-38614] [SQL] Não empurre o limite para baixo pela janela que está usando percent_rank
- [SPARK-39551] [SQL] Adicione verificação de plano inválido AQE
- [SPARK-39383] [SQL] Suporte para colunas DEFAULT em ALTER TABLE ADD COLUMNS para fontes de dados da V2
- [SPARK-39538] [SQL] Evitar a criação desnecessária de um logger SLF4J
- [SPARK-39383] [SQL] Backport manual para o Databricks Runtime 11.x: refatorar o suporte à coluna DEFAULT para ignorar a passagem do Analisador primário ao redor
- [SPARK-39397] [SQL] Libere o AliasAwareOutputExpression para dar suporte a alias com expressão
-
[SPARK-39496] [SQL] Manipule struct nulo em
Inline.eval -
[SPARK-39545] [SQL] Substitua o método
concatpeloExpressionSetno Scala 2.13 para melhorar o desempenho - [SPARK-39340] [SQL] A passagem de agregação do DS v2 deve permitir pontos nos nomes das colunas de nível superior
- [SPARK-39488] [SQL] Simplifique o tratamento de erros de TempResolvedColumn
- [SPARK-38846] [SQL] Adicione mapeamento de dados explícito entre Teradata Numeric Type e Spark DecimalType
-
[SPARK-39520] [SQL] Substitua o método
--peloExpressionSetno Scala 2.13 - [SPARK-39470] [SQL] Dê suporte à conversão de intervalos ANSI para decimais
- [SPARK-39477] [SQL] Remova a informação sobre "Número de consultas" dos arquivos padrão do SQLQueryTestSuite
- [SPARK-39419][SQL] Corrija um erro em que ArraySort lança uma exceção quando o comparador retorna nulo
-
[SPARK-39061] [SQL] Configurar corretamente a nulabilidade dos atributos de saída
Inline -
[SPARK-39320] [SQL] Dar suporte à função de agregação
MEDIAN - [SPARK-39261] [CORE] Aprimorar a formatação de nova linha para mensagens de erro
- [SPARK-39355][SQL] A coluna única usa aspas para construir UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE deve rasurar propriedades
- [SPARK-37623] [SQL] Dar suporte à função de agregação ANSI: regr_intercept
- [SPARK-39374] [SQL] Aprimorar a mensagem de erro da lista de colunas especificada pelo usuário
- [SPARK-39255] [SQL][3.3] Aprimorar as mensagens de erro
- [SPARK-39321] [SQL] Refatorar TryCast para usar RuntimeReplaceable
- [SPARK-39406] [PYTHON] Aceitar a matriz NumPy em createDataFrame
- [SPARK-39267] [SQL] Limpe o símbolo desnecessário de DSL
- [SPARK-39171] [SQL] Unifique a expressão de Conversão
- [SPARK-28330] [SQL] Dê suporte a ANSI SQL: cláusula de deslocamento de resultado na expressão de consulta
- [SPARK-39203] [SQL] Reescreva a localização da tabela para URI absoluto com base no URI do banco de dados
-
[SPARK-39313] [SQL]
toCatalystOrderingdeverá falhar se V2Expression não puder ser traduzido - [SPARK-39301] [SQL][python] Utilizar LocalRelation e respeitar o tamanho do lote do Arrow em createDataFrame com otimização do Arrow
- [SPARK-39400] [SQL] spark-sql deve remover o diretório de recurso hive em todos os casos
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 11.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 1.2.1
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (atualização cumulativa de ISO) | argon2-cffi | 20.1.0 | gerador assíncrono | 1,10 |
| atributos | 21.2.0 | chamada de retorno | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
| preto | 22.3.0 | alvejante | 4.0.0 | boto3 | 1.21.18 |
| botocore | 1.24.18 | certifi... | 2021.10.8 | cffi | 1.14.6 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 2.0.4 | clique | 8.0.3 |
| criptografia | 3.4.8 | ciclista | 0.10.0 | Cython | 0.29.24 |
| dbus-python | 1.2.16 | debugpy | 1.4.1 | decorador | 5.1.0 |
| defusedxml | 0.7.1 | distlib | 0.3.5 | distro-info | 0.23ubuntu1 |
| pontos de entrada | 0,3 | Visão geral de facetas | 1.0.0 | bloqueio de arquivo | 3.8.0 |
| IDNA | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
| ipython-genutils | 0.2.0 | ipywidgets (biblioteca Python para widgets interativos) | 7.7.0 | Jedi | 0.18.0 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
| jsonschema | 3.2.0 | Cliente Jupyter | 6.1.12 | jupyter-core | 4.8.1 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 |
| MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
| Mistune | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
| nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
| notebook | 6.4.5 | numpy | 1.20.3 | embalagem | 21,0 |
| Pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
| pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Almofada | 8.4.0 | caroço | 21.2.4 |
| platformdirs | 2.5.2 | enredo | 5.9.0 | prometheus-client | 0.11.0 |
| kit de ferramentas de prompt | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | Pyarrow | 7.0.0 |
| pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
| pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
| python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | Pytz | 2021.3 |
| pyzmq | 22.2.1 | solicitações | 2.26.0 | requests-unixsocket | 0.2.0 |
| s3transfer | 0.5.2 | scikit-aprender | 0.24.2 | Scipy | 1.7.1 |
| seaborn (biblioteca de visualização em Python) | 0.11.2 | Send2Trash | 1.8.0 | Ferramentas de configuração | 58.0.4 |
| seis | 1.16.0 | ssh-import-id | 5.10 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.12.2 |
| tenacidade | 8.0.1 | terminado | 0.9.4 | caminho de teste | 0.5.0 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.1.0 | extensões de digitação | 3.10.0.2 |
| atualizações não supervisionadas | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | codificações web | 0.5.1 | wheel | 0.37.0 |
| widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas R foram instaladas do snapshot CRAN da Microsoft em 15/08/2022.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1,1 | afirme isso | 0.2.1 | backports | 1.4.1 |
| base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.3 | ciar | 1.3-28 |
| Fabricação de cerveja | 1.0-7 | Brio | 1.1.3 | vassoura | 1.0.0 |
| bslib | 0.4.0 | cachem | 1.0.6 | chamador | 3.7.1 |
| sinal de interpolação | 6.0-93 | Cellranger | 1.1.0 | crono | 2.3-57 |
| classe | 7.3-20 | Interface de Linha de Comando (CLI) | 3.3.0 | clipr | 0.8.0 |
| cluster | 2.1.3 | codetools | 0.2-18 | espaço de cores | 2.0-3 |
| commonmark | 1.8.0 | compilador | 4.1.3 | configuração | 0.3.1 |
| cpp11 | 0.4.2 | giz de cera | 1.5.1 | credenciais | 1.3.2 |
| encurvar | 4.3.2 | Tabela de Dados | 1.14.2 | conjuntos de dados | 4.1.3 |
| DBI | 1.1.3 | dbplyr | 2.2.1 | Descrição | 1.4.1 |
| devtools | 2.4.4 | diffobj | 0.3.5 | hash | 0.6.29 |
| iluminação para baixo | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
| e1071 | 1.7-11 | reticências | 0.3.2 | avaliar | 0.16 |
| fansi | 1.0.3 | cores | 2.1.1 | fastmap | 1.1.0 |
| fontawesome | 0.3.0 | para gatos | 0.5.1 | para cada | 1.5.2 |
| estrangeiro | 0.8-82 | forja | 0.2.0 | fs | 1.5.2 |
| futuro | 1.27.0 | future.apply | 1.9.0 | gargarejar | 1.2.0 |
| genéricos | 0.1.3 | Gert | 1.7.0 | ggplot2 | 3.3.6 |
| Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
| globais | 0.16.0 | cola | 1.6.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.1 | Gower | 1.0.0 | gráficos | 4.1.3 |
| grDevices | 4.1.3 | grade | 4.1.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtable | 0.3.0 | capacete de segurança | 1.2.0 |
| refúgio | 2.5.0 | mais alto | 0,9 | Hms | 1.1.1 |
| ferramentas HTML | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
| httr | 1.4.3 | Identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-13 | isoband | 0.2.5 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
| knitr | 1,39 | rotulagem | 0.4.2 | posterior | 1.3.0 |
| treliça | 0.20-45 | lava vulcânica | 1.6.10 | ciclo de vida | 1.0.1 |
| ouça | 0.8.0 | lubrificado | 1.8.0 | magrittr | 2.0.3 |
| redução de preço | 1,1 | MISSA | 7.3-56 | Matriz | 1.4-1 |
| memorizar | 2.0.1 | Métodos | 4.1.3 | mgcv | 1.8-40 |
| mímica | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
| modelador | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
| nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
| paralelo | 4.1.3 | paralelamente | 1.32.1 | coluna | 1.8.0 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
| elogio | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| processx | 3.7.0 | Prodlim | 2019.11.13 | profvis | 0.3.7 |
| progresso | 1.2.2 | progressr | 0.10.1 | Promessas | 1.2.0.1 |
| proto | 1.0.0 | proxy | 0.4-27 | P.S. | 1.7.1 |
| purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | Readr | 2.1.2 | readxl | 1.4.0 |
| Receitas | 1.0.1 | jogo de revanche | 1.0.1 | revanche2 | 2.1.2 |
| Controles remotos | 2.4.2 | exemplo reprodutível (reprex) | 2.0.1 | remodelar2 | 1.4.4 |
| rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
| roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
| Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0.13 |
| rversions | 2.1.1 | rvest | 1.0.2 | Sass | 0.4.2 |
| escamas | 1.2.0 | Seletor | 0.4-2 | informações de sessão | 1.2.2 |
| forma | 1.4.6 | brilhante | 1.7.2 | sourcetools | 0.1.7 |
| sparklyr | 1.7.7 | SparkR | 3.3.0 | espacial | 7.3-11 |
| Splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.1.3 | estatísticas4 | 4.1.3 | stringi | 1.7.8 |
| stringr | 1.4.0 | sobrevivência | 3.2-13 | sys | 3.4 |
| systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
| formatação de texto | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
| tidyselect | 1.1.2 | tidyverse | 1.3.2 | data e hora | 4021.104 |
| tinytex | 0,40 | Ferramentas | 4.1.3 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
| utilitários | 4.1.3 | identificador único universal (UUID) | 1.1-0 | vctrs | 0.4.1 |
| viridisLite | 0.4.0 | Vroom | 1.5.7 | Waldo | 0.4.0 |
| vibrissa | 0,4 | murchar | 2.5.0 | xfun | 0,32 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML | 2.3.5 | zíper | 2.2.0 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
| com.fasterxml.jackson.core | jackson-core | 2.13.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.13.3 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java-natives | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1,1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Sininho | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.ning | compress-lzf | 1,1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers (parsers de univocity) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| hadoop3 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.5.0 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | Netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | Netty Resolver | 4.1.74.Final |
| io.netty | Netty Tcnative Classes | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-comum | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| mvn | hadoop3 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1,2 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.14 |
| net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 7.0.0 |
| org.apache.arrow | seta-memória-core | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | vetor de seta | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.9 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | api de cliente hadoop | 3.3.2-databricks |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.2 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
| org.apache.logging.log4j | log4j-api | 2.17.2 |
| org.apache.logging.log4j | log4j-core | 2.17.2 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.5 |
| org.apache.orc | orc-mapreduce | 1.7.5 |
| org.apache.orc | orc-calços | 1.7.5 |
| org.apache.parquet | coluna parquet | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-comum | 1.12.0-databricks-0004 |
| org.apache.parquet | codificação-parquet | 1.12.0-databricks-0004 |
| org.apache.parquet | estruturas-do-formato-parquet | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | comentários da audiência | 0.5.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | segurança do jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | servidor jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Webapp | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-client | 2,34 |
| org.glassfish.jersey.core | jersey-comum | 2,34 |
| org.glassfish.jersey.core | jersey-server | 2,34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | Calços | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,2 |
| org.scalanlp | breeze_2.12 | 1,2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |