Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte o histórico de fim de suporte e fim de vida. Para todas as versões suportadas do Databricks Runtime, consulte notas de versão do Databricks Runtime e compatibilidade.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.2, alimentado pelo Apache Spark 3.5.2.
O Databricks lançou esta versão em fevereiro de 2025.
Alterações comportamentais
ANALYZE agora ignora colunas com tipos não suportados
ANALYZE TABLE não resulta mais em uma mensagem de erro quando executada em uma tabela com tipos sem suporte, como ARRAY ou MAP. As colunas sem suporte agora são ignoradas automaticamente. Os usuários que implementaram a lógica que espera esses erros devem atualizar seu código.
No Compartilhamento Delta, o histórico de tabelas é habilitado por padrão
Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table> agora têm o compartilhamento de histórico (WITH HISTORY) habilitado por padrão. Consulte ALTER SHARE.
Instruções SQL de credencial retornam um erro quando há uma incompatibilidade de tipo de credencial
Com essa versão, se o tipo de credencial especificado em uma instrução SQL de gerenciamento de credenciais não corresponder ao tipo do argumento de credencial, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name', se credential-name não for uma credencial de armazenamento, a instrução falhará com um erro.
Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, essas instruções eram executadas com êxito, mesmo que fosse passada uma credencial que não correspondesse ao tipo de credencial especificado. Por exemplo, a instrução a seguir removeria storage-credentialcom êxito: DROP SERVICE CREDENTIAL storage-credential.
Essa mudança afeta as seguintes declarações:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… EM... CREDENCIAL
- REVOKE… EM... CREDENCIAL
- SHOW GRANTS SOBRE... CREDENCIAL
Novos recursos e aprimoramentos
-
Criar aplicativos personalizados com estado mantido usando
transformWithState - Autenticar no armazenamento de objetos de nuvem com credenciais de serviço
- Agora, o acesso controlado pelo Catálogo do Unity nos serviços de nuvem externos que usam as credenciais de serviço está em disponibilidade geral
- Há suporte para notebooks como arquivos de workspace
-
Use as expressões de coluna
timestampdiff×tampaddem geradas - Suporte para sintaxe de pipelines de SQL
-
Fazer solicitação HTTP usando a
http_requestfunção -
A atualização para
DESCRIBE TABLEretorna os metadados como JSON estruturado - Agrupamentos insensíveis em branco à direita
- Converter tabelas com particionamento em bucket do Apache Iceberg para tabelas Delta sem particionamento
-
Modo padrão de acesso à computação (antigo modo de acesso compartilhado) agora dá suporte aos métodos
foreach,foreachBatcheflatMapGroupsWithState
Criar aplicativos com estado personalizado com transformWithState
Agora você pode usar transformWithState e APIs relacionadas para implementar aplicativos com estado personalizados como parte de consultas de Streaming Estruturado. Consulte Criar um aplicativo com estado personalizado.
Autenticar no armazenamento de objetos de nuvem com credenciais de serviço
Agora você pode usar as credenciais de serviço do Databricks para autenticar no armazenamento de objetos de nuvem com o Carregador Automático. Veja Configurar fluxos do Auto Loader no modo de notificação de arquivo.
O acesso controlado pelo Catálogo do Unity a serviços de nuvem externos usando credenciais de serviço agora é GA
As credenciais de serviço habilitam a autenticação simples e segura com os serviços de seu locatário de nuvem no Azure Databricks. Com o Databricks Runtime 16.2, as credenciais de serviço geralmente estão disponíveis e agora dão suporte a SDKs do Scala, além do SDK do Python com suporte na Visualização Pública. Consulte Criar credenciais de serviço.
Há suporte para notebooks como arquivos de workspace
No Databricks Runtime 16.2 e superior, há suporte para notebooks como arquivos de workspace. Agora você pode interagir programaticamente com notebooks de qualquer lugar em que o sistema de arquivos do workspace esteja disponível, incluindo escrever, ler e excluir blocos de anotações como qualquer outro arquivo. Para saber mais, consulte Programaticamente criar, atualizar e excluir arquivos e diretórios.
Usar o timestampdiff & timestampadd em expressões de coluna geradas
No Databricks Runtime 16.2 e superior, você pode usar as funções timestampdiff e timestampadd em expressões de coluna geradas pelo Delta Lake. Confira Colunas geradas pelo Delta Lake.
Suporte para a sintaxe dos pipelines do SQL
No Databricks Runtime 16.2 e superior, você pode redigir pipelines SQL. Um pipeline do SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para saber mais sobre a sintaxe com suporte para pipelines SQL, consulte SQL Pipeline Syntax.
Para obter informações básicas sobre essa extensão intersetorial, consulte O SQL tem problemas. Podemos corrigi-los: Sintaxe de pipe no SQL (por Google Research).
Fazer solicitação HTTP usando a http_request função
No Databricks Runtime 16.2 e superior, você pode criar conexões HTTP e, por meio delas, fazer solicitações HTTP usando a função http_request .
Atualizar para DESCRIBE TABLE retorna metadados como JSON estruturado
No Databricks Runtime 16.2 e superior, você pode usar o DESCRIBE TABLE AS JSON comando para retornar metadados de tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório legível por humanos padrão e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.
Ordenações que não diferenciam branco à direita
O Databricks Runtime 16.2 adiciona suporte para agrupamentos insensíveis a espaços em branco finais, ampliando o suporte de agrupamentos adicionado no Databricks Runtime 16.1. Por exemplo, essas colações tratam 'Hello' e 'Hello ' como sendo iguais. Para saber mais, consulte Ordenação RTRIM.
Converter tabelas Apache Iceberg com particionamento de bucket para tabelas Delta não particionadas
As instruções CONVERT TO DELTA e CREATE TABLE CLONE agora suportam a conversão de uma tabela Apache Iceberg com particionamento em bucket para uma tabela Delta não particionada.
A computação do modo de acesso padrão (antigo modo de acesso compartilhado) agora dá suporte aos métodos foreach, foreachBatch, e flatMapGroupsWithState do Spark Scala
No Databricks Runtime versão 16.2 e posteriores, agora o modo de acesso padrão computacional oferece suporte aos métodos Scala DataStreamWriter.foreachBatch e KeyValueGroupedDataset.flatMapGroupsWithState. Em versões superiores ao Databricks Runtime 16.1, a computação no modo padrão de acesso agora dá suporte ao método Scala DataStreamWriter.foreach.
Correções
Processamento do clone incremental aprimorado
Esta versão inclui uma correção para um caso extremo em que um CLONE incremental pode recopiar arquivos já copiados de uma tabela de origem para uma tabela de destino. Consulte Clonar uma tabela no Azure Databricks.
Atualizações de biblioteca
- Bibliotecas do Python atualizadas:
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-scalap_2.12 de 3.7.0-M11 a 4.0.7
Apache Spark
O Databricks Runtime 16.2 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.1 (EoS), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
-
[SPARK-49966] Reverter "[SC-179501][sql] Usar
Invokepara implementarJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Correção da execução da consulta do andador de expressão de ordenação
- [SPARK-49666] [SQL] Habilitar testes de corte para a expressão InSet
- [SPARK-50669] [SC-184566][es-1327450][SQL] Alterar a assinatura da expressão TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Armazenar carimbo de data/hora como um tipo em
describeLinkedHashMap - [SPARK-50870] [SC-186950][sql] Adicionar fuso horário ao fazer a conversão para timestamp em V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][connect] Falha em ExecuteResponseObserver resulta em solicitações de reanexação infinita
- [SPARK-50522] [SC-186500][sql] Suporte para ordenação indeterminada
- [SPARK-50525] [SC-186058][sql] Definir a Regra do Otimizador InsertMapSortInRepartitionExpressions
- [SPARK-50679] [SC-184572][sql] Expressões comuns duplicadas em diferentes cláusulas WITH devem ser projetadas apenas uma vez
- [SPARK-50847] [SC-186916] [SQL] Negar a aplicação de ApplyCharTypePadding em expressões específicas
- [SPARK-50714] [SC-186786][sql][SS] Habilitar a evolução do esquema para TransformWithState quando a codificação Avro é usada
-
[SPARK-50795] [SC-186390][sql] Exibir todas as datas do DESCRIBE AS JSON no formato ISO-8601 e os tipos como
dataType.simpleString - [SPARK-50561] [SC-185924][sql] Databricks Runtime 16.x cherrypick: Aprimorar a coerção de tipos e a checagem de limites para a função SQL UNIFORME
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalogoferece suporte a valor mágico - [SPARK-50831] [SC-186736][sql] Habilitar a ordenação de corte por padrão
-
[SPARK-50263] [SC-186793][conectar] Substituir
System.currentTimeMillisporSystem.nanoTime - [SPARK-48730] [SC-184926][sql] Implementar CreateSQLFunctionCommand para Funções Escalares e de Tabela SQL
- [SPARK-50830] [SC-186718] [SQL] Retornar resultado de passe único como o resultado da análise de execução dupla
- [SPARK-50707] [SC-186098][sql] Habilitar a conversão para/de char/varchar
- [SPARK-49490] [SC-182137][sql] Adicionar parâmetros de comparação para o initCap
-
[SPARK-50529] [SC-184535][sql] Alterar o comportamento char/varchar na
spark.sql.preserveCharVarcharTypeInfoconfiguração - [SPARK-49632] [SC-184179][sql] Remova a sugestão de configuração ANSI no CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Corrigir bug em que passar variantes nulas no createDataFrame faz com que ele falhe e adicione suporte variant em createDataFrame no Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] Preterir
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Definir como analisado em caso de falha na análise
- [SPARK-50824] [SC-186472][python] Evite importar pacotes opcionais do Python para verificação
- [SPARK-50755] [SC-185521][sql] Exibição de plano bonita para InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] As entradas para agregações tipadas devem passar por análise
- [SPARK-50791] [SC-185867][sc-186338][SQL] Corrigir NPE no tratamento de erros do Repositório de Estado
-
[SPARK-50801] [SC-186365] [SQL] Aprimorar
PlanLogger.logPlanResolutionpara que ele mostre apenas planos não resolvidos e resolvidos - [SPARK-50749] [SC-185925][sql] Corrigir bug de ordenação no método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Canonicalize o nome e o layout do arquivo de resultados do perfilador JVM no sistema de arquivos distribuído (DFS)
- [SPARK-50790] [SC-186354][python] Implementar análise de json no pyspark
- [SPARK-50738] [SC-184856][python] Atualizar Black para 23.12.1
- [SPARK-50764] [SC-185930][python] Refinar a docstring de métodos relacionados ao xpath
-
[SPARK-50798] [SC-186277][sql] Aprimorar
NormalizePlan - [SPARK-49883] [SC-183787][ss] Integração da Estrutura de Checkpoint da State Store V2 com RocksDB e RocksDBFileManager
- [SPARK-50779] [SC-186062][sql] Adicionando sinalizador de recurso para ordenações no nível do objeto
- [SPARK-50778] [SC-186183][python] Adicionar metadataColumn ao PySpark DataFrame
- [SPARK-49565] [SC-186056][sql] Databricks Runtime 16.x cherrypick: Aprimorar aliases de expressão gerada automaticamente com operadores SQL de pipe
- [SPARK-50541] [16.x][sc-184937] Descrever tabela como JSON
- [SPARK-50772] [SC-185923][sql] Databricks Runtime 16.x cherrypick: Manter aliases de tabela após SET, operadores EXTEND, DROP
- [SPARK-50769] [SC-185919][sql] Fix ClassCastException in HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar a diferença de código Delta com o Databricks Runtime
- [SPARK-50752] [SC-185547][python][SQL] Introduza configurações para ajustar o UDF do Python sem seta
-
[SPARK-50705] [SC-185944][sql] Tornar
QueryPlansem bloqueio - [SPARK-50690] [16.x][sc-184640][SQL] Corrigir discrepância nas DESCRIBE TABLE colunas de saída da consulta de exibição entre aspas
- [SPARK-50746] [SC-184932][sql] Substitua Either por VariantPathSegment.
-
[SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builderdefine as configurações em lote - [SPARK-50480] [SC-183359][sql] Estender CharType e VarcharType de StringType
- [SPARK-50675] [SC-184539][sql] Suporte a ordenações de nível de tabela e exibição
-
[SPARK-50409] [SC-184516][sql] Correção da instrução set para ignorar
;no final deSET;,SET -v;eSET key; - [SPARK-50743] [SC-185528][sql] Normalizar os IDs de CTERelationDef e CTERelationRef
- [SPARK-50693] [SC-184684][connect] As entradas para TypedScalaUdf devem ser analisadas
- [SPARK-50744] [SC-184929][sql] Adicionar um caso de teste para precedência na resolução do nome de exibição/CTE
- [SPARK-50710] [SC-184767][connect] Adicionar suporte para reconexão opcional do cliente às sessões após a versão
- [SPARK-50703] [SC-184843][python] Refinar a docstring de regexp_replace, regexp_substr e regexp_instr
-
[SPARK-50716] [SC-184823][core] Corrigir a lógica de limpeza para links simbólicos no método
JavaUtils.deleteRecursivelyUsingJavaIO - [SPARK-50630] [SC-184443][sql] Corrigir suporte ordinal para operadores AGGREGATE SQL de pipe
- [SPARK-50614] [SC-184729][sql] Adicionar suporte de fragmentação Variant para Parquet
- [SPARK-50661] [SASP-4936] Adicionar retrocompatibilidade para FEB do cliente antigo.
-
[SPARK-50676] [SC-184641][sql] Remover
private lazy val mapValueContainsNulleElementAtnão utilizados -
[SPARK-50515] [SC-183813][core] Adicionar interface somente leitura a
SparkConf - [SPARK-50697] [SC-184702][sql] Habilitar a recursão final sempre que possível
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Corrigir o esquema de estado para FlatMapGroupsWithState no Spark Connect quando não houver estado inicial
- [SPARK-50701] [SC-184704][python] Exigir a versão mínima do plotly para plotagem
- [SPARK-50702] [SC-184727][python] Refinar a docstring de regexp_count, regexp_extract e regexp_extract_all
- [SPARK-50499] [SC-184177][python] Expor métricas do BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Adicionar suporte a pushdown do RPAD
- [SPARK-50682] [SC-184579][sql] O alias interno deve ser canonizado
- [SPARK-50699] [SC-184695][python] Analisar e gerar cadeia de caracteres DDL com uma sessão especificada
- [SPARK-50573] [SC-184568][ss] Adicionando ID do esquema de estado às linhas de estado para a evolução do esquema
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Correção na implementação do foreachBatch do Spark Connect Scala. para dar suporte ao conjunto de dados[T].
- [SPARK-50689] [SC-184591][sql] Impor ordenação determinística em listas de projetos LCA
- [SPARK-50696] [SC-184667][python] Otimizar chamada Py4J para método de análise de DDL
- [SPARK-49670] [SC-182902][sql] Habilitar ordenação de corte para todas as expressões de passagem
-
[SPARK-50673] [SC-184565][ml] Evite atravessar coeficientes de modelo duas vezes no
Word2VecModelconstrutor - [SPARK-50687] [SC-184588][python] Otimize a lógica para obter rastreamentos de pilha para DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Armazene o esquema analisado para MapInXXX e ApplyInXXX
- [SPARK-50674] [SC-184589][python] Correção da verificação da existência do método 'terminate' na avaliação UDTF
- [SPARK-50684] [SC-184582][python] Melhorar o desempenho de Py4J no DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Adicionar suporte para a nova versão dos metadados de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][sql] Corrigir transposição para mostrar uma mensagem de erro adequada quando colunas de índice inválidas são especificadas
- [SPARK-50650] [SC-184532][sql] Melhorar o log no Analisador de passagem única
- [SPARK-50665] [SC-184533][sql] Substituir LocalRelation por ComparableLocalRelation em NormalizePlan
- [SPARK-50644] [SC-184486][sql] Ler variante de struct no leitor de Parquet.
- [SPARK-49636] [SC-184089][sql] Excluir a recomendação de configuração ANSI em INVALID_ARRAY_INDEX e INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Refatorar cálculo de saída da União para reutilizá-lo no Analisador de única passagem.
- [SPARK-50659] [SC-184512][sql] Mover erros relacionados ao Union para QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Corrigir cálculo de contexto de tipo de cadeia de caracteres implícita incorreta
- [SPARK-50546] [SC-183807][sql] Adicionar suporte de conversão de subconsultas à coerção do tipo de ordenação
- [SPARK-50405] [SC-182889][sql] Manipular coerção de tipo de ordenação de tipos de dados complexos corretamente
- [SPARK-50637] [SC-184434][sql] Corrigir o estilo de código para o Analisador de passagem única
- [SPARK-50638] [SC-184435][sql] Refatorar a resolução de exibição para o arquivo separado para reutilizá-la no Analisador de passagem única
- [SPARK-50615] [SC-184298][sql] Empurrar variante na varredura.
- [SPARK-50619] [SC-184210][sql] Refatorar VariantGet.cast para empacotar os argumentos de conversão
- [SPARK-50599] [SC-184058][sql] Criar a característica do DataEncoder que permite a codificação Avro e UnsafeRow
- [SPARK-50076] [SC-183809] Corrigir chaves de log
- [SPARK-50597] [SC-183972][sql] Refatorar a construção em lote em Optimizer.scala e SparkOptimizer.scala
- [SPARK-50339] [SC-183063][spark-50360][SS] Ativar o log de mudanças para armazenar informações de linhagem
- [SPARK-50526] [SC-183811][ss] Adicionar configuração de formato de codificação do repositório ao log de deslocamento e impedir que operadores com estado sem suporte usem avro
- [SPARK-50540] [SC-183810][python][SS] Corrigir esquema de cadeia de caracteres para StatefulProcessorHandle
- [SPARK-50157] [SC-183789][sql] Usando SQLConf fornecido primeiro pelo SparkSession.
- [SPARK-48898] [SC-183793][sql] Definir a nulidade corretamente no esquema Variant
- [SPARK-50559] [SC-183814][sql] Armazenar saídas de Exceto, Intersecção e União como valores preguiçosos
- [SPARK-48416] [SC-183643][sql] Suporte para expressão "With" correlacionada e aninhada
- [SPARK-50428] [SC-183566][ss][PYTHON] Suporte a TransformWithStateInPandas em consultas em lote
- [SPARK-50063] [SC-183350][sql][CONNECT] Adicionar suporte para Variant no cliente Do Spark Connect Scala
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementar
StructType.toDDL - [SPARK-50443] [SC-182590][ss] Corrigindo erros de build do Maven introduzidos pelo cache Guava no RocksDBStateStoreProvider
- [SPARK-50491] [SC-183434][sql] Corrigir bug em que blocos BEGIN END vazios geram um erro
-
[SPARK-50536] [SC-183443][core] Registrar os tamanhos dos arquivos compactados baixados em
SparkContexteExecutor - [SPARK-45891] [SC-183439][sql] Reconstruir binário variante de dados fragmentados.
- [SPARK-49565] [SC-183465][sql] Adicionar sintaxe de pipe SQL para o operador FROM
- [SPARK-50497] [SC-183338][sql] Falhar consultas com mensagem adequada se MultiAlias contiver função não-geradora
- [SPARK-50460] [SC-183375][python][CONNECT] Generalize e simplifique o tratamento de exceções do Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Corrigir a opção de compactação que está sendo substituída em
df.write.parquet - [SPARK-50329] [SC-183358][sql] corrigir InSet$toString
- [SPARK-50524] [SC-183364][sql] Reduzir a mensagem de aviso para o nível de depuração
-
[SPARK-50528] [SC-183385][conectar] Mover
InvalidCommandInputpara o módulo comum - [SPARK-50017] [SC-182438][ss] Suporte à codificação Avro para o operador TransformWithState
- [SPARK-50463] [SC-182833][sql] Correção na conversão de Columnar para Row
- [SPARK-50235] [SC-180786][sql] Limpar o recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Corrigir o teste relacionado ao estado de inicialização para usar StreamManualClock
- [SPARK-50478] [SC-183188][sql] Corrigir a correspondência StringType
- [SPARK-50492] [SC-183177][ss] Corrigir java.util.NoSuchElementException quando a coluna de tempo do evento é descartada após dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Adicionar sintaxe de pipe SQL para o SET operador
- [SPARK-50449] [SC-183178][sql] Corrigir a gramática de scripts SQL que permite corpos vazios para loops, IF e CASE
-
[SPARK-50251] [SC-180970][python] Adicionar
getSystemPropertyao PySparkSparkContext - [SPARK-50421] [SC-183091][core] Correção da configuração de memória relacionada ao executor incorreta quando vários perfis de recurso funcionavam
- [SPARK-49461] [SC-179572][ss] ID de ponto de verificação persistente para registrar logs e ler novamente.
- [SPARK-50343] [SC-183119][spark-50344][SQL] Adicionar sintaxe de pipe SQL para os operadores DROP e AS
-
[SPARK-50481] [SC-182880][core] Melhorar
SortShuffleManager.unregisterShufflepara ignorar a lógica do arquivo de soma de verificação se a soma de verificação estiver desabilitada -
[SPARK-50498] [SC-183090][python] Evite chamadas py4j desnecessárias em
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Corrigir a autojunção após
applyInArrow - [SPARK-49695] [SC-182967][sc-176968][SQL] Correção do push-down do xor no Postgres
Suporte ao driver ODBC/JDBC do Databricks
O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Atualizações de manutenção
Consulte as atualizações de manutenção do Databricks Runtime 16.2.
Ambiente do sistema
-
Sistema operacional: Ubuntu 24.04.1 LTS
- Observação: esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição do Linux.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | asttokens | 2.0.5 | Astunparse | 1.6.3 |
| comando automático | 2.2.2 | azure-core | 1.31.0 | Armazenamento em Blob do Azure | 12.23.0 |
| Azure Armazenamento Arquivos Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| antolho | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 2.0.4 | clique | 8.1.7 |
| cloudpickle | 2.2.1 | Comunicação | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| docstring-to-markdown | 0.11 | pontos de entrada | 0.4 | executando | 0.8.3 |
| Visão geral de facetas | 1.1.1 | bloqueio de arquivo | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth | 2.35.0 | google-cloud-core | 2.4.1 | armazenamento na nuvem do Google | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| flexionar | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-magro | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0,48b0 |
| embalagem | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
| pathspec | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
| almofada | 10.3.0 | caroço | 24.2 | platformdirs | 3.10.0 |
| enredo | 5.22.0 | Pluggy | 1.0.0 | kit de ferramentas de prompt | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server (servidor LSP para Python) | 1.10.0 | pytoolconfig | 1.2.6 |
| Pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| requests | 2.32.2 | corda | 1.12.0 | RSA | 4.9 |
| s3transfer | 0.10.2 | scikit-aprender | 1.4.2 | Scipy | 1.13.1 |
| seaborn (biblioteca de visualização em Python) | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.14.2 | tenacidade | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | tipos de solicitações | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| tipos-seis | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | atualizações não supervisionadas | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch | 1.0.2 | wheel | 0.43.0 | embrulhado | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas do R instaladas
As bibliotecas R são instaladas a partir do snapshot CRAN do Posit Package Manager em 04 de agosto de 2024: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | inicialização | 1.3-30 |
| Preparar | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | chamador | 3.7.6 |
| cursor | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
| espaço de cores | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | Conflitado | 1.2.0 | cpp11 | 0.4.7 |
| pastel | 1.5.3 | credenciais | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Descrição | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | hash | 0.6.36 |
| iluminação descendente | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| fansi | 1.0.6 | cores | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| estrangeiro | 0.8-86 | forja | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | future.apply | 1.11.2 | gargarejar | 1.5.2 |
| genéricos | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| GHz | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globais | 0.16.3 | cola | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Gráficos | 4.4.0 | grDevices | 4.4.0 | grade | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | capacete de segurança | 1.4.0 | refúgio | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | rotulagem | 0.4.3 |
| mais tarde | 1.3.2 | reticulado | 0.22-5 | lava | 1.8.0 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | redução de preço | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memorização | 2.0.1 | Métodos | 4.4.0 |
| mgcv | 1.9-1 | mímica | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| paralelamente | 1.38.0 | coluna | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | louvar | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progresso | 1.2.3 |
| progressr | 0.14.0 | Promessas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | Ps | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reativa | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| Receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | reprex | 2.1.1 | remodelar2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| escala | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| Splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.4.0 | stats4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | sobrevivência | 3.6-4 | Swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | formatação de texto | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| mudança de horário | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| Ferramentas | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utilitários | 4.4.0 |
| uuid | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| bigode | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | compactar | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Sininho | 1.9.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | goiaba | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers (parsers de univocity) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| coleções commons | coleções commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | anotação de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1,3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | formato de seta | 15.0.0 |
| org.apache.arrow | seta-memória-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | vetor de seta | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory (biblioteca para gerenciamento de memória) | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | anotações da audiência | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Adaptadores | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest-compatible | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |