Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Observação
O suporte para esta versão do Databricks Runtime terminou. Para a data de fim de suporte, consulte Fim de suporte e histórico de fim de vida útil. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.2, alimentado pelo Apache Spark 3.5.2.
A Databricks lançou esta versão em fevereiro de 2025.
Mudanças comportamentais
ANALYZE agora ignora colunas com tipos de dados não suportados
ANALYZE TABLE não resulta mais em uma mensagem de erro quando executado em uma tabela com tipos sem suporte, como ARRAY ou MAP. As colunas sem suporte agora são ignoradas automaticamente. Os usuários que implementaram a lógica que espera esses erros devem atualizar seu código.
No Compartilhamento Delta, o histórico da tabela é habilitado por padrão
Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table> agora têm o compartilhamento de histórico (WITH HISTORY) habilitado por padrão. Consulte ALTER SHARE.
As instruções SQL de credenciais retornam um erro quando há uma incompatibilidade de tipo de credencial
Com esta versão, se o tipo de credencial especificado em uma instrução SQL de gerenciamento de credenciais não corresponder ao tipo do argumento de credencial, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name', se credential-name não for uma credencial de armazenamento, a instrução falhará com um erro.
Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, essas instruções eram executadas com êxito, mesmo que uma credencial que não correspondesse ao tipo de credencial especificado fosse passada. Por exemplo, a seguinte instrução excluiria com êxito storage-credential: DROP SERVICE CREDENTIAL storage-credential.
Essa alteração afeta as seguintes declarações:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… ON… CREDENCIAL
- REVOKE… ON… CREDENCIAL
- SHOW GRANTS SOBRE... CREDENCIAL
Novos recursos e melhorias
-
Crie aplicações com estado personalizadas com
transformWithState - Autenticar no armazenamento de objetos na nuvem com credenciais de serviço
- O acesso controlado pelo Unity Catalog a serviços de nuvem externos usando credenciais de serviço agora é GA
- Os blocos de notas são suportados como ficheiros de espaço de trabalho
-
Use o
timestampdiff×tampaddem expressões de coluna geradas - Suporte à sintaxe SQL de pipeline
-
Fazer solicitação HTTP usando a
http_requestfunção -
A atualização para
DESCRIBE TABLEdevolve metadados como JSON estruturado - Agrupamentos insensíveis em branco à direita
- Converta tabelas Apache Iceberg com particionamento de bucket em tabelas Delta não particionadas
-
A computação do modo de acesso padrão (anteriormente modo de acesso compartilhado) agora suporta os métodos
foreachSpark Scala,foreachBatcheflatMapGroupsWithState
Crie aplicações com estado personalizadas com transformWithState
Agora pode usar as transformWithState APIs relacionadas para implementar aplicações stateful personalizadas como parte de consultas de Streaming Estruturado. Consulte Criar um aplicativo com monitoração de estado personalizado.
Autenticar no armazenamento de objetos na nuvem com credenciais de serviço
Agora você pode usar as credenciais do serviço Databricks para autenticar no armazenamento de objetos na nuvem com o Auto Loader. Consulte Configurar fluxos do carregador automático no modo de notificação de arquivo.
O acesso controlado pelo Unity Catalog a serviços de nuvem externos usando credenciais de serviço agora é GA
As credenciais de serviço permitem uma autenticação simples e segura com os serviços do seu locatário de nuvem do Azure Databricks. Com o Databricks Runtime 16.2, as credenciais de serviço estão geralmente disponíveis e agora suportam SDKs Scala, além do SDK Python que era suportado na Visualização Pública. Consulte Criar credenciais de serviço.
Os blocos de notas são suportados como ficheiros de espaço de trabalho
No Databricks Runtime 16.2 e superior, os blocos de anotações são suportados como arquivos de espaço de trabalho. Agora você pode interagir programaticamente com blocos de anotações de qualquer lugar onde o sistema de arquivos do espaço de trabalho esteja disponível, incluindo gravação, leitura e exclusão de blocos de anotações como qualquer outro arquivo. Para saber mais, consulte Criar, atualizar e excluir arquivos e diretórios programaticamente.
Usar o timestampdiff & timestampadd em expressões de coluna geradas
No Databricks Runtime 16.2 e superior, você pode usar as funções timestampdiff e timestampadd em expressões de coluna geradas pelo Delta Lake. Veja as colunas geradas pelo Lago Delta.
Suporte para sintaxe de pipeline SQL
No Databricks Runtime 16.2 e superior, você pode compor pipelines SQL. Um pipeline SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para saber mais sobre a sintaxe suportada para pipelines SQL, ver SQL Pipeline Syntax.
Para obter informações básicas sobre essa extensão entre setores, consulte SQL tem problemas. Nós podemos corrigi-los: sintaxe de pipe em SQL (por Google Research).
Fazer solicitação HTTP usando a função http_request
No Databricks Runtime 16.2 e superior, você pode criar conexões HTTP e, através delas, fazer solicitações HTTP usando a função http_request .
Atualização para DESCRIBE TABLE retorna metadados como JSON estruturado
No Databricks Runtime 16.2 e versões superiores, pode usar o comando DESCRIBE TABLE AS JSON para retornar os metadados de tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório padrão legível por humanos e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.
Agrupamentos insensíveis em branco à direita
O Databricks Runtime 16.2 adiciona suporte para agrupamentos que ignoram espaços em branco à direita, além do suporte a agrupamentos introduzido no Databricks Runtime 16.1. Por exemplo, esses agrupamentos tratam 'Hello' e 'Hello ' como iguais. Para saber mais, consulte collation RTRIM.
Converter tabelas Apache Iceberg com particionamento por buckets em tabelas Delta não particionadas.
As instruções CONVERT TO DELTA e CREATE TABLE CLONE agora permitem a conversão de uma tabela Apache Iceberg com particionamento de balde para uma tabela Delta sem partição.
A computação do modo de acesso padrão (anteriormente modo de acesso compartilhado) agora suporta os métodos foreachSpark Scala, foreachBatche flatMapGroupsWithState
Na Databricks Runtime 16.2 e superior, o modo de acesso padrão para computação agora suporta os métodos DataStreamWriter.foreachBatch e KeyValueGroupedDataset.flatMapGroupsWithState do Scala. No Databricks Runtime 16.1 e superior, a computação do modo de acesso padrão agora suporta o método Scala DataStreamWriter.foreach.
Correções de erros
Processamento incremental de clones melhorado
Esta versão inclui uma correção para um caso extremo em que um CLONE incremental pode voltar a copiar arquivos que já foram copiados de uma tabela de origem para uma tabela de destino. Ver Clonar uma tabela no Azure Databricks.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- Atualização de org.json4s.json4s-jackson_2.12 de 3.7.0-M11 para 4.0.7
- org.json4s.json4s-scalap_2.12, de 3.7.0-M11 a 4.0.7
Apache Spark
O Databricks Runtime 16.2 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
-
[SPARK-49966] Reverter "[SC-179501][sql] Use
Invokepara implementarJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Corrigir a execução da consulta walker da expressão de agrupamento
- [SPARK-49666] [SQL] Habilitar testes de corte para expressão InSet
- [SPARK-50669] [SC-184566][es-1327450][SQL] Alterar a assinatura da expressão TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Armazene o carimbo de data/hora como
longtipo nodescribeLinkedHashMap - [SPARK-50870] [SC-186950][sql] Adicione o fuso horário ao efetuar casting para timestamp em V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][connect] Falha no ExecuteResponseObserver resulta em infinitas solicitações de reanexação
- [SPARK-50522] [SC-186500][sql] Suporte para agrupamento indeterminado
- [SPARK-50525] [SC-186058][sql] Definir a Regra de Otimização InsertMapSortInRepartitionExpressions
- [SPARK-50679] [SC-184572][sql] Expressões comuns duplicadas em diferentes With devem ser projetadas apenas uma vez
- [SPARK-50847] [SC-186916] [SQL] Negar a aplicação de ApplyCharTypePadding em expressões In específicas
- [SPARK-50714] [SC-186786][sql][SS] Permitir a evolução do esquema para TransformWithState quando a codificação Avro for utilizada
-
[SPARK-50795] [SC-186390][sql] Exibir todas as datas no comando DESCRIBE AS JSON no formato ISO-8601 e os tipos como
dataType.simpleString - [SPARK-50561] [SC-185924][sql] Cherrypick do Databricks Runtime 16.x: Melhorar a coerção de tipos e a verificação de fronteiras para a função SQL UNIFORM
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalogsuportabuiltinvalor mágico - [SPARK-50831] [SC-186736][sql] Habilitar agrupamento de corte por padrão
-
[SPARK-50263] [SC-186793][connect] Substitua
System.currentTimeMillisporSystem.nanoTime - [SPARK-48730] [SC-184926][sql] Implementar CreateSQLFunctionCommand para SQL Scalar e funções de tabela
- [SPARK-50830] [SC-186718] [SQL] Retorna o resultado de uma única passagem como o resultado da análise de execução dupla
- [SPARK-50707] [SC-186098][sql] Ativar conversão de/para char/varchar
- [SPARK-49490] [SC-182137][sql] Adicionar benchmarks para initCap
-
[SPARK-50529] [SC-184535][sql] Alterar o comportamento dos tipos de dados char/varchar sob a configuração
spark.sql.preserveCharVarcharTypeInfo - [SPARK-49632] [SC-184179][sql] Remova a sugestão de configuração ANSI no CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Corrigir bug onde passar Variantes nulas em createDataFrame faz com que ele falhe e adicione suporte a Variant em createDataFrame no Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] Descontinuar
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Conjunto analisado em falha de análise
- [SPARK-50824] [SC-186472][python] Evite importar pacotes Python opcionais para verificação
- [SPARK-50755] [SC-185521][sql] Exibição de plano bonito para InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] As entradas para agregações tipadas devem ser analisadas
- [SPARK-50791] [SC-185867][sc-186338][SQL] Corrigir NPE no tratamento de erros do State Store
-
[SPARK-50801] [SC-186365] [SQL] Melhorar
PlanLogger.logPlanResolutionpara mostrar apenas planos não resolvidos e resolvidos - [SPARK-50749] [SC-185925][sql] Corrigir bug de ordenação no método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Canonizar o nome e o layout do ficheiro de resultados do criador de perfil JVM no DFS
- [SPARK-50790] [SC-186354][python] Implementar análise de JSON no PySpark
- [SPARK-50738] [SC-184856][python] Atualize Black para 23.12.1
- [SPARK-50764] [SC-185930][python] Refine o docstring de métodos relacionados ao xpath
-
[SPARK-50798] [SC-186277][sql] Melhorar
NormalizePlan - [SPARK-49883] [SC-183787][ss] State Store Checkpoint Structure V2 Integração com RocksDB e RocksDBFileManager
- [SPARK-50779] [SC-186062][sql] Adicionando flag de funcionalidade para agrupamentos no nível do objeto
- [SPARK-50778] [SC-186183][python] Adicionar metadataColumn ao PySpark DataFrame
- [SPARK-49565] [SC-186056][sql] Databricks Runtime 16.x cherrypick: Melhorar os alias de expressão gerados automaticamente com operadores pipe SQL
- [SPARK-50541] [16.x][sc-184937] Descrever a tabela como JSON
- [SPARK-50772] [SC-185923][sql] Databricks Runtime 16.x incorporação seletiva: Manter os aliases das tabelas após SET, operadores EXTEND, DROP
- [SPARK-50769] [SC-185919][sql] Corrigir ClassCastException em HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar o diferencial do código Delta com o tempo de execução dos Databricks
- [SPARK-50752] [SC-185547][python][SQL] Introduza configurações para ajustar Python UDF sem seta
-
[SPARK-50705] [SC-185944][sql] Tornar
QueryPlansem bloqueio - [SPARK-50690] [16.x][sc-184640][SQL] Corrigir discrepância na DESCRIBE TABLE citação de colunas de saída de consulta de exibição
- [SPARK-50746] [SC-184932][sql] Substitua Either por VariantPathSegment.
-
[SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builderdefine as configurações em lote - [SPARK-50480] [SC-183359][sql] Estender CharType e VarcharType a partir de StringType
- [SPARK-50675] [SC-184539][sql] Suporte a agrupamentos de nível de tabela e exibição
-
[SPARK-50409] [SC-184516][sql] Corrigir a instrução 'set' para ignorar
;no final deSET;,SET -v;eSET key; - [SPARK-50743] [SC-185528][sql] Normalizar os IDs de CTERelationDef e CTERelationRef
- [SPARK-50693] [SC-184684][connect] As entradas para TypedScalaUdf devem ser analisadas
- [SPARK-50744] [SC-184929][sql] Adicionar um caso de teste para precedência de resolução de nomes View/CTE
- [SPARK-50710] [SC-184767][connect] Adicionar suporte para reconexão de cliente opcional a sessões após o lançamento
- [SPARK-50703] [SC-184843][python] Refine o docstring de regexp_replace, regexp_substr e regexp_instr
-
[SPARK-50716] [SC-184823][core] Corrigir a lógica de limpeza de links simbólicos no método
JavaUtils.deleteRecursivelyUsingJavaIO - [SPARK-50630] [SC-184443][sql] Corrigir GROUP BY o suporte ordinal para operadores de pipe SQL AGGREGATE
- [SPARK-50614] [SC-184729][sql] Adicionar suporte de fragmentação de variante para Parquet
- [SPARK-50661] [SASP-4936] Adicionar compatibilidade com versões anteriores para o cliente antigo FEB.
-
[SPARK-50676] [SC-184641][sql] Remover não utilizado
private lazy val mapValueContainsNulldeElementAt -
[SPARK-50515] [SC-183813][core] Adicionar interface somente leitura a
SparkConf - [SPARK-50697] [SC-184702][sql] Habilitar a recursão final sempre que possível
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Corrija o esquema de estado para FlatMapGroupsWithState no Spark Connect quando não houver estado inicial.
- [SPARK-50701] [SC-184704][python] Faça com que a plotagem exija a versão mínima do plotly
- [SPARK-50702] [SC-184727][python] Refine o docstring de regexp_count, regexp_extract e regexp_extract_all
- [SPARK-50499] [SC-184177][python] Exponha métricas do BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Adicionar suporte ao pushdown RPAD
- [SPARK-50682] [SC-184579][sql] Alias interno deve ser canonicalizado
- [SPARK-50699] [SC-184695][python] Analise e gere a cadeia de caracteres DDL com uma sessão especificada
- [SPARK-50573] [SC-184568][ss] Adicionando ID de esquema de estado a linhas de estado para evolução do esquema
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Correção da implementação do foreachBatch do Spark Connect Scala. para dar suporte a Dataset[T].
- [SPARK-50689] [SC-184591][sql] Impor ordenação determinística em listas de projetos LCA
- [SPARK-50696] [SC-184667][python] Otimizar chamada Py4J para método de análise DDL
- [SPARK-49670] [SC-182902][sql] Habilitar agrupamento de corte para todas as expressões de passagem
-
[SPARK-50673] [SC-184565][ml] Evite atravessar coeficientes de modelo duas vezes no
Word2VecModelconstrutor - [SPARK-50687] [SC-184588][python] Otimize a lógica para obter traces de stack para DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Armazene em cache o esquema analisado para MapInXXX e ApplyInXXX
- [SPARK-50674] [SC-184589][python] Corrigir verificação da existência do método 'terminate' na avaliação UDTF
- [SPARK-50684] [SC-184582][python] Melhorar o desempenho do Py4J em DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Adicionar suporte para a nova versão dos metadados de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][sql] Corrigir transposição para exibir uma mensagem de erro apropriada quando colunas de índice inválidas são especificadas
- [SPARK-50650] [SC-184532][sql] Melhorar o logging no analisador de passagem única
- [SPARK-50665] [SC-184533][sql] Substitua LocalRelation por ComparableLocalRelation no NormalizePlan
- [SPARK-50644] [SC-184486][sql] Leia a estrutura variante no leitor Parquet.
- [SPARK-49636] [SC-184089][sql] Remova a sugestão de configuração ANSI nos INVALID_ARRAY_INDEX e INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Refatorar o cálculo do output da união para reutilizá-lo no single-pass Analyzer
- [SPARK-50659] [SC-184512][sql] Mover erros relacionados à Union para QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Corrigir cálculo de contexto de tipo de cadeia implícita incorreta
- [SPARK-50546] [SC-183807][sql] Adicionar suporte de transmissão de subconsulta à coerção do tipo de agrupamento
- [SPARK-50405] [SC-182889][sql] Gerir a coerção de tipos de colação de tipos de dados complexos corretamente
- [SPARK-50637] [SC-184434][sql] Corrigir estilo de código para o analisador de passagem única
- [SPARK-50638] [SC-184435][sql] Refatorar a resolução da vista em um arquivo separado para que possa ser reutilizada no analisador de passagem única
- [SPARK-50615] [SC-184298][sql] Transferir variante para à consulta.
- [SPARK-50619] [SC-184210][sql] Refatorar VariantGet.cast para agrupar os argumentos de conversão
- [SPARK-50599] [SC-184058][sql] Crie o traço DataEncoder que permite a codificação Avro e UnsafeRow
- [SPARK-50076] [SC-183809] Corrigir chaves de log
- [SPARK-50597] [SC-183972][sql] Refatorar a construção de lotes em Optimizer.scala e SparkOptimizer.scala
- [SPARK-50339] [SC-183063][spark-50360][SS] Habilite o changelog para armazenar informações de linhagem
- [SPARK-50526] [SC-183811][ss] Adicionar configuração de formato de codificação de armazenamento no log de deslocamento e impedir que operadores com estado não suportados usem avro
- [SPARK-50540] [SC-183810][python][SS] Corrigir esquema de cadeia de caracteres para StatefulProcessorHandle
- [SPARK-50157] [SC-183789][sql] Primeiro, usando o SQLConf fornecido pelo SparkSession.
- [SPARK-48898] [SC-183793][sql] Definir a anulabilidade corretamente no esquema Variant
- [SPARK-50559] [SC-183814][sql] Armazenar as saídas do Except, Intersect e União como vals preguiçosos
- [SPARK-48416] [SC-183643][sql] Suporte aninhado correlacionado com expressão
- [SPARK-50428] [SC-183566][ss][PYTHON] Suporte a TransformWithStateInPandas nas consultas em lote
- [SPARK-50063] [SC-183350][sql][CONNECT] Adicionar suporte para Variant no cliente Spark Connect Scala
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementar
StructType.toDDL - [SPARK-50443] [SC-182590][ss] Corrigindo erros de compilação do Maven introduzidos pelo cache Guava no RocksDBStateStoreProvider
- [SPARK-50491] [SC-183434][sql] Corrigir bug onde blocos vazios BEGIN END lançam um erro
-
[SPARK-50536] [SC-183443][core] Registre os tamanhos dos arquivos baixados em
SparkContexteExecutor - [SPARK-45891] [SC-183439][sql] Reconstrua o binário variante a partir de dados triturados.
- [SPARK-49565] [SC-183465][sql] Adicionar sintaxe de pipe SQL para o operador FROM
- [SPARK-50497] [SC-183338][sql] Falha em consultas com mensagem adequada se MultiAlias contiver função não-geradora
- [SPARK-50460] [SC-183375][python][CONNECT] Generalizar e simplificar o tratamento de exceções do Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Corrigir opção de compactação sendo substituída
df.write.parquet - [SPARK-50329] [SC-183358][sql] corrigir InSet$toString
- [SPARK-50524] [SC-183364][sql] Reduzir a mensagem de aviso para o nível de depuração
-
[SPARK-50528] [SC-183385][connect] Mover
InvalidCommandInputpara o módulo comum - [SPARK-50017] [SC-182438][ss] Suporte à codificação Avro para o operador TransformWithState
-
[SPARK-50463] [SC-182833][sql] Correção
ConstantColumnVectorcom conversão de coluna para linha - [SPARK-50235] [SC-180786][sql] Limpar recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Corrija o teste relacionado ao estado de inicialização para usar o StreamManualClock
- [SPARK-50478] [SC-183188][sql] Corrigir correspondência StringType
- [SPARK-50492] [SC-183177][ss] Corrigir java.util.NoSuchElementException quando a coluna de tempo de evento é descartada após dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Adicionar sintaxe de pipe SQL para o SET operador
- [SPARK-50449] [SC-183178][sql] Corrija a gramática de script SQL permitindo corpos vazios para loops, IF e CASE
-
[SPARK-50251] [SC-180970][python] Adicionar
getSystemPropertyao PySparkSparkContext - [SPARK-50421] [SC-183091][core] Corrigir a configuração incorreta de memória relacionada ao executor quando vários perfis de recursos estavam em uso
- [SPARK-49461] [SC-179572][ss] ID de ponto de verificação persistente para confirmar logs e lê-los de volta
- [SPARK-50343] [SC-183119][spark-50344][SQL] Adicionar sintaxe de pipe SQL para os operadores DROP e AS
-
[SPARK-50481] [SC-182880][core] Melhorar
SortShuffleManager.unregisterShufflepara ignorar a lógica do arquivo de soma de verificação se a soma de verificação estiver desabilitada -
[SPARK-50498] [SC-183090][python] Evite chamadas py4j desnecessárias
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Corrigir auto-junção após
applyInArrow - [SPARK-49695] [SC-182967][sc-176968][SQL] Correção de push-down XOR no Postgres
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC,baixe JDBC).
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 16.2.
Ambiente do sistema
-
Sistema Operacional: Ubuntu 24.04.1 LTS
- Nota: Esta é a versão do Ubuntu usada pelos contêineres Databricks Runtime. Os contêineres do Databricks Runtime são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou distribuição Linux.
- Java : Zulu17.54+21-CA
- Scala: 2.12.15
- Píton: 3.12.3
- R: 4.4.0
- Lago Delta: 3.3.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | AstTokens | 2.0.5 | Astunparse | 1.6.3 |
| Comando automático | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| azure armazenamento arquivo lago de dados | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
| pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
| Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | CFFI | 1.16.0 |
| Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clicar | 8.1.7 |
| Cloudpickle | 2.2.1 | Comunicação | 0.2.1 | contorno | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | Distlib | 0.3.8 |
| docstring-para-markdown | 0.11 | pontos de entrada | 0.4 | executando | 0.8.3 |
| facetas-visão geral | 1.1.1 | bloqueio de ficheiro | 3.15.4 | Fonttools | 4.51.0 |
| GitDB | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| Google-Auth | 2.35.0 | google-nuvem-core | 2.4.1 | Google Cloud Storage | 2.18.2 |
| Google-CRC32C | 1.6.0 | google-retomável-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| Grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadados | 6.0.0 | importlib_resources | 6.4.0 |
| modificar | 7.3.1 | ipyflow-core | 0.0.201 | Ipykernel | 6.28.0 |
| IPython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Isodato | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | JmesPath | 1.0.1 |
| Joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| Kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-ligeiro | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensões | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | OAuthlib | 3.2.2 |
| OpenTelemetry-API | 1.27.0 | OpenTelemetry SDK | 1.27.0 | OpenTelemetria-Semântica-Convenções | 0,48b0 |
| embalagem | 24.1 | pandas | 1.5.3 | Parso | 0.8.3 |
| PathSpec | 0.10.3 | vítima | 0.5.6 | pexpect | 4.8.0 |
| almofada | 10.3.0 | pip (o gestor de pacotes do Python) | 24.2 | platformdirs | 3.10.0 |
| enredo | 5.22.0 | Pluggy | 1.0.0 | kit de ferramentas de prompt | 3.0.43 |
| Proto-Plus | 1.24.0 | Protobuf | 4.24.1 | PSUTIL | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
| Pyarrow | 15.0.2 | Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
| Pyccolo | 0.0.65 | Pycparser | 2.21 | Pidântico | 2.8.2 |
| pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pigmentos | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 |
| Pytz | 2024.1 | PyYAML | 6.0.1 | Pyzmq | 25.1.2 |
| pedidos | 2.32.2 | corda | 1.12.0 | RSA | 4,9 |
| s3transfer | 0.10.2 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 1.4.2 | SciPy | 1.13.1 |
| nascido no mar | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
| smmap | 5.0.0 | SQLPARSE | 0.5.1 | ssh-import-id | 5.11 |
| dados de stack | 0.2.0 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.14.2 | tenacidade | 8.2.2 |
| ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets (biblioteca de configuração de atributos em Python) | 5.14.3 | Protetor de Tipografia | 4.3.0 |
| tipos-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| tipos-PyYAML | 6.0.0 | tipos-de-pedidos | 2.31.0.0 | tipos-setuptools | 68.0.0.0 |
| tipos-seis | 1.16.0 | tipos-urllib3 | 1.26.25.14 | typing_extensions (extensões de digitação) | 4.11.0 |
| Ujson | 5.10.0 | Atualizações autónomas | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch (ferramenta para comparação de patches) | 1.0.2 | wheel | 0.43.0 | embrulhado | 1.14.1 |
| Yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo do CRAN do Posit Package Manager na data de 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| seta | 16.1.0 | AskPass | 1.2.0 | afirmar que | 0.2.1 |
| Backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| Bitops | 1.0-8 | blob | 1.2.4 | inicialização | 1.3-30 |
| cerveja artesanal | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
| BSLIB | 0.8.0 | cachem | 1.1.0 | Chamador | 3.7.6 |
| Caret | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| relógio | 0.7.1 | cluster | 2.1.6 | CodeTools | 0.2-20 |
| espaço de cores | 2.1-1 | marca comum | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | conflituosos | 1.2.0 | C++11 | 0.4.7 |
| giz de cera | 1.5.3 | credenciais | 2.0.1 | ondulação | 5.2.1 |
| data.table | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
| DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.36 |
| Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
| e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
| Fãsi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | FORCATS | 1.0.0 | para cada | 1.5.2 |
| estrangeiro | 0.8-86 | forjar | 0.2.0 | fs | 1.6.4 |
| Futuro | 1.34.0 | future.apply | 1.11.2 | gargarejo | 1.5.2 |
| genérico | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
| GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | capacete | 1.4.0 | Refúgio | 2.5.4 |
| mais alto | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
| HTTR2 | 1.0.2 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | Isoband | 0.2.7 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1.48 | rotulagem | 0.4.3 |
| mais tarde | 1.3.2 | treliça | 0.22-5 | lava | 1.8.0 |
| ciclo de vida | 1.0.4 | ouvirv | 0.9.1 | lubridato | 1.9.3 |
| Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
| Matriz | 1.6-5 | Memorização | 2.0.1 | Metodologia | 4.4.0 |
| mgcv | 1.9-1 | mime | 0,12 | miniUI | 0.1.1.1 |
| Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
| Pretty Units | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
| progressr | 0.14.0 | promessas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | PS | 1.7.7 | ronronar | 1.0.2 |
| R6 | 2.5.1 | RAGG | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | interativo | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | ReadXL | 1.4.3 |
| receitas | 1.1.0 | nova partida | 2.0.0 | revanche2 | 2.1.2 |
| Controles remotos | 2.5.0 | Reprex | 2.1.1 | remodelação2 | 1.4.4 |
| Rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| oxigénio2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
| balanças | 1.3.0 | seletor | 0.4-2 | informação de sessão | 1.2.2 |
| forma | 1.4.6.1 | brilhante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| estrias | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| estatísticas | 4.4.0 | Estatísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | Sobrevivência | 3.6-4 | Swagger | 5.17.14.1 |
| Sistema | 3.4.2 | fontes do sistema | 1.1.0 | TCLTK | 4.4.0 |
| testthat | 3.2.1.1 | formatação de texto | 0.4.0 | Tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | Tidyverse | 2.0.0 |
| mudança de hora | 0.3.0 | timeDate | 4032.109 | Tinytex | 0.52 |
| Ferramentas | 4.4.0 | TZDB | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | UTF8 | 1.2.4 | utilitários | 4.4.0 |
| UUID | 1.2-1 | V8 | 4.4.2 | VCTRS | 0.6.5 |
| viridisLite | 0.4.2 | vrum | 1.6.5 | Waldo | 0.5.2 |
| bigode | 0.4.1 | murchar | 3.0.1 | xfun | 0.46 |
| XML2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | Zeallot | 0.1.0 | zip (formato de arquivo) | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (kit de desenvolvimento de software Java para DirectConnect) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-sombreado | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anotações | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
| com.github.luben | ZSTD-JNI | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | GSON | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotações_suscetíveis_a_erro | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | Goiaba | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | gerador de perfis | 1.1.1 |
| com.ibm.icu | ICU4J | 75.1 |
| com.jcraft | JSCH | 0.1.55 |
| com.jolbox | BONECP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
| com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | JAXB-CORE | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| coleções commons | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| Commons-Logging | Commons-Logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | Lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.27 |
| IO.Delta | delta-compartilhamento-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | métricas-anotação | 4.2.19 |
| io.dropwizard.metrics | métricas principais | 4.2.19 |
| io.dropwizard.metrics | métricas-grafite | 4.2.19 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
| io.dropwizard.metrics | métricas-Jetty9 | 4.2.19 |
| io.dropwizard.metrics | métricas-jmx | 4.2.19 |
| io.dropwizard.metrics | métricas-json | 4.2.19 |
| io.dropwizard.metrics | métricas-JVM | 4.2.19 |
| io.dropwizard.metrics | métricas-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-comum | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transporte | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_common | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jacarta.validação | Jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| javolution | javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | picles | 1.3 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-tempo de execução | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ANT-JSCH | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | formato de seta | 15.0.0 |
| org.apache.arrow | seta-memória-núcleo | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | seta-vetor | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | AVRO-IPC | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.10.0 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | Framework de Curadoria | 2.13.0 |
| org.apache.curador | curadoria-receitas | 2.13.0 |
| org.apache.datasketches | Datasketches-Java | 3.1.0 |
| org.apache.datasketches | datasketches-memória | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop Client Runtime | 3.3.6 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Hera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-modelo-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-protobuf sombreado |
| org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
| org.apache.orc | Orc-calços | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotações do público | 0.13.0 |
| org.apache.zookeeper | tratador de jardins zoológicos | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | verificador de qualidade | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | DataNucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-coleções | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.52.v20230823 |
| org.eclipse.jetty | Cais-Continuação | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Segurança | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-XML | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGI-Localizador de Recursos | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-cliente | 2.40 |
| org.glassfish.jersey.core | Jersey-Comum | 2.40 |
| org.glassfish.jersey.core | servidor do Jersey | 2.40 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
| org.hibernate.validator | Hibernate-Validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 4.0.7 |
| org.json4s | JSON4S-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | JSON4S-scalap_2.12 | 4.0.7 |
| org.lz4 | LZ4-Java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2,12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | calços | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-sobre-slf4j | 2.0.7 |
| org.slf4j | jul-para-slf4j | 2.0.7 |
| org.slf4j | SLF4J-API | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-plataforma_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | SQLITE-JDBC | 3.42.0.0 |
| org.xerial.snappy | Snappy-java | 1.1.10.3 |
| org.yaml | Snakeyaml | 2.0 |
| ORO | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | Stax-API | 1.0.1 |