Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
Essa versão do Databricks Runtime atingiu o fim da vida útil e não está mais disponível. Para datas de fim de vida, consulte o fim do suporte e a história de fim de vida. Para obter mais informações sobre a política de suporte e o cronograma do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.
As notas de lançamento a seguir fornecem informações sobre o Databricks Runtime 10.1 e o Databricks Runtime 10.1 Photon, que são baseados no Apache Spark 3.2.0. A Databricks lançou essa versão em novembro de 2021. O Photon está em Visualização Pública.
Novos recursos e aprimoramentos
- Novas configurações de tabela Delta para compactação de arquivos pequenos
- Novas métricas de grupo de linhas para verificações de consulta Parquet
- Trigger.AvailableNow para consultas de streaming da fonte Delta
- Trigger.AvailableNow para o Auto Loader
- Suporte Delta para configurações do sistema de arquivos Hadoop passadas por opções de DataFrame
- O ponto de verificação de estado assíncrono agora tem suporte em trabalhos de fluxo com estado (Visualização Pública)
- Sparklyr com transferência de credenciais
- Controle de precisão de resumo de dados de Utilitários do Databricks (Visualização Pública)
- Os notebooks do Azure Databricks agora podem ser usados com o kernel do IPython
- Novas funções no Spark SQL
Novas configurações de tabela Delta para compactação de arquivos pequenos
A propriedade delta.autoOptimize.autoCompact da tabela Delta agora aceita os novos valores de auto e legacy, além dos valores existentes de true e false. Quando definida como auto (recomendado), a Compactação Automática usa padrões melhores, como a configuração de 32 MB como o tamanho do arquivo de destino (embora os comportamentos padrão estejam sujeitos a alterações no futuro). Quando definida como legacy ou true, a Compactação Automática usa 128 MB como o tamanho do arquivo de destino.
Em vez de definir essa propriedade para uma tabela individual, você pode definir a configuração spark.databricks.delta.autoCompact.enabled para auto, legacy ou true para habilitar a Compactação Automática para todas as tabelas Delta. Essa configuração tem precedência sobre a propriedade de tabela relacionada durante a sessão atual.
O tamanho do arquivo de destino para Compactação Automática pode ser controlado com a configuração spark.databricks.delta.autoCompact.maxFileSize.
Para obter mais informações sobre Compactação Automática, consulte Compactação automática.
Novas métricas de grupo de linhas para escaneamentos de consulta Parquet
As consultas com verificações de Parquet agora revelam métricas do grupo de linhas na interface do usuário do Spark. Essas métricas de grupo de linhas são:
- número total de grupos de linhas parquet
- número de leituras de grupos de linhas parquet
Trigger.AvailableNow para consultas de streaming de origem Delta
Essa alteração dá suporte a um novo tipo de gatilho para consultas de fluxo Delta em Scala: Trigger.AvailableNow. É como o Trigger.Once, que processa todos os dados disponíveis e, em seguida, interrompe a consulta. No entanto, o Trigger.AvailableNow oferece melhor escalabilidade, pois os dados podem ser processados em vários lotes em vez de um. Essa alteração não introduz uma nova interface; ela implementa uma API do Spark existente. Esse gatilho também dá suporte a todas as opções de limitação de taxa que já têm suporte no Delta como uma origem.
Exemplo:
spark.readStream
.format("delta")
.option("maxFilesPerTrigger", "1")
.load(inputDir)
.writeStream
.trigger(Trigger.AvailableNow)
.option("checkpointLocation", checkpointDir)
.start()
Confira a cobertura do Trigger.AvailableNow em O que é o Carregador Automático?.
Trigger.AvailableNow para o Auto Loader
Trigger.AvailableNow é um novo modo de gatilho de streaming semelhante ao Trigger.Once. O Trigger.Once processa todos os dados disponíveis e, em seguida, interrompe a consulta. O Trigger.AvailableNow oferece melhor escalabilidade, pois os dados podem ser processados em vários lotes em vez de um. O Auto Loader agora dá suporte ao Trigger.AvailableNow nos modos de listagem de diretório e de notificação de arquivo do Scala. Confira a cobertura do Trigger.AvailableNow em O que é o Carregador Automático?.
Suporte Delta para configurações do sistema de arquivos do Hadoop que são passadas por meio de opções de DataFrame
Semelhante ao Parquet, o Delta agora dá suporte à leitura de Configurações do sistema de arquivos do Hadoop das opções DataFrameReader e DataFrameWriter quando a tabela é lida ou gravada, usando DataFrameReader.load(path) ou DataFrameWriter.save(path). Consulte Configurar credenciais de armazenamento do Delta.
O ponto de verificação de estado assíncrono agora tem suporte em trabalhos de fluxo com estado (Visualização Pública)
O ponto de verificação de estado assíncrono é um novo recurso que pode potencialmente reduzir a latência de microlotes de ponta a ponta em tarefas de streaming com grandes atualizações de estado. Consulte Ponto de verificação de estado assíncrono para consultas com estado.
Sparklyr com transferência de credenciais
Agora você pode usar as APIs sparklyr para ler e gravar dados de/para o armazenamento em nuvem usando a passagem de credenciais. Essa funcionalidade é limitada a clusters padrão com acesso de usuário único. Consulte Acessar o Azure Data Lake Storage usando o repasse de credencial do Microsoft Entra ID (legado).
Resumo de dados com controle de precisão dos Utilitários do Databricks (Visualização Pública)
Um novo parâmetro precise para dbutils.data.summarize controla a precisão dos resultados de resumo. Quando precise é definido como false (o padrão), o resumo retorna resultados aproximados para contagem distinta, percentis e itens frequentes. Quando precise é definido como true, os resumos agora são calculados com contagem distinta exata e contagens de itens frequentes, proporcionando estimativas mais precisas de percentil. Veja o comando resumir (dbutils.data.summarize).
Os notebooks do Azure Databricks agora podem ser usados com o kernel do IPython
Agora você pode configurar um cluster do Azure Databricks para usar o kernel do IPython para executar código do Python. Usar o kernel IPython no Azure Databricks adiciona suporte para ferramentas de exibição e saída do IPython. Além disso, o kernel IPython captura as saídas stdout e stderr de processos filho criados por um notebook, permitindo que essa saída seja incluída nos resultados do comando do notebook.
Para obter mais informações, confira Kernel do IPython.
Novas funções no Spark SQL
Os seguintes objetos e comandos foram adicionados para trabalhar com os dados no Unity Catalog (versão prévia):
- Locais externos
- ALTER CATALOG
- ALTER CREDENTIAL
- ALTERAR LOCAL
- CREATE CATALOG
- CRIAR LOCAL
- CREATE RECIPIENT
- DESCRIBE CATALOG
- DESCRIBE CREDENTIAL
- DESCRIÇÃO DA LOCALIZAÇÃO
- DROP CATALOG
- DROP CREDENTIAL
- LOCAL DE DESTINO
- LIST
- SHOW CATALOGS
- SHOW CREDENTIALS
- MOSTRAR LOCALIZAÇÕES
- USE CATALOG
Os comandos a seguir foram adicionados para o Compartilhamento Delta (versão prévia), que permite que você compartilhe dados somente leitura com destinatários fora da sua organização:
- Compartilhamento
- ALTER SHARE
- CREATE SHARE
- DESCRIBE RECIPIENT
- DESCRIBE SHARE
- DROP RECIPIENT
- DROP SHARE
- GRANT COMPARTILHAR
- REVOKE COMPARTILHAR
- SHOW ALL IN SHARE
- SHOW RECIPIENTS
- SHOW SHARES
- SHOW GRANTS ON SHARE
- SHOW GRANTS TO RECIPIENT
Correções de bug
- Corrigida uma condição de corrida que pode causar a falha de uma consulta com um
IOExceptioncomoNo FileSystem for schemeou que possa fazer com que as modificações emsparkContext.hadoopConfigurationnão sejam aplicadas nas consultas.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- filelock de 3.0.12 para 3.3.1
- koalas de 1.8.1 para 1.8.2
- plotly de 5.1.0 para 5.3.0
- Bibliotecas do R atualizadas:
- bslib de 0.3.0 para 0.3.1
- caret de 6.0-88 para 6.0-90
- cpp11 de 0.3.1 para 0.4.0
- data.table de 1.14.0 para 1.14.2
- desc de 1.3.0 para 1.4.0
- diffobj de 0.3.4 para 0.3.5
- digest de 0.6.27 para 0.6.28
- generics de 0.1.0 para 0.1.1
- hms de 1.1.0 para 1.1.1
- knitr de 1.34 para 1.36
- lattice de 0.20-44 para 0.20-45
- lifecycle do 1.0.0 para 1.0.1
- lubridate de 1.7.10 para 1.8.0
- mgcv de 1.8-37 para 1.8-38
- mime de 0.11 para 0.12
- pkgload de 1.2.2 para 1.2.3
- progressr de 0.8.0 para 0.9.0
- rcmdcheck de 1.3.3 para 1.4.0
- readr de 2.0.1 para 2.0.2
- recipes de 0.1.16 para 0.1.17
- atualizações de versão do remotes de 2.4.0 para 2.4.1
- rlang de 0.4.11 para 0.4.12
- Atualização de rvest de 1.0.1 para 1.0.2
- shiny de 1.6.0 para 1.7.1
- Atualização do stringi da versão 1.7.4 para a versão 1.7.5
- testthat de 3.0.4 para 3.1.0
- tidyr de 1.1.3 para 1.1.4
- tinytex de 0.33 para 0.34
- usethis de 2.0.1 para 2.1.2
- xfun de 0.26 para 0.27
- Bibliotecas do Java atualizadas:
- com.zaxxer.HikariCP de 3.1.0 para 4.0.3
Apache Spark
Databricks Runtime 10.1 inclui o Apache Spark 3.2.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 10.0 (EoL), bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- [SPARK-37037] [SQL] Aprimorar classificação da matriz de bytes unificando a função compareTo de UTF8String e ByteArray
- [SPARK-37091] [R] "SystemRequirements" para incluir Java < 18
- [SPARK-37041] [SQL] Backport HIVE-15025: suporte de SSL (Secure-Socket-Layer) para HMS
- [SPARK-37098] [SQL] Alterar propriedades da tabela deve invalidar o cache
- [SPARK-36992] [SQL] Aprimorar desempenho da classificação da matriz de bytes unificando a função getPrefix de UTF8String e ByteArray
- [SPARK-37047] [SQL] Adicionar funções lpad e rpad para cadeias de caracteres binárias
- [SPARK-37076] [SQL] Implementar StructType.toString explicitamente no Scala 2.13
- [SPARK-37075] [SQL] Mover a construção da expressão UDAF do sql/catalyst para o sql/core
- [SPARK-37084] [SQL] Definir spark.sql.files.openCostInBytes como bytesConf
- [SPARK-37088] [PYSPARK][sql] O thread do gravador não deve acessar a entrada após o retorno do ouvinte de conclusão da tarefa
- [SPARK-37069] [SQL] Proceder ao fallback de forma correta quando Hive.getWithoutRegisterFns não estiver disponível
- [SPARK-37050] [PYTHON] Atualizar instruções de instalação do Conda
- [SPARK-37067] [SQL] Use ZoneId.of() para manipular a cadeia de caracteres de fuso horário em DatetimeUtils
- [SPARK-35925] [SQL] Suporte a DayTimeIntervalType na função width-bucket
- [SPARK-35926] [SQL] Adicionar suporte a YearMonthIntervalType para width_bucket
-
[SPARK-35973] [SQL] Adicionar comando
SHOW CATALOGS - [SPARK-36922] [SQL] As funções SIGN/SIGNUM devem dar suporte a intervalos ANSI
- [SPARK-37078] [CORE] Suporte a construtores Sink antigos de três parâmetros
- [SPARK-37061] [SQL] Corrigir CustomMetrics ao usar classes internas
- [SPARK-35918] [AVRO] Unificar o tratamento de incompatibilidade de esquema para leitura/gravação e melhorar as mensagens de erro
- [SPARK-36871] [SQL] Migrar comando CreateViewStatement para v2
- [SPARK-36898] [SQL] Tornar o fator de junção hash aleatória configurável
-
[SPARK-36921] [SQL] Suporte para intervalos ANSI por
DIV - [SPARK-36794] [SQL] Ignorar chaves de associação duplicadas ao criar a relação para a junção hash SEMI/ANTI aleatorizada
- [SPARK-36867] [SQL] Corrigir mensagem de erro com alias GROUP BY
- [SPARK-36914] [SQL] Implementar dropIndex e listIndexes no JDBC (dialeto MySQL)
- [SPARK-35531] [SQL] Passar diretamente a tabela Hive para o HiveClient ao chamar getPartitions, evitando assim a conversão desnecessária de HiveTable -> CatalogTable - -> HiveTable
- [SPARK-36718] [SQL] Colapsar projetos apenas se não duplicarmos expressões caras
- [SPARK-37046] [SQL]: Alterar exibição não preserva as maiúsculas e minúsculas da coluna
- [SPARK-36978] [SQL] A regra InferConstraints deve criar restrições IsNotNull no campo aninhado acessado em vez do tipo aninhado raiz
- [SPARK-37052] [CORE] O Spark só deve passar o argumento –verbose para a classe principal quando for uma shell SQL
- [SPARK-37017] [SQL] Reduzir o escopo da sincronização para evitar um possível deadlock
- [SPARK-37032] [SQL] Corrigir o link de sintaxe SQL quebrado na página de referência do SQL
- [SPARK-36905] [SQL] Correção: Leitura de views do Hive sem nomes de colunas explícitos
- [SPARK-36678] Migrar SHOW TABLES para usar o comando V2 por padrão
- [SPARK-36943] [SQL] Aprimorar a legibilidade da mensagem de erro de coluna ausente
- [SPARK-36980] [SQL] Inserir consulta de suporte com CTE
- [SPARK-37001] [SQL] Desativar dois níveis do mapa para agregação do hash final por padrão
-
[SPARK-36970] [SQL] Formato desabilitado manualmente da função
Bpara tornar o Java 17 compatível com o Java 8 - [SPARK-36546] [SQL] Adicionar suporte de matriz à união por nome
- [SPARK-36979] [SQL] Adicionar regra RewriteLateralSubquery em nonExcludableRules
- [SPARK-36949] [SQL] Não permitir tabelas de provedor do Hive com intervalos ANSI
- [SPARK-36849] [SQL] Migrar UseStatement para a estrutura de comando v2
- [SPARK-36868] [SQL] Migrar CreateFunctionStatement para a estrutura de comando v2
-
[SPARK-36841] [SQL] Adicionar sintaxe ANSI
set catalog xxxpara alterar o catálogo atual - [SPARK-36821] [SQL] Tornar a classe ColumnarBatch estendível – adendo
- [SPARK-36963] [SQL] Adicionar max_by/min_by ao sql.functions
- [SPARK-36913] [SQL] Implementar CreateIndex e IndexExists no DS V2 JDBC (dialeto MySQL)
- [SPARK-36848] [SQL] Migrar ShowCurrentNamespaceStatement para a estrutura de comando v2
- [SPARK-36526] [SQL] Suporte ao índice DSV2: adicionar interface supportsIndex
- [SPARK-36960] [SQL] Filtros de pushdown com valores de intervalo ANSI para ORC
- [SPARK-36929] [SQL] Remover método não utilizado ElimineSubqueryAliasesSuite#assertEquivalent
- [SPARK-36931] [SQL] Suporte à leitura e gravação de intervalos ANSI de/para fonte de dados ORC
- [SPARK-34980] [SQL] Suporte à partição de coalesce através da operação de união no AQE
- [SPARK-36809] [SQL] Remover transmissão para InSubqueryExec usada no DPP
- [SPARK-36813] [SQL][python] Propor uma infraestrutura de junção as-of e implementar ps.merge_asof
- [SPARK-36918] [SQL] Ignorar tipos ao comparar structs para unionByName
- [SPARK-36891] [SQL] Refatorar SpecificParquetRecordReaderBase e adicione mais cobertura na decodificação de Parquet vetorizada
-
[SPARK-36920] [SQL] Suporte a intervalos ANSI por
ABS() - [SPARK-36888] [SQL] Adicionar casos de testes para a função de sha2
-
[SPARK-36889] [SQL] O construtor de varredura parquet v2 deve respeitar
spark.sql.parquet.filterPushdown - [SPARK-36830] [SQL] Suporte à leitura e gravação de intervalos ANSI de/para fonte de dados JSON
- [SPARK-36870] [SQL] Introduzir classe de erro INTERNAL_ERROR
- [SPARK-36831] [SQL] Suporte à leitura e gravação de intervalos ANSI de/para fonte de dados CSV.
- [SPARK-36550] [SQL] Causa de propagação quando a reflexão da UDF falha
- [SPARK-36866] [SQL] Filtros de pushdown com valores de intervalo ANSI para Parquet
- [SPARK-33832] [SQL] Forçar a simplificação e o aprimoramento do código de skew join.
- [SPARK-36642] [SQL] Adicionar API df.withMetadata do pyspark
- [SPARK-35765] [SQL] As agregações distintas não são sensíveis a duplicatas
- [SPARK-36825] [SQL] Ler/gravar dataframes com intervalos ANSI de/para arquivos parquet
- [SPARK-36829] [SQL] Refatorar verificação de NULL para collectionOperators
- [SPARK-32712] [SQL] Suporte à gravação de tabela em bucket do Hive (formatos de arquivo Hive com hash do Hive)
- [SPARK-36797] [SQL] Union deve tratar colunas aninhadas como colunas de nível superior
- [SPARK-36838] [SQL] Melhorar o desempenho de código gerado pelo InSet
- [SPARK-36683] [SQL] Adicionar novas funções de SQL: SEC e CSC
- [SPARK-36721] [SQL] Simplificar as igualdades boolianas se um lado for literal
- [SPARK-36760] [SQL] Adicionar interface SupportsPushDownV2Filters
- [SPARK-36652] [SQL] A seleção de junção dinâmica do AQE não deve se aplicar à junção non-equi
- [SPARK-36745] [SQL] ExtractEquiJoinKeys deve retornar os predicados originais nas chaves de junção
- [SPARK-36107] [SQL] Refatorar o primeiro conjunto de 20 erros de execução de consulta para usar classes de erro
- [SPARK-32709] [SQL] Suporte à gravação de tabela em bucket do Hive (formato Parquet/ORC com hash do Hive)
- [SPARK-36735] [SQL] Ajustar a sobrecarga da relação armazenada em cache para o DPP
- [SPARK-33832] [SQL] Suporte para otimização de junção distorcida, mesmo que isso introduza um shuffle extra
- [SPARK-36822] [SQL] BroadcastNestedLoopJoinExec deve usar todas as condições em vez de uma condição non-equi
- [SPARK-35221] [SQL] Adicionar a verificação de dicas de junção suportadas
- [SPARK-36814] [SQL] Tornar a classe ColumnarBatch estendível
- [SPARK-36663] [SQL] Suporte a nomes de coluna apenas numéricos em fontes de dados ORC
- [SPARK-36751] [SQL][python][R] Adicionar APIs de bit/octet_length ao Scala, Python e R
- [SPARK-36733] [SQL] Corrigir um problema de perf em SchemaPruning quando um struct tem muitos campos
- [SPARK-36724] [SQL] Suporte ao timestamp_ntz como um tipo de coluna de tempo para SessionWindow
- [SPARK-36556] [SQL] Adicionar filtros DSV2
- [SPARK-36687] [SQL][core] Renomear classes de erro com _ERROR sufixo
- [SPARK-35803] [SQL] Suporte para DataSource V2 CreateTempViewUsing
- [SPARK-36642] [SQL] Adicionar df.withMetadata: um syntax sugar para atualizar os metadados de um dataframe
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 10.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (atualização cumulativa de ISO) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
| gerador assíncrono | 1,10 | atributos | 20.3.0 | chamada de retorno | 0.2.0 |
| alvejante | 3.3.0 | boto3 | 1.16.7 | botocore | 1.19.7 |
| certifi... | 2020.12.5 | cffi | 1.14.5 | chardet | 4.0.0 |
| ciclista | 0.10.0 | Cython | 0.29.23 | dbus-python | 1.2.16 |
| decorador | 5.0.6 | defusedxml | 0.7.1 | distlib | 0.3.3 |
| distro-info | 0.23ubuntu1 | pontos de entrada | 0,3 | Visão geral de facetas | 1.0.0 |
| bloqueio de arquivo | 3.3.1 | IDNA | 2.10 | ipykernel | 5.3.4 |
| ipython | 7.22.0 | ipython-genutils | 0.2.0 | ipywidgets (biblioteca Python para widgets interativos) | 7.6.3 |
| Jedi | 0.17.2 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jsonschema | 3.2.0 | Cliente Jupyter | 6.1.12 |
| jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.1 | Coalas | 1.8.2 | MarkupSafe | 2.0.1 |
| matplotlib | 3.4.2 | Mistune | 0.8.4 | nbclient | 0.5.3 |
| nbconvert | 6.0.7 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
| notebook | 6.3.0 | numpy | 1.19.2 | embalagem | 20.9 |
| Pandas | 1.2.4 | pandocfilters | 1.4.3 | parso | 0.7.0 |
| Patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Almofada | 8.2.0 | caroço | 21.0.1 | enredo | 5.3.0 |
| prometheus-client | 0.10.1 | kit de ferramentas de prompt | 3.0.17 | protobuf | 3.17.2 |
| psycopg2 | 2.8.5 | ptyprocess | 0.7.0 | Pyarrow | 4.0.0 |
| pycparser | 2,20 | Pygments | 2.8.1 | PyGObject | 3.36.0 |
| pyparsing | 2.4.7 | pyrsistent | 0.17.3 | python-apt | 2.0.0+ubuntu0.20.4.6 |
| python-dateutil | 2.8.1 | Pytz | 2020.5 | pyzmq | 20.0.0 |
| solicitações | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-aprender | 0.24.1 | Scipy | 1.6.2 | seaborn (biblioteca de visualização em Python) | 0.11.1 |
| Send2Trash | 1.5.0 | Ferramentas de configuração | 52.0.0 | seis | 1.15.0 |
| ssh-import-id | 5.10 | statsmodels (biblioteca para modelos estatísticos em Python) | 0.12.2 | tenacidade | 8.0.1 |
| terminado | 0.9.4 | caminho de teste | 0.4.4 | threadpoolctl | 2.1.0 |
| tornado | 6.1 | traitlets | 5.0.5 | atualizações não supervisionadas | 0,1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| codificações web | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo do Microsoft CRAN de 26/10/2021.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1,1 | afirme isso | 0.2.1 | backports | 1.2.1 |
| base | 4.1.1 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.2 | ciar | 1.3-28 |
| Fabricação de cerveja | 1.0-6 | Brio | 1.1.2 | vassoura | 0.7.9 |
| bslib | 0.3.1 | cachem | 1.0.6 | chamador | 3.7.0 |
| sinal de interpolação | 6.0-90 | Cellranger | 1.1.0 | crono | 2.3-56 |
| classe | 7.3-19 | Interface de Linha de Comando (CLI) | 3.0.1 | clipr | 0.7.1 |
| cluster | 2.1.2 | codetools | 0.2-18 | espaço de cores | 2.0-2 |
| commonmark | 1,7 | compilador | 4.1.1 | configuração | 0.3.1 |
| cpp11 | 0.4.0 | giz de cera | 1.4.1 | credenciais | 1.3.1 |
| encurvar | 4.3.2 | Tabela de Dados | 1.14.2 | conjuntos de dados | 4.1.1 |
| DBI | 1.1.1 | dbplyr | 2.1.1 | Descrição | 1.4.0 |
| devtools | 2.4.2 | diffobj | 0.3.5 | hash | 0.6.28 |
| dplyr | 1.0.7 | dtplyr | 1.1.0 | e1071 | 1.7-9 |
| reticências | 0.3.2 | avaliar | 0,14 | fansi | 0.5.0 |
| cores | 2.1.0 | fastmap | 1.1.0 | fontawesome | 0.2.2 |
| para gatos | 0.5.1 | para cada | 1.5.1 | estrangeiro | 0.8-81 |
| forja | 0.2.0 | fs | 1.5.0 | futuro | 1.22.1 |
| future.apply | 1.8.1 | gargarejar | 1.2.0 | genéricos | 0.1.1 |
| Gert | 1.4.1 | ggplot2 | 3.3.5 | Gh | 1.3.0 |
| gitcreds | 0.1.1 | glmnet | 4.1-2 | globais | 0.14.0 |
| cola | 1.4.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
| Gower | 0.2.2 | gráficos | 4.1.1 | grDevices | 4.1.1 |
| grade | 4.1.1 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.0 | refúgio | 2.4.3 | mais alto | 0,9 |
| Hms | 1.1.1 | ferramentas HTML | 0.5.2 | htmlwidgets | 1.5.4 |
| httpuv | 1.6.3 | httr | 1.4.2 | hwriter | 1.3.2 |
| hwriterPlus | 1.0-3 | Identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-12 | isoband | 0.2.5 | Iteradores | 1.0.13 |
| jquerylib | 0.1.4 | jsonlite | 1.7.2 | KernSmooth | 2.23-20 |
| knitr | 1,36 | rotulagem | 0.4.2 | posterior | 1.3.0 |
| treliça | 0.20-45 | lava vulcânica | 1.6.10 | ciclo de vida | 1.0.1 |
| ouça | 0.8.0 | lubrificado | 1.8.0 | magrittr | 2.0.1 |
| redução de preço | 1,1 | MISSA | 7.3-54 | Matriz | 1.3-4 |
| memorizar | 2.0.0 | Métodos | 4.1.1 | mgcv | 1.8-38 |
| mímica | 0,12 | ModelMetrics | 1.2.2.2 | modelador | 0.1.8 |
| munsell | 0.5.0 | nlme | 3.1-152 | nnet | 7.3-16 |
| numDeriv | 2016.8-1.1 | openssl | 1.4.5 | paralelo | 4.1.1 |
| paralelamente | 1.28.1 | coluna | 1.6.4 | pkgbuild | 1.2.0 |
| pkgconfig | 2.0.3 | pkgload | 1.2.3 | plogr | 0.2.0 |
| plyr | 1.8.6 | elogio | 1.0.0 | prettyunits | 1.1.1 |
| pROC | 1.18.0 | processx | 3.5.2 | Prodlim | 2019.11.13 |
| progresso | 1.2.2 | progressr | 0.9.0 | Promessas | 1.2.0.1 |
| proto | 1.0.0 | proxy | 0.4-26 | P.S. | 1.6.0 |
| purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| randomForest | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | Readr | 2.0.2 |
| readxl | 1.3.1 | Receitas | 0.1.17 | jogo de revanche | 1.0.1 |
| revanche2 | 2.1.2 | Controles remotos | 2.4.1 | exemplo reprodutível (reprex) | 2.0.1 |
| remodelar2 | 1.4.4 | rlang | 0.4.12 | rmarkdown | 2,11 |
| RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
| rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
| rstudioapi | 0.13 | rversions | 2.1.1 | rvest | 1.0.2 |
| Sass | 0.4.0 | escamas | 1.1.1 | Seletor | 0.4-2 |
| informações de sessão | 1.1.1 | forma | 1.4.6 | brilhante | 1.7.1 |
| sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
| espacial | 7.3-11 | Splines | 4.1.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.1.1 | estatísticas4 | 4.1.1 |
| stringi | 1.7.5 | stringr | 1.4.0 | sobrevivência | 3.2-13 |
| sys | 3.4 | tcltk | 4.1.1 | TeachingDemos | 2.10 |
| testthat | 3.1.0 | tibble | 3.1.5 | tidyr | 1.1.4 |
| tidyselect | 1.1.1 | tidyverse | 1.3.1 | data e hora | 3043.102 |
| tinytex | 0.34 | Ferramentas | 4.1.1 | tzdb | 0.1.2 |
| usethis | 2.1.2 | utf8 | 1.2.2 | utilitários | 4.1.1 |
| identificador único universal (UUID) | 0.1-4 | vctrs | 0.3.8 | viridisLite | 0.4.0 |
| Vroom | 1.5.5 | Waldo | 0.3.1 | vibrissa | 0,4 |
| murchar | 2.4.2 | xfun | 0.27 | xml2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | YAML | 2.2.1 |
| zíper | 2.2.0 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
| ID do Grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.12.2 |
| com.fasterxml.jackson.core | jackson-core | 2.12.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.12 | 2.12.2 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java-natives | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java | 1,1 |
| com.github.fommil.netlib | sistema_nativo-java-nativos | 1,1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
| com.github.luben | zstd-jni | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Sininho | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | criador de perfil | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | VERSÃO.0.8.0. |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers (parsers de univocity) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1.15 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 1.3.2 |
| dev.ludovic.netlib | Blas | 1.3.2 |
| dev.ludovic.netlib | lapack | 1.3.2 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0,19 |
| io.delta | delta-sharing-spark_2.12 | 0.2.0 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | Netty-all | 4.1.63.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coletor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | API de transação | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pirolito | 4,30 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.3 |
| net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 2.0.0 |
| org.apache.arrow | seta-memória-core | 2.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 2.0.0 |
| org.apache.arrow | vetor de seta | 2.0.0 |
| org.apache.avro | Avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1.20 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | Texto Comum | 1.6 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | estrutura do curador | 2.13.0 |
| org.apache.curator | curador de receitas | 2.13.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | api de cliente hadoop | 3.3.1-databricks |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.1 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | API de armazenamento do Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-incubating |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.10 |
| org.apache.orc | orc-mapreduce | 1.6.10 |
| org.apache.orc | orc-calços | 1.6.10 |
| org.apache.parquet | coluna parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-comum | 1.12.0-databricks-0003 |
| org.apache.parquet | codificação-parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | estruturas-do-formato-parquet | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | comentários da audiência | 0.5.0 |
| org.apache.zookeeper | zelador de zoológico | 3.6.2 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
| org.eclipse.jetty | Continuação do Jetty (jetty-continuation) | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-http | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-plus | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
| org.eclipse.jetty | segurança do jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | servidor jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty Webapp | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-client (cliente WebSocket) | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | servidor WebSocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-client | 2,34 |
| org.glassfish.jersey.core | jersey-comum | 2,34 |
| org.glassfish.jersey.core | jersey-server | 2,34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotações | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | cliente Java do MariaDB | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | Calços | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.springframework | spring-core | 4.1.4.LANÇAMENTO |
| org.springframework | teste de primavera | 4.1.4.LANÇAMENTO |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |