Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Nota
Esta versão Databricks em tempo de execução chegou ao fim da vida útil e já não está disponível. Para datas de descontinuação, veja Fim de suporte e histórico de descontinuação. Para obter informações sobre a política e o cronograma de suporte do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 10.1 e o Databricks Runtime 10.1 Photon, com tecnologia Apache Spark 3.2.0. A Databricks lançou esta versão em novembro de 2021. Photon está em Visualização Pública.
Novos recursos e melhorias
- Novas configurações de tabela Delta para compactar arquivos pequenos
- Novas métricas de grupo de linhas para verificações de consulta do Parquet
- Trigger.AvailableNow para consultas de streaming de origem Delta
- Trigger.AvailableNow para carregador automático
- Suporte delta para configurações do sistema de arquivos Hadoop que são passadas pelas opções do DataFrame
- O ponto de verificação de estado assíncrono agora é suportado em trabalhos de streaming com monitoração de estado (Visualização pública)
- Sparklyr com passagem de credenciais
- Dados do Databricks Utilities resumem o controle de precisão (Visualização pública)
- Os blocos de anotações do Azure Databricks agora podem ser usados com o kernel do IPython
- Novas funções no Spark SQL
Novas configurações de tabela Delta para compactar arquivos pequenos
A propriedade delta.autoOptimize.autoCompact da tabela Delta agora aceita os novos valores de auto e legacy além dos valores existentes de true e false. Quando definido como auto (recomendado), a Compactação Automática usa padrões melhores, como definir 32 MB como o tamanho do arquivo de destino (embora os comportamentos padrão estejam sujeitos a alterações no futuro). Quando definido como legacy ou true, a Compactação Automática usa 128 MB como o tamanho do arquivo de destino.
Em vez de definir esta propriedade para uma tabela individual, pode definir a configuração para spark.databricks.delta.autoCompact.enabled, auto ou legacy para ativar a compactação automática para todas as tabelas Delta. Essa configuração tem precedência sobre a propriedade de tabela relacionada durante a sessão atual.
O tamanho do arquivo de destino para Auto Compaction pode ser controlado com a spark.databricks.delta.autoCompact.maxFileSize configuração.
Para mais informações sobre Compactação Automática, consulte Compactação Automática.
Novas métricas de grupo de linhas para verificações de consulta do Parquet
As consultas com varreduras do Parquet agora apresentam métricas de grupo de linhas na interface do usuário do Spark. Essas métricas de grupo de linhas são:
- Número total de grupos de linhas de parquet
- Número de grupos de linhas de parquet lidos
Trigger.AvailableNow para consultas de streaming de origem Delta
Esta alteração oferece suporte a um novo tipo de gatilho para consultas de streaming com origem Delta no Scala: Trigger.AvailableNow. É como Trigger.Once, que processa todos os dados disponíveis e interrompe a consulta. No entanto, Trigger.AvailableNow fornece melhor escalabilidade, porque os dados podem ser processados em vários lotes em vez de um. Esta alteração não introduz uma nova interface; ele implementa uma API Spark existente. Esse gatilho também suporta todas as opções de limitação de taxa que já são suportadas pela Delta como fonte.
Exemplo:
spark.readStream
.format("delta")
.option("maxFilesPerTrigger", "1")
.load(inputDir)
.writeStream
.trigger(Trigger.AvailableNow)
.option("checkpointLocation", checkpointDir)
.start()
Consulte a cobertura de Trigger.AvailableNow em O que é o Auto Loader?.
Trigger.AvailableNow para carregador automático
Trigger.AvailableNow é um novo modo de gatilho de streaming semelhante ao Trigger.Once.
Trigger.Once processa todos os dados disponíveis e, em seguida, interrompe a consulta.
Trigger.AvailableNow tem melhor escalabilidade, porque os dados podem ser processados em vários lotes em vez de um. O Auto Loader agora suporta Trigger.AvailableNow nos modos de listagem de diretórios e notificação de arquivos para Scala. Confira a abrangência de Trigger.AvailableNow em O que é Auto Loader?.
Suporte delta para configurações do sistema de arquivos Hadoop que são passadas pelas opções do DataFrame
Semelhante ao Parquet, o Delta agora suporta ler as configurações do sistema de arquivos Hadoop a partir de DataFrameReader e DataFrameWriter quando a tabela é lida ou escrita, usando DataFrameReader.load(path) ou DataFrameWriter.save(path). Consulte Configurar credenciais de armazenamento Delta.
O ponto de verificação de estado assíncrono agora é suportado em trabalhos de streaming com monitoração de estado (Visualização pública)
O ponto de verificação de estado assíncrono é um novo recurso que reduz potencialmente a latência de microlote de ponta a ponta em trabalhos de streaming com monitoração de estado com atualizações de estado grandes. Consulte Ponto de verificação de estado assíncrono para consultas com estado.
Sparklyr com passagem de credenciais
Agora você pode usar as APIs do sparklyr para ler e gravar dados de e para o armazenamento em nuvem usando a passagem de credenciais. Essa funcionalidade é limitada a clusters padrão com acesso de usuário único. Consulte Acessar o Armazenamento do Azure Data Lake usando a passagem de credenciais (legado) do Microsoft Entra ID.
Dados do Databricks Utilities resumem o controle de precisão (Visualização pública)
Um novo precise parâmetro para dbutils.data.summarize controlar a precisão dos resultados resumidos. Quando precise é definido como false (o padrão), o resumo retorna resultados aproximados para contagens distintas, percentis e contagens de itens frequentes. Quando precise é definido como verdadeiro, os resumos estatísticos são agora calculados com a contagem distinta exata e as contagens de itens recorrentes, com estimativas de percentis mais precisas. Consulte o comando summarize (dbutils.data.summarize).
Os blocos de anotações do Azure Databricks agora podem ser usados com o kernel do IPython
Agora você pode configurar um cluster do Azure Databricks para usar o kernel do IPython para executar código Python. Usar o kernel do IPython no Azure Databricks adiciona suporte para as ferramentas de exibição e saída do IPython. Além disso, o kernel IPython captura as saídas stdout e stderr de processos filho criados por um notebook, permitindo que essa saída seja incluída nos resultados de comando do notebook.
Para obter mais informações, consulte Kernel IPython.
Novas funções no Spark SQL
Os seguintes objetos e comandos foram adicionados para trabalhar com dados no Unity Catalog (Preview):
- Localizações externas
- ALTER CATALOG
- ALTER CREDENTIAL
- ALTERAR LOCALIZAÇÃO
- CREATE CATALOG
- CRIAR LOCALIZAÇÃO
- CREATE RECIPIENT
- DESCRIBE CATALOG
- DESCRIBE CREDENTIAL
- DESCREVER LOCALIZAÇÃO
- DROP CATALOG
- DROP CREDENTIAL
- LOCAL DE ENTREGA
- LIST
- SHOW CATALOGS
- SHOW CREDENTIALS
- MOSTRAR LOCALIZAÇÕES
- USE CATALOG
Os seguintes comandos foram adicionados para o Compartilhamento Delta (Visualização), que permite compartilhar dados somente leitura com destinatários fora da sua organização:
- Partilha
- ALTER SHARE
- CREATE SHARE
- DESCRIBE RECIPIENT
- DESCRIBE SHARE
- DROP RECIPIENT
- DROP SHARE
- GRANT PARTILHAR
- REVOKE PARTILHAR
- SHOW ALL IN SHARE
- SHOW RECIPIENTS
- SHOW SHARES
- SHOW GRANTS ON SHARE
- SHOW GRANTS TO RECIPIENT
Correções de erros
- Corrigida uma condição de corrida que poderia causar uma falha de consulta com um
IOException, tal comoNo FileSystem for scheme, ou que poderia fazer com que modificações emsparkContext.hadoopConfigurationnão tivessem efeito nas consultas.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- filelock de 3.0.12 para 3.3.1
- Koalas de 1.8.1 para 1.8.2
- plotly de 5.1.0 a 5.3.0
- Bibliotecas R atualizadas:
- bslib de 0.3.0 a 0.3.1
- Intervalo de versão de 6.0-88 a 6.0-90
- cpp11 de 0.3.1 para 0.4.0
- data.table de 1.14.0 a 1.14.2
- Desc de versão 1.3.0 para versão 1.4.0
- diffobj de 0.3.4 a 0.3.5
- resumo de 0.6.27 a 0.6.28
- Genéricos de 0.1.0 a 0.1.1
- HMS de 1.1.0 para 1.1.1
- knitr de 1,34 a 1,36
- rede de 0,20-44 a 0,20-45
- ciclo de vida de 1.0.0 a 1.0.1
- lubridato de 1.7.10 a 1.8.0
- mgcv de 1.8-37 a 1.8-38
- MIME de 0,11 a 0,12
- pkgload de 1.2.2 a 1.2.3
- Atualização do progressr da versão 0.8.0 para 0.9.0
- rcmdcheck de 1.3.3 para 1.4.0
- readr de 2.0.1 a 2.0.2
- receitas de 0.1.16 a 0.1.17
- Versões de Remotos de 2.4.0 a 2.4.1
- RLANG de 0.4.11 a 0.4.12
- rvest de 1.0.1 a 1.0.2
- brilhante de 1.6.0 a 1.7.1
- stringi de 1.7.4 para 1.7.5
- testthat de 3.0.4 para 3.1.0
- tidyr d 1.1.3 a 1.1.4
- tinytex de 0,33 a 0,34
- usethis da versão 2.0.1 para a versão 2.1.2
- xfun de 0,26 a 0,27
- Bibliotecas Java atualizadas:
- com.zaxxer.HikariCP de 3.1.0 a 4.0.3
Apache Spark
O Databricks Runtime 10.1 inclui o Apache Spark 3.2.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 10.0 (EoL), bem como as seguintes correções adicionais de bugs e melhorias feitas ao Spark:
- [SPARK-37037] [SQL] Melhore a classificação da matriz de bytes unificando a função compareTo para UTF8String e ByteArray
- [SPARK-37091] [R] Requisitos do Sistema que inclui Java < 18
- [SPARK-37041] [SQL] Retroportar HIVE-15025: Suporte Secure-Socket-Layer (SSL) para HMS
- [FAÍSCA-37098] [SQL] Alterar propriedades da tabela deve invalidar o cache
- [SPARK-36992] [SQL] Melhore o desempenho da ordenação de matriz de bytes unificando a função getPrefix do UTF8String e ByteArray
- [SPARK-37047] [SQL] Adicionar funções lpad e rpad para strings binárias
- [SPARK-37076] [SQL] Implementar StructType.toString explicitamente para Scala 2.13
- [SPARK-37075] [SQL] Mover a construção de expressões UDAF de sql/catalyst para sql/core
- [SPARK-37084] [SQL] Definir spark.sql.files.openCostInBytes como bytesConf
- [SPARK-37088] [PYSPARK][sql] O thread do gravador não deve acessar a entrada após o retorno do ouvinte de conclusão de tarefa
- [SPARK-37069] [SQL] Recorrer corretamente quando Hive.getWithoutRegisterFns não está disponível
- [SPARK-37050] [PYTHON] Atualize instruções de instalação do Conda
- [SPARK-37067] [SQL] Use ZoneId.of() para manipular a string de fuso horário em DatetimeUtils
- [SPARK-35925] [SQL] Suporte para DayTimeIntervalType na função width-bucket
- [SPARK-35926] [SQL] Adicionar suporte para o tipo de intervalo AnoMês em width_bucket
-
[SPARK-35973] [SQL] Adicionar comando
SHOW CATALOGS - [SPARK-36922] [SQL] As funções SIGN/SIGNUM devem suportar intervalos ANSI
- [SPARK-37078] [CORE] Suporte a construtores antigos de 3 parâmetros Sink
- [SPARK-37061] [SQL] Corrigir CustomMetrics ao usar inner classes
- [FAÍSCA-35918] [AVRO] Unificar o tratamento de desalinhamento de esquema para operações de leitura e escrita e melhorar as mensagens de erro
- [SPARK-36871] [SQL]Migrar o comando CreateViewStatement para v2
- [FAÍSCA-36898] [SQL] Torne o fator de junção de hash aleatório configurável
-
[SPARK-36921] [SQL] Suporte a intervalos ANSI por
DIV - [SPARK-36794] [SQL] Ignorar chaves de junção duplicadas ao criar a relação para junção hash com embaralhamento SEMI/ANTI
- [SPARK-36867] [SQL] Corrigir mensagem de erro com alias GROUP BY
- [FAÍSCA-36914] [SQL] Implementar dropIndex e listIndexes em JDBC (dialeto MySQL)
- [SPARK-35531] [SQL] Passe diretamente a tabela Hive para o HiveClient ao chamar getPartitions para evitar a conversão desnecessária de HiveTable -> CatalogTable - -> HiveTable
- [SPARK-36718] [SQL] Só colapsamos projetos se não houver duplicação de expressões caras
- [FAÍSCA-37046] [SQL]: Alterar visão não preserva o caso das letras das colunas
- [SPARK-36978] [SQL] A regra InferConstraints deve criar restrições IsNotNull no campo aninhado acessado em vez do tipo aninhado raiz
- [SPARK-37052] [CORE] O Spark só deve passar o argumento –verbose para a classe principal quando for a sql shell
- [FAÍSCA-37017] [SQL] Reduza o escopo do sincronizado para evitar possíveis impasses
- [SPARK-37032] [SQL] Corrigir ligação de sintaxe SQL incorreta na página de referência do SQL
- [SPARK-36905] [SQL] Corrigir a consulta de vistas do Hive sem nomes de colunas explícitos
- comando [SPARK-36678] Migrar SHOW TABLES para usar V2 por padrão
- [SPARK-36943] [SQL] Melhorar a legibilidade da mensagem de erro de coluna em falta
- [SPARK-36980] [SQL] Inserir consulta com suporte a CTE
- [SPARK-37001] [SQL] Desativar dois níveis de mapa para agregação de hash final por omissão
-
[SPARK-36970] [SQL] Formato desativado manualmente da função
Bpara tornar o Java 17 compatível com o Java 8. - [SPARK-36546] [SQL] Adicionar suporte de array à união de colunas por nome
- [SPARK-36979] [SQL] Adicionar regra RewriteLateralSubquery em nonExcludableRules
- [FAÍSCA-36949] [SQL] Proibir tabelas do provedor Hive com intervalos ANSI
- [FAÍSCA-36849] [SQL] Migrar UseStatement para a estrutura de comando v2
- [SPARK-36868] [SQL] Migrar CreateFunctionStatement para a framework de comandos v2
-
[SPARK-36841] [SQL] Adicionar sintaxe ANSI
set catalog xxxpara modificar o catálogo atual - [SPARK-36821] [SQL] Tornar a classe ColumnarBatch extensível - aditamento
- [SPARK-36963] [SQL] Adicionar max_by/min_by a sql.functions
- [SPARK-36913] [SQL] Implementar createIndex e IndexExists no DS V2 JDBC (dialeto MySQL)
- [FAÍSCA-36848] [SQL] Migrar ShowCurrentNamespaceStatement para a estrutura de comando v2
- [SPARK-36526] [SQL] Suporte de Índice DSV2: Adicionar a interface supportsIndex
- [SPARK-36960] [SQL] Filtros pushdown com valores de intervalo ANSI para ORC
- [SPARK-36929] [SQL] Remover método não utilizado EliminateSubqueryAliasesSuite#assertEquivalent
- [SPARK-36931] [SQL] Suporta a leitura e gravação de intervalos ANSI a partir de e para fontes de dados ORC
- [FAÍSCA-34980] [SQL] Apoiar a partição de coalescência através da união na AQE
- [SPARK-36809] [SQL] Remover broadcast em relação ao InSubqueryExec usado no DPP
- [SPARK-36813] [SQL][python] Proposta de uma infraestrutura de as-of join e implementação de ps.merge_asof
- [SPARK-36918] [SQL] Ignorar tipos ao comparar structs para unionByName
- [SPARK-36891] [SQL] Refatorar SpecificParquetRecordReaderBase e adicionar mais cobertura à decodificação vetorizada do Parquet
-
[SPARK-36920] [SQL] Suporte intervalos ANSI por
ABS() - [SPARK-36888] [SQL] adicionar testes para a função sha2
-
[SPARK-36889] [SQL] Respeitar
spark.sql.parquet.filterPushdownpelo construtor de varredura de parquet v2 - [SPARK-36830] [SQL] Suporte à leitura e escrita de intervalos ANSI a partir de/e para fontes de dados JSON
- [SPARK-36870] [SQL] Introduzir classe de erro INTERNAL_ERROR
- [SPARK-36831] [SQL] Suporte para leitura e gravação de intervalos ANSI de/para fontes de dados CSV.
- [SPARK-36550] [SQL] Propagação de causa quando a reflexão UDF falha
- [SPARK-36866] [SQL] Otimização de filtro com valores de intervalo ANSI para parquet
- [SPARK-33832] [SQL] Forçar a simplificação e melhoria do código de junção com enviesamento
- [SPARK-36642] [SQL] Adicionar API pyspark df.withMetadata
- [FAÍSCA-35765] [SQL] Aggs distintos não são sensíveis a duplicados
- [SPARK-36825] [SQL] Leitura/escrita de dataframes com intervalos ANSI de/para ficheiros Parquet
- [SPARK-36829] [SQL] Refatore a verificação de NULL para collectionOperators
- [SPARK-32712] [SQL] Apoio à escrita de tabela com baldeamento Hive (formatos de arquivo Hive com hash Hive)
- [SPARK-36797] [SQL] Union deve resolver colunas aninhadas como colunas de nível topo
- [SPARK-36838] [SQL] Melhorar o desempenho do código gerado pelo InSet
- [SPARK-36683] [SQL] Adiciona novas funções SQL integradas: SEC e CSC
- [SPARK-36721] [SQL] Simplifique as igualdades booleanas se um lado for literal
- [SPARK-36760] [SQL] Adicionar interface SupportsPushDownV2Filters
- [SPARK-36652] [SQL] A seleção dinâmica de junção da AQE não deve aplicar-se a junções não-equi
- [SPARK-36745] [SQL] ExtractEquiJoinKeys deve retornar os predicados originais nas chaves de junção
- [SPARK-36107] [SQL] Refatore o primeiro conjunto de 20 erros de execução de consulta para usar classes de erro
- [SPARK-32709] [SQL] Suporte para escrever tabela Hive particionada (formato Parquet/ORC com hash Hive)
- [SPARK-36735] [SQL] Ajustar a sobrecarga da relação em cache para DPP
- [SPARK-33832] [SQL] Suporte para otimização da junção enviesada, mesmo que introduza shuffle extra
- [SPARK-36822] [SQL] BroadcastNestedLoopJoinExec deve usar todas as condições possíveis em vez da condição não-equi
- [SPARK-35221] [SQL] Adicionar a verificação das "join hints" suportadas
- [SPARK-36814] [SQL] Tornar a classe ColumnarBatch extensível
- [SPARK-36663] [SQL] Suporte a nomes de coluna compostos apenas por números em fontes de dados ORC
- [SPARK-36751] [SQL][python][R] Adicionar APIs bit/octet_length ao Scala, Python e R
- [FAÍSCA-36733] [SQL] Corrigir um problema de desempenho no SchemaPruning quando uma struct tem muitos campos
- [SPARK-36724] [SQL] Suportar timestamp_ntz como tipo de coluna de tempo para SessionWindow
- [SPARK-36556] [SQL] Adicionar filtros DSV2
- [SPARK-36687] [SQL][core] Renomeie classes de erro com sufixo _ERROR
- [SPARK-35803] [SQL] Suporte para DataSource V2 utilizando CreateTempView.
- [SPARK-36642] [SQL] Adicionar df.withMetadata: uma simplificação de sintaxe para atualizar os metadados de um dataframe
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 10.1.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Píton: 3.8.10
- R: 4.1.1
- Lago Delta: 1.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (Laminação ISO) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
| gerador assíncrono | 1.10 | ATRs | 20.3.0 | Retorno de chamada | 0.2.0 |
| lixívia | 3.3.0 | Boto3 | 1.16.7 | Botocore | 1.19.7 |
| certifi | 2020.12.5 | CFFI | 1.14.5 | Chardet | 4.0.0 |
| ciclista | 0.10.0 | Cython | 0.29.23 | dbus-python | 1.2.16 |
| decorador | 5.0.6 | defusedxml | 0.7.1 | Distlib | 0.3.3 |
| distro-info | 0,23ubuntu1 | pontos de entrada | 0,3 | facetas-visão geral | 1.0.0 |
| bloqueio de arquivo | 3.3.1 | IDNA | 2.10 | Ipykernel | 5.3.4 |
| IPython | 7.22.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.6.3 |
| Jedi | 0.17.2 | Jinja2 | 2.11.3 | JmesPath | 0.10.0 |
| Joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
| Jupyter-core | 4.7.1 | Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| Kiwisolver | 1.3.1 | coalas | 1.8.2 | MarkupSafe | 2.0.1 |
| Matplotlib | 3.4.2 | Mistune | 0.8.4 | nbclient | 0.5.3 |
| nbconvert | 6.0.7 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
| bloco de notas | 6.3.0 | numpy | 1.19.2 | embalagem | 20.9 |
| pandas | 1.2.4 | PandocFilters | 1.4.3 | Parso | 0.7.0 |
| vítima | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Travesseiro | 8.2.0 | pip (o gestor de pacotes do Python) | 21.0.1 | enredo | 5.3.0 |
| prometheus-client | 0.10.1 | kit de ferramentas de prompt | 3.0.17 | Protobuf | 3.17.2 |
| psycopg2 | 2.8.5 | ptyprocess | 0.7.0 | Pyarrow | 4.0.0 |
| Pycparser | 2,20 | Pigmentos | 2.8.1 | PyGObject | 3.36.0 |
| Pyparsing | 2.4.7 | pyrsistent | 0.17.3 | python-apt | 2.0.0+ubuntu0.20.4.6 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.1 | Pytz | 2020.5 | Pyzmq | 20.0.0 |
| pedidos | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.24.1 | SciPy | 1.6.2 | nascido no mar | 0.11.1 |
| Enviar para a Reciclagem | 1.5.0 | Ferramentas de configuração | 52.0.0 | seis | 1.15.0 |
| ssh-import-id | 5.10 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.12.2 | tenacidade | 8.0.1 |
| terminado | 0.9.4 | caminho de teste | 0.4.4 | ThreadPoolCtl | 2.1.0 |
| tornado | 6.1 | traitlets (biblioteca de configuração de atributos em Python) | 5.0.5 | Atualizações automáticas | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| WebEncodings | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo do Microsoft CRAN a 26 de outubro de 2021.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1.1 | asserçãoat | 0.2.1 | Retroportagens | 1.2.1 |
| base | 4.1.1 | base64enc | 0.1-3 | pouco | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.2 | arranque | 1.3-28 |
| fabricação de cerveja | 1.0-6 | Brio | 1.1.2 | vassoura | 0.7.9 |
| BSLIB | 0.3.1 | cachemira | 1.0.6 | Chamador | 3.7.0 |
| acento circunflexo | 6.0-90 | cellranger | 1.1.0 | crono | 2.3-56 |
| classe | 7.3-19 | CLI | 3.0.1 | Clipr | 0.7.1 |
| cluster | 2.1.2 | CodeTools | 0.2-18 | espaço em cores | 2.0-2 |
| marca comum | 1.7 | compilador | 4.1.1 | configuração | 0.3.1 |
| C++11 | 0.4.0 | lápis de cor | 1.4.1 | credenciais | 1.3.1 |
| encaracolar | 4.3.2 | tabela de dados | 1.14.2 | conjuntos de dados | 4.1.1 |
| DBI | 1.1.1 | DBPlyr | 2.1.1 | descrição | 1.4.0 |
| DevTools | 2.4.2 | diffobj | 0.3.5 | resumo | 0.6.28 |
| DPLYR | 1.0.7 | DTPlyr | 1.1.0 | e1071 | 1.7-9 |
| reticências | 0.3.2 | avaliar | 0.14 | Fãsi | 0.5.0 |
| cores | 2.1.0 | mapa rápido | 1.1.0 | fontawesome | 0.2.2 |
| FORCATS | 0.5.1 | para cada | 1.5.1 | externa | 0.8-81 |
| forjar | 0.2.0 | FS | 1.5.0 | Futuro | 1.22.1 |
| futuro.apply | 1.8.1 | gargarejo | 1.2.0 | genérico | 0.1.1 |
| Gert | 1.4.1 | ggplot2 | 3.3.5 | GH | 1.3.0 |
| gitcreds | 0.1.1 | glmnet | 4.1-2 | Globais | 0.14.0 |
| cola | 1.4.2 | GoogleDrive | 2.0.0 | googlesheets4 | 1.0.0 |
| Gower | 0.2.2 | gráficos | 4.1.1 | grDispositivos | 4.1.1 |
| grelha | 4.1.1 | gridExtra | 2.3 | gsubfn | 0,7 |
| tabela g | 0.3.0 | Refúgio | 2.4.3 | mais alto | 0,9 |
| HMS | 1.1.1 | htmltools | 0.5.2 | htmlwidgets (componentes HTML interativos) | 1.5.4 |
| httpuv | 1.6.3 | HTTR | 1.4.2 | Hwriter | 1.3.2 |
| hwriterPlus | 1.0-3 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-12 | Isoband | 0.2.5 | iteradores | 1.0.13 |
| jquerylib | 0.1.4 | jsonlite | 1.7.2 | KernSmooth | 2.23-20 |
| Knitr | 1,36 | etiquetagem | 0.4.2 | mais tarde | 1.3.0 |
| treliça | 0.20-45 | lave | 1.6.10 | ciclo de vida | 1.0.1 |
| ouvirv | 0.8.0 | lubridato | 1.8.0 | Magrittr | 2.0.1 |
| Marcação | 1.1 | MASSA | 7.3-54 | Matriz | 1.3-4 |
| memorização | 2.0.0 | métodos | 4.1.1 | MGCV | 1.8-38 |
| mímica | 0,12 | ModelMetrics | 1.2.2.2 | modelr | 0.1.8 |
| Munsell | 0.5.0 | NLME | 3.1-152 | NNET | 7.3-16 |
| numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 1.4.5 | paralelo | 4.1.1 |
| Paralelamente | 1.28.1 | pilar | 1.6.4 | pkgbuild | 1.2.0 |
| pkgconfig | 2.0.3 | pkgload | 1.2.3 | plogr | 0.2.0 |
| Plyr | 1.8.6 | elogiar | 1.0.0 | Pretty Units | 1.1.1 |
| pROC | 1.18.0 | processx | 3.5.2 | Prodlim | 2019.11.13 |
| Progresso | 1.2.2 | progressr | 0.9.0 | promessas | 1.2.0.1 |
| prototipo | 1.0.0 | proxy | 0.4-26 | PS | 1.6.0 |
| ronronar | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| Floresta Aleatória | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | readr | 2.0.2 |
| ReadXL | 1.3.1 | receitas | 0.1.17 | nova partida | 1.0.1 |
| revanche2 | 2.1.2 | Controles remotos | 2.4.1 | Reprex | 2.0.1 |
| remodelar2 | 1.4.4 | Rlang | 0.4.12 | rmarkdown | 2.11 |
| RODBC | 1.3-19 | oxigénio2 | 7.1.2 | rpart (função de partição recursiva em R) | 4.1-15 |
| rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
| rstudioapi | 0,13 | rversions | 2.1.1 | Rvest | 1.0.2 |
| Sass | 0.4.0 | escalas | 1.1.1 | seletor | 0.4-2 |
| Informação da sessão | 1.1.1 | forma | 1.4.6 | brilhante | 1.7.1 |
| sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
| espacial | 7.3-11 | estrias | 4.1.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.1.1 | estatísticas4 | 4.1.1 |
| string | 1.7.5 | stringr | 1.4.0 | sobrevivência | 3.2-13 |
| Sistema | 3.4 | tcltk (uma linguagem de programação) | 4.1.1 | Demonstrações de Ensino | 2.10 |
| testthat | 3.1.0 | Tibble | 3.1.5 | Tidyr | 1.1.4 |
| tidyselect | 1.1.1 | Tidyverse | 1.3.1 | data e hora | 3043.102 |
| Tinytex | 0.34 | ferramentas | 4.1.1 | TZDB | 0.1.2 |
| usethis | 2.1.2 | UTF8 | 1.2.2 | utilitários | 4.1.1 |
| Identificador Único Universal (UUID) | 0.1-4 | VCTRS | 0.3.8 | viridisLite | 0.4.0 |
| vruum | 1.5.5 | Waldo | 0.3.1 | vibrissas | 0.4 |
| murchar | 2.4.2 | xfun | 0.27 | XML2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
| ZIP | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | AWS Java SDK para SES | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.655 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreamento kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.12.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.12.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 1.4.195 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 9.2.1.jre8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.istack | istack-commons-tempo de execução | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1,15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 1.3.2 |
| dev.ludovic.netlib | Blas | 1.3.2 |
| dev.ludovic.netlib | Lapack | 1.3.2 |
| hive-2.3__hadoop-3.2 | JETS3T-0,7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.19 |
| IO.Delta | delta-sharing-spark_2.12 | 0.2.0 |
| io.dropwizard.metrics | métricas-base | 4.1.1 |
| io.dropwizard.metrics | métricas-grafite | 4.1.1 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | métricas-jetty9 | 4.1.1 |
| io.dropwizard.metrics | métricas-jmx | 4.1.1 |
| io.dropwizard.metrics | métricas-json | 4.1.1 |
| io.dropwizard.metrics | métricas do JVM | 4.1.1 |
| io.dropwizard.metrics | Métricas-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.63.Definitivo |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jacarta.validação | Jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pirolite | 04:30 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.3 |
| net.floco de neve | faísca-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 2.0.0 |
| org.apache.arrow | seta-memória-núcleo | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | vetor de seta | 2.0.0 |
| org.apache.avro | Avro | 1.10.2 |
| org.apache.avro | AVRO-IPC | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1,20 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | commons-texto | 1.6 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | gestor de receitas | 2.13.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api (API do cliente Hadoop) | 3.3.1-Databricks |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.1 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-incubação |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.10 |
| org.apache.orc | orc-mapreduce | 1.6.10 |
| org.apache.orc | Orc-calços | 1.6.10 |
| org.apache.parquet | coluna de parquet | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | parquet-comum | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | codificação-parquet | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | estruturas de formato parquet | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | Parquet-Hadoop | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | Parquet-Jackson | 1.12.0-DATABRICKS-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.20 |
| org.apache.yetus | anotações do público | 0.5.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | verificador de qualidade | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
| org.eclipse.jetty | Cais-Plus | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.40.v20210413 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | servidor jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-servlet | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-servlets | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-util | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-XML | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.40.v20210413 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-tempo de execução | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-cliente | 2,34 |
| org.glassfish.jersey.core | Jersey comum | 2,34 |
| org.glassfish.jersey.core | servidor Jersey | 2,34 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2,34 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | calços | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.0 |
| org.scalanlp | breeze_2.12 | 1.0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.30 |
| org.slf4j | jul-para-slf4j | 1.7.30 |
| org.slf4j | SLF4J-API | 1.7.30 |
| org.slf4j | SLF4J-Log4J12 | 1.7.30 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | XZ | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-plataforma_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.8.4 |
| org.yaml | Snakeyaml | 1,24 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |