Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Nota
Esta versão Databricks em tempo de execução chegou ao fim da vida útil e já não está disponível. Para datas de descontinuação, veja Fim de suporte e histórico de descontinuação. Para obter informações sobre a política e o cronograma de suporte do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 10.0 e o Databricks Runtime 10.0 Photon, com tecnologia Apache Spark 3.2.0. A Databricks lançou esta versão em outubro de 2021. Photon está em Visualização Pública.
Novos recursos e melhorias
- Nova versão do Apache Spark
- SELECT declaração agora suporta a cláusula QUALIFY para filtrar os resultados da função de janela
- Suporte de cluster para JDK 11 (visualização pública)
- O Auto Loader agora trata esquemas como anuláveis
Nova versão do Apache Spark
O Databricks Runtime 10.0 e o Databricks Runtime 10.0 Photon incluem o Apache Spark 3.2.0. Para obter detalhes, consulte Apache Spark.
SELECT instrução agora suporta a cláusula QUALIFY para filtrar resultados de funções de janela
A SELECT declaração agora apoia a QUALIFY cláusula.
QUALIFY pode ser usado para filtrar os resultados das funções da janela. Uma ou mais funções de janela devem estar presentes na lista de SELECT ou na condição QUALIFY. Por exemplo:
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
Suporte de cluster para JDK 11 (visualização pública)
O Databricks agora fornece suporte a cluster para Java Development Kit (JDK) 11.
Ao criar um cluster, você pode especificar que o cluster use o JDK 11 (para o driver e o executor). Para fazer isso, adicione a seguinte variável de ambiente para Advanced Options > Spark > Environment Variables:
JNAME=zulu11-ca-amd64
O Auto Loader agora trata esquemas como anuláveis
O Auto Loader agora trata todos os esquemas inferidos e fornecidos pelo usuário como anuláveis por padrão. Isso é para evitar corrupção de dados em potencial nos casos em que os dados contêm campos nulos para colunas não anuláveis. Uma nova configuração é introduzida para rastrear esse comportamento, spark.databricks.cloudFiles.schema.forceNullable. Por padrão, essa configuração contém a configuração de spark.sql.streaming.fileSource.schema.forceNullable, que o FileStreamSource no Apache Spark usa e está definida como true por padrão.
Alterações interruptivas
Alterações disruptivas para todos os utilizadores do Spark SQL
- Nova configuração de
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled: quando definido comotrue, permite um subconjunto de predicados de igualdade correlacionados quando uma subconsulta é agregada. A predefinição étrue. - Nova configuração
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled: quando definido comotrue, bloqueia a geração automática de aliases quando as visualizações são criadas. A predefinição étrue. - Nova configuração
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled: quando definido comotrue, não permiteCREATE TABLE AS SELECTcom um local não vazio. A predefinição étrue. Observe que quandospark.sql.legacy.allowNonEmptyLocationInCTAStambém está definido comotrue, essa configuração não tem efeito eCREATE TABLE AS SELECTcom um local não vazio é sempre permitido.
Alterações recentes para usuários do Spark SQL que habilitam o modo ANSI
Para obter informações sobre o modo ANSI, consulte Conformidade ANSI no Databricks Runtime.
Nova configuração
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled: quando definido comotrue, um argumentodayOfWeekinválido para a funçãonext_daylança umIllegalArgumentExceptionno modo ANSI; caso contrário, ele retornanull. A predefinição étrue.Nova configuração
spark.databricks.behaviorChange.SC83796CanCast.enabled: quando definido comotrue, permite novas regras de sintaxe de transmissão explícita no modo ANSI. A predefinição étrue.Nova configuração
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled: quando definido comotrue, uma exceção de erro de análise é lançada ao converter uma cadeia de caracteres para um Booleano; caso contrário, retornanull. A predefinição étrue.Nova configuração
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled: quando definida comotrue, a funçãoabslança uma exceção se a entrada estiver fora do intervalo. A predefinição étrue.
Alterações significativas para todos os usuários do Python
- A API
delta.tables.DeltaTable.convertToDeltaPython agora retorna o objeto Python corretoDeltaTableque pode ser usado para executar comandos Delta Lake. Anteriormente, ele retornava um objeto interno que não podia ser chamado diretamente.
Atualizações da biblioteca
Atualização do Apache Hadoop 3
- O Databricks Runtime 10.0 atualiza a dependência do Hadoop do Hadoop 2.7.4 para o Hadoop 3.3.1.
Alterações de comportamento
- O Hadoop 3 usa as bibliotecas hadoop-client-api e hadoop-client-runtime em vez da biblioteca hadoop-common, que sombreia determinadas dependências de terceiros que poderiam ser usadas em APIs ou extensões públicas do Hadoop.
- As opções de configuração do Hadoop 3 foram alteradas desde o Hadoop 2. Para opções do Hadoop 3.3.1, consulte core-default.xml.
- O Databricks atualizou algumas das configurações padrão do Hadoop 3 para serem consistentes com o Hadoop 2, para garantir que os conectores de armazenamento tenham as mesmas configurações de autenticação padrão e níveis de desempenho:
fs.azure.authorization.caching.enable=falsefs.s3a.attempts.maximum=10fs.s3a.block.size=67108864fs.s3a.connection.timeout=50000fs.s3a.max.total.tasks=1000fs.s3a.retry.limit=20fs.s3a.retry.throttle.interval=500msfs.s3a.assumed.role.credentials.provider=com.amazonaws.auth.InstanceProfileCredentialsProviderfs.s3a.aws.credentials.provider=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
- O conector do Google Cloud Storage (GCS) foi atualizado da versão 2.1.6 para a 2.2.2.
- O conector do Amazon Redshift agora usa o
s3a://esquema. Os3n://esquema foi preterido. - Manipula os nomes de classe OSS para a API do Amazon S3 MetadataStore, além das classes sombreadas. Isso permite processar configurações de OSS sem exigir os nomes de classe sombreados.
- Por exemplo, você pode especificar a
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStoreclasse na configuração do Hadoop.
- Por exemplo, você pode especificar a
- Torna o
new Configuration()e osparkContext.hadoopConfigurationconsistentes.- Agora, sempre que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop no
sparkContext.hadoopConfigurationDatabricks Runtime, incluindo esquemas de sistema de arquivos e sua configuração padrão.
- Agora, sempre que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop no
- Embora os conectores de armazenamento Hadoop incluídos no Databricks Runtime sejam totalmente compatíveis com o Hadoop 3.3.1, não é garantido que estejam sincronizados com os conectores OSS Hadoop 3.3.1 e podem ter um comportamento diferente.
- O conector do Amazon S3 ainda permite (embora com um aviso) a autenticação *user:secret* em URLs do S3, em comparação com o HADOOP-14833, que a remove.
- globStatus agora sempre retorna resultados classificados (HADOOP-10798)
- Adicionado fs.s3a.endpoint se não definido e a região do fs.s3a.endpoint for nulo(SPARK-35878)
- O recurso de resolução automática da região do Amazon S3 fornecido pela Databricks pode não ser acionado em alguns casos, devido à configuração do endpoint global. Isso não é um problema, pois o AWS SDK resolverá a região corretamente.
- Adicione fs.s3a.downgrade.syncable.exceptions se não estiver definido(SPARK-35868)
- Os codecs LZ4 e Snappy não dependem da biblioteca Hadoop nativa (HADOOP-17125)
Problemas conhecidos
- SPARK-36681 Usando SnappyCodec para escrever ficheiro de sequência falhará com UnsatisfiedLinkError devido a problema conhecido no Hadoop 3.3.1 (HADOOP-17891)
Apache Spark
O Databricks Runtime 10.0 inclui o Apache Spark 3.2.0.
Nesta secção:
- Destaques
- Core e Spark SQL
- Transmissão em Fluxo Estruturada
- PySpark
- MLlib
- Descontinuações e remoções
Destaques
- Suporte para a camada de API do Pandas no PySpark (SPARK-34849)
- Sessionização baseada em EventTime (janela de sessão)(SPARK-10816)
- Suporte a tipos ANSI SQL INTERVAL (SPARK-27790)
- Modo ANSI GA (SPARK-35030)
- Padronizar mensagens de exceção no Spark (SPARK-33539)
Core e Spark SQL
Aprimoramentos de compatibilidade com ANSI SQL
- Suporte a tipos ANSI SQL INTERVAL (SPARK-27790)
- Novas regras de sintaxe de coerção de tipo no modo ANSI (SPARK-34246)
Melhorias de desempenho
- Otimização de consultas
- Remover agregados redundantes no Optimizer (SPARK-33122)
- Empurre o limite para baixo através do Project com Join(SPARK-34622)
- Estimativa da cardinalidade do operador de união, classificação e intervalo (SPARK-33411)
- Suporte para predicado In/InSet em UnwrapCastInBinaryComparison (SPARK-35316)
- Mantenha as estatísticas necessárias após a poda da partição(SPARK-34119)
- Execução de consultas
- Habilitar pool de buffer Zstandard por padrão (SPARK-34340, SPARK-34390)
- Adicionar geração de código para todos os tipos de junção de mesclagem ordenada (SPARK-34705)
- Melhoria da junção por loop aninhado de transmissão(SPARK-34706)
- Suporta dois níveis de mapas de hash para agregação de hash final (SPARK-35141)
- Permitir gravadores simultâneos para escrever partições dinâmicas e tabelas de compartimentos (SPARK-26164)
- Melhorar o desempenho do processamento de FETCH_PRIOR no Thriftserver(SPARK-33655)
Melhorias do conector
- Parquet
- Atualize o Parquet para 1.12.1 (SPARK-36726)
- Leia tipos não assinados de parquet que são armazenados como tipo físico int32 em parquet (SPARK-34817)
- Leia o tipo lógico int64 não assinado do Parquet, que é armazenado como tipo físico int64 assinado, como decimal(20, 0)(SPARK-34786)
- Melhorar o Parquet no filtro pushdown (SPARK-32792)
- ORC
- Atualize o ORC para a versão 1.6.11 (SPARK-36482)
- Suporte à evolução forçada de posição do ORC (SPARK-32864)
- Suporte coluna aninhada no leitor vetorizado ORC(SPARK-34862)
- Suporte a compressão ZSTD e LZ4 na fonte de dados ORC (SPARK-33978, SPARK-35612)
- Avro
- Atualize o Avro para a versão 1.10.2 (SPARK-34778)
- Suportando a evolução do esquema Avro para tabelas Hive particionadas com "avro.schema.literal"(SPARK-26836)
- Adicione novas opções de fonte de dados Avro para controlar a rebase de data/hora em leitura (SPARK-34404)
- Adicionando suporte para url de esquema fornecido pelo usuário em Avro(SPARK-34416)
- Adicione suporte para correspondência posicional de esquema Catalyst-to-Avro (SPARK-34365)
- JSON
- Atualize Jackson para a versão 2.12.3 (SPARK-35550)
- Permitir que fontes de dados Json escrevam caracteres não-ascii como pontos de código (SPARK-35047)
- JDBC
- Calcule um passo de partição mais preciso em JDBCRelation(SPARK-34843)
- Suporte de filtro do Hive Metastore por not-in(SPARK-34538)
Melhorias de funcionalidades
- Subconsulta
- Melhorar subconsultas correlacionadas (SPARK-35553)
- Novas funções incorporadas
- ilike(SPARK-36674, SPARK-36736)
- current_user(SPARK-21957)
- produto (SPARK-33678)
- regexp_like,regexp (SPARK-33597, SPARK-34376)
- try_add(SPARK-35162)
- try_divide(SPARK-35162)
- bit_get(SPARK-33245)
- Usar o Apache Hadoop 3.3.1 por padrão (SPARK-29250)
- Adicionar soma de verificação para blocos aleatórios(SPARK-35275)
- Habilite spark.storage.replication.proactive por padrão (SPARK-33870)
- Suporte a limpeza de armazenamento de fallback durante a interrupção do SparkContext (SPARK-34142)
- Suporte a enumerações Java nas APIs Dataset do Scala (SPARK-23862)
- ADD JAR com as coordenadas do Ivy deve ser compatível com o comportamento transitivo do Hive(SPARK-34506)
- Suporte ao comando S para ADD ARCHIVE e LIST ARCHIVE(SPARK-34603)
- Suportar vários caminhos para comandos ADD FILE/JAR/ARCHIVE (SPARK-35105)
- Suporte a arquivos arquivados como recursos para CREATE FUNCTION USANDO sintaxe(SPARK-35236)
- Carregando SparkSessionExtensions de ServiceLoader(SPARK-35380)
- Adicionar função de frases a functions.{scala,py}(SPARK-35418)
- Aplicar spark.sql.hive.metastorePartitionPruning para tabelas que não sejam do Hive que usam o metastore do Hive para gerenciamento de partições(SPARK-36128)
- Propagar o motivo da perda de execução para a interface do utilizador da Web (SPARK-34764)
- Evite inserir With-CTEs não determinísticos (SPARK-36447)
- Suportar a análise de todas as tabelas num banco de dados específico(SPARK-33687)
- Padronizar mensagens de exceção no Spark (SPARK-33539)
- Suporte (IGNORE | RESPECT) NULLS para LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE(SPARK-30789)
Outras mudanças notáveis
- Monitorização
- Novas métricas para ExternalShuffleService(SPARK-35258)
- Adicionar novas APIs e parâmetros REST de nível de estágio (SPARK-26399)
- Tarefa de suporte e executor Distribuições de métricas Distribuições de métricas na API REST (SPARK-34488)
- Adicionar métricas de fallback para agregação de hash(SPARK-35529)
- Adicionar count_distinct como uma opção a Dataset#summary(SPARK-34165)
- Implementar ScriptTransform em sql/core(SPARK-31936)
- Torne o tempo limite de pulsação do driver BlockManagerMaster configurável (SPARK-34278)
- Torne o nome do serviço de shuffle configurável no lado do cliente e permita a substituição da configuração com base no classpath no lado do servidor (SPARK-34828)
- ExecutorMetricsPoller deve manter a entrada do estágio no stageTCMP até que ocorra um batimento cardíaco (SPARK-34779)
- Substitua o condicional "if" pela cláusula "filter" em RewriteDistinctAggregates(SPARK-34882)
- Corrigir falha ao aplicar CostBasedJoinReorder em autojunção(SPARK-34354)
- CREATE TABLE LIKE deve respeitar as propriedades da tabela reservada(SPARK-34935)
- Enviar arquivo ivySettings para o driver no modo de cluster YARN (SPARK-34472)
- Resolver colunas comuns duplicadas de JOINUSING/NATURAL (SPARK-34527)
- Ocultar propriedades de visualização interna para o comando descrever tabela (SPARK-35318)
- Suporte para a resolução de atributos ausentes para distribuir/agrupar por/sugestão de repartição (SPARK-35331)
- Ignore o erro ao verificar o caminho em FileStreamSink.hasMetadata(SPARK-34526)
- Melhore o suporte ao s3a magic committer inferindo configurações ausentes (SPARK-35383)
- Permitir omitir : na cadeia de caracteres do tipo STRUCT (SPARK-35706)
- Adicione um novo operador para distinguir se a AQE pode otimizar com segurança (SPARK-35786)
- Acrescentar novos campos struct aninhados em vez de classificar para unionByName com preenchimento nulo (SPARK-35290)
- ArraysZip deve manter nomes de campo para evitar ser reescrito pelo analisador/otimizador (SPARK-35876)
- Utilize Void como o nome de tipo para NullType (SPARK-36224)
- Introduzir nova API para FileCommitProtocol permitir nomenclatura flexível de arquivos (SPARK-33298)
Mudanças de comportamento
Consulte os guias de migração para cada componente: Spark Core.
Transmissão em Fluxo Estruturada
Principais características
- Sessionização baseada em EventTime (janela de sessão)(SPARK-10816)
- Atualize o cliente Kafka para 2.8.0 (SPARK-33913)
- Trigger.AvailableNow para executar consultas de transmissão de maneira semelhante ao Trigger.Once em múltiplos lotes no Scala (SPARK-36533)
Outras mudanças notáveis
- Introduza uma nova opção na fonte Kafka para especificar um número mínimo de registros a serem lidos por gatilho (SPARK-35312)
- Adicionar os deslocamentos mais recentes ao progresso da origem (SPARK-33955)
PySpark
Projeto Zen
- API Pandas no Spark (SPARK-34849)
- Ativar mypy para pandas-on-Spark (SPARK-34941)
- Implementar suporte CategoricalDtype (SPARK-35997, SPARK-36185)
- Conclua as operações básicas de Série e Índice (SPARK-36103, SPARK-36104, SPARK-36192)
- Combinar comportamentos com pandas 1.3 (SPARK-36367)
- Alinhar comportamentos em séries com NaN aos pandas' (SPARK-36031, SPARK-36310)
- Implementar operador unário 'inverter' de série integral e índice (SPARK-36003)
- Implementar CategoricalIndex.map e DatetimeIndex.map(SPARK-36470)
- Implementar Index.map(SPARK-36469)
- suporte de faulthandler para Python worker falhou (SPARK-36062)
- Usar a regra de nomenclatura Snake nas APIs de função (SPARK-34306)
- Habilite spark.sql.execution.pyspark.udf.simplifiedTraceback.enabled por padrão (SPARK-35419)
- Suporte para inferir dicionário aninhado como uma estrutura ao criar um DataFrame (SPARK-35929)
Outras mudanças notáveis
- Ativar o modo de thread fixo por padrão (SPARK-35303)
- Adicionar suporte para NullType nas execuções do Arrow (SPARK-33489)
- Adicionar suporte a self_destruct do Arrow para toPandas (SPARK-32953)
- Adicionar API de encapsulamento de destino de thread para o modo de fixação de thread do pyspark (SPARK-35498)
Mudanças de comportamento
Consulte os guias de migração.
MLlib
Melhoramentos de desempenho
- Otimização da transformação do BucketedRandomProjectionLSH (SPARK-34220)
- w2v findSinónimos otimização(SPARK-34189)
- optimizar GEMM esparso ao ignorar a verificação de limites(SPARK-35707)
- Melhorar o desempenho do ML ALS recommendForAll by GEMV (SPARK-33518)
Melhorias no treinamento do modelo
- Refactor Logistic Aggregator - suporte à centralização virtual (SPARK-34797)
- Regressão logística binária com centralização de suporte de intercetação (SPARK-34858, SPARK-34448)
- Regressão Logística Multinomial com centralização de suporte de intercetação (SPARK-34860)
Melhorias no BLAS
- Substitua totalmente com.github.fommil.netlib por dev.ludovic.netlib:2.0(SPARK-35295)
- Adicionar uma implementação BLAS vetorizada (SPARK-33882)
- Acelere o BLAS de fallback com dev.ludovic.netlib(SPARK-35150)
Outras mudanças notáveis
- A transformação OVR corrige o potencial conflito da coluna(SPARK-34356)
Descontinuações e remoções
- Depreciar spark.launcher.childConnectionTimeout(SPARK-33717)
- descontinuar GROUP BY ... AGRUPAR CONJUNTOS (...) e promover GROUP BY GROUPING SETS (...)(SPARK-34932)
- Descontinuar a API ps.broadcast (SPARK-35810)
- Depreciar o
num_filesargumento (SPARK-35807) - Descontinuar DataFrame.to_spark_io(SPARK-35811)
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 10.0.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Píton: 3.8.10
- R: 4.1.1
- Lago Delta: 1.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (Laminação ISO) | appdirs | 1.4.4 | Retorno de chamada | 0.2.0 |
| Boto3 | 1.16.7 | Botocore | 1.19.7 | certifi | 2020.12.5 |
| Chardet | 4.0.0 | ciclista | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | decorador | 5.0.6 | Distlib | 0.3.3 |
| distro-info | 0,23ubuntu1 | facetas-visão geral | 1.0.0 | bloqueio de arquivo | 3.0.12 |
| IDNA | 2.10 | Ipykernel | 5.3.4 | IPython | 7.22.0 |
| ipython-genutils | 0.2.0 | Jedi | 0.17.2 | jmespath | 0.10.0 |
| Joblib | 1.0.1 | jupyter-client | 6.1.12 | Jupyter-core | 4.7.1 |
| Kiwisolver | 1.3.1 | coalas | 1.8.1 | Matplotlib | 3.4.2 |
| numpy | 1.19.2 | pandas | 1.2.4 | Parso | 0.7.0 |
| vítima | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Travesseiro | 8.2.0 | pip (o gestor de pacotes do Python) | 21.0.1 | enredo | 5.1.0 |
| kit de ferramentas de prompt | 3.0.17 | Protobuf | 3.17.2 | psycopg2 | 2.8.5 |
| ptyprocess | 0.7.0 | Pyarrow | 4.0.0 | Pigmentos | 2.8.1 |
| PyGObject | 3.36.0 | Pyparsing | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.6 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.1 | Pytz | 2020.5 | Pyzmq | 20.0.0 |
| pedidos | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.24.1 | SciPy | 1.6.2 | nascido no mar | 0.11.1 |
| Ferramentas de configuração | 52.0.0 | seis | 1.15.0 | ssh-import-id | 5.10 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.12.2 | tenacidade | 8.0.1 | ThreadPoolCtl | 2.1.0 |
| tornado | 6.1 | traitlets (biblioteca de configuração de atributos em Python) | 5.0.5 | Atualizações automáticas | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| wheel | 0.36.2 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir da imagem instantânea da CRAN da Microsoft da data de 2021-09-21.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1.1 | asserçãoat | 0.2.1 | Retroportagens | 1.2.1 |
| base | 4.1.1 | base64enc | 0.1-3 | pouco | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.2 | arranque | 1.3-28 |
| fabricação de cerveja | 1.0-6 | Brio | 1.1.2 | vassoura | 0.7.9 |
| BSLIB | 0.3.0 | cachemira | 1.0.6 | Chamador | 3.7.0 |
| acento circunflexo | 6.0-88 | cellranger | 1.1.0 | crono | 2.3-56 |
| classe | 7.3-19 | CLI | 3.0.1 | Clipr | 0.7.1 |
| cluster | 2.1.2 | CodeTools | 0.2-18 | espaço em cores | 2.0-2 |
| marca comum | 1.7 | compilador | 4.1.1 | configuração | 0.3.1 |
| C++11 | 0.3.1 | lápis de cor | 1.4.1 | credenciais | 1.3.1 |
| encaracolar | 4.3.2 | tabela de dados | 1.14.0 | conjuntos de dados | 4.1.1 |
| DBI | 1.1.1 | DBPlyr | 2.1.1 | descrição | 1.3.0 |
| DevTools | 2.4.2 | diffobj | 0.3.4 | resumo | 0.6.27 |
| DPLYR | 1.0.7 | DTPlyr | 1.1.0 | reticências | 0.3.2 |
| avaliar | 0.14 | Fãsi | 0.5.0 | cores | 2.1.0 |
| mapa rápido | 1.1.0 | FORCATS | 0.5.1 | para cada | 1.5.1 |
| externa | 0.8-81 | forjar | 0.2.0 | FS | 1.5.0 |
| Futuro | 1.22.1 | futuro.apply | 1.8.1 | gargarejo | 1.2.0 |
| genérico | 0.1.0 | Gert | 1.4.1 | ggplot2 | 3.3.5 |
| GH | 1.3.0 | gitcreds | 0.1.1 | GLMNET | 4.1-2 |
| Globais | 0.14.0 | cola | 1.4.2 | GoogleDrive | 2.0.0 |
| googlesheets4 | 1.0.0 | Gower | 0.2.2 | gráficos | 4.1.1 |
| grDispositivos | 4.1.1 | grelha | 4.1.1 | gridExtra | 2.3 |
| GSUBFN | 0,7 | tabela g | 0.3.0 | Refúgio | 2.4.3 |
| mais alto | 0,9 | HMS | 1.1.0 | htmltools | 0.5.2 |
| htmlwidgets (componentes HTML interativos) | 1.5.4 | httpuv | 1.6.3 | HTTR | 1.4.2 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | identificadores | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-12 | Isoband | 0.2.5 |
| iteradores | 1.0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
| KernSmooth | 2.23-20 | Knitr | 1.34 | etiquetagem | 0.4.2 |
| mais tarde | 1.3.0 | treliça | 0.20-44 | lave | 1.6.10 |
| ciclo de vida | 1.0.0 | ouvirv | 0.8.0 | lubridato | 1.7.10 |
| Magrittr | 2.0.1 | Marcação | 1.1 | MASSA | 7.3-54 |
| Matriz | 1.3-4 | memorização | 2.0.0 | métodos | 4.1.1 |
| MGCV | 1.8-37 | mímica | 0,11 | ModelMetrics | 1.2.2.2 |
| modelr | 0.1.8 | Munsell | 0.5.0 | NLME | 3.1-152 |
| NNET | 7.3-16 | numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 1.4.5 |
| paralelo | 4.1.1 | Paralelamente | 1.28.1 | pilar | 1.6.2 |
| pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | pkgload | 1.2.2 |
| plogr | 0.2.0 | Plyr | 1.8.6 | elogiar | 1.0.0 |
| Pretty Units | 1.1.1 | pROC | 1.18.0 | processx | 3.5.2 |
| Prodlim | 2019.11.13 | Progresso | 1.2.2 | progressr | 0.8.0 |
| promessas | 1.2.0.1 | prototipo | 1.0.0 | PS | 1.6.0 |
| ronronar | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| Floresta Aleatória | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.3.3 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | readr | 2.0.1 |
| ReadXL | 1.3.1 | receitas | 0.1.16 | nova partida | 1.0.1 |
| revanche2 | 2.1.2 | Controles remotos | 2.4.0 | Reprex | 2.0.1 |
| remodelar2 | 1.4.4 | Rlang | 0.4.11 | rmarkdown | 2.11 |
| RODBC | 1.3-19 | oxigénio2 | 7.1.2 | rpart (função de partição recursiva em R) | 4.1-15 |
| rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
| rstudioapi | 0,13 | rversions | 2.1.1 | Rvest | 1.0.1 |
| Sass | 0.4.0 | escalas | 1.1.1 | seletor | 0.4-2 |
| Informação da sessão | 1.1.1 | forma | 1.4.6 | brilhante | 1.6.0 |
| sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
| espacial | 7.3-11 | estrias | 4.1.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.1.1 | estatísticas4 | 4.1.1 |
| string | 1.7.4 | stringr | 1.4.0 | sobrevivência | 3.2-13 |
| Sistema | 3.4 | tcltk (uma linguagem de programação) | 4.1.1 | Demonstrações de Ensino | 2.10 |
| testthat | 3.0.4 | Tibble | 3.1.4 | Tidyr | 1.1.3 |
| tidyselect | 1.1.1 | Tidyverse | 1.3.1 | data e hora | 3043.102 |
| Tinytex | 0,33 | ferramentas | 4.1.1 | TZDB | 0.1.2 |
| usethis | 2.0.1 | UTF8 | 1.2.2 | utilitários | 4.1.1 |
| Identificador Único Universal (UUID) | 0.1-4 | VCTRS | 0.3.8 | viridisLite | 0.4.0 |
| vruum | 1.5.5 | Waldo | 0.3.1 | vibrissas | 0.4 |
| murchar | 2.4.2 | xfun | 0,26 | XML2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
| ZIP | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | AWS Java SDK para SES | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.655 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreamento kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.12.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.12.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 1.4.195 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 9.2.1.jre8 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.istack | istack-commons-tempo de execução | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-cli | commons-cli | 1.2 |
| codec commons | codec commons | 1,15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 1.3.2 |
| dev.ludovic.netlib | Blas | 1.3.2 |
| dev.ludovic.netlib | Lapack | 1.3.2 |
| hive-2.3__hadoop-3.2 | JETS3T-0,7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 0.19 |
| IO.Delta | delta-sharing-spark_2.12 | 0.1.0 |
| io.dropwizard.metrics | métricas-base | 4.1.1 |
| io.dropwizard.metrics | métricas-grafite | 4.1.1 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | métricas-jetty9 | 4.1.1 |
| io.dropwizard.metrics | métricas-jmx | 4.1.1 |
| io.dropwizard.metrics | métricas-json | 4.1.1 |
| io.dropwizard.metrics | métricas do JVM | 4.1.1 |
| io.dropwizard.metrics | Métricas-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.63.Definitivo |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jacarta.validação | Jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pirolite | 04:30 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.3 |
| net.floco de neve | faísca-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 2.0.0 |
| org.apache.arrow | seta-memória-núcleo | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | vetor de seta | 2.0.0 |
| org.apache.avro | Avro | 1.10.2 |
| org.apache.avro | AVRO-IPC | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1,20 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | commons-texto | 1.6 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | gestor de receitas | 2.13.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.1 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-incubação |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.10 |
| org.apache.orc | orc-mapreduce | 1.6.10 |
| org.apache.orc | Orc-calços | 1.6.10 |
| org.apache.parquet | parquet-coluna | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | parquet-comum | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | codificação-parquet | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | estruturas de formato parquet | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | Parquet-Hadoop | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | Parquet-Jackson | 1.12.0-DATABRICKS-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.20 |
| org.apache.yetus | anotações do público | 0.5.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | verificador de qualidade | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty IO | 9.4.40.v20210413 |
| org.eclipse.jetty | ** jetty-jndi | 9.4.40.v20210413 |
| org.eclipse.jetty | Cais-Plus | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.40.v20210413 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | servidor jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-servlet | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-servlets | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-util | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-XML | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.40.v20210413 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-tempo de execução | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-cliente | 2,34 |
| org.glassfish.jersey.core | Jersey comum | 2,34 |
| org.glassfish.jersey.core | servidor Jersey | 2,34 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2,34 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | calços | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.0 |
| org.scalanlp | breeze_2.12 | 1.0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.30 |
| org.slf4j | jul-para-slf4j | 1.7.30 |
| org.slf4j | SLF4J-API | 1.7.30 |
| org.slf4j | SLF4J-Log4J12 | 1.7.30 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | XZ | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-plataforma_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.8.4 |
| org.yaml | Snakeyaml | 1,24 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |