Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
Los conectores administrados de Lakeflow Connect se encuentran en varios estados de versión.
En esta página se proporciona información general sobre los conectores administrados en Databricks Lakeflow Connect para la ingesta de datos de bases de datos y aplicaciones SaaS. La canalización de ingesta resultante se rige por Unity Catalog y cuenta con tecnología de proceso sin servidor y canalizaciones declarativas de Spark de Lakeflow. Los conectores administrados aprovechan las lecturas y escrituras incrementales eficaces para que la ingesta de datos sea más rápida, escalable y rentable, mientras que los datos permanecen frescos para el consumo descendente.
Componentes de conectores SaaS
Un conector SaaS tiene los siguientes componentes:
| Componente | Descripción |
|---|---|
| Conexión | Objeto protegible del catálogo de Unity que almacena los detalles de autenticación de la aplicación. |
| Canalización de ingesta | Una canalización que copia los datos de la aplicación a las tablas de destino. La canalización de ingesta se ejecuta en proceso sin servidor. |
| Tablas de destino | Las tablas en las que la canalización de ingesta escribe los datos. Se trata de tablas de streaming, que son tablas delta con compatibilidad adicional con el procesamiento incremental de datos. |
Componentes del conector de base de datos
Un conector de base de datos tiene los siguientes componentes:
| Componente | Descripción |
|---|---|
| Conexión | Objeto protegible del catálogo de Unity que almacena los detalles de autenticación de la base de datos. |
| Puerta de enlace de ingesta | Canalización que extrae instantáneas, registros de cambios y metadatos de la base de datos de origen. La puerta de enlace se ejecuta en proceso clásico y funciona continuamente para capturar los cambios antes de que los registros de cambios puedan truncarse en la fuente. |
| Almacenamiento provisional | Un volumen de Catálogo de Unity que almacena temporalmente los datos extraídos antes de aplicarlos a la tabla de destino. Esto le permite ejecutar la canalización de ingesta en el horario que desee, incluso mientras la puerta de enlace captura los cambios de forma continua. También ayuda con la recuperación ante fallos. Crea automáticamente un volumen de almacenamiento provisional al implementar la puerta de enlace y puede personalizar el catálogo y el esquema donde reside. Los datos se purgan automáticamente del almacenamiento provisional después de 30 días. |
| Canalización de ingesta | Tubería de datos que transfiere los datos desde el almacenamiento provisional a las tablas de destino. La canalización se ejecuta en proceso sin servidor. |
| Tablas de destino | Las tablas en las que la canalización de ingesta escribe los datos. Se trata de tablas de streaming, que son tablas delta con compatibilidad adicional con el procesamiento incremental de datos. |
Orquestación
Puede operar su tubería de ingestión en uno o varios cronogramas personalizados. Para cada programación que agregue a una canalización, Lakeflow Connect crea automáticamente un trabajo para ella. La canalización de ingesta es una tarea dentro del trabajo. Opcionalmente, puede agregar más tareas al trabajo.
En el caso de los conectores de base de datos, la puerta de enlace de ingesta se ejecuta en su propio trabajo como una tarea continua.
Ingesta incremental
Lakeflow Connect usa la ingesta incremental para mejorar la eficacia de la canalización. En la primera ejecución de la canalización, ingiere todo el conjunto de datos seleccionados del origen. En paralelo, realiza un seguimiento de los cambios realizados en los datos de origen. En cada ejecución posterior de la canalización, usa ese seguimiento de cambios para ingerir solo los datos que han cambiado de la ejecución anterior, siempre que sea posible.
El enfoque exacto depende de lo que está disponible en el origen de datos. Por ejemplo, puede usar el seguimiento de cambios y la captura de datos modificados (CDC) con SQL Server. En cambio, el conector de Salesforce selecciona una columna de cursor de una lista de opciones establecida.
Algunos orígenes o tablas específicas no admiten la ingesta incremental en este momento. Databricks planea expandir la cobertura de soporte incremental.
Redes
Hay varias opciones para conectarse a una base de datos o aplicación SaaS.
- Los conectores para aplicaciones SaaS llegan a las API del origen. También son compatibles automáticamente con controles de salida sin servidor.
- Los conectores de las bases de datos en la nube pueden conectarse al origen a través de Private Link. Como alternativa, si su área de trabajo tiene una Red Virtual (VNet) o una Nube Privada Virtual (VPC) emparejada con la VNet o VPC que hospeda la base de datos, puede implementar la puerta de enlace dentro de ella.
- Los conectores para bases de datos locales pueden conectarse mediante servicios como AWS Direct Connect y Azure ExpressRoute.
Despliegue
Puede implementar canalizaciones de ingesta mediante Conjuntos de recursos de Databricks, que permiten procedimientos recomendados como el control de código fuente, la revisión de código, las pruebas y la integración y entrega continuas (CI/CD). Las agrupaciones se administran mediante la CLI de Databricks y se pueden ejecutar en diferentes áreas de trabajo de destino, como desarrollo, ensayo y producción.
Recuperación de un error
Como servicio totalmente administrado, Lakeflow Connect pretende recuperarse automáticamente de los problemas cuando sea posible. Por ejemplo, cuando se produce un error en un conector, lo vuelve a intentar automáticamente con retraso exponencial.
Sin embargo, es posible que un error requiera la intervención (por ejemplo, cuando expiren las credenciales). En estos casos, el conector intenta evitar que falten datos almacenando la última posición del cursor. A continuación, puede continuar desde esa posición en la siguiente ejecución de la canalización, cuando sea posible.
Monitorización
Lakeflow Connect proporciona alertas y supervisión sólidas para ayudarle a mantener las canalizaciones. Esto incluye registros de eventos, registros de clúster, métricas de estado de canalización y métricas de calidad de datos. También puede usar la tabla para realizar un seguimiento de los costos y supervisar el system.billing.usage uso de la canalización. Consulte Supervisión del costo de la canalización de ingesta administrada.
En el caso de los conectores de base de datos, puede supervisar el progreso de la puerta de enlace en tiempo real mediante registros de eventos. Consulte Supervisión del progreso de la puerta de enlace de ingesta con registros de eventos.
Estados de lanzamiento
| Conector | Estado de lanzamiento |
|---|---|
| Confluencia | Beta |
| Dynamics 365 | Public Preview |
| Anuncios de Google | Beta |
| Google Analytics | Disponibilidad general |
| HubSpot | Beta |
| Jira | Beta |
| Anuncios de Meta | Beta |
| MySQL | Public Preview |
| PostgreSQL | Public Preview |
| Salesforce | Disponibilidad general |
| ServiceNow | Disponibilidad general |
| SharePoint (en inglés) | Beta |
| Servidor SQL | Disponibilidad general |
| Anuncios de TikTok | Beta |
| Informes de Workday | Disponibilidad general |
| Soporte técnico de Zendesk | Beta |
Disponibilidad de funcionalidades
En las tablas siguientes se resume la disponibilidad de características para cada conector de ingesta administrada. Para conocer características y limitaciones adicionales, consulte la documentación de su conector específico.
Confluencia
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
|
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
Se trata como una nueva columna (nuevo nombre) y una columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas |
Si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
Dynamics 365
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
|
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
Se trata como una nueva columna (nuevo nombre) y una columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | No disponible |
| Número máximo de tablas por canalización | 250 |
Anuncios de Google
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
Las tablas de informes admiten la ingesta incremental. Las tablas de recursos se actualizan completamente en cada actualización. |
| Gobernanza del catálogo de Unity |
|
| Trabajos de Lakeflow |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas |
Puede seleccionar tablas específicas. |
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
|
| Evolución automatizada del esquema: Nuevas tablas |
|
| Número máximo de tablas por canalización | 250 |
Google Analytics
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario | Sí |
| Creación de canalizaciones basadas en API | Sí |
| Conjuntos de recursos de Databricks | Sí |
| Ingesta incremental | Sí |
| Gobernanza del catálogo de Unity | Sí |
| Orquestación mediante flujos de trabajo de Databricks | Sí |
| SCD de tipo 2 | Sí |
| Selección y deselección de columnas basadas en API | Sí |
| Filtrado de filas basado en API | Sí |
| Evolución automatizada del esquema: columnas nuevas y eliminadas | Sí |
| Evolución automatizada del esquema: cambios en el tipo de datos | No |
| Evolución automatizada del esquema: cambio de nombre de columna | Sí: se trata como una nueva columna (nuevo nombre) y columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | Sí: si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
HubSpot
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario | No |
| Creación de canalizaciones basadas en API | Sí |
| Conjuntos de recursos de Databricks | Sí |
| Ingesta incremental | Se admite parcialmente. Algunas tablas admiten la ingesta incremental. Otras tablas requieren una actualización completa. Consulte Referencia del conector de HubSpot. |
| Gobernanza del catálogo de Unity | Sí |
| Orquestación mediante flujos de trabajo de Databricks | Sí |
| SCD de tipo 2 | No |
| Selección y deselección de columnas basadas en API | Sí: puede seleccionar tablas específicas para ingerir. |
| Filtrado de filas basado en API | No |
| Evolución automatizada del esquema: columnas nuevas y eliminadas | No |
| Evolución automatizada del esquema: cambios en el tipo de datos | No |
| Evolución automatizada del esquema: cambio de nombre de columna | No |
| Evolución automatizada del esquema: Nuevas tablas | Sí |
| Número máximo de tablas por canalización | 250 |
Jira
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
|
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
Se trata como una nueva columna (nuevo nombre) y una columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | No disponible |
| Número máximo de tablas por canalización | 250 |
Anuncios de Meta
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
Las tablas de informes admiten la ingesta incremental. Las tablas de recursos se actualizan completamente en cada actualización. |
| Gobernanza del catálogo de Unity |
|
| Trabajos de Lakeflow |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas |
Puede seleccionar tablas específicas. |
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
|
| Evolución automatizada del esquema: Nuevas tablas | No disponible |
| Número máximo de tablas por canalización | 250 |
MySQL
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario | Sí |
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
|
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API | No |
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
Se trata como una nueva columna (nuevo nombre) y una columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas |
Si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
Netsuite
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario | Sí |
| Creación de canalizaciones basadas en API | Sí |
| Conjuntos de recursos de Databricks | Sí |
| Ingesta incremental | Sí |
| Gobernanza del catálogo de Unity | Sí |
| Orquestación mediante flujos de trabajo de Databricks | Sí |
| SCD de tipo 2 | Sí |
| Selección y deselección de columnas basadas en API | Sí |
| Filtrado de filas basado en API | No |
| Evolución automatizada del esquema: columnas nuevas y eliminadas | Sí |
| Evolución automatizada del esquema: cambios en el tipo de datos | No |
| Evolución automatizada del esquema: cambio de nombre de columna | Sí: se trata como una nueva columna (nuevo nombre) y columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | Sí: si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 200 |
PostgreSQL
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario | Sí |
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
|
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API | No |
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna | Sí: se trata como una nueva columna (nuevo nombre) y columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | Sí: si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
Salesforce
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API | Sí |
| Conjuntos de recursos de Databricks | Sí |
| Ingesta incremental | Sí: de forma predeterminada, los campos de fórmula requieren instantáneas completas. Para habilitar la ingesta incremental para los campos de fórmula, consulte Ingesta incremental de campos de fórmulas de Salesforce. |
| Gobernanza del catálogo de Unity | Sí |
| Orquestación mediante flujos de trabajo de Databricks | Sí |
| SCD de tipo 2 | Sí |
| Selección y deselección de columnas basadas en API | Sí |
| Filtrado de filas basado en API | Sí |
| Evolución automatizada del esquema: columnas nuevas y eliminadas | Sí |
| Evolución automatizada del esquema: cambios en el tipo de datos | No |
| Evolución automatizada del esquema: cambio de nombre de columna | Sí: se trata como una nueva columna (nuevo nombre) y columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | No disponible |
| Número máximo de tablas por canalización | 250 |
ServiceNow
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario | Sí |
| Creación de canalizaciones basadas en API | Sí |
| Conjuntos de recursos de Databricks | Sí |
| Ingesta incremental | Sí: con excepciones cuando la tabla carece de un campo de cursor. |
| Gobernanza del catálogo de Unity | Sí |
| Orquestación mediante flujos de trabajo de Databricks | Sí |
| SCD de tipo 2 | Sí |
| Selección y deselección de columnas basadas en API | Sí |
| Filtrado de filas basado en API | Sí |
| Evolución automatizada del esquema: columnas nuevas y eliminadas | Sí |
| Evolución automatizada del esquema: cambios en el tipo de datos | No |
| Evolución automatizada del esquema: cambio de nombre de columna | Sí: se trata como una nueva columna (nuevo nombre) y columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | Sí: si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
SharePoint (en inglés)
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API | Sí |
| Conjuntos de recursos de Databricks | Sí |
| Ingesta incremental | Sí |
| Gobernanza del catálogo de Unity | Sí |
| Orquestación mediante flujos de trabajo de Databricks | Sí |
| SCD de tipo 2 | Sí |
| Selección y deselección de columnas basadas en API | Sí |
| Filtrado de filas basado en API | No |
| Evolución automatizada del esquema: columnas nuevas y eliminadas | Sí |
| Evolución automatizada del esquema: cambios en el tipo de datos | No |
| Evolución automatizada del esquema: cambio de nombre de columna | No: requiere una actualización completa. |
| Evolución automatizada del esquema: Nuevas tablas | Sí: si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
Servidor SQL
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario | Sí |
| Creación de canalizaciones basadas en API | Sí |
| Conjuntos de recursos de Databricks | Sí |
| Ingesta incremental | Sí |
| Gobernanza del catálogo de Unity | Sí |
| Orquestación mediante flujos de trabajo de Databricks | Sí |
| SCD de tipo 2 | Sí |
| Selección y deselección de columnas basadas en API | Sí |
| Filtrado de filas basado en API | No |
| Evolución automatizada del esquema: columnas nuevas y eliminadas | Sí |
| Evolución automatizada del esquema: cambios en el tipo de datos | No |
| Evolución automatizada del esquema: cambio de nombre de columna | No: requiere una actualización completa. |
| Evolución automatizada del esquema: Nuevas tablas | Sí: si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
Anuncios de TikTok
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
Con excepciones cuando su tabla no admite la ingestión incremental. Consulte Tablas que admiten actualizaciones incrementales. |
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
Requiere una actualización completa. |
| Evolución automatizada del esquema: Nuevas tablas |
Si ingiere todo el esquema. Consulte las limitaciones del número de tablas por canalización. |
| Número máximo de tablas por canalización | 250 |
Informes de Workday
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
|
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
Se trata como una nueva columna (nuevo nombre) y una columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | No disponible |
| Número máximo de tablas por canalización | 250 |
Soporte técnico de Zendesk
| Característica | Disponibilidad |
|---|---|
| Creación de canalizaciones basadas en la interfaz de usuario |
|
| Creación de canalizaciones basadas en API |
|
| Conjuntos de recursos de Databricks |
|
| Ingesta incremental |
|
| Gobernanza del catálogo de Unity |
|
| Orquestación mediante flujos de trabajo de Databricks |
|
| SCD de tipo 2 |
|
| Selección y deselección de columnas basadas en API |
|
| Filtrado de filas basado en API |
|
| Evolución automatizada del esquema: columnas nuevas y eliminadas |
|
| Evolución automatizada del esquema: cambios en el tipo de datos |
|
| Evolución automatizada del esquema: cambio de nombre de columna |
Se trata como una nueva columna (nuevo nombre) y una columna eliminada (nombre antiguo). |
| Evolución automatizada del esquema: Nuevas tablas | No disponible |
| Número máximo de tablas por canalización | 250 |
Métodos de autenticación
En la tabla siguiente se enumeran los métodos de autenticación admitidos para cada conector de ingesta administrado. Databricks recomienda usar OAuth U2M o OAuth M2M siempre que sea posible. Si el conector admite OAuth, la autenticación básica se considera un método heredado.
Confluencia
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Dynamics 365
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Anuncios de Google
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Google Analytics
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
HubSpot
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Jira
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Anuncios de Meta
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
MySQL
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Netsuite
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
PostgreSQL
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Salesforce
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
ServiceNow
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
SharePoint (en inglés)
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Servidor SQL
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Anuncios de TikTok
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Informes de Workday
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Soporte técnico de Zendesk
| Método de autenticación | Disponibilidad |
|---|---|
| OAuth U2M |
|
| OAuth M2M |
|
| OAuth (token de actualización manual) |
|
| Autenticación básica (nombre de usuario y contraseña) |
|
| Autenticación básica (clave de API) |
|
| Autenticación básica (clave JSON de la cuenta de servicio) |
|
Dependencia de servicios externos
Databricks SaaS, base de datos y otros conectores totalmente administrados dependen de la accesibilidad, compatibilidad y estabilidad de la aplicación, la base de datos o el servicio externo al que se conectan. Databricks no controla estos servicios externos y, por tanto, tiene una influencia limitada (si existe) sobre sus cambios, actualizaciones y mantenimiento.
Si los cambios, interrupciones o circunstancias relacionados con un servicio externo impiden o representan poco práctico el funcionamiento de un conector, Databricks puede interrumpir o dejar de mantener ese conector. Databricks realizará esfuerzos razonables para notificar a los clientes la interrupción o el cese de mantenimiento, incluidas las actualizaciones de la documentación aplicable.