Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Cree la marca de tiempo actual con la zona horaria local a partir de años, meses, días, horas, minutos, segundos y campos de zona horaria. Si la configuración spark.sql.ansi.enabled es false, la función devuelve NULL en entradas no válidas. De lo contrario, producirá un error en su lugar.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.make_timestamp_ltz(years=<years>, months=<months>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>, timezone=<timezone>)
Parámetros
| Parámetro | Tipo | Description |
|---|---|---|
years |
pyspark.sql.Column o str |
Año que se va a representar, de 1 a 9999 |
months |
pyspark.sql.Column o str |
Mes de año que se va a representar, de 1 (enero) a 12 (diciembre) |
days |
pyspark.sql.Column o str |
Día de mes que se va a representar, de 1 a 31 |
hours |
pyspark.sql.Column o str |
Hora de día que se va a representar, de 0 a 23 |
mins |
pyspark.sql.Column o str |
El minuto de hora que se va a representar, de 0 a 59 |
secs |
pyspark.sql.Column o str |
Segundo de minuto y su microfracción que se va a representar, de 0 a 60. El valor puede ser un entero como 13 o una fracción como 13,123. Si el argumento sec es igual a 60, el campo de segundos se establece en 0 y 1 minuto se agrega a la marca de tiempo final. |
timezone |
pyspark.sql.Column o str, optional |
Identificador de zona horaria. Por ejemplo, CET, UTC y etc. |
Devoluciones
pyspark.sql.Column: una nueva columna que contiene una marca de tiempo actual.
Examples
spark.conf.set("spark.sql.session.timeZone", "America/Los_Angeles")
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec, 'tz')
).show(truncate=False)
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec)
).show(truncate=False)
spark.conf.unset("spark.sql.session.timeZone")