Compartir a través de


make_timestamp_ltz

Cree la marca de tiempo actual con la zona horaria local a partir de años, meses, días, horas, minutos, segundos y campos de zona horaria. Si la configuración spark.sql.ansi.enabled es false, la función devuelve NULL en entradas no válidas. De lo contrario, producirá un error en su lugar.

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.make_timestamp_ltz(years=<years>, months=<months>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>, timezone=<timezone>)

Parámetros

Parámetro Tipo Description
years pyspark.sql.Column o str Año que se va a representar, de 1 a 9999
months pyspark.sql.Column o str Mes de año que se va a representar, de 1 (enero) a 12 (diciembre)
days pyspark.sql.Column o str Día de mes que se va a representar, de 1 a 31
hours pyspark.sql.Column o str Hora de día que se va a representar, de 0 a 23
mins pyspark.sql.Column o str El minuto de hora que se va a representar, de 0 a 59
secs pyspark.sql.Column o str Segundo de minuto y su microfracción que se va a representar, de 0 a 60. El valor puede ser un entero como 13 o una fracción como 13,123. Si el argumento sec es igual a 60, el campo de segundos se establece en 0 y 1 minuto se agrega a la marca de tiempo final.
timezone pyspark.sql.Column o str, optional Identificador de zona horaria. Por ejemplo, CET, UTC y etc.

Devoluciones

pyspark.sql.Column: una nueva columna que contiene una marca de tiempo actual.

Examples

spark.conf.set("spark.sql.session.timeZone", "America/Los_Angeles")
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec, 'tz')
).show(truncate=False)
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec)
).show(truncate=False)
spark.conf.unset("spark.sql.session.timeZone")