Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Delar efter str avgränsare och returnerar begärd del av delningen (1-baserad).
Om några indata är null returneras null. om partNum är utom räckhåll för delade delar returnerar den tomma strängen.
Om partNum är 0 genererar ett fel. Om partNum är negativt räknas delarna bakåt från slutet av strängen.
delimiter Om är en tom sträng str delas inte.
För motsvarande Databricks SQL-funktion, se split_part funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)
Parameterar
| Parameter | Typ | Description |
|---|---|---|
src |
pyspark.sql.Column eller str |
En kolumn med sträng som ska delas. |
delimiter |
pyspark.sql.Column eller str |
En kolumn med sträng, avgränsaren som används för delning. |
partNum |
pyspark.sql.Column eller str |
En kolumn med sträng, begärd del av delningen (1-baserad). |
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()