Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Tar bort null-värden från matrisen.
Syntax
from pyspark.sql import functions as sf
sf.array_compact(col)
Parameterar
| Parameter | Typ | Description |
|---|---|---|
col |
pyspark.sql.Column eller str |
Namn på kolumn eller uttryck |
Retur
pyspark.sql.Column: En ny kolumn som är en matris med undantag för null-värdena från indatakolumnen.
Examples
Exempel 1: Ta bort null-värden från en enkel matris
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, None, 2, 3],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| [1, 2, 3]|
+-------------------+
Exempel 2: Ta bort null-värden från flera matriser
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, None, 2, 3],), ([4, 5, None, 4],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| [1, 2, 3]|
| [4, 5, 4]|
+-------------------+
Exempel 3: Ta bort null-värden från en matris med alla null-värden
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, StringType, StructField, StructType schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([([None, None, None],)], schema)
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| []|
+-------------------+
Exempel 4: Ta bort null-värden från en matris utan null-värden
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| [1, 2, 3]|
+-------------------+
Exempel 5: Ta bort null-värden från en tom matris
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, StringType, StructField, StructType
schema = StructType([
StructField("data", ArrayType(StringType()), True)
])
df = spark.createDataFrame([([],)], schema)
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| []|
+-------------------+