Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Función de agregado: devuelve el número de pares de números que no son NULL en un grupo, donde y es la variable dependiente y x es la variable independiente.
Para obtener la función SQL de Databricks correspondiente, consulte regr_count función de agregado.
Syntax
import pyspark.sql.functions as sf
sf.regr_count(y=<y>, x=<x>)
Parámetros
| Parámetro | Tipo | Description |
|---|---|---|
y |
pyspark.sql.Column o str |
Variable dependiente. |
x |
pyspark.sql.Column o str |
Variable independiente. |
Devoluciones
pyspark.sql.Column: el número de pares de números que no son NULL en un grupo.
Examples
Ejemplo 1: Todos los pares no son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 2), (2, 2), (2, 3), (2, 4) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
| 4| 4|
+----------------+--------+
Ejemplo 2: Todos los valores x de los pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, null) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
| 0| 1|
+----------------+--------+
Ejemplo 3: Todos los valores y de todos los pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (null, 1) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
| 0| 1|
+----------------+--------+
Ejemplo 4: algunos valores x de pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 2), (2, null), (2, 3), (2, 4) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
| 3| 4|
+----------------+--------+
Ejemplo 5: algunos valores x o y de pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 2), (2, null), (null, 3), (2, 4) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
| 2| 4|
+----------------+--------+