Compartir a través de


regr_count

Función de agregado: devuelve el número de pares de números que no son NULL en un grupo, donde y es la variable dependiente y x es la variable independiente.

Para obtener la función SQL de Databricks correspondiente, consulte regr_count función de agregado.

Syntax

import pyspark.sql.functions as sf

sf.regr_count(y=<y>, x=<x>)

Parámetros

Parámetro Tipo Description
y pyspark.sql.Column o str Variable dependiente.
x pyspark.sql.Column o str Variable independiente.

Devoluciones

pyspark.sql.Column: el número de pares de números que no son NULL en un grupo.

Examples

Ejemplo 1: Todos los pares no son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 2), (2, 2), (2, 3), (2, 4) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
|               4|       4|
+----------------+--------+

Ejemplo 2: Todos los valores x de los pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, null) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
|               0|       1|
+----------------+--------+

Ejemplo 3: Todos los valores y de todos los pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (null, 1) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
|               0|       1|
+----------------+--------+

Ejemplo 4: algunos valores x de pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 2), (2, null), (2, 3), (2, 4) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
|               3|       4|
+----------------+--------+

Ejemplo 5: algunos valores x o y de pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 2), (2, null), (null, 3), (2, 4) AS tab(y, x)")
df.select(sf.regr_count("y", "x"), sf.count(sf.lit(0))).show()
+----------------+--------+
|regr_count(y, x)|count(0)|
+----------------+--------+
|               2|       4|
+----------------+--------+