Compartir a través de


regr_intercept

Función de agregado: devuelve la interceptación de la línea de regresión lineal univariante para pares que no son NULL en un grupo, donde y es la variable dependiente y x es la variable independiente.

Para obtener la función SQL de Databricks correspondiente, consulte regr_intercept función de agregado.

Syntax

import pyspark.sql.functions as sf

sf.regr_intercept(y=<y>, x=<x>)

Parámetros

Parámetro Tipo Description
y pyspark.sql.Column o str Variable dependiente.
x pyspark.sql.Column o str Variable independiente.

Devoluciones

pyspark.sql.Column: la interceptación de la línea de regresión lineal univariante para pares que no son NULL en un grupo.

Examples

Ejemplo 1: Todos los pares no son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 1), (2, 2), (3, 3), (4, 4) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
|                 0.0|
+--------------------+

Ejemplo 2: Todos los valores x de los pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, null) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
|                NULL|
+--------------------+

Ejemplo 3: Todos los valores y de todos los pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (null, 1) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
|                NULL|
+--------------------+

Ejemplo 4: algunos valores x de pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 1), (2, null), (3, 3), (4, 4) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
|                 0.0|
+--------------------+

Ejemplo 5: algunos valores x o y de pares son NULL.

import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 1), (2, null), (null, 3), (4, 4) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
|                 0.0|
+--------------------+