Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Función de agregado: devuelve la interceptación de la línea de regresión lineal univariante para pares que no son NULL en un grupo, donde y es la variable dependiente y x es la variable independiente.
Para obtener la función SQL de Databricks correspondiente, consulte regr_intercept función de agregado.
Syntax
import pyspark.sql.functions as sf
sf.regr_intercept(y=<y>, x=<x>)
Parámetros
| Parámetro | Tipo | Description |
|---|---|---|
y |
pyspark.sql.Column o str |
Variable dependiente. |
x |
pyspark.sql.Column o str |
Variable independiente. |
Devoluciones
pyspark.sql.Column: la interceptación de la línea de regresión lineal univariante para pares que no son NULL en un grupo.
Examples
Ejemplo 1: Todos los pares no son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 1), (2, 2), (3, 3), (4, 4) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
| 0.0|
+--------------------+
Ejemplo 2: Todos los valores x de los pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, null) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
| NULL|
+--------------------+
Ejemplo 3: Todos los valores y de todos los pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (null, 1) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
| NULL|
+--------------------+
Ejemplo 4: algunos valores x de pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 1), (2, null), (3, 3), (4, 4) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
| 0.0|
+--------------------+
Ejemplo 5: algunos valores x o y de pares son NULL.
import pyspark.sql.functions as sf
df = spark.sql("SELECT * FROM VALUES (1, 1), (2, null), (null, 3), (4, 4) AS tab(y, x)")
df.select(sf.regr_intercept("y", "x")).show()
+--------------------+
|regr_intercept(y, x)|
+--------------------+
| 0.0|
+--------------------+