using-sparsity-to-regularize-models
LASSO正则化¶
LASSO( least absolute shrinkage and selection operator,最小绝对值收缩和选择算子)方法与岭回归和LARS(least angle regression,最小角回归)很类似。与岭回归类似,它也是通过增加惩罚函数来判断、消除特征间的共线性。与LARS相似的是它也可以用作参数选择,通常得出一个相关系数的稀疏向量。
Getting ready¶
岭回归也不是万能药。有时就需要用LASSO回归来建模。本主题将用不同的损失函数,因此就要用对应的效果评估方法。
How to do it...¶
首先,我们还是用make_regression
函数来建立数据集:
from sklearn.datasets import make_regression
reg_data, reg_target = make_regression(n_samples=200, n_features=500, n_informative=5, noise=5)
之后,我们导入lasso
对象:
from sklearn.linear_model import Lasso
lasso = Lasso()
lasso
包含很多参数,但是最意思的参数是alpha
,用来调整lasso
的惩罚项,在How it works...会具体介绍。现在我们用默认值1
。另外,和岭回归类似,如果设置为0
,那么lasso
就是线性回归:
lasso.fit(reg_data, reg_target)
再让我们看看还有多少相关系数非零:
import numpy as np
np.sum(lasso.coef_ != 0)
lasso_0 = Lasso(0)
lasso_0.fit(reg_data, reg_target)
np.sum(lasso_0.coef_ != 0)
和我们设想的一样,如果用线性回归,没有一个相关系数变成0。而且,如果你这么运行代码,scikit-learn会给出建议,就像上面显示的那样。
How it works...¶
对线性回归来说,我们是最小化残差平方和。而LASSO回归里,我们还是最小化残差平方和,但是加了一个惩罚项会导致稀疏。如下所示:
$$\sum {e_i + \lambda \ {\begin{Vmatrix} \beta \end{Vmatrix}}_1} $$最小化残差平方和的另一种表达方式是:
$$ RSS(\beta),其中 {\begin{Vmatrix} \beta \end{Vmatrix}}_1 \lt \beta $$这个约束会让数据稀疏。LASSO回归的约束创建了围绕原点的超立方体(相关系数是轴),也就意味着大多数点都在各个顶点上,那里相关系数为0。而岭回归创建的是超平面,因为其约束是L2范数,少一个约束,但是即使有限制相关系数也不会变成0。
LASSO交叉检验¶
上面的公式中,选择适当的$\lambda$(在scikit-learn的Lasso
里面是alpha
,但是书上都是$\lambda$)参数是关键。我们可以自己设置,也可以通过交叉检验来获取最优参数:
from sklearn.linear_model import LassoCV
lassocv = LassoCV()
lassocv.fit(reg_data, reg_target)
lassocv
有一个属性就是确定最合适的$\lambda$:
lassocv.alpha_
计算的相关系数也可以看到:
lassocv.coef_[:5]
用最近的参数拟合后,lassocv
的非零相关系数有29个:
np.sum(lassocv.coef_ != 0)
LASSO特征选择¶
LASSO通常用来为其他方法所特征选择。例如,你可能会用LASSO回归获取适当的特征变量,然后在其他算法中使用。
要获取想要的特征,需要创建一个非零相关系数的列向量,然后再其他算法拟合:
mask = lassocv.coef_ != 0
new_reg_data = reg_data[:, mask]
new_reg_data.shape