PCA适合无监督线性降维与可视化,Lasso适用于有监督特征筛选与可解释性分析;二者应依任务目标、数据特性及业务需求选择或组合使用。

特征选择和降维是机器学习建模前的关键预处理步骤,直接影响模型性能、训练速度与可解释性。PCA适合处理高维连续特征的线性相关结构,Lasso则通过带L1正则的回归自动完成特征筛选,二者适用场景不同,常需结合业务目标判断取舍。
PCA:用方差保留原则压缩特征空间
PCA不考虑标签,只依据特征间的协方差矩阵做正交变换,将原始特征投影到方差最大的几个主成分上。它不删除原始变量,而是生成新特征(主成分),适合用于图像、频谱等高维稠密数据的去噪与可视化。
- 使用sklearn.decomposition.PCA时,建议先标准化(StandardScaler),否则量纲差异会主导主成分方向
- 通过explained_variance_ratio_查看各主成分贡献率,累计达0.85–0.95通常可平衡信息保留与维度压缩
- 注意:PCA对异常值敏感,若数据含明显离群点,可考虑用RobustScaler预处理或改用Kernel PCA
Lasso:用稀疏约束实现有监督的特征选择
Lasso(Least Absolute Shrinkage and Selection Operator)在线性/逻辑回归中加入L1正则项,使部分系数精确收缩为0,从而天然实现特征筛选。它依赖目标变量,结果更具可解释性,适合特征数量适中、存在冗余或弱相关预测变量的场景。
- 调参关键在alpha:alpha越大,惩罚越强,被置零的特征越多;可用LassoCV自动交叉验证选最优alpha
- 务必对特征标准化后再拟合,否则量纲大的变量系数天然更小,易被错误剔除
- 筛选后的非零系数对应“重要特征”,但需警惕多重共线性——高度相关的变量可能随机保留其一,建议配合VIF检验或用ElasticNet折中
如何选择PCA还是Lasso?看三个实际信号
不必硬套方法论,从数据和任务出发更高效:
立即学习“Python免费学习笔记(深入)”;
- 目标是降维+可视化(如聚类前2D散点图)→ 优先PCA,因主成分天然可排序且正交
- 特征多、业务需解释“哪些原始变量起作用”→ 选Lasso,它输出的是原始特征的子集,便于向业务方说明
- 特征含大量哑变量(one-hot)、类别型编码或存在非线性关系→ PCA仍可用(但需谨慎解读),Lasso需配合PolynomialFeatures或改用基于树的特征重要性(如RandomForest)
组合策略:Lasso预筛 + PCA精炼
在超高位特征(如文本TF-IDF后上万维)场景中,可分两步走:先用Lasso快速剔除大量无关特征(如保留前1000个非零系数),再对剩余特征做PCA进一步压缩。这样既控制计算开销,又避免PCA受噪声特征干扰。
- 代码上注意顺序:Lasso拟合后用get_support()获取选中列索引,再切片传入PCA
- 不建议反向操作(PCA后再Lasso),因主成分是人工构造变量,失去原始语义,Lasso筛选结果难以回溯解释
- 若下游模型是树模型(XGBoost、LightGBM),通常无需PCA,直接用Lasso或内置特征重要性更自然










