p> :L1 的绝对值惩罚会导致部分参数被 “压缩” 到 0,从而自动完成 “特征选择”(删除对模型贡献极小的特征)。例:用 Lasso 处理 “房价预测” 数据时,若 “小区绿化率” 的参数被置为 0,说明该特征对房价影响可忽略,模型训练时无需考虑。
计算挑战:绝对值函数在处不可导,传统梯度下降无法直接使用,需用 “次梯度下降”“坐标下降” 等特殊优化方法。
适用场景
:特征维度高、存在大量冗余特征的场景(如文本分类中的词袋模型,特征数可能达数万,需筛选核心词汇)。
3. L1 与 L2 的对比:为什么 L1 能稀疏化?
L1 和 L2 的核心差异源于惩罚项的 “几何形状”,可通过 “约束域” 直观理解:假设模型仅含两个参数和,正则化等价于在 “参数空间” 中加入一个约束域,损失函数的最优解需落在 “约束域与损失函数等高线的切点” 上:
L2 的约束域是圆形:切点通常不在坐标轴上,因此参数不会为 0;
L1 的约束域是正方形:正方形的顶点在坐标轴上(如,切点更易落在顶点,导致某一参数为 0。
对比维度
L1 正则化(Lasso)
L2 正则化(Ridge)
惩罚项形式(绝对值和)(平方和)参数效果部分参数置为 0(稀疏化 \/ 特征选择)
所有参数缩小,不置为 0
抗多重共线性
弱(可能删除相关特征中的一个)
强(通过缩小参数缓解相关性影响)
优化难度
高(不可导,需特殊方法)
低(可导,支持梯度下降)
适用场景
高维、冗余特征数据
特征均有意义、需保留所有特征
4. Elastic Net(弹性网络):L1 与 L2 的结合
为兼顾 L1 的 “特征选择” 和 L2 的 “抗共线性”,Elastic Net 同时引入 L1 和 L2 惩罚项,损失函数为:其中控制 L1 强度,控制 L2 强度。适用场景:特征维度极高且存在多重共线性的场景(如基因数据,特征数远大于样本数,且基因间存在相关性)。
三、深度学习中的正则化方法
深度学习模型(如 cNN、transformer)参数规模庞大(动辄千万级),过拟合风险更高,除了上述 L1\/L2,还需针对性的正则化技术。
1. 权重衰减(weight decay)
本质
:深度学习中 L2 正则化的常用实现方式,通过在优化器中直接对参数进行 “按比例衰减”(如 SGd、Adam 优化器均支持weight_decay参数)。
原理
:每次参数更新时,先将参数乘以一个小于 1 的系数(如 0.99),再进行梯度下降,等价于在损失函数中加入 L2 惩罚项。
注意
:权重衰减仅作用于权重参数,不作用于偏置项和 batchNorm 的参数(因这些参数对模型复杂度影响小)。
2. dropout(随机失活)
原理
(以全连接层为例):训练时,随机 “关闭”(置为 0)一部分神经元(比例由参数p控制,通常取 0.2~0.5),迫使模型不依赖某一特定神经元,学习更鲁棒的特征;测试时,不关闭任何神经元,而是将所有神经元的输出乘以
就是(或对权重进行缩放),保证输出分布一致。
示例
:一个含 100 个神经元的全连接层,p=0.5时,每次训练迭代会随机选择 50 个神经元置为 0,仅用剩余 50
温馨提示:亲爱的读者,为了避免丢失和转马,请勿依赖搜索访问,建议你收藏【久久小说】 m.gfxfgs.com。我们将持续为您更新!
请勿开启浏览器阅读模式,可能将导致章节内容缺失及无法阅读下一章。