本文翻译自文章:Differences between L1 and L2 as Loss Function and Regularization,如有翻译不当之处,欢迎拍砖,谢谢~ 在机器学习实践中,你也许需要在神秘的L1和L2中做出选择.通常的两个决策为:1) L1范数 vs L2范数 的损失函数: 2) L1正则化 vs L2正则化. 作为损失函数 L1范数损失函数,也被称为最小绝对值偏差(LAD),最小绝对值误差(LAE).总的说来,它是把目标值(\(Y_{i}\))与估计值(\
监督机器学习问题无非就是“minimize your error while regularizing your parameters”,也就是在正则化参数的同时最小化误差.最小化误差是为了让我们的模型拟合我们的训练数据,而正则化参数是防止我们的模型过分拟合我们的训练数据. 因为参数太多,会导致我们的模型复杂度上升,容易过拟合,也就是我们的训练误差会很小.但训练误差小并不是我们的最终目标,我们的目标是希望模型的测试误差小,也就是能准确的预测新的样本.所以,我们需要保证模型“简单”的基础上最小化训