本文翻译自文章:Differences between L1 and L2 as Loss Function and Regularization,如有翻译不当之处,欢迎拍砖,谢谢~ 在机器学习实践中,你也许需要在神秘的L1和L2中做出选择.通常的两个决策为:1) L1范数 vs L2范数 的损失函数: 2) L1正则化 vs L2正则化. 作为损失函数 L1范数损失函数,也被称为最小绝对值偏差(LAD),最小绝对值误差(LAE).总的说来,它是把目标值(\(Y_{i}\))与估计值(\
一.基础函数 1.1 .tf.reduce_sum(input_tensor, axis) Computes the sum of elements across dimensions of a tensor,沿着维度sxis计算和 x= [[, , ], [, , ]],其秩为2 //求和,在所有维度操作,也就相当于对所有元素求和 tf.reduce_sum(x) ==> //在维度0上操作,在这个例子中实际就是按列(维度0)求和 tf.reduce_sum(x, ) ==> [, ,