Layer Normalization
2024-08-27 02:53:50
Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E. Hinton. "Layer normalization." arXiv preprint arXiv:1607.06450 (2016).
Batch Normalization是对每个神经元做归一化(cnn是对每个feature map做归一化),主要是为了解决internal covariate shift的问题。
作者提出,对于RNN这种没法用mini-batch的网络,没办法用BN,所以提出了Layer Normalization。
公式为:
两个repo:https://github.com/pbhatia243/tf-layer-norm 和 https://github.com/ryankiros/layer-norm
感觉不管BN还是LN,都是为了限制神经元的输出值,使其符合一定的分布。可以看出,为了得到均值和方差,BN采用了不同batch中不同的输入数据来计,LN采用了同一层上神经元来计算。那么,是否可以通过历史时间数据来计算呢,感兴趣的同学可以自己去实现一个TN(time normalization或者叫temporal normalization ),似乎也是支持RNN的(即独立于mini-batch的)。
最新文章
- android内部培训视频_第三节 常用控件(Button,TextView,EditText,AutocompleteTextView)
- 在Excel表里面插入背景图
- 怎样用ZBrush对模型进行渲染(二)
- Linux中的命令 make -f 是什么意思
- PHP弹出提示框并跳转到新页面即重定向到新页面
- 学习Linux系列--安装Ubuntu
- 分享一下自己正在使用的sublime text里的插件
- jsp页面
- oracle 数组类型
- Java反射获取类和对象信息全解析
- Akka FSM 源代码分析
- JavaScript高级程序设计---学习笔记(五)
- 在HTML页面中获取当前项目根路径的方法
- Android初级教程理论知识(第七章服务)
- 动态规划-LIS1
- java日志框架之logback(一)——logback工程简介
- Linux命令:索引
- POJ2431--Expedition(优先队列)
- Ubuntu16.04 kaldi的简单配置
- 调用WScript.Shell时产生Automation 服务器不能创建对象的错误