Keras中使用LSTM层时设置的units参数是什么
https://www.zhihu.com/question/64470274
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
https://jasdeep06.github.io/posts/Understanding-LSTM-in-Tensorflow-MNIST/
https://stackoverflow.com/questions/37901047/what-is-num-units-in-tensorflow-basiclstmcell#
http://keras-cn.readthedocs.io/en/latest/layers/recurrent_layer/
keras.layers.recurrent.LSTM(units, activation='tanh', recurrent_activation='hard_sigmoid', use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal', bias_initializer='zeros', unit_forget_bias=True, kernel_regularizer=None, recurrent_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0)
model = Sequential()
model.add(LSTM(32, return_sequences=True, stateful=True,batch_input_shape=(batch_size, timesteps, data_dim)))
model.add(LSTM(32, return_sequences=True, stateful=True))
model.add(LSTM(32, stateful=True))
model.add(Dense(num_classes, activation='softmax'))
类似上述代码中,加重黑色数字的含义。
下图是加了peephole的lstm,用来示例,lstm则需要去掉Ct-1和Ct项。可以看到LSTM里面有几个参数矩阵,Wf、Wi、Wo都是参数矩阵。我的理解,上面的数字32就是这个参数矩阵的组数。比如初始一组参数矩阵,Wf、Wi、Wo,计算一个lstm值,然后再给一组参数矩阵Wf1、Wi1、Wo1,可以再算一个lstm值,共32组。参考的博客里第一个也是类似的解释。
最新文章
- uploadify批量上传
- Linux 常用操作命令
- zookeeper选举原理
- 分布式消息队列 Kafka
- ASP.NET DAY1
- (Java和C++)二进制date数据写进android保存为yuv格式
- Git 放弃修改
- 检查c# 内存泄漏
- POJ 2965 The Pilots Brothers' refrigerator 暴力 难度:1
- 优麒麟(UbuntuKylin)不是国产Linux操作系统
- 关联规则算法Apriori的学习与实现
- 使用Gradle编译release apk报错:Please correct the above warnings first
- Ecstore1.2启用mongodb添加索引
- 直接执行SQL语句的快捷键是什么啊?嘎嘎
- 主成分分析 SPSS、python实例分析
- CSS和DIV
- 『Python × C++』函数传参机制学习以及对比
- 【奇技淫巧】绕过waf写文件
- Java如何格式化24小时格式的时间?
- [leetcode]543. Diameter of Binary Tree二叉树直径