文献中的recall rate(查全率或召回率) and precision(精度)是很重要的概念.可惜很多中文网站讲的我都稀里糊涂,只好用google查了个英文的,草翻如下:召回率和精度定义: 从一个大规模数据集合中检索文档的时,可把文档分成四组 - 系统检索到的相关文档(A) - 系统检索到的不相关文档(B) - 相关但是系统没有检索到的文档(C) - 相关但是被系统检索到的文档(D) 相关 不相关 检索到 A B 未检索到 C D 直观的说,一个好的检索系统检索到的相关文档越多越好,不相关
From <白话深度学习与TensorFlow> Dropout 顾名思义是“丢弃”,在一轮训练阶段丢弃一部分网络节点,比如可以在其中的某些层上临时关闭一些节点,让他们既不输入也不输出,这样相当于网络的结构发生了改变.而在下一轮训练过程中再选择性地临时关闭一些节点,原则上都是随机性.这样每一次训练相当于网络的一部分所形成的一个子网络或者子模型.而这种情况同时也在一种程度上降低了VC维的数量,减小过拟合的风险.在最终的分类阶段将所有的节点都置于有效状态,这样就可以把训练中得到的所有子网络并联使用