本文同步自我的知乎专栏: From Beijing with Love 机器学习和优化问题 很多机器学习方法可以归结为优化问题,对于一个参数模型,比如神经网络,用来表示的话,训练模型其实就是下面的参数优化问题: 其中L是loss function,比如神经网络中分类常用的cross-entropy. CNN学到了什么? 特征(Representation).把原始图像看做一个维度是像素×通道的向量,经过各种复杂的CNN结构,其实只不过成了另一个向量.这个向量所在的空间也许有更好的线性可分性,也许
一个batch的数据如何做反向传播 对于一个batch内部的数据,更新权重我们是这样做的: 假如我们有三个数据,第一个数据我们更新一次参数,不过这个更新只是在我们脑子里,实际的参数没有变化,然后使用原始的参数更新一次第二个例子,然后使用原始参数更新一次第三个例子.这样一个batch完了之后,我们把这三次计算出来需要的update的参数量求和或者求平均,从而更新一次参数. 所以一个batch对应一次反向传播,只不过参数对应batch内部数据计算处理的更新的和或者平均 How are weights
在DICOM标准里,有三个TAG与成像的方向相关. 参考来源:Kitware关于DICOM方向的说明 http://public.kitware.com/IGSTKWIKI/index.php/DICOM_data_orientation 包括 1.Image Position (0020,0032): specifies the x, y, and z coordinates of the upper left hand corner of the image. In other words,
因为MNIST数据是28*28的黑底白字图像,而且输入时要将其拉直,也就是可以看成1*784的二维张量(张量的值在0~1之间),所以我们要对图片进行预处理操作,是图片能被网络识别. 以下是代码部分 import tensorflow as tf import numpy as np from PIL import Image import backward as bw import forward as fw def restore(testPicArr): with tf.Graph().as
在C#程序中对图像进行处理,有的时候需要将处理后的图像还原,便于观察两者之间的区别,避免重新运行程序造成的麻烦.我是将之前写的Tab页中打开的图像进行还原,将原始图像数据保存在数据流中,然后从数据流中独处数据重新绘制图片,最后要将重新绘制的图片显示在Tab页中,覆盖处理过的图片 //文件到流的转换 static public int ImageToStream(Image img) { //这里重新定义一个变量接收图像数据,解决异常(GDI发生一般性错误) Image img1 = new Bi