MNIST:一个由60000行训练数据集和10000行的测试数据集(机器学习模型设计时必须有一个单独的数据集用于评估模型的性能)组成的数据集。

下载mnist的数据集后,将文件放入C:\Users\missouter.keras\datasets中,再将以下代码写入程序:

import tensorflow as tf
import numpy as np
def transform_data(x_train, y_train, x_test, y_test):
x_train_new=x_train.reshape(-,*)
x_test_new=x_test.shape(-, *)
y_train_new=np.zeros((y_train.shape[],))
y_test_new=np.zeros((y_test.shape[],))
for i in range(y_train.shape[]):
y_train_new[i][y_train[i]] =
for i in range(y_test.shape[]):
y_test_new[i][y_test[i]] =
return x_train_new,y_train_new,x_test_new,y_test_new
mnist=tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test)=mnist.load_data()
x_train,x_test=x_train/255.0,x_test/255.0
x_train, y_train, x_test, y_test = transform_data(x_train, y_train, x_test, y_test)

这样就直接完成了数据集的导入与训练、测试集的分割。处理完后,还需定义每轮feed给网络的数量:

BATCH_SIZE = 100
TOTAL_SIZE = x_train.shape[0]

下一步需要使用softmax回归(softmax regression),softmax模型可以用来给不同的对象分配概率,以得到某个图像为某个特定数字类的证据为例,输入图片x代表的数字为x的证据可表示为:

evidencei=∑W(i,j)xj + bi

其中Wi代表权重;因输入会带一些无关的干扰量,故加入偏置量bi,j代表给定图片的像素索引。

运用softmax函数可将证据转换成概率y:

y=softmax(evidence) 激励 / 链接函数

从而将我们定义的线性函数输出转换成十个数字类的概率分布;一般将softmax模型函数定义为下列的前一种形式,即将输入值当成幂指数求值,再将结果值正则化。

softmax(x)=normalize(exp(x))
softmax(x)i=exp(xi)/∑exp(xj)

更为紧凑的格式可写为:

y=softmax(Wx+b)

用以下方式创建可交换单元:

x=tf.placeholder("float", [None, 784])

placeholder构筑整个系统的graph;第一个参数是数据类型,第二个参数是数据形状,上述代码中[None, 784]表明行未定,列为784列;第三个参数为名称,未写入代码。

上述语句的x是一个占位符;MNIST的一张图包含28*28=784个像素,每一张图展平成784维的向量;none 表示此张量的第一维度可以是任何一个长度。

Variable表示一个可修改的向量,放置模型参数。可用于计算输入值,也可在计算中被修改。下方代码中,因我们需要让784维的图片向量乘权值w得到十位的证据向量,故模型参数形状为[784,10]。

用全为零的张量初始化w、b:

w=tf.Variable(tf.zeros([784,10]))
b=tf.Variable(tf.zeros[10])

我们需要用784维的图片向量乘w以获得10维的证据值向量,故w维度wei[784, 10](矩阵乘法)。

接着用以下语句实现模型:

y=yf.nn.softmax(tf.matmul(x, W)+b)

在训练模型时,我们定义成本\损失来评估模型好坏;交叉熵是一个常见的成本函数:

Hy‘(y)=-∑y’log(yi)

y’为预测分布,y为实际分布;

使用一个占位符输入正确值,然后计算交叉熵:

y_=tf.placeholder("float", [none, 10])
cross_entropy=-tf.reduce_sum(y_*tf.log(y))

选择梯度算法以0.01的学习速率最小化交叉熵,将每个变量一点点朝成本降低的方向移动:

train_step = tf.train.GradienDescentOptimizer(0.01).minimize(cross_entropy)

简单调整一行代码就可以使用tensorflow提供的其他算法。

最后,初始化模型并训练模型,例子中训练了一千次:

sess=tf.Session()
sess.run(init)
for i in range(1000):
start = (i * BATCH_SIZE) % TOTAL_SIZE
end = start + BATCH_SIZE
batch_xs, batch_ys = x_train[start:end], y_train[start:end]
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

每次循环随机抓取训练集中的100个批处理点,替换先前定位的占位符,运行train_step。

接下来使用tf.argmax给出tensor对象某维上的数据最大值的索引值,则可知:

tf.argmax(y, 1)返回的是预测标签值
tf.argmax(y_, 1)代表的是正确的标签

使用tf.equal检测预测是否与真实标签匹配:

correct_prediction=tf.equal(tf.argmax(y, 1), tf.argmax(y_,1))

代码返回布尔值,将其转换成浮点数后取平均,计算学习模型正确率:

accuracy=tf.reduce_mean(tf.cast(correct_prediction, "float"))
print(sess.run(accuracy, feed_dict={x:x_test, y_: y_test}))

这样对于mnist手写体识别的过程就写完了。

最新文章

  1. Node.js入门:文件查找机制
  2. 洛谷P3128 [USACO15DEC]最大流Max Flow [树链剖分]
  3. c++标准模板库algorithm头文件中accumulate算法的代码
  4. VC++ operate excel
  5. 微信开发学习日记(八):7步看懂weiphp插件机制,核心目标是响应微信请求
  6. 如何查看google chrome 插件源码
  7. c#通过反射获取类上的自定义特性
  8. js select 实现左右传值.html
  9. resin安装
  10. Fastjson简单使用方法
  11. eclipse中Cannot change version of project facet Dynamic Web Module to 2.5.
  12. “吃人”的那些Java名词:对象、引用、堆、栈
  13. Python多线程下存在_strptime的问题
  14. Spring Beans和依赖注入
  15. Netty派生缓冲区
  16. 第27月第6天 gcd timer
  17. Redis 穿透和雪崩
  18. (转)wsdl文件用SoapUI快速创建WebService,CXF生成客户端代码
  19. lucene教程--全文检索技术
  20. Python函数式编程中map()、reduce()和filter()函数的用法

热门文章

  1. 背景知识+监督和无监督学习辨析+预备知识(1-1—1-4/用时4h)
  2. Thinking in Java,Fourth Edition(Java 编程思想,第四版)学习笔记(十二)之Error Handling with Exceptions
  3. 解决click与hover(mouseover)的冲突问题
  4. JavaScript中的作用域和作用域链(边学边写)[看着别人的博客纯手敲]
  5. Postman:Pre-request Script
  6. CTO的窘境
  7. 【轮询】【ajax】【js】【spring boot】ajax超时请求:前端轮询处理超时请求解决方案 + spring boot服务设置接口超时时间的设置
  8. linux内核第一宏 container_of
  9. 关于宝塔下的项目中的php不能访问的问题
  10. ansible一键安装mysql8.0