一.神经网络的大体结构可分为三个函数,分别如下:

1.初始化函数

  设定输入层节点,隐藏层节点和输出层节点的数量。

2.训练

  学习给定训练集样本后,优化权重。

3.查询

  给定输入,从输出节点给出答案

所编写的代码框架可如下所示:

 #神经网络类定义
class NeuralNetwork():
#初始化神经网络
def _init_():
pass #训练神经网络
def train():
pass #查询神经网络
def query():
pass

二.初始化网络

  需要设置输入层节点,隐藏层节点和输出层节点的数量,同时不要忘记设置学习率。

 def _init_(self,inputnodes,hiddennodes,outputnodes,learningrate):
#设置输入层节点,隐藏层节点和输出层节点的数量
self.inodes = inputnodes
self.hnodes = hiddennodes
self.onodes = outputnodes
#学习率设置
self.lr = learningrate
pass

  如果每层创建三个节点,学习率为0.5的小型神经网络对象则如下所示:

 #设置每层节点个数为3个
input_nodes = 3
hidden_nodes = 3
output_nodes = 3
#设置学习率为0.5
learning_rate =0.5
#创建神经网络
n = NeuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate)

三. 权重-网络的核心

  简单而又比较流行的优化初始权重的方式是:使用正态概率分布采样权重,其中平均值为0,标准方差为节点传入链接数目的开方。

  python中可用numpy.random.normal()函数来以正态分布的方式采样,其中初始化权重的代码如下所示:

self.wih = numpy.random.normal(0.0,pow(self.hnodes,-0.5),(self.hnodes,self.inodes))
self.who = numpy.random.normal(0.0,pow(self.onodes,-0.5),(self.onodes,self.hnodes))

  我将正态分布的中心设置为0.0,与下一层中节点相关的标准方差为节点数目的-0.5次方,最后一个参数,是numpy数组的形状大小。

因为权重是神经网络的固有部分,与神经网络共存亡,它不是一个临时的数据集,不会随着函数调用结束而消失,因此,权重必须也是初始化的一部分,并且可以使用其他函数(如训练函数和查询函数)来访问。

四.查询网络

  query()函数接受神经网络的输入,返回网络的输出,它需要来自输入层节点的输入信号,通过隐藏层,最后从输出层输出。

(1)第一步需要做的是输入的数据和输入层与隐藏层之间的权重矩阵相乘,得到传输到隐藏层的输入信号,可表示如下:

  Xhidden  = Winput_hidden * I

用python可表示为:

hidden_inputs= numpy.dot(self.wih,inputs)

(2)为了获得从隐藏层节点处出现的信号,需要增加激活函数sigmod()

  Ohidden = sigmod(Xhidden)

python中的Scripy库中有此函数,可表示为:

import scripy.special
self.activation_function = lambda x:scripy.special.expit(x)

(3)隐藏层的输入输出呢?和上面的思路一样,可定义如下:

 #计算到输出层的信号
final_inputs= numpy.dot(self.who,hidden_outputs)
final_outputs = self.activation_function(final_inputs)

至此,训练函数还没有完成,以上部分的完整代码如下:

import numpy
import scripy.special
#神经网络类定义
class NeuralNetwork():
#初始化神经网络
def _init_(self,inputnodes,hiddennodes,outputnodes,learningrate):
#设置输入层节点,隐藏层节点和输出层节点的数量
self.inodes = inputnodes
self.hnodes = hiddennodes
self.onodes = outputnodes
#学习率设置
self.lr = learningrate
#权重矩阵设置 正态分布
self.wih = numpy.random.normal(0.0,pow(self.hnodes,-0.5),(self.hnodes,self.inodes))
self.who = numpy.random.normal(0.0,pow(self.onodes,-0.5),(self.onodes,self.hnodes))
#激活函数设置,sigmod()函数
self.activation_function = lambda x:scripy.special.expit(x)
pass #训练神经网络
def train():
pass #查询神经网络
def query(self,input_list):
#转换输入列表到二维数组
inputs = numpy.array(input_list,ndmin = 2).T
#计算到隐藏层的信号
hidden_inputs= numpy.dot(self.wih,inputs)
#计算隐藏层输出的信号
hidden_outputs = self.activation_function(hidden_inputs)
#计算到输出层的信号
final_inputs= numpy.dot(self.who,hidden_outputs)
final_outputs = self.activation_function(final_inputs) return final_outputs #设置每层节点个数为3个
input_nodes = 3
hidden_nodes = 3
output_nodes = 3
#设置学习率为0.5
learning_rate =0.5
#创建神经网络
n = NeuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate)

下面定义一个输入为:

print(n.query([1.0,0.5,-1.5]))

可看到程序的实际运行效果为:

[[0.65948789]
[0.4672955 ]
[0.66051158]]

输入是列表,输出也是一个列表。正确,但是这个输出没有实际意义,因为我们还没有训练网络。

最新文章

  1. Java职业生涯规划
  2. [Unity3D]粒子系统学习笔记
  3. 读Java面向对象编程(孙卫琴)
  4. Android计算器开发实例
  5. 如何使用java自定义注解?demo
  6. Python脚本控制的WebDriver 常用操作 <二十二> 处理alert / confirm / prompt
  7. UML_时序图画法
  8. java学习笔记day03
  9. CentOS7 安装 OpenSSL 1.0.1m 和 OpenSSH 6.8p1
  10. JBoss7安装、测试、配置和启动以及停止,部署
  11. 【转】使用nvm快速搭建 Node.js 开发环境
  12. phpstudy本地搭建域名访问
  13. 存在重复元素 II
  14. 【OpenFOAM案例】03 Docker安装OpenFOAM
  15. linux下postgres未能正常启动的解决过程
  16. 快速排序partition过程常见的两种写法+快速排序非递归实现
  17. jQuery-velocity.js 插件的简易使用
  18. linux 内核启动流程
  19. python 字符串 列表 字典 常用方法
  20. JDBC创建数据库实例

热门文章

  1. jQuery的选项卡
  2. codevs原创抄袭题 5960 信使
  3. VS Code 编译器的调试工具整理
  4. 基于Python的开源人脸识别库:离线识别率高达99.38%
  5. ArcGIS Runtime SDK for Android 各版本下载地址
  6. [MedicalEndoscope]PFC介绍
  7. Spark核心组件
  8. JavaScript 获取 当前日期和三十天以前日期
  9. webpack了解
  10. IOS 数据加密方式(加盐,MD5加密,)