残差网络:将输入层与输出层进行连接,保证了经过这层网路结构,网络的运算能力不会出现较大的改变

网络解析:

第一层网络: 输入网络经过一个卷积层,再经过一个batch_normalize, 再经过一个relu层

第二层网络;经过一层卷积层,将卷积后的网络与原输入数据进行对应位置相加操作, 将加和后的网络进行batch_normalize, 再经过一层relu

import torch
from torch import nn def conv3x3(in_planes, out_planes, stride=1): return nn.Conv2d(in_planes, out_planes, kernel_size=3, stride=1, padding=1, bias=False) # 定义卷积层 class BasicBlock(nn.Module):
def __init__(self, inplanes, outplanes, stride, downsample=None):
super(BasicBlock, self).__init__()
self.conv1 = conv3x3(inplanes, outplanes, stride=stride) # 第一个卷积
self.bn = nn.BatchNorm2d(outplanes) # 定义batch_norm层
self.relu = nn.ReLU(inplace=True) # 定义激活层
self.conv2 = conv3x3(outplanes, outplanes, stride=stride) # 第二个卷积
self.bn2 = nn.BatchNorm1d(outplanes) # 进行标准化操作
self.downsample = downsample # 进行维度的降低, 通常使用卷积操作来进行维度的降低 def forward(self, x): residual = x # 原始的残差模块 x = self.conv1(x) # 第一次卷积
x = self.bn(x) # 归一化操作
x = self.relu(x) # 激活操作 x = self.conv2(x) # 第二次卷积
out = self.bn2(x) # 归一化操作 if self.downsample is not None:
residual = self.downsample(x) # 是否需要对原始的样本做降采样操作 out += residual # 进行加和操作
out = self.relu(out) # 进行激活操作 return out

最新文章

  1. IIS最大连接数优化
  2. 【深度分享】千团大战:看今天商业WiFi乱局及其破解之道
  3. Ubuntu1404 (1)
  4. 使用Gulp和Browserify创建多个绑定文件
  5. Docker实践(1)—入门
  6. 分享:大晚上用自己的锤子手机跨系统刷MIUI,跌宕起伏啊!!
  7. iOS - UIColor
  8. awk与cut在以空格为分割域时的区别
  9. bootstrap 笔记01
  10. Python : 熟悉又陌生的字符编码(转自Python 开发者)
  11. Yahoo团队经验:网站性能优化的34条黄金法则
  12. H5性能测试学习
  13. JS 判断某个字符串是否存在与数组中
  14. pjtool用到的数据库----oracle范畴
  15. require.js使用步骤
  16. 《JavaScript Dom 编程艺术》读书笔记-第10章
  17. SpringBoot条件注解@Conditional
  18. awk入门【转】
  19. 11. English vocabulary 英语词汇量
  20. Java并发-ThreadGroup获取所有线程

热门文章

  1. Saladict 沙拉查词
  2. 如何用Visual Studio Code远程调试运行在服务器上的nodejs应用
  3. 16.Listener(监听器)
  4. Linux内核的目录结构
  5. myBatis的坑 01 %的坑 框架内置的小BUG
  6. sklearn--决策树和基于决策树的集成模型
  7. WebApi接口测试工具
  8. 电脑设置自动关机和取消自动关机代码bat命令
  9. 2sum问题求解
  10. 【HDU5952】Counting Cliques