Accepted by SIAM International Conference on Data Mining (SDM21)

本文提出了二次残差网络,通过在应用激活函数之前,添加二次残差项到输入的加权和中,从而获得了比普通DNN具有更好表达容量的模型(相同宽度下)。这样在拟合复杂的PDE时,得益于更少的参数,可以在更少的训练步骤时同样获得很好的精度。最后作者使用了代数几何的工具,从理论上证明了QRes在网络宽度和深度方面表现出更好的参数效应,由于每个神经元中更高的非线性。一般来说,提高神经网络的容量将会有助于学习更复杂的样本,但为了学习更一般的模型,我们也需要通过正则化来平衡网络能力与数据所含的信息,尤其是在训练次数小的时候。

来自物理的额外监督确保PINN使用高容量的神经网络而不会过拟合。如下图所示,物理信息的添加使得神经网络避免了过拟合。

作者关心的是:能否开发一种在每一层都具有更高容量的神经网络架构,该架构可以用比普通DNN更少的参数近似复杂函数。虽然我们知道神经网络的表示能力不会是PINN失败的关键,但是如果可以使用更少的参数近似的话,也可以减少PINN训练的时间。也就是本文的作用大概就是加速PINN的训练。

所提出的网络结构图与普通网络的比较如下。

哈达玛积如下:

在普通的DNN层只有权重和偏置对输入的影响是线性的,只有激活函数对输入施加线性影响。因此就需要大量合适宽度的DNN层去捕获目标的非线性。称为残差是因为删除了它只会产生一个普通的DNN。W2为0时就是普通网络但当我们需要更好的非线性表达时,QRes就可以获得更高的非线性。网络的数学表示为:

虽然作者提出的模型使用线性激活函数,但是为了避免出现无界的情况,作者仍然使用非线性激活函数。借助代数几何分析,所提出的模型具有更高的表示量,但是只有当网络的宽度适合大时才会收敛。

通过下图我们可以看到,QRes可以带来较大的改进。但是需要的神经元较多。

所提出的网络会带来更快的收敛。但是PINN失败的模型,这个也会失败。

但是性能几乎没有提升,只是单纯收敛的快了。

 

最新文章

  1. 归一化方法 Normalization Method
  2. 使用SQL Server 扩展事件来创建死锁的时间跟踪
  3. sublime text2在windows中以命令行启动
  4. java 22 - 8 多线程之线程生命周期图解
  5. Mysql初始化root密码和允许远程访问
  6. C#获取本机的MAC地址
  7. editPlus,3.7V 注册码
  8. 2016年度 JavaScript 展望(下)
  9. Linux 内核简介
  10. ubuntu-12.04.4-server安装
  11. eclipse异常解决:Errors occurred during the build.........
  12. debian 9 开机启动
  13. 使用JS读取本地文本文件(兼容各种浏览器)
  14. Java 堆内存 新生代 (转)
  15. Python 测试
  16. 62. 63. Unique Paths 64. Minimum Path Sum
  17. STL Deque 容器
  18. linux-2.6.22.6内核启动分析之head.S引导段代码
  19. 【BZOJ2004】[HNOI2010]Bus 公交线路
  20. 查询如下课程平均成绩和及格率的百分数(用"1行"显示): 企业管理(001),马克思(002),OO&UML (003),数据库(004)

热门文章

  1. Deer_GF之UIButtonSuper
  2. Mysql习题系列(三):单行函数
  3. windows的lib与dll
  4. rancher 修改域名
  5. LP1-5:流程与沟通
  6. Oracle 详细-创建用户并导入sql文件
  7. OI常见缩写
  8. cisco的telnet远程登入
  9. app内嵌H5踩坑
  10. redis 持久化之RDB和AOF的区别