首先介绍Attention机制:

转自:http://blog.csdn.net/malefactor/article/details/50550211

上面讲的是Soft Attention Model,所谓Soft,意思是在求注意力分配概率分布的时候,对于输入句子X中任意一个单词都给出个概率,是个概率分布。那么相对Soft,就有相应的Hard Attention Model。既然Soft是给每个单词都赋予一个单词对齐概率,那么如果不这样做,直接从输入句子里面找到某个特定的单词,然后把目标句子单词和这个单词对齐,而其它输入句子中的单词硬性地认为对齐概率为0,这就是Hard Attention Model的思想。

Attention的变体:

Attention在图像中的应用:

最新文章

  1. google play下载apk
  2. 实现PHPCMS手机门户的伪静态
  3. Android 蓝牙打印超时问题的处理
  4. js滚动到底部事件
  5. 机器学习六--K-means聚类算法
  6. C/C++代码中的笔误
  7. 长链非编码RNA(lncRNA)
  8. iOS - Swift NSData 数据
  9. python学习之”迭代从入门到精通“
  10. 在Visual C++中的用ADO进行数据库编程
  11. python入门学习笔记(一)
  12. maven转gradle ,windows错误重定向
  13. Git 常用命令及操作总结
  14. VMWare 安装 Linux
  15. 移动端 - Android客户端性能测试常见指标
  16. win8 中如何删除 共享文件夹 用户名和密码
  17. Git直接拉取远程分支
  18. PHP下载文件的几种方案
  19. 基于Cocos2d-x学习OpenGL ES 2.0之多纹理
  20. mysql 加入远程用户

热门文章

  1. 微信公众平台开发小记(ASP.NET)
  2. sip
  3. 回顾 git 常用命令
  4. 【Linux】行首、行尾添加字符串
  5. JDBC数据库编程:callableStatement接口
  6. SchemaExport
  7. (总结)Linux下su与su -命令的本质区别
  8. jQuery 树型菜单插件(Treeview)
  9. JiaThis™“分享到”侧栏代码
  10. html调用摄像头的方法汇总