http://wossoneri.github.io/2017/11/15/[Tensorflow]The-dimension-of-Tensor/

Tensor维度理解

Tensor在Tensorflow中是N维矩阵,所以涉及到Tensor的方法,也都是对矩阵的处理。由于是多维,在Tensorflow中Tensor的流动过程就涉及到升维降维,这篇就通过一些接口的使用,来体会Tensor的维度概念。以下是个人体会,有不准确的请指出。

tf.reduce_mean

reduce_mean(
input_tensor,
axis=None,
keep_dims=False,
name=None,
reduction_indices=None
)

计算Tensor各个维度元素的均值。这个方法根据输入参数axis的维度上减少输入input_tensor的维度。

举个例子:

x = tf.constant([[1., 1.], [2., 2.]])
tf.reduce_mean(x) # 1.5
tf.reduce_mean(x, 0) # [1.5, 1.5]
tf.reduce_mean(x, 1) # [1., 2.]

x是二维数组[[1.0,1.0],[2.0, 2.0]]

axis参数取默认值时,计算整个数组的均值:(1.+1.+2.+2.)/4=1.5

axis取0,意味着对列取均值:[1.5, 1.5]

axis取1,意味着对行取均值:[1.0, 2.0]

再换一个3*3的矩阵:

sess = tf.Session()
x = tf.constant([[1., 2., 3.], [4., 5., 6.], [7., 8., 9.]])
print(sess.run(x))
print(sess.run(tf.reduce_mean(x)))
print(sess.run(tf.reduce_mean(x, 0)))
print(sess.run(tf.reduce_mean(x, 1)))

输出结果是

[[ 1.  2.  3.]
[ 4. 5. 6.]
[ 7. 8. 9.]]
5.0
[ 4. 5. 6.]
[ 2. 5. 8.]

如果我再加一维是怎么计算的?

sess = tf.Session()
x = tf.constant([[[1., 1.], [2., 2.]], [[3., 3.], [4., 4.]]])
print(sess.run(x))
print(sess.run(tf.reduce_mean(x)))
print(sess.run(tf.reduce_mean(x, 0)))
print(sess.run(tf.reduce_mean(x, 1)))
print(sess.run(tf.reduce_mean(x, 2)))

我给的输入Tensor是三维数组:

[[[ 1.  1.]
[ 2. 2.]] [[ 3. 3.]
[ 4. 4.]]]

推测一下,前面二维的经过处理都变成一维的,也就是经历了一次降维,那么现在三维的或许应该变成二维。但现在多了一维,应该从哪个放向做计算呢?

看下结果:

2.5
[[ 2. 2.]
[ 3. 3.]]
[[ 1.5 1.5]
[ 3.5 3.5]]
[[ 1. 2.]
[ 3. 4.]]

发现,

axis参数取默认值时,依然计算整个数组的均值:(float)(1+2+3+4+1+2+3+4)/8=2.5

axis取0,计算方式是:

[[(1+3)/2, (1+3)/2],
[(2+4)/2, (2+4)/2]]

axis取1,计算方式是:

[[(1+2)/2, (1+2)/2],
[(3+4)/2, (3+4)/2]]

axis取2,计算方式是:

[[(1+1)/2, (2+2)/2],
[(3+3)/2, (4+4)/2]]

看到这里,能推断出怎么从四维降到三维吗?

有人总结了一下:

规律:

对于k维的,

tf.reduce_xyz(x, axis=k-1)的结果是对最里面一维所有元素进行求和。

tf.reduce_xyz(x, axis=k-2)是对倒数第二层里的向量对应的元素进行求和。

tf.reduce_xyz(x, axis=k-3)把倒数第三层的每个向量对应元素相加。

链接

拿上面的数组验证这个规律:

[[[ 1.  1.]
[ 2. 2.]] [[ 3. 3.]
[ 4. 4.]]]

我们的k=3。小括号是一层,在一层内进行计算:

axis=3-1=2,做最内层计算,我们的最内层就是(1,1),(2,2),(3,3),(4,4),计算出来的就是

[[ 1.  2.]
[ 3. 4.]]

axis=3-2=1,做倒数第二层计算(参考二维计算):([1,1],[2,2])和([3, 3],[4, 4])

[[ 1.5  1.5]
[ 3.5 3.5]]

axis=3-3=1,做倒数第三层计算:([[1, 1], [2, 2]])([[3, 3], [4, 4]])

[[ 2.  2.]
[ 3. 3.]]

对于四维的,就贴段结果,自己可以尝试算一下,加深理解。

# input 4-D
[[[[ 1. 1.]
[ 2. 2.]] [[ 3. 3.]
[ 4. 4.]]] [[[ 5. 5.]
[ 6. 6.]] [[ 7. 7.]
[ 8. 8.]]]]
# axis=none
4.5 # axis=0
[[[ 3. 3.]
[ 4. 4.]] [[ 5. 5.]
[ 6. 6.]]] # axis=1
[[[ 2. 2.]
[ 3. 3.]] [[ 6. 6.]
[ 7. 7.]]]

在tensorflow 1.0版本中,reduction_indices被改为了axis,在所有reduce_xxx系列操作中,都有reduction_indices这个参数,即沿某个方向,使用xxx方法,对input_tensor进行降维。

对于axis参数的作用,文档的解释是

the rank of the tensor is reduced by 1 for each entry in axis

即Tensor在axis的每一个分量上的秩减少1。如何理解矩阵的「秩」? - 马同学的回答 - 知乎

附一张reduction_indices的图

下面再看下第三个参数keep_dims,该参数缺省值是False,如果设置为True,那么减少的维度将被保留为长度为1。

回头看看最开始的例子:

# 2*2
[[ 1. 1.]
[ 2. 2.]]
# keep_dims=False
[ 1.5 1.5] # 1*2
[ 1. 2.] #1*2
# keep_dims=True
[[ 1.5 1.5]] #1*2
[[ 1.] #2*1
[ 2.]]

可以看到差别。关于这个参数,还没看到太多介绍,还需要了解。

最新文章

  1. 编译PHP5缺t1lib包安装
  2. Python 反编译工具uncompyle2
  3. applicationContext.xml和web.xml的一些配置
  4. 如何下载Spring
  5. select选项框特效
  6. android 基于百度地图api开发定位以及获取详细地址
  7. 【Linux安全】系统资源监控与进程终止
  8. Php OpenID
  9. 一步步教你如何源码编译Recovery
  10. Detours信息泄漏漏洞
  11. java编程接口(6) ------ 图标
  12. 实现一个简单的boot
  13. 多线程socket UDP收发数据
  14. Fiddler实现手机抓包——小白入门
  15. IOC 和DI的区别
  16. 认识JavaWeb,servlet, JSP, Tomcat, http协议,Web服务器
  17. Charles抓包之HTTPS抓包配置
  18. HDU 2159 FATE (二维背包)
  19. qq邮箱发送,mail from address must be same as authorization user
  20. js设置、修改、获取、删除 cookie

热门文章

  1. java--String equals方法
  2. 解决Unity中模型部件的MeshCollider不随动画一起运动的问题
  3. leetcode — sort-colors
  4. leetcode — jump-game-ii
  5. linux读书笔记1
  6. easyui combobox 设置滚动条
  7. 你真的懂redis的数据结构了吗?redis内部数据结构和外部数据结构揭秘
  8. 正则表达式-linux路径匹配
  9. 从2PC到Paxos
  10. μC/OS-II 任务的同步与通信 --- 消息队列