相关文章:
【一】tensorflow安装、常用python镜像源、tensorflow 深度学习强化学习教学
【二】tensorflow调试报错、tensorflow 深度学习强化学习教学
trick1---实现tensorflow和pytorch迁移环境教
tf.concat()
是相对比较好理解的函数,它和python里的numpy.concatenate()
函数作用是一样的。都是把多个array沿着某一个维度接在一起。只不过numpy.concatenate()
用来处理numpy array,tf.concat()
用于处理tensor。他们俩有个共同点,就是得到的结果tensor或者numpy array的维度的数量一定是一样的。
例子:
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat([t1, t2], 0)
输出结果:
[[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]
shape=[4, 3]
先来分解一下t1和t2。首先
t1 = [[1, 2, 3], [4, 5, 6]]
可以看成:
t1 = [A, B]
A = [1,2,3]
B = [4,5,6]
t1的shape是2,3,意思是有2个元素A, B, 他们每个里面有3个元素,t2同理。
t2 = [C, D]
C = [7,8,9]
D = [10,11,12]
这里2,3的维度数量是2,也就是2维的。如果是3维的可能是2,3,什么。知道
tf.concat()
不会改变维度数量非常重要。因为tf.concat()
只是对对应维度元素数量的叠加。比如tf.concat([t1, t2], 0)
意思是对t1和t2在第一维度对接。因为他俩的shape都是2,3,输出tensor的shape一定是4,3,因为他俩的第一维度都是2,2+2=4。再比如如果是tf.concat([t1, t2], 1)
,那么输出shape一定是2,6,以此类推。 维度是从0开始算的,也就是沿着第一个维度接起来。(以此类推,axis=1
就是第二个维度),从shape可以看出t1和t2都是只有两个维度。既然是沿着第一个维度对接,那根本就不用看第二个维度。 那么什么是第一个维度呢?就可以理解成第一层中括号。t1的第一层中括号是t1 = [A, B], t2 = [C, D]
(展开A,B,C,D是第二个维度) 那对接是什么意思呢?就是把对应的中括号打开,把对应的里面一层的元素放在一起,再用中括号全扩起来。
tf.concat([t1, t2], 0) #后面的0的意思是 axis=0
按步骤是:
这里已经知道了输出的shape是4,3。其中的4代表第一维度有4个元素,就是A,B,C,D。t1 = [A, B], t2 = [C, D]
各只有一个中括号,所以不用考虑对应,直接放一起就行了。如果t1和t2比如各有2个中括号的话,括回去之后也应该有2个中括号,下面例2有讲到
A,B,C,D都是什么来着?
A = [1,2,3]
B = [4,5,6]
C = [7,8,9]
D = [10,11,12]
每个里面有3个元素,这就是4,3的3的含义。
所以输出结果是:
[[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]], shape = [4,3]
注意t1和t2是有顺序的。如果这行命令是:
tf.concat([t2, t1], 0)
那么结果应该是[[7, 8, 9], [10, 11, 12], [1, 2, 3], [4, 5, 6]]
tf.concat([t1, t2], 1) #1是 axis=1,第二维度的意思
还是按照上面的方法,我们知道了输出结果的shape一定是2,6。既然沿着第二维度对接,那么不用看第一维度。
第一维度是:t1 = [A, B], t2 = [C, D]
(不用动,也就是这一维度的输出结果一定是x1, x2)
第二维度是:A = [1,2,3] B = [4,5,6] C = [7,8,9] D = [10,11,12]
这里A,B属于t1,C,D属于t2,各有2个中括号。那么按顺序,A对应C,B对应D。
最后在第一维度括起来,结果是:
[[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12]], shape = [2,6]
直观方法:
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat([t1, t2], 0)
其实t1是个2维数组,也就是一个面。形象一点就是:
t1:
-------
|1|2|3|
|-|-|-|
|4|5|6|
-------
t2:
----------
| 7| 8| 9|
|--|--|--|
|10|11|12|
----------
都是2行3列。 我会把第一维度看成行,第二维度看成列。 如果沿着行对接,也就是把行数增加为4行,列数还是3列。那么结果就是:
----------
| 1| 2| 3|
|--|--|--|
| 4| 5| 6|
----------
| 7| 8| 9|
|--|--|--|
|10|11|12|
----------
这个矩阵就是:
[[1, 2, 3],
[4, 5, 6],
[7, 8, 9],
[10, 11, 12]]
demo2:
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat([t1, t2], 1)
undefined 这就是沿着列对接,也就是变成6列。行还是3行。也就变成了:
-------------------
| 1| 2| 3| 7| 8| 9|
|--|--|--|--|--|--|
| 4| 5| 6|10|11|12|
-------------------
输出就是
[[1, 2, 3, 7, 8, 9],
[4, 5, 6, 10, 11, 12]]
如果两个tensor都有第三维的话,比如:
t1 = [[[1], [2], [3]], [[4], [5], [6]]]
t2 = [[[7], [8], [9]], [[10], [11], [12]]]
tf.concat([t1, t2], 2)
t1和t2的shape都是2,3,1,沿着第三维对接。结果shape一定是2,3,2。 那么用这个直观的方法就是非常好理解, 就可以理解成把t1的2d矩阵放在t2的2d矩阵的前面,形成一个3d矩阵,像这样:
3d数组这样理解:2行,3列,2层
2行:A, B
3列:A = a,b,c, B = d, e, f
2层:a = 1,7, b = 2,8, c = 3, 9, d = 4, 10, e = 5, 11, f = 6, 12
所以结果是:
[[[1,7], [2,8], [3, 9]], [[4, 10], [5, 11], [6, 12]]], shape = [2,3,2]
这种方法的弊端就是大于3维的数组就不好想了,毕竟我们生活的是3维世界。