Tensorflow支持标准索引方式和逗号分隔索引号索引方式,下面以四维张量为例,
#创建有4张28*28的图片,使用随机分布模拟产生,3代表RGB通道的强度
val = tf.random.normal([4,28,28,3])
#取第一张图片的数据
val[0]
#取第一张图片的第二列
val[0][1]
#取第一张图片第二行第三列的数据
val[0][1][2]
通过start:end:step切片方式可以方便地提取一段数据,其中start为起始索引,end为结束读取位置索引(不包含end位),step为采样步长。下面以[4,28,28,3]图片张量为例,介绍。
#读取第2,3张照片
val[1:3]
#读取第一张照片
val[0,::]
val[0]
#为更简洁,::等价于:,如下相当于将图片变为原来的一半
val[:,0:28:2,0:28:2,:] #形状为shape=(4, 14, 14, 3)
val[:,::-2,::-2]
特别地,step可以为负数,当为负数时,索引号end<=start,为逆序读取数据。
#下面以一个序列为例
x = tf.range(10)
x
#逆序由9取到1
print(x[9:0:-1])
#逆序取全部元素
print(x[::-1])
#逆序且步长为2
print(x[::-2])
?接着,为避免序列中:过多,不方便观看,如x[:,:,:,1],可以使用符号表示取多个维度上的数据,如下,
#还是以[4,28,28,3]为例,取索引为0,1且通道索引为1,2的数据
val[0:2,...,1:]
#读取最后两张照片
val[2:,...]
#读取所有样本,所有高宽的前两个通道
val[...,:2]
在神经网络中,维度变换是最核心的张量操作,通过维度变换可将数据任意的切换格式,满足不同场合的运算需求。
#增加维度
x = tf.random.uniform([28,28],maxval = 10,dtype = tf.int32)
print(x)
#在随后加一个维度,形状为(28,28,1)
x = tf.expand_dims(x,axis = 2)
print(x)
#再在最前面加一个维度,形状为(1,28,28,1)
x = tf.expand_dims(x,axis = 0)
print(x)
#删除维度
x = tf.squeeze(x,0)
print(x) #shape=(28, 28, 1)
x = tf.squeeze(x,2)
print(x) #shape=(28, 28)
#交换维度
x = tf.random.normal([2,28,28,3])
tf.transpose(x,perm = [0,3,1,2])
#交换后shape=(2, 3, 28, 28)
tf.tile(x,multiples)函数完成在指定维度上复制,multiples分别指定了每个维度上的复制倍数,对应位置为1则不复制,对应位置为2则代表新长度要变为原来长度的二倍。
# 1、创建向量b
b = tf.constant([1,2])
# 2、插入新维度
b = tf.expand_dims(b,axis = 0)
b #shape=(1, 2)
# 3、复制数据
b = tf.tile(b,multiples = [2,1])#行复制一份,列不复制
b #shape=(2, 2)
Broadcasting成为广播机制,它是一种轻量级的张量复制手段,在逻辑上扩展张量数据的形状,只有在需要时才执行实际存储复制操作。
优点:相比于tf.tile(x,multiples),他们的结果是一样的,但Broadcasting机制节省了大量的计算资源,故在运算过程中尽可能地利用Broadcasting机制提高运算效率。