张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 𝑛𝑛 维空间内,有 𝑛𝑟𝑛𝑟 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。𝑟𝑟 称为该张量的秩或阶(与矩阵的秩和阶均无关系)。
张量是一种特殊的数据结构,与数组和矩阵非常相似。张量(Tensor)是MindSpore网络运算中的基本数据结构。
张量的创建方式有多种,构造张量时,支持传入Tensor
、float
、int
、bool
、tuple
、list
和numpy.ndarray
类型。
init
初始化器对张量进行初始化时,支持传入的参数有init
、shape
、dtype
。
init
: 支持传入initializer的子类。如:下方示例中的 One() 和 Normal()。
shape
: 支持传入 list
、tuple
、 int
。
dtype
: 支持传入mindspore.dtype。
init
主要用于并行模式下的延后初始化,在正常情况下不建议使用init对参数进行初始化。
张量的属性包括形状、数据类型、转置张量、单个元素大小、占用字节数量、维数、元素个数和每一维步长。
Tensor
的shape,是一个tuple。
Tensor
的dtype,是MindSpore的一个数据类型。
Tensor
中每一个元素占用字节数,是一个整数。
Tensor
占用的总字节数,是一个整数。
Tensor
的秩,也就是len(tensor.shape),是一个整数。
Tensor
中所有元素的个数,是一个整数。
Tensor
每一维所需要的字节数,是一个tuple。
Tensor索引与Numpy索引类似,索引从0开始编制,负索引表示按倒序编制,冒号:
和 ...
用于对数据进行切片。
张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似,下面介绍其中几种操作。
普通算术运算有:加(+)、减(-)、乘(*)、除(/)、取模(%)、整除(//)。
concat将给定维度上的一系列张量连接起来。
stack则是从另一个维度上将两个张量合并起来。
Tensor可以和NumPy进行互相转换。
与张量创建相同,使用 Tensor.asnumpy() 将Tensor变量转换为NumPy变量。
使用Tensor()
将NumPy变量转换为Tensor变量。
CSR
(Compressed Sparse Row)稀疏张量格式有着高效的存储与计算的优势。其中,非零元素的值存储在values
中,非零元素的位置存储在indptr
(行)和indices
(列)中。各参数含义如下:
indptr
: 一维整数张量, 表示稀疏数据每一行的非零元素在values
中的起始位置和终止位置, 索引数据类型支持int16、int32、int64。
indices
: 一维整数张量,表示稀疏张量非零元素在列中的位置, 与values
长度相等,索引数据类型支持int16、int32、int64。
values
: 一维张量,表示CSRTensor
相对应的非零元素的值,与indices
长度相等。
shape
: 表示被压缩的稀疏张量的形状,数据类型为Tuple
,目前仅支持二维CSRTensor
。
CSRTensor
的详细文档,请参考mindspore.CSRTensor。
MindSpore与PyTorch的张量操作在设计和使用体验上有一些显著的区别:
astype
方法轻松转换Tensor的数据类型。ops
模块提供了大量的张量操作函数,这些函数通常具有明确的语义和简洁的接口。MindSpore和PyTorch都与NumPy具有良好的兼容性。两者都可以轻松地将NumPy数组转换为各自的张量格式,并提供了与NumPy相似的操作接口。
然而,MindSpore在处理大规模数据时可能会显示出更高的效率,特别是当利用其稀疏张量结构时。
体验总结:
MindSpore在处理稀疏数据和大规模计算时表现出色,其简洁直观的API设计和高效的数据结构使得开发工作变得相对容易。
PyTorch则以其灵活的动态计算图和广泛的社区支持而闻名,但在处理稀疏数据方面可能需要额外的努力。