我正在尝试在tensorflow中实现一个基于LSTM单元的RNN。我在每一行中都有一个组成特征的单词序列和一个名为labels (可以是1或0)的列作为目标。在此之后,我的每个示例都会变成一个160 x 100的矩阵,RNN函数的每个批次都会变成一个张量- (256,160,100)。现在,假设LSTM单元的hidden_dimension设置为300,则每个示例(大小为160x100)的隐藏状态向量的</
我有一些由input_x表示的数据。它是一个未知大小的张量(应该由批处理输入),其中的每个项目都是大小为n的。input_x经历了tf.nn.embedding_lookup,因此embed现在有维度[?, n, m],其中m是嵌入大小,?是未知的批处理大小。U将输入数据中的每个样本(现在通过嵌入维度进行扩展)乘以,而我似乎无法理解如何做到这一点。然后,通过扩展U的</em
前两个结果在维度或等级上的区别是什么?为什么我可以将这两个(矩阵/向量)相加?这听起来可能是一个天真的问题,但我正在努力理解张量/矩阵之间的加法是如何工作的。谢谢。它们不是两个大小不同的矩阵吗?)import tensorflow as tfW = tf.Variable(tf.zeros([784, 10]))
x = tf.Variable(tf.zeros