首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >向LSTM提供CNN功能

向LSTM提供CNN功能
EN

Stack Overflow用户
提问于 2017-04-28 13:00:16
回答 1查看 856关注 0票数 1

我想建立一个端到端的可训练模式,包括以下几个方面:

  • CNN从图像中提取特征
  • 特征被重塑成一个矩阵。
  • 然后将此矩阵的每一行输入到LSTM1。
  • 然后将此矩阵的每一列输入到LSTM2。
  • LSTM1和LSTM2的输出为最终输出连接在一起。

(它或多或少类似于本文中的图2:https://arxiv.org/pdf/1611.07890.pdf)

我现在的问题是在重塑之后,如何用Keras或Tensorflow将特征矩阵的值提供给LSTM?

到目前为止,这是我使用VGG16网的代码(也是指向Keras问题的链接):

代码语言:javascript
运行
复制
# VGG16
model = Sequential()
model.add(Conv2D(64, (3, 3), activation='relu', padding='same', input_shape=(224, 224, 3)))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D((2, 2)))

# block 2
model.add(Conv2D(128, (3, 3), activation='relu', padding='same'))
model.add(Conv2D(128, (3, 3), activation='relu'))
model.add(MaxPooling2D((2, 2)))

# block 3
model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))
model.add(Conv2D(256, (3, 3), activation='relu'))
model.add(Conv2D(256, (3, 3), activation='relu'))
model.add(MaxPooling2D((2, 2)))

# block 4
model.add(Conv2D(512, (3, 3), activation='relu', padding='same'))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(MaxPooling2D((2, 2)))

# block 5
model.add(Conv2D(512, (3, 3), activation='relu', padding='same'))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(Conv2D(512, (3, 3), activation='relu'))
model.add(MaxPooling2D((2, 2)))

# block 6
model.add(Flatten())
model.add(Dense(4096, activation='relu'))
model.add(Dense(4096, activation='relu'))

# reshape the  feature 4096 = 64 * 64
model.add(Reshape((64, 64)))

# How to feed each row of this to LSTM?
# This is my first solution but it doesn’t look correct: 
# model.add(LSTM(256, input_shape=(64, 1)))  # 256 hidden units, sequence length = 64, feature dim = 1
EN

回答 1

Stack Overflow用户

发布于 2018-07-27 01:56:24

考虑使用Conv2D和MaxPool2D层构建CNN模型,直到您到达平坦层,因为来自平坦层的矢量化输出将输入到结构的LSTM部分。

所以,建立这样的CNN模型:

代码语言:javascript
运行
复制
model_cnn = Sequential()
model_cnn.add(Conv2D...)
model_cnn.add(MaxPooling2D...)
...
model_cnn.add(Flatten())

现在,这是一个有趣的问题,当前版本的Keras与某些TensorFlow结构有些不兼容,这些结构不会让您将整个层堆在一个序列对象中。

因此,是时候使用Keras模型对象来用一个技巧完成神经网络了:

代码语言:javascript
运行
复制
input_lay = Input(shape=(None, ?, ?, ?)) #dimensions of your data
time_distribute = TimeDistributed(Lambda(lambda x: model_cnn(x)))(input_lay) # keras.layers.Lambda is essential to make our trick work :)
lstm_lay = LSTM(?)(time_distribute)
output_lay = Dense(?, activation='?')(lstm_lay)

最后,现在是时候把我们的两个分离的模型放在一起了:

代码语言:javascript
运行
复制
model = Model(inputs=[input_lay], outputs=[output_lay])
model.compile(...)

OBS:请注意,您可以在不包括顶层的情况下用VGG替换我的model_cnn示例,一旦VGG扁平层的矢量化输出将成为LSTM模型的输入。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43680870

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档