首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何在LSTM中为每个输入生成1个以上的输出?

在长短期记忆网络(LSTM)中,通常一个输入序列会对应一个输出序列。然而,如果你希望为每个输入生成多个输出,可以通过以下几种方法实现:

1. 多任务学习

你可以设计一个LSTM模型,使其同时学习多个任务。每个任务可以对应一个输出。例如,如果你有一个语言模型,可以同时预测下一个词和下一个词的词性。

示例代码:

代码语言:txt
复制
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Input, LSTM, Dense

# 输入层
inputs = Input(shape=(timesteps, input_dim))

# LSTM层
lstm_out = LSTM(units)(inputs)

# 多个输出层
output1 = Dense(output_dim1, activation='softmax', name='output1')(lstm_out)
output2 = Dense(output_dim2, activation='sigmoid', name='output2')(lstm_out)

# 模型定义
model = Model(inputs=inputs, outputs=[output1, output2])

# 编译模型
model.compile(optimizer='adam', loss={'output1': 'categorical_crossentropy', 'output2': 'binary_crossentropy'})

2. 使用注意力机制

注意力机制可以帮助模型在生成多个输出时,更加关注输入序列的不同部分。

示例代码:

代码语言:txt
复制
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Input, LSTM, Dense, Attention

# 输入层
inputs = Input(shape=(timesteps, input_dim))

# LSTM层
lstm_out = LSTM(units, return_sequences=True)(inputs)

# 注意力层
attention = Attention()([lstm_out, lstm_out])

# 输出层
outputs = Dense(output_dim, activation='softmax')(attention)

# 模型定义
model = Model(inputs=inputs, outputs=outputs)

# 编译模型
model.compile(optimizer='adam', loss='categorical_crossentropy')

3. 多步预测

你可以让LSTM模型进行多步预测,即对于每个输入,生成多个连续的输出。

示例代码:

代码语言:txt
复制
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Input, LSTM, Dense

# 输入层
inputs = Input(shape=(timesteps, input_dim))

# LSTM层
lstm_out = LSTM(units, return_sequences=True)(inputs)

# 多步输出层
outputs = [Dense(output_dim, activation='softmax')(lstm_out[:, i, :]) for i in range(num_steps)]

# 模型定义
model = Model(inputs=inputs, outputs=outputs)

# 编译模型
model.compile(optimizer='adam', loss=['categorical_crossentropy']*num_steps)

应用场景

  • 多任务学习:适用于需要同时解决多个相关任务的场景,如语音识别和语音合成。
  • 注意力机制:适用于需要关注输入序列不同部分的场景,如机器翻译和文本摘要。
  • 多步预测:适用于需要进行时间序列预测的场景,如天气预报和股票预测。

优势

  • 灵活性:可以处理多种不同的任务和需求。
  • 效率:通过共享底层表示,可以提高模型的训练效率。
  • 准确性:通过结合多个任务的监督信号,可以提高模型的整体性能。

可能遇到的问题及解决方法

  1. 过拟合:如果模型在训练数据上表现很好,但在测试数据上表现不佳,可能是过拟合。可以通过增加正则化、使用dropout或增加训练数据来解决。
  2. 梯度消失/爆炸:LSTM虽然缓解了这个问题,但仍然可能发生。可以通过调整学习率、使用梯度裁剪或尝试不同的初始化方法来解决。

通过上述方法,你可以在LSTM中为每个输入生成多个输出,从而适应更复杂的应用需求。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

通过5个简单序列预测实例学习LSTM递归神经网络

通过在实践中应用LSTM来学习如何在序列预测问题上使用LSTM是至关重要的,因此,你需要一套定义明确的问题,让你专注于不同的问题类型和结构。...网络可以记忆输入输出对,这是很无聊的,但这会展现网络的函数逼近能力。 这个问题可以被定义为将随机选择的连续子列作为输入时间步长,并且将序列中的下一个值作为输出。...5.序列分类 这个问题被定义为0到1之间的一个随机值序列。这个序列的每个数作为本问题每个时间步长的输入。 二进制标签(0或1)与每个输入相关联。输出值全部为0。...一旦序列中输入值的累积和超过阈值,输出值将从0变为1。 阈值为序列长度的1/4。...- 解码长短期记忆网络(LSTM)来回显随机整数序列 如何在Python中利用Keras开发一个用于序列分类的双向长短期记忆网络(LSTM) 概要 在本教程中,您看到了一套精心设计的序列预测问题,您可以使用这些问题来探索长短期记忆

5.7K80

如何用 Keras 为序列预测问题开发复杂的编解码循环神经网络?

该示例为用户开发自己的编解码LSTM模型提供了基础。 在本教程中,你将学会如何用Keras为序列预测问题开发复杂的编解码循环神经网络,包括: 如何在Keras中为序列预测定义一个复杂的编解码模型。...如何定义一个可用于评估编解码LSTM模型的可伸缩序列预测问题。 如何在Keras中应用编解码LSTM模型来解决可伸缩的整数序列预测问题。...它最初是为机器翻译问题而开发的,并且在相关的序列预测问题(如文本摘要和问题回答)中已被证明是有效的。...该函数有3个参数: n_input:输入序列的基数,例如每个时间步长的特征、字或字符的个数。 n_output:输出序列的基数,例如每个时间步长的特征、字或字符的个数。...总结 在本教程中,你学会了如何用Keras为序列预测问题开发复杂的编解码循环神经网络,具体一点说,包括以下几个方面: 如何在Keras中为序列预测定义一个复杂的编解码模型。

2.3K00
  • 【Keras教程】用Encoder-Decoder模型自动撰写文本摘要

    编码器:编码器读取整个输入序列并将其编码为内部表示,通常一个固定长度的向量称为上下文向量。 解码器:解码器从编码器读取编码的输入序列并生成输出序列。...这在传统意义上是一个很大的壮举,挑战自然语言问题需要开发单独的模型,这些模型后来被串联起来,允许在序列生成过程中积累错误。 整个编码输入被用作输出中每个步骤的上下文。...虽然这是有效的,但输入的固定长度编码限制了可以生成的输出序列的长度。 编码器-解码器结构的扩展提供的更具表现性的形式是编码输入序列,并且允许解码器在生成输出序列的每个步骤时学习在何处关注编码输入。...该体系结构在文本摘要中的应用如下: 编码器:编码器负责读取源文档并将其编码为内部表示。 解码器:解码器是一种语言模型,负责使用源文档的编码表示在输出摘要时生成每个单词。 ▌2....解码器读取最后生成的词的表示和嵌入,并使用这些输入生成输出摘要中的每个词。 ? 在Keras中的文本摘要生成模型 有一个问题: Keras不允许递归循环,模型的输出自动作为输入,输入到模型中。

    3.2K50

    如何在Python中将TimeDistributed层用于Long Short-Term Memory Networks

    我们给出0.0作为输入,我们期望看到0.0作为输出,对序列中的每个项目来说都是如此。...也就是说,我们可以将问题重构为一个(由序列中每个项目的输入-输出对组成的)数据集。给定0,网络应输出0,给定0.2,网络必须输出0.2,依此类推。...LSTM的输入必须是三维的。我们可以将2D序列重塑为具有1个样本、5个时间步长和1个特征的3D序列。我们将输出定义为具有5个特征的1个样本。...model.add(TimeDistributed(Dense(1))) 输出层中的单个输出值是关键。它强调我们打算从输入序列中的每个时间步中输出一个时间步。...一个神经元对于前一层中的每个LSTM单元有一个权重,另外一个用于bias输入。 这做了两件重要的事情: 允许将问题重构并像它被定义那样来学习,即一个输入对应一个输出,保持每个时间步的内部过程分离。

    3.9K110

    技术 | 如何在Python下生成用于时间序列预测的LSTM状态

    LSTM的一个关键特性是它们维持一个内部状态,该状态能在预测时提供协助。这就引出了这样一个问题:如何在进行预测之前在合适的 LSTM 模型中初始化状态种子。...这模拟了现实生活中的场景,新的洗发水销量观察值会在月底公布,然后被用于预测下月的销量。 训练数据集和测试数据集的结构将对此进行模拟。我们将一步生成所有的预测。...具体来说,就是将数据组为输入和输出模式,上一时间步的观察值可作为输入用于预测当前时间步的观察值。 转化观察值使其处在特定区间。...这意味着每个方案将创建并评测30个模型。从每次试验收集的均方根误差(RMSE)给出结果分布,然后可使用描述统计学(如平均偏差和标准偏差)方法进行总结。...完整的输出结果如下所示: 另外生成一个盒须图并保存至文件夹,如下所示: 初始化和未初始化的LSTM的盒须图 结果很令人意外。

    2K70

    How to Use the TimeDistributed Layer for Long Short-Term Memory Networks in Python 译文

    我们给出0.0作为输入,我们期望看到0.0作为输出,对序列中的每个项目来说都是如此。...也就是说,我们可以将问题重构为一个(由序列中每个项目的输入-输出对组成的)数据集。给定0,网络应输出0,给定0.2,网络必须输出0.2,依此类推。...LSTM的输入必须是三维的。我们可以将2D序列重塑为具有1个样本、5个时间步长和1个特征的3D序列。我们将输出定义为具有5个特征的1个样本。...model.add(TimeDistributed(Dense(1))) 输出层中的单个输出值是关键。它强调我们打算从输入序列中的每个时间步中输出一个时间步。...一个神经元对于前一层中的每个LSTM单元有一个权重,另外一个用于bias输入。 这做了两件重要的事情: 允许将问题重构并像它被定义那样来学习,即一个输入对应一个输出,保持每个时间步的内部过程分离。

    1.6K120

    AI 技术讲座精选:「Python」LSTM时序预测状态种子初始化

    LSTM的一个关键特性是它们维持一个内部状态,该状态能在预测时提供协助。这就引出了这样一个问题:如何在进行预测之前在合适的 LSTM 模型中初始化状态种子。...这样的话,每个epoch在训练期间创建的状态才会与该epoch的观察值序列相匹配。 假定我们能够实现这种精确控制,还有这样一个问题:是否要以及如何在进行预测前预置LSTM的状态。...以每次一个的形式运行测试数据集的每个时间步。使用模型对时间步作出预测,然后收集测试组生成的实际预期值,模型将利用这些预期值预测下一时间步。...具体来说,就是将数据组为输入和输出模式,上一时间步的观察值可作为输入用于预测当前时间步的观察值。 转化观察值使其处在特定区间。...这意味着每个方案将创建并评测30个模型。从每次试验收集的均方根误差(RMSE)给出结果分布,然后可使用描述统计学(如平均偏差和标准偏差)方法进行总结。

    2K50

    lstm的keras实现_LSTM算法

    CNN-LSTMs是为视觉时间序列预测问题和从图像序列(如视频)生成文本描述的应用而开发的。...输入中具有时间结构(temporal structure),例如视频中的图像顺序或文本中的单词,或者需要生成具有时间结构的输出,例如文本描述中的单词。...我们希望将CNN模型应用于每个输入图像,并将每个输入图像的输出作为单个时间步长传递给LSTM。 我们可以通过在TimeDistributed层中包装整个CNN输入模型(一层或多层)来实现这一点。...这一层实现了多次应用同一层或多个层的期望结果。在本例中,将其多次应用于多个输入时间步骤,并依次为LSTM模型提供一系列图像解释或图像特性。...在这里,使用一个大小为2×2的MaxPooling2D池化层,这会将上一层每个过滤器输出的大小减半,从而输出2个24×24映射。

    2.3K31

    LSTMs

    另一方面,LSTM被设计为能够控制它记住关于每个输入的内容,并且学习如何在训练阶段决定记住什么。 LSTM的关键附加操作是4)来自计算图中的节点的输出向量可以通过分量乘法。...因此,“权重矩阵”向量乘以数据向量的计算图中的节点通常称为门。 LSTM使用第四个操作来创建三个门,如下图所示。这显示了LSTM中单个单元格的内部,我们将进一步看到这个单元格如何在外部连接。...LSTM单元有两个输入和两个输出。顶部的输出(标记为输出)是实际的RNN输出,即您将用于评估和训练网络的输出向量。右边的输出(标记为mem)是“存储器”输出,LSTM想要为下一步记录的向量。...类似地,底部上的输入(标记为)与标准RNN的输入相同,即序列中的下一个输入向量。右边的输入(也标记为mem)是在序列的上一步骤期间从LSTM单元输出的“存储器”向量。...您应该将LSTM视为使用新输入来更新内存向量的值,然后将其传递到下一步,然后使用新的内存值为该步骤生成实际输出。 ?

    61210

    手把手教你用TensorFlow实现看图说话 | 教程+代码

    这就是一个我们将要训练的网络结构示意图。深度卷积神经网络将每个输入图像进行编码表示成一个4,096维的矢量,利用循环神经网络的语言生成模型解码该矢量,生成对输入图像的描述。...想要实现字幕生成,我们需要解决以下两个问题: 1. 我们如何在已有成功的图像分类模型的基础上,从图像中获取重要信息? 2. 我们的模型如何在理解图像的基础上,融合信息实现字幕生成?...TensorFlow提供了一个封装函数,用于在给定输入和确定输出维度的条件下生成一个LSTM网络层。...LSTM的输出{p1,p2,…,pN}是由该模型基于原有的单词序列为下一个单词生成的概率分布。该模型的训练目标是为了最大化每个单词对数概率的总和指标。...在下面的示例中,在搜索每个垂直时间步长的粗体字路径中,此算法能够列出一系列k=2的最佳候选句子。 局限性和讨论 神经网络实现的图像描述生成器,为学习从图像映射到自然语言图像描述提供了一个有用的框架。

    1.6K80

    精选 25 个 RNN 问题

    RNN 的架构由循环连接组成,这些连接使信息能够从一个步骤传递到下一个步骤。在每个时间步长中,RNN 接受一个输入,将其与之前的隐藏状态组合在一起,并产生一个输出和一个新的隐藏状态。...序列到序列 RNN 由一个处理输入序列的编码器和一个根据编码信息生成输出序列的解码器组成。 RNN在语言建模中的作用是什么? RNN 在语言建模中起着至关重要的作用。...与LSTM相比,门控循环单元具有更简化的架构,因为它将遗忘门和输入门合并到单个更新门中,并将单元和输出门合并到复位门中。门控组件的减少使门控循环单元在计算上比 LSTM 更低且更易于训练。...在传统的 RNN 中,隐藏状态负责捕获输入序列的整个上下文。注意力机制引入了其他组件,这些组件动态地为输入序列的不同部分分配权重或重要性。...它如何用于 RNN 的序列生成? 波束搜索是一种解码算法,用于使用 RNN 的序列生成任务。在生成序列时,例如在机器翻译或文本生成中,波束搜索有助于找到最有可能的输出序列。

    21510

    词!自然语言处理之词全解和Python实战!

    特别关注了词在多语言环境和具体NLP任务,如文本分类和机器翻译中的应用。文章通过Python和PyTorch代码示例,展示了如何在实际应用中实施这些技术。 关注TechLead,分享AI全维度知识。...词性标注(Part-of-Speech Tagging) 定义 词性标注是为每个词分配一个词性标签的过程。 方法 基于规则的方法: 如决策树。 基于统计的方法: 如条件随机场(CRF)。...在这一节中,我们将重点讨论如何使用词(特别是词嵌入)来实现有效的文本分类。 任务解析 在文本分类中,每个文档(或句子、段落等)都被转换成一个特征向量,然后用这个特征向量作为机器学习模型的输入。...输出:output 是每个文档对应各个类别的预测得分。 5.3 词在机器翻译中的应用 机器翻译是一种将一种自然语言(源语言)的文本自动翻译为另一种自然语言(目标语言)的技术。...任务解析 在机器翻译任务中,输入是源语言的一段文本(通常为一句话或一个短语),输出是目标语言的等效文本。这里,词嵌入用于捕获源语言和目标语言中词的语义信息,并作为序列到序列模型的输入。

    42420

    详解 LSTM

    在 t 时刻,LSTM 的输入有三个:当前时刻网络的输入值 x_t、上一时刻 LSTM 的输出值 h_t-1、以及上一时刻的单元状态 c_t-1; LSTM 的输出有两个:当前时刻 LSTM 输出值...第一个开关,负责控制继续保存长期状态c; 第二个开关,负责控制把即时状态输入到长期状态c; 第三个开关,负责控制是否把长期状态c作为当前的LSTM的输出。 如何在算法中实现这三个开关?...gate) 它决定了当前时刻网络的输入 x_t 有多少保存到单元状态 c_t 输出门(output gate) 控制单元状态 c_t 有多少输出到 LSTM 的当前输出值 h_t ---- 遗忘门的计算为...output ---- LSTM 的反向传播训练算法 主要有三步: 1. 前向计算每个神经元的输出值,一共有 5 个变量,计算方法就是前一部分: ? 2. 反向计算每个神经元的误差项值。...根据相应的误差项,计算每个权重的梯度。 ---- gate 的激活函数定义为 sigmoid 函数,输出的激活函数为 tanh 函数,导数分别为: ? 具体推导公式为: ? ? 具体推导公式为: ?

    1.7K50

    算法金 | LSTM 原作者带队,一个强大的算法模型杀回来了

    1.3 重要性和应用场景LSTM 在许多领域有广泛的应用,包括但不限于:自然语言处理(NLP):如文本生成、机器翻译和语音识别。时间序列预测:如股市预测和气象预报。...LSTM 的核心原理2.1 数学表达式接下来我们看一下 LSTM 的数学表达式。LSTM 包含三个门:输入门、遗忘门和输出门。每个门都有自己的权重和偏置,用于控制信息的流动。...2.2 直观解释输入门:决定当前输入信息中,哪些部分需要加入到记忆单元中。遗忘门:决定当前记忆单元中的哪些信息需要丢弃。输出门:决定记忆单元中的哪些信息需要输出到下一个时间步。...2.3 关键概念图示让我们通过一个图示来直观地理解 LSTM 的工作原理。下图展示了 LSTM 单元的内部结构:在图中可以看到,输入门、遗忘门和输出门共同作用于记忆单元,控制信息的存储和传递。...通过这种门控机制,LSTM 能够有效地记住长时间跨度的信息,从而在处理序列数据时表现出色。3. LSTM 的实现3.1 基础实现代码示范现在我们来看看如何在 Python 中实现 LSTM。

    41700

    在PyTorch中使用Seq2Seq构建的神经机器翻译模型

    批处理:生成批次的样品。 因此,一旦我们了解了torch文本可以做什么,让我们谈谈如何在torch text模块中实现它。在这里,我们将利用torchtext下的3个类。...隐藏状态和单元状态在此称为上下文向量,它们是LSTM单元的输出。输入则是输入到嵌入NN中的句子的数字索引。...我们必须在seq2seq模型中设计相同的编码器和解码器模块。 以上可视化适用于批处理中的单个句子。 假设我们的批处理大小为5,然后一次将5个句子(每个句子带有一个单词)传递给编码器,如下图所示。 ?...但是在模型推断期间,目标是根据训练数据的一般性从解码器生成的。因此,将输出的预测单词作为下一个输入单词发送到解码器,直到获得令牌。...提供输入(德语)和输出(英语)句子 将输入序列传递给编码器并提取上下文向量 将输出序列传递给解码器,以及来自编码器的上下文向量,以生成预测的输出序列 ? 以上可视化适用于批处理中的单个句子。

    1.8K10

    完全图解RNN、RNN变体、Seq2Seq、Attention机制

    这就是最经典的RNN结构,我们像搭积木一样把它搭好了。它的输入是x1, x2, .....xn,输出为y1, y2, ...yn,也就是说,输入和输出序列必须要是等长的。...由于这个限制的存在,经典RNN的适用范围比较小,但也有一些问题适合用经典的RNN结构建模,如: 计算视频中每一帧的分类标签。因为要对每一帧进行计算,因此输入和输出序列等长。...输入为字符,输出为下一个字符的概率。...1 VS N 输入不是序列而输出为序列的情况怎么处理?我们可以只在序列开始进行输入计算: ? 还有一种结构是把输入信息X作为每个阶段的输入: ? 下图省略了一些X的圆圈,是一个等价表示: ?...这种1 VS N的结构可以处理的问题有: 从图像生成文字(image caption),此时输入的X就是图像的特征,而输出的y序列就是一段句子 从类别生成语音或音乐等 N vs M 下面我们来介绍

    91050

    多图|入门必看:万字长文带你轻松了解LSTM全貌

    算法通过一组学习后的权重将每个输入神经元连接至神经元的一个隐含层。 第j个隐层神经元输出为 ,其中ϕϕ是激活函数。...用矩阵符号表示为: h=ϕ(Wx)h=ϕ(Wx) y=Vhy=Vh 其中 matchx 是输入向量 W是连接输入层和隐含层的权重矩阵 V是连接隐含层和输出层的权重矩阵 ϕ 的激活函数通常为双弯曲函数(...因此,我们希望让我们的模型能够跟踪世界上的各种状态: 在检测完每个图像后,模型会输出一个标签,同时模型对世界的认识也会有所更新。...保存向量savet通常被称为输入门(因为它决定输入信息中需要保存到cell状态中的程度),表示为it。 关注向量focust通常被称为输出门,表示为ot。)...LSTM 网络,那本文绝对值得一看 如何在时序预测问题中在训练期间更新LSTM网络 如何在时间序列预测中使用LSTM网络中的时间步长 如何用 Keras 调试LSTM超参数解决时间序列预测问题

    1.3K82

    干货 | textRNN & textCNN的网络结构与代码实现!

    ) 判断新闻是否为机器人所写:2分类 1.1 textRNN的原理 在一些自然语言处理任务中,当对序列进行处理时,我们一般会采用循环神经网络RNN,尤其是它的一些变种,如LSTM(更常用),GRU...单元输入,然后再计算下一个时间步长上RNN的隐藏状态,以此重复…直到处理完输入文本中的每一个单词,由于输入文本的长度为n,所以要经历n个时间步长。...把双向LSTM在每一个时间步长上的两个隐藏状态进行拼接,作为上层单向LSTM每一个时间步长上的一个输入,最后取上层单向LSTM最后一个时间步长上的隐藏状态,再经过一个softmax层(输出层使用softamx...以上都是输出都只有⼀个通道。我们在“多输⼊通道和多输出通道”⼀节中介绍了如何在⼆维卷积层中指定多个输出通道。类似地,我们也可以在⼀维卷积层指定多个输出通道,从而拓展卷积层中的模型参数。...这⾥的输⼊是⼀个有11个词的句⼦,每个词⽤6维词向量表⽰。因此输⼊序列的宽为11,输⼊通道数为6。给定2个⼀维卷积核,核宽分别为2和4,输出通道数分别设为4和5。

    1.2K20

    keras系列︱Sequential与Model模型、keras基本结构功能(一)

    verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录 callbacks:list,其中的元素是keras.callbacks.Callback的对象...验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。...Keras中nb开头的变量均为”number of”的意思 verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录 callbacks:list,其中的元素是...验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。...shuffle:布尔值,表示是否在训练过程中每个epoch前随机打乱输入样本的顺序。 class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)。

    10.2K124

    textRNNtextCNN文本分类

    ) 判断新闻是否为机器人所写:2分类 1.1 textRNN的原理 在一些自然语言处理任务中,当对序列进行处理时,我们一般会采用循环神经网络RNN,尤其是它的一些变种,如LSTM(更常用),GRU。...单元输入,然后再计算下一个时间步长上RNN的隐藏状态,以此重复...直到处理完输入文本中的每一个单词,由于输入文本的长度为n,所以要经历n个时间步长。...把双向LSTM在每一个时间步长上的两个隐藏状态进行拼接,作为上层单向LSTM每一个时间步长上的一个输入,最后取上层单向LSTM最后一个时间步长上的隐藏状态,再经过一个softmax层(输出层使用softamx...以上都是输出都只有⼀个通道。我们在“多输⼊通道和多输出通道”⼀节中介绍了如何在⼆维卷积层中指定多个输出通道。类似地,我们也可以在⼀维卷积层指定多个输出通道,从而拓展卷积层中的模型参数。...这⾥的输⼊是⼀个有11个词的句⼦,每个词⽤6维词向量表⽰。因此输⼊序列的宽为11,输⼊通道数为6。给定2个⼀维卷积核,核宽分别为2和4,输出通道数分别设为4和5。

    2.3K41
    领券