腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1701)
视频
沙龙
1
回答
ValueError
:"
input_length
“
为
47
,
但
接
收到
的
输入
具有
形状
(
None
,
47,18704
)
、
、
input = Input(shape=(
47
,vocab_length)) X = Reshape([
47
,embedding_size,1])(X) 上面给出
的
是我
的
代码
的
一部分,这里我在嵌入层中得到一个错误,如下所示
浏览 9
提问于2020-07-21
得票数 0
1
回答
'
input_length
‘是什么意思?
数据有4个时间戳,但是嵌入
的
是
input_length
=3,那么
input_length
有什么意义呢?import numpy as npemb = keras.layers.Embedding(input_dim=2, output_dim=3,
input_length
浏览 1
提问于2019-08-15
得票数 0
1
回答
Keras期望embedding_13_input
具有
二维,
但
得到了
形状
为
(20、7、12)
的
数组。
、
我试图构建嵌入和我
的
数据是成形
的
:( 20,7,12),即20个训练样本,每个有7个单词,一个热编码到12个维度。当我使用以下规格来拟合我
的
模型时,我会得到错误:model= Sequential() model.add(Embedding(12, embedding_dims,
i
浏览 2
提问于2021-03-04
得票数 1
回答已采纳
1
回答
我想知道如何将分类变量作为keras中嵌入层
的
输入
,并训练该嵌入层?
、
、
、
、
假设我们有100个数据点,我们希望将分类数据作为嵌入层
的
输入
,并使用Keras训练嵌入层。我们如何真正做到这一点?你能分享一些代码示例
的
直觉吗?我试过这个代码,但它给我一个错误,说"
ValueError
:"
input_length
“是1,
但
收到
的
输入
有
形状
(
None
,26)”。我已经参考了这个博客,但我不知道如何在我
的
特定情况下使用它。单词大小、输出dim和<e
浏览 21
提问于2019-07-29
得票数 0
回答已采纳
1
回答
向Keras层
输入
、
、
、
、
我有以下
形状
的
输入
序列。共有1434个序列,每个序列
的
长度
为
185个,唯一
的
字符总数
为
37个。因此,在某种程度上,我们有如下
的
词汇大小。vocab_size=37user_input = keras.layers.Input(shape=((185,37)), name='Input_1') user_ve
浏览 0
提问于2019-07-25
得票数 0
回答已采纳
1
回答
嵌入中
的
Keras不兼容层错误
、
、
我正在训练一个模型,以获得使用Keras嵌入文本,
但
遇到维度不兼容问题。我试过在不同
的
帖子中建议
的
东西,
但
没有能够解决错误。= Sequential()我<e
浏览 1
提问于2021-02-26
得票数 0
2
回答
嵌入N维序列后
的
LSTM
、
、
、
我有一个
具有
形状
(100000, 200, 2)
的
2维train_seq
的
输入
序列,即100000个训练示例,序列长度
为
200,以及2个特征。这些序列是文本,因此每个元素都是一个单词,词汇量
为
5000个单词。因此,我想在LSTM之前使用嵌入层。Input(shape=(MAX_SEQUENCE_LENGTH,2)) x = Embedding(output_dim=EMBEDDING_SIZE, input_dim=MAX_FEATURES,
input_le
浏览 17
提问于2019-01-10
得票数 0
回答已采纳
2
回答
Tensorflow中嵌入层
的
工作
、
、
、
、
请有人解释一下下面所述层
的
输入
和输出以及工作情况。model.add(Embedding(total_words, 64,
input_length
=max_sequence_len-1)) max_sequence_len以及为什么这个层
的
输出(无,10,64) 它不应该是每个单词
的
64维向量吗,也就是说(无,263,64)
浏览 0
提问于2020-08-24
得票数 1
回答已采纳
1
回答
ValueError
:检查
输入
时出错:期望lstm_6_input
具有
形状
(87482,1),
但
得到
形状
为
(87482,3)
的
数组
、
、
、
X_train数据维数
为
87482,3。
ValueError
:在检查
输入
时出错:期望lstm_6_input
具有
形状
(87482,1),
但
得到
形状
为
(87482,3)
的
数组 model = Sequential()#model.add(Embedding(top_words, embedding_vecor_length,
input_length
浏览 4
提问于2019-11-20
得票数 1
2
回答
Keras期望dense_13
具有
二维
、
、
我
收到
了来自Keras
的
非常混乱
的
错误消息。我使用以下模型,并将其传递给
形状
(num_examples, n, 1)
的
输入
。n,1), return_sequences=False)) return model 我
收到
一条错误消息:
ValueError
: Error when checking target: expecte
浏览 0
提问于2018-09-04
得票数 1
回答已采纳
1
回答
我可以在keras中将嵌入层与
形状
(?,5)
的
层连接起来吗?
、
、
、
、
对于给定
的
句子,LSTM应该预测长度
为
4
的
one-hot编码值。这在第一步中很简单。 我想做
的
下一件事是向我
的
数据集中添加额外
的
信息。该信息是长度
为
5
的
单热编码向量。我
的
想法是在将数据传递给LSTM之前,将嵌入层与另一个
输入
形状
连接起来。:除了连接轴之外,连接层需要
具有
匹配
形状
的
输入
。获取
输入
形状</e
浏览 16
提问于2019-02-26
得票数 0
回答已采纳
1
回答
并列张量[无,192]和张量[1,128]
、
、
、
、
如何将
形状
为
None
,128
的
张量
为
1,128
的
张量连接起来。这里,第一个张量是一些未知长度
的
数据,第二个张量是不依赖于数据大小
的
固定张量。最后
的
输出应该是shapeNone,328。这是神经网络连接
的
一部分。我试过了在这里,a.shape = (
None
,
浏览 0
提问于2021-11-13
得票数 0
回答已采纳
1
回答
ValueError
:
形状
必须是第3级,但它是第2级。除了连接之外,`Concatenate`层需要
具有
匹配
形状
的
输入
、
、
、
、
我正在尝试使用Tensorflow Functional API来定义一个多
输入
神经网络。120, ),name="Input1")embedding_layer = Embedding(30,5,
input_length
如果我将Input2
的
形状
更改为(
None
,10,),那么我会得到这个错误:
ValueError
: Shape must be rank
浏览 212
提问于2020-10-26
得票数 0
1
回答
Keras -如何将LSTM代码转换为CNN
、
、
、
我正在进行二值分类情感分析,无论是正
的
还是负
的
,我
的
lstm代码工作得很好,但我正在将我
的
lstm代码转换为cnn,值误差
为
input_length
为
30,
但
接
收到
的
输入
具有
形状
(无,1)。我
的
输入
形状
是(30,1)我
的
批次大小在lstm中是24。model.add(Embedding(30,
浏览 2
提问于2018-11-02
得票数 0
1
回答
Keras- LSTM-
输入
大小误差
、
、
、
、
我有不同
的
长度
输入
。In [118]: X_padd=np.array(padded_sequences) Out[119]: (13189, 694)X_reshaped = X_padd.reshape(X_padd.shape1,max_sequence_length,X_padd.shape)----> 1
浏览 5
提问于2017-03-07
得票数 3
3
回答
LSTM Keras中
的
维数失配
、
、
、
我想要创建一个基本
的
RNN,它可以添加两个字节。以下是
输入
和输出,这些
输入
和输出需要简单
的
添加也就是说,X101110010我创建了以下顺序模型model.add(GRU(output_dim = 16,
input_length
期望lstm_input_1
浏览 7
提问于2016-06-29
得票数 5
1
回答
使用词嵌入和TFIDF向量
的
LSTM
、
、
、
、
我正在尝试对
具有
文本属性和TFIDF向量
的
数据集运行LSTM。I word嵌入文本和
输入
到LSTM层。接下来,我将连接LSTM输出和TFIDF向量。但是,下面代码中
的
第2行抛出以下错误: "
ValueError
:使用不是符号张量
的
输入
调用了层lstm_1。
收到
的
类型:。完整
输入
:[]。层
的
所有
输入
都应为张量。“ 代码如下所示,其中len(term_Index)+1 = 9
浏览 44
提问于2020-03-23
得票数 1
回答已采纳
1
回答
Keras:
ValueError
:检查模型目标时出错:要求dense_1
具有
形状
(
None
,10),
但
得到
形状
为
(10,1)
的
数组
、
我是keras
的
新手,我正面临这样
的
错误:
ValueError
:检查模型目标时出错:期望dense_1
具有
形状
(
None
,10),
但
得到
具有
形状
(10,1)
的
数组。我
的
输入
数组
形状
是(10,1010)model = Sequential() model.add(Dense(10, batch_input_shape=(<e
浏览 1
提问于2016-12-26
得票数 3
1
回答
Keras嵌入层-
ValueError
:检查
输入
时出错:预期有二维,
但
得到(39978,20,20)
、
、
、
我试图在keras中创建一个LSTM/GRU模型,以便将给定
的
文章分类
为
4个类中
的
一个。vocab_size, weights=[embedding_matrix], batch_size=batch_size, validation_split=
浏览 1
提问于2020-01-17
得票数 2
1
回答
在tensorflow中行分配过程中获取
ValueError
,我有一个矩阵embeddings
的
[V, 1]
形状
。我想规范那些行
的
范数大于1
的
行。然而,我得到了
ValueError
:
ValueError
:尺寸必须相等,但对于
输入
形状
为
11202,2,11202
的
“truediv_1”(op:“RealDiv”),则为2和11202。据我所知,矩阵norm_embed
具有
[V]
形状
,但在向量[V]除法[V, k]矩阵时,应对后者进行广播。
浏览 1
提问于2017-10-24
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Pytorch构建视觉语言模型(VLM)
马斯克开源的 grok-1 大模型对标 openai chatGPT 源码硬核第三弹
TensorFlow 小抄(一)
马斯克开源的 grok-1 大模型对标 openai chatGPT 源码硬核第一弹
一日一技:用实例列举python中所有的关键字(01)
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券