腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
keras
-
使用
嵌入
层
检查
目标
时
出错
、
、
、
我尝试运行
keras
模型,如下所示: model = Sequential()model.add(Dense(1, activation='softmax',input_shape=(324827, 286))) 这段代码可以工作,但是如果我想添加一个
嵌入
层
: model = Sequential
浏览 31
提问于2020-01-28
得票数 0
1
回答
嵌入
层
中的值错误
、
、
我是新的深入学习,我正在尝试建立一个
使用
嵌入
层
的图书推荐系统。我用一
层
书和一
层
给用户。book_input = Input(shape=(1,)) book_embedding = Embedding(input_dim
浏览 0
提问于2019-11-18
得票数 0
回答已采纳
1
回答
ValueError:"input_length“为47,但接收到的输入具有形状(None,47,18704)
、
、
embedding_size,input_length=47)(input) X = Reshape([47,embedding_size,1])(X) 上面给出的是我的代码的一部分,这里我在
嵌入
层
中得到一个错误
浏览 9
提问于2020-07-21
得票数 0
1
回答
即使尺寸不匹配,自定义丢失函数仍能工作。
、
、
我
使用
Keras
/TF的模型如下:conv = Conv2D(2, 1) 这是预期的,因为
目标
是单通道图像,而在模型的最后一
层
有
浏览 0
提问于2019-01-02
得票数 5
回答已采纳
1
回答
Keras
是否具有复制输入字向量并只将其反向传播到一个集合的功能?
、
、
、
、
我的
目标
是在
Keras
中创建一个RNN网络,根据文本段落预测分类输出。在我目前的模型中,段落首先被
嵌入
到特征向量中,然后被赋予两个cuDNNGRU
层
、4个Conv1D
层
和MaxPooling
层
,然后
嵌入
到一个密集的输出
层
中。但是,我发现了一种多通道方法来处理字向量,它涉及复制初始向量,通过CNN
层
运行一个集合,然后在池之前将输出与副本相加。这样做是为了防止反向传播到一组向量中,从而保留原始单词向量中的一些语义概念。我试过搜索这个,但唯
浏览 0
提问于2018-07-02
得票数 2
回答已采纳
1
回答
在
keras
(深度学习库)中,定制
嵌入
层
是可能的吗?
、
我最近刚从theano,千
层
面搬到
keras
。在
keras
中,这样的自定义
嵌入
层
是可能的吗?而且,这样的
嵌入
层
可能是错误的?
浏览 13
提问于2016-08-27
得票数 1
回答已采纳
1
回答
如何
使用
tensorflow
keras
将网络中的
嵌入
层
和其他特征列一起
使用
、
、
我想要预测的
目标
列也是分类变量,它可以再次获得3个可能的值。这个列是一个热编码的。这就是我被困在这里的地方。我不知道如何
使用
tensorflow
keras
连接
嵌入
层
和其他特性列,也不知
浏览 1
提问于2018-09-24
得票数 4
回答已采纳
2
回答
我有一个word2vec
嵌入
-现在呢?
、
、
、
在我的NLP工作中,我一直依赖
Keras
嵌入
层
。但是对于我最近的项目,我想
使用
一个定制的
嵌入
层
。我已经完成了创建word2vec文件的步骤,但是现在怎么办?有人能提供一个例子,说明在构造模型
时
我如何用自己的层替换
Keras
嵌入
层
吗?
浏览 0
提问于2019-06-20
得票数 0
1
回答
我的RNN和注意模型总是预测同一个类,即使我的数据不平衡。
、
、
、
、
这是我的注意
层
代码:**class Attention(nn.Module): def __init__(self, feature_dim, step_dim, bias=True
浏览 5
提问于2022-06-02
得票数 0
0
回答
替换预训练
Keras
模型中的
嵌入
层
、
、
我正在尝试替换
Keras
NLP模型中的
嵌入
层
。我已经为一种语言训练了模型,但我想将其转换为另一种具有类似
嵌入
的语言。我希望通过将源语言的索引到
嵌入
映射替换为
目标
语言的索引到
嵌入
映射来实现这一点。我试着这样做:from
keras
.models import load_model filename = "my_model.h5这似乎起到了作用:新的<e
浏览 7
提问于2018-07-13
得票数 2
回答已采纳
2
回答
嵌入
Keras
、
、
、
在
Keras
内建函数中
使用
哪种
嵌入
算法?Word2vec?手套?另一个?
浏览 0
提问于2018-07-29
得票数 3
回答已采纳
2
回答
字向量作为输入
、
、
、
、
我有一个语料库,我想用LSTM和word
嵌入
来进行情感分析。我已经
使用
Word2Vec将文档中的单词转换为单词向量。我的问题是如何将这些字向量输入到
Keras
?我不想
使用
Keras
提供的
嵌入
。
浏览 0
提问于2016-09-07
得票数 1
回答已采纳
1
回答
Keras
序列模型的多
嵌入
层
、
、
我正在
使用
Keras
(tensorflow后端),并想知道如何在
Keras
序列模型中添加多个
嵌入
层
。在寻找解决方案
时
,我发现
Keras
的
嵌入
层
似乎非常巧妙地解决了这个问题。但是,大多数示例(和
Keras
文档)都说明了一个
嵌入
层
非常简单的情况。不幸的是,我不知道如何将多个
嵌入
层
作为输入集成到单个模型中。我的代码看起来是这样的,但它不起作用,而且我
浏览 0
提问于2018-06-12
得票数 6
回答已采纳
4
回答
基于
Keras
(Python)的LSTM的超参数搜索
、
、
、
、
在
Keras
教程中:“RNN很棘手。批次大小的选择很重要,丢失和优化器的选择非常重要,等等。一些配置不会收敛。” 因此,这是一个关于在
Keras
上调整LSTM的超参数的一般性问题。我从
Keras
‘’Github上的IMDB示例开始。然而,当我
使用
一个普通的MLP,我没有同样的问题,模型学习和分数增加。我试着增加划时代的数量,增加-减少LTSM单位的数量,但是分数不会增加。
浏览 0
提问于2016-01-17
得票数 21
1
回答
嵌入
模型内与模型外
、
、
、
、
在模型内部
使用
嵌入
层
与在模型外部
使用
嵌入
层
有什么区别?我可以将
嵌入
层
构建到模型中:model.add(tf.
keras
.layers.Embedding(input_dim=1000, output_dim我还可以
使用
模型外部的embdedding生成
嵌入
式数据,然后将其输入到模型中: embedding_encoder
浏览 8
提问于2022-09-06
得票数 1
回答已采纳
1
回答
Keras
: ValueError:
检查
模型
目标
时
出错
:要求dense_1具有形状(None,10),但得到形状为(10,1)的数组
、
我是
keras
的新手,我正面临这样的错误: ValueError:
检查
模型
目标
时
出错
:期望dense_1具有形状(None,10),但得到具有形状(10,1)的数组。我的输入数组形状是(10,1010)model = Sequential() model.add(Dense(10, batch_input_shape=(None, 1010),
浏览 1
提问于2016-12-26
得票数 3
1
回答
Keras
中
嵌入
层
的偏移权重
、
我正在研究一个前馈神经网络,我正在
使用
keras
嵌入
。我想为
嵌入
设置偏置权重,但我不确定如何设置。
Keras
密集
层
允许指定use_bias = True,然后设置偏移权重。有没有一种等效的
嵌入
层
的方法?
浏览 1
提问于2017-07-06
得票数 3
1
回答
Keras
稠密
层
输出形状误差
、
、
、
、
因此,我
使用
以下代码转换了
目标
类:y_train=to_catgorical(y_train)和类似于y_test。但是,在输出密集
层
中,当我编写model.add((Dense(3,activation='softmax'))
时
,我会得到以下错误:
检查
目标
时
出错
:期望dense_1具有形状(无,3),但得到形状为,但是在
Keras
的例子中,他们
使用
了cifar10数据集,
使用</em
浏览 0
提问于2018-06-27
得票数 1
回答已采纳
1
回答
RNN语言模型的
Keras
实现中输入和输出
层
的大小
、
、
、
、
从理论上讲,我知道输入
层
应该是一个热向量
层
,有一个神经元数等于我们词汇的单词数,然后是一个
嵌入
层
,在
Keras
中,它显然是一个序列模型中的单个
嵌入
层
。我还知道,输出
层
也应该是词汇表的大小,这样每个输出值就可以将1-1映射到每个词汇表单词。 但是,在
嵌入
层
()的
Keras
文档和本文()中,输入
层
和输出
层
的词汇表大小都是任意增加的!Jason解释说,这是由于
K
浏览 2
提问于2020-05-04
得票数 0
回答已采纳
1
回答
从预先训练的word2vec中查找句子相似点的
Keras
、
、
并
使用
gensim查找words之间的相似之处,就像预期的那样。但我很难找到两个不同句子之间的相似之处。
使用
cosine similarities不是句子的一个好选择,也不能给出很好的效果。我在想,如果有更多的选择,比如
使用
像
keras
和tensorflow这样的深度学习,从经过预先训练的word2vec中找到相似的句子。我知道可以
使用
word embbeding进行分类,这似乎是更好的选择,但接下来我需要找到一个培训数据,并从零开始标记它。所以,我想知道是否还有其他的选择,可以
使用
预先
浏览 0
提问于2019-09-21
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Keras文本分类实战(下)
使用Python和keras进行文本分类(下)
使用Keras进行深度学习:(一)Keras 入门
三千字轻松入门TensorFlow 2
seq2seq模型实例:用Keras实现机器翻译
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券