腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2129)
视频
沙龙
1
回答
如
何在
预
训练
模型
中
的
每个
conv2d
层
后
添加
BatchNormalization
循环
、
我有一个来自keras
的
预
训练
模型
(vgg16)。我尝试通过
循环
在
每个
conv2d
之后
添加
BatchNormalization
层
。然而,似乎我不能把它们都放在一起。这是我
的
代码。from keras.applications import VGG16from keras.mode
浏览 8
提问于2020-02-19
得票数 0
3
回答
使用Keras微调ResNet50 - val_loss不断增加
、
、
、
我正在尝试使用带tensorflow后端
的
keras自定义resnet50。然而,在
训练
之后,我
的
val_loss一直在增加。尝试不同
的
学习率和批量大小并不能解决问题。使用不同
的
预处理方法也不能解决问题,比如重新缩放或在ImageDataGenerator
中
对resnet50使用preprocess_input函数。这是我正在使用
的
代码from keras.preprocessing.image import ImageDataGenerator
浏览 2
提问于2018-07-27
得票数 2
2
回答
我应该如何提高
训练
和验证
的
准确性/损失?
、
、
、
我正在
训练
一个古吉拉特语
的
光学字符识别
模型
。输入图像是字符图像。我上了20节课。
训练
图像总数为12000个(
每个
类600个),测试图像为3,200个(
每个
类160个)。我应该如何提高我
的
准确性和减少损失?下面是我
的
代码: classifier.add(
Conv2D
(32, (3, 3), input_shape= (32, 32, 3), ac
浏览 0
提问于2020-09-20
得票数 1
1
回答
角点尺寸失配
、
我试图对我
的
数据集进行10倍
的
交叉验证,我在
训练
前对数据进行了如下修改data_y = np_utils.to_categorical(data_y, 3) for train,test in kf.split(data): print("Fold #{}".format(('relu')) #model.add(MaxPool
浏览 0
提问于2018-06-27
得票数 0
回答已采纳
1
回答
用tensorflow BatchNorm
层
训练
Keras
模型
、
、
、
我使用keras来构建
模型
,并在tensorflow
中
编写优化代码和所有其他代码。当我使用非常简单
的
层
时,比如稠密或
Conv2D
,一切都很简单。但是,在我
的
keras
模型
中
添加
BatchNormalization
层
会使问题变得复杂。由于
BatchNormalization
层
在培训阶段和测试阶段
的
行为不同,所以我发现在我
的
feed
浏览 1
提问于2017-04-01
得票数 3
回答已采纳
1
回答
Keras,将卷积
层
训练
用于各种扁平
层
的
训练
。
、
、
我想
训练
一系列
的
模型
,这是非常相似的,复杂
的
层次是相同
的
,但扁平
的
部分变化。例如,不同
的
密度,最初我有model.add(Dense(512)),但我也想测试1000和4096;我还想测试
添加
另一个
层
。我没有问题,创建这个
模型
和运行他们,但这感觉是浪费时间重新
训练
复杂
的
层
,每次我没有修改在他们
的
任何东西。 是否有可能保存在复杂
的
浏览 0
提问于2020-12-28
得票数 0
2
回答
基于imagenet数据集(inceptionv3)
的
卷积神经网络在三元流中提出了一个ValueError
、
、
我试图使卷积NN需要在imagenet数据集上进行
预
训练
;为此,我使用inceptionv3作为需要位于卷积NN之上
的
基
模型
,但它将值错误提高如下:这是我目前
的
尝试from tensorflow.keras.layer
浏览 0
提问于2020-08-13
得票数 1
回答已采纳
3
回答
我需要帮助来改进我
的
计算机视觉
模型
,它在测试数据集上
的
准确率只有88%
、
、
、
我正在尝试处理Kaggle数据集(10_monkey_dataset),但我
的
模型
没有获得很好
的
准确性。model.add(Activation('relu'))model.add(Activation('relu
浏览 1
提问于2020-02-22
得票数 0
1
回答
keras
中
的
模型
是否有relu
层
(带alpha)?
、
、
我正在用keras做一个
模型
,我想把alpha变量
添加
到我
的
模型
的
relu
层
。有没有办法解决这个问题?from keras.layers import
Conv2D
, Input, Add, Dense,
BatchNormalization
, Convolution2D,\fromkeras.models import Model img_input = Input(shape=(height, wi
浏览 0
提问于2021-05-23
得票数 0
2
回答
最大池
层
导致Keras
中
的
错误
、
我在Keras创建了一个CNN,
每个
层
有12个卷积
层
,然后是
BatchNormalization
、Activation和MaxPooling。这一
层
的
样本如下:model.add(
BatchNormalization
()) model.add(Activation如果我在上面的代码
中
的
每个</e
浏览 0
提问于2017-10-01
得票数 1
回答已采纳
2
回答
如何检查python神经网络
中
的
层数,以及何时应该增加层数?
、
、
、
、
请对你
的
想法
添加
一个最低限度
的
评论,以便我可以改进我
的
查询。谢谢。-) from tensorfl
浏览 3
提问于2021-03-18
得票数 1
回答已采纳
1
回答
删除Keras
中
预先
训练
的
VGG16
模型
中
的
中间层。
各位, 我有一个关于如
何在
Keras
中
修改预先
训练
过
的
VGG16网络
的
问题。我试着删除最后三个卷积
层
末尾
的
最大池
层
,并在
每个
卷积
层
的
末尾
添加
批归一化
层
。同时,我想保留参数。这意味着整个修改过程不仅包括删除一些中间层、
添加
一些新
层
,还包括将修改
后
的
层
与其余
层
连
浏览 0
提问于2018-07-03
得票数 0
2
回答
为什么我
的
val_loss下降而我
的
val_accuracy停滞
、
因此,我用数据集来
训练
我
的
模型
,对于每一个时代,我都可以看到loss和val_loss下降(需要注意
的
是,val_loss会下降到某个点,但随后也会停滞,出现一些小
的
起伏),accuracy会上升,但是由于某种原因我浏览了这一点,这似乎是一个过度拟合
的
问题,所以我在
模型
的
某些
层
上使用l2
添加
了l2
层
和正则化,但它似乎没有任何效果。因此,我想问你,你认为我可以改进我
的
模型</
浏览 3
提问于2020-05-10
得票数 0
回答已采纳
2
回答
如何用更多
的
类来保持精确性?
我正在研究一种CNN
模型
(由keras实现),它从图像
中
检测地标。
每个
地标(例如卫城、大本钟、埃菲尔铁塔等)都是一个单独
的
类,并被划分为自己
的
目录。
训练
数据集包含1600幅图像、验证400幅图像和测试500幅图像。
训练
过程有80次迭代。我注意到,对于两个或三个类,精确度是相当好
的
(3个类,=>精度: 0.8353),但是到了下一个类,它就会下降。 增加更多
的
类会增加特性和复杂性吗?解决这个问题
的
办法是什么?<e
浏览 0
提问于2019-12-25
得票数 1
1
回答
在加载
模型
中
添加
层
时
的
Keras错误
、
为此,我加载了预先
训练
的
模型
,删除了几个
层
,并将我
的
层
添加
到
模型
中
。为了
添加
我
的
层
,我使用了顺序 API。))model.add(
BatchNormalization
Non-t
浏览 0
提问于2019-11-19
得票数 0
回答已采纳
1
回答
在Keras
中
添加
vs级联
层
、
、
、
我正在研究一些不同
的
神经网络架构,并试图拼凑出如
何在
我自己
的
基础上重新创建它们。x1 = ReLU()(x1) x1 =
Conv2D
(kernel_size = 24, strides = 1, filters"same&q
浏览 2
提问于2021-12-18
得票数 0
回答已采纳
1
回答
如何用自己
的
模式实现迁移学习
、
、
、
我试图保存我实现
的
CNN
模型
,并使用它来执行传输学习(TL)。我想澄清以下四点。2.(TL码)
模型
加载方法是否正确。4.(TL码)
训练
前
模型
与后续各层是否正确组合(尺寸等)两者都是预测两个数字
的
回归
模型</em
浏览 1
提问于2021-07-24
得票数 0
回答已采纳
2
回答
在使用model.fit时如何将'training‘参数传递给tf,keras.Model
、
、
所以我有一个由子类化API编写
的
模型
,调用签名看起来像call(x,training),其中需要
训练
参数来区分
训练
和非
训练
,当做batchnorm和dropout时。当我使用model.fit时,如何让
模型
向前传递知道我处于
训练
模式或评估模式? 谢谢!
浏览 0
提问于2019-07-18
得票数 3
1
回答
在keras
中
增加(
预
训练
/非
训练
)神经网络中间层
后
训练
softmax
层
、
、
、
我想为cifar10数据集在keras
中
训练
2个
模型
。首先是从头开始(model1),其次是微调一个预先
训练
过
的
模型
(model2)。我使用以下代码来做到这一点:from keras.layers import
Conv2D
, MaxPooling2Dinput_shape = (32, 32, 3) mo
浏览 0
提问于2018-08-06
得票数 2
回答已采纳
1
回答
与Keras Batchnorm不同
的
Py手电Batchnorm
层
、
、
、
、
我试着把预先
训练
过
的
BN重量从一个pytorch
模型
复制到它
的
等价Keras
模型
,但是我总是得到不同
的
输出。我读过Keras和Pytorch BN文档,我认为区别在于它们计算“平均值”和"var“
的
方式。 因此,他们平均超过样本。喀拉斯: 轴:整数,应该标准化
的
轴(通常是特征轴)。例如,在
Conv2D
层
之后使用dat
浏览 0
提问于2019-02-12
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用神经网络解决拼图游戏
万字长文,用代码的思想讲解Yolo3算法实现原理,Visdrone数据集和自己制作数据集两种方式在Pytorch训练Yolo模型
深度学习-keras实现cnn网络
使用Keras进行深度学习:(一)Keras 入门
使用Keras集成卷积神经网络的入门级教程
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券