腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
计算
感知
损失
VGG
特征
的
正确
方法
、
、
、
、
在
计算
VGG
Perceptual loss时,虽然我还没有见过,但我觉得将GT图像
的
VGG
特征
的
计算
包装在torch.no_grad()中是很好
的
。所以基本上我觉得下面这些都是可以
的
, with torch.no_grad(): nw_op_
vgg
_featuresnw_op_
vgg
浏览 184
提问于2021-10-12
得票数 3
回答已采纳
1
回答
如何通过matconvnet在预先训练好
的
CNN模型中添加自定义层和
损失
函数?
、
最近,我想尝试一个新
的
损失
函数,而不是现有的预训练模型中
的
损失
函数,例如
vgg
-16,它通常使用softmax
损失
层。更重要
的
是,我想使用一个新
的
特征
提取器层,而不是池化层或最大层。我知道在matconvnet、simpleNN和DagNN中分别有两个CNN包装器,因为我使用
的
是
vgg
-16,这是一个具有线性构建块序列
的
线性模型。那么,在simpleNN包装器中,如何详细地创建自定
浏览 1
提问于2017-04-06
得票数 1
1
回答
如何在$\phi_网络中
计算
VGG
19 {i,j}$?
、
、
、
、
本文采用基于生成对抗性网络
的
照片真实感单图像超分辨率等人
的
方法
,利用\phi_{i,j}从
VGG
19网络中提取
的
特征
映射
计算
出图像之间
的
距离(用于
损失
函数), 其中,\phi_{i,j}被定义为“i-最大池层之前
的
j-第卷积(激活后)获得
的
特征
映射”。请详细说明一下如何
计算
这个
特征
图,可能是为了
VGG
54本文中提到
的<
浏览 0
提问于2018-11-20
得票数 3
回答已采纳
1
回答
我们能否对从预训练模型中提取
的
特征
进行归一化
、
、
、
、
我正在使用从预先训练
的
VGG
16和
VGG
19模型中提取
的
特征
。这些
特征
是从上述网络
的
第二全连接层(FC2)中提取
的
。 得到
的
特征
矩阵(维度为(8000,4096))具有范围为0,45
的
值。因此,当我在基于梯度
的
优化算法中使用这个
特征
矩阵时,
损失
函数、梯度、范数等
的
值都很高。 为了消除如此高
的
值,我对这个
浏览 23
提问于2020-08-21
得票数 0
1
回答
'attributeError:‘张量’对象在用keras进行预训练
的
VGG
实现知觉丢失时没有属性'_keras_history‘
、
、
、
我试图为视频输入
的
模型训练实现
VGG
感知
损失
。我实现了知觉
损失
,就像问题中
的
建议一样输入大小为(bathsize, frame_num, row, col, channel)。我想得到中间帧
的
知觉
损失
,也就是frame_num/2。因此,我实现了以下lossModel: lossModel =
VGG
19(weights='imagenet')
浏览 1
提问于2017-12-19
得票数 2
回答已采纳
1
回答
CNN与CTC
损失
、
、
、
、
我想使用预先训练
的
CNN模型(ResNet50,
VGG
等)提取
特征
,并使用CTC
损失
函数来使用这些
特征
。 我想把它构建为一个文本识别模型。 有谁知道我该如何做到这一点吗?
浏览 19
提问于2020-04-13
得票数 0
1
回答
在深度学习中,我能动态地改变减肥
的
重量吗?
请深入学习
的
专家。 嘿,我最近正在使用python中
的
tensorflow训练图像来进行音调映射。为了获得更好
的
结果,我专注于使用贾斯汀·约翰逊( Johnson )从中引入
的
知觉
损失
。在我
的
实现中,我使用了
损失
的
所有三个部分:从
vgg
16中提取
的
特征
损失
;从传输图像和地面真实图像中提取
的
L2像素级
损失
;以及总变化
损失
。我把它们
浏览 1
提问于2018-07-25
得票数 1
回答已采纳
1
回答
Tensorflow:
计算
关于高秩张量
的
Hessian矩阵(仅对角部分)
、
、
、
我想
计算
我指定
的
损失
的
第一个和第二个导数(Hessian
的
对角线部分),关于
vgg
16 conv4_3层内核
的
每个
特征
映射,这是一个3x3x512x512维矩阵。根据
的
说法,我知道如何
计算
衍生品,如果它被尊重到低等级的话,然而,当它转到更高
的
级别时,我就彻底迷失了。kernel) In :
浏览 2
提问于2016-10-18
得票数 0
回答已采纳
2
回答
Keras中
的
自定义
损失
函数
、
、
、
、
我正在研究一种图像类增量分类器
方法
,使用CNN作为
特征
提取器,并使用完全连接
的
块进行分类。当一些类可用时,我必须
计算
包括新类
的
样例在内
的
样例
的
每一个输出。现在将零添加到旧类
的
输出,并在新类输出上添加对应于每个新类
的
标签,我有了新标签
浏览 2
提问于2017-05-06
得票数 53
回答已采纳
1
回答
在[0,1]范围内引入任何PyTorch库达张量
、
、
假设我有一个PyTorch,库达浮子张量,形状为[b,c,h,w],它接受浮点张量范围允许
的
任意值。我想把它正常化在0,1。我使用
的
是PyTorch 1.3.1。 具体来说,我无法使用min获得所需
的
torch.min()。max也是如此。我将用它来给预先训练过
的
VGG
来
计算
知觉
损失
(在上述正常化之后,我还将把它们带到ImageNet、mean和std)。由于某些原因,我无法在
浏览 4
提问于2020-05-24
得票数 1
回答已采纳
1
回答
在Tensorflow/Keras中使用一个
损失
函数和度量另一个
损失
函数
的
目的?
、
我是深度学习
的
新手,我第一次看到了这一点。以MAE为
损失
函数,MSE为度量函数。这样做
的
目的是什么?有什么收获?
浏览 11
提问于2020-12-03
得票数 0
1
回答
Facenet:使用人脸嵌入集
的
集合
、
、
、
、
它被训练用于提取
特征
,即用一个称为嵌入
的
固定长度向量来表示图像。训练后,对于每幅图像,我们以第二最后一层
的
输出作为
特征
向量。然后,我们可以根据
特征
和某些距离函数(例如,欧几里德距离)进行验证(以判断两幅图像是否属于同一人)。三重态
损失
是一个
损失
函数,它基本上表示,同一人
的
特征
向量之间
的
距离应该很小,不同的人之间
的
距离应该很大。 我
的
问题是,有没有办法混合不同
的
嵌入
浏览 3
提问于2017-12-26
得票数 2
回答已采纳
1
回答
从
Vgg
16网导入后如何改变瓶颈
特征
的
输入形状
、
、
、
、
我试图使用
VGG
16网来训练一个模型来进行图像分类,并且希望用这段代码将没有密集层
的
权重传递到我
的
图像集中。model1 = applications.
VGG
16(include_top=False, weights='imagenet', input_shape=(img_width,img_height,这将是我
的
密集层
的
输入。我
的
问题是,当我试图预测图像时,输入图像
的
大小是(224,224,3)。那么,如何将输入图像
的
浏览 1
提问于2018-07-12
得票数 1
回答已采纳
1
回答
用预先训练
的
VGG
实现
感知
损失
、
、
、
我试图在Keras中使用预先训练过
的
VGG
16来实现知觉丢失,但也有一些问题。网络应该减少图像中
的
工件--但我认为这对这个问题没有那么重要。我不想用MSE作为
损失
函数,而是要实现知觉
损失
。我想做什么(我希望我已经
正确
地理解了知觉丢失
的
概念): 我想在我
的
lossModel (带有固定参数
的
预训练
VGG
16 )之后添加一个mainModel。进一步地,我使用例如MSE比较在lossModel
的
特定层(
浏览 12
提问于2017-12-06
得票数 6
回答已采纳
1
回答
Keras多个输出,自定义
损失
函数
、
、
、
我试图构建一个有两个输入和两个输出
的
模型。模型
的
结构如下所示。我想构建一个由两部分组成
的
客户
损失
函数:'d_flat‘和't_flat’之间
的
差异,以及'perdict‘层
的
分类交叉
损失
。=(36,36,3))
vgg
_base=tf.keras.applications.
VGG
19(include_top=False,#weights='imagenet',input_shape=
浏览 0
提问于2020-09-21
得票数 2
1
回答
有没有人能解释一下内容丢失功能?
、
、
、
、
让我们先谈谈内容
损失
,因为如果我能理解这一点,我也会理解风格
损失
。所以我有内容图像和混合图像(从带有一些噪声
的
一些分布开始),以及
VGG
16模型。之后,我还应该将混合图像
的
网络馈送到与之前相同
的
层,并查看该层对于混合图像输入
的
输出(
特征
图)是什么。 然后,我应该
计算
这两个输出
的
损失
函数,因为我希望混合图像具有与内容图像相似的
特征
映射。示例代码可以是:http://
浏览 11
提问于2019-04-08
得票数 1
回答已采纳
1
回答
我正在寻找一般
的
基于图像
的
聚类
方法
。
、
、
我
的
任务是对一些图像进行聚类,我决定使用
VGG
模型来提取
特征
,然后使用K-
方法
对这些
特征
进行聚类。但我
的
问题是:当我使用
VGG
作为
特征
提取器时,我应该确保
VGG
模型以前是否接受过这类图像
的
训练,否则,
VGG
模型就不能推广到所有类型
的
图像,对吗?我正在寻找一种通用
的
方法
来聚类图像,而不考虑数据集
的
类型。如果你知道任何有效
的
浏览 0
提问于2021-08-05
得票数 0
1
回答
使用预卷积
特征
对Resnet进行微调
、
、
因为我们知道卷积层
的
计算
成本很高,所以我想
计算
一次卷积层
的
输出,并使用它们来训练我
的
Resnet
的
完全连接层,以加快过程。在
VGG
模型
的
情况下,我们可以如下
计算
第一卷积部分
的
输出 x = model_
vgg
.features(inputs) 但是,如何从Resnet中提取
特征
呢? 提前感谢
浏览 14
提问于2020-04-11
得票数 0
回答已采纳
1
回答
将输入提供给keras模型,仅供自定义
损失
函数访问
、
、
有没有一种
方法
可以将
特征
作为输入传递给keras模型,仅供自定义
损失
函数访问,而不会影响模型作为输入
特征
?我只需要该功能来
计算
损失
,而不是通过网络中
的
隐藏层进行前馈。(基本上,我想要
的
是将
特征
作为输入输入,并按原样提取它作为输出,以及要在
损失
函数中访问
的
y_pred )。一个有效
的
例子将非常感谢。
浏览 11
提问于2020-12-09
得票数 0
回答已采纳
1
回答
不同尺度
的
文本与图像
特征
的
结合
、
、
我用
VGG
-16
计算
了文本
特征
和图像
特征
。文本
特征
范围从-1.58到1.58,而图像
特征
范围在0到521之间。我想连接文本和图像
特征
,并使用它们来
计算
余弦相似性。然而,正如您可能已经注意到
的
,规模上
的
差异意味着图像
特征
将完全支配文本
特征
。我
的
想法是使用类似sklearn
的
MinMaxScaler之类
的
方法
,并将
浏览 0
提问于2023-02-23
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
你的云计算方法正确吗?
促使LSTMs非常早期地预期动作
高精度人脸表情识别
自然:采用深度学习的方法分类先进钢铁组织
康奈尔&英伟达提出多模态无监督图像转换新方法
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券