腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
深度
学习
中
灵活
使用
偏差
技巧
、
、
我正在做一个简单的例子,说明如何在神经网络的前向传递中
使用
偏差
技巧
。我猜我的代码到目前为止是正确的,但是真的有必要在每次激活时手动添加一个"1“数组吗,或者有没有更简单的方法呢?
浏览 11
提问于2020-05-15
得票数 0
1
回答
贝叶斯方法
在
简单神经网络
中
的应用
、
、
如果必须应用贝叶斯“推断”来更新权重和
偏差
,代码中会发生什么变化。# update weight如果我的理解是正确的,
使用
bayes方法来推导权重和
偏差
,这将有助于更快地得到这些值,留下不必要的循环,使权重无法收敛。
浏览 0
提问于2017-07-13
得票数 0
1
回答
对高精度数据的深入
学习
、
、
具有标准参数的Adam优化器,1e-4
学习
率,2000年训练期,BCE损失。float64权值和float64输入张量。 从数据
中
可以看出,缩小差距,更难解决神经网络的问题(稀疏度固定在1e2)。对于小于1e-4的差距,它无法了解两者的区别。
浏览 1
提问于2022-05-12
得票数 0
4
回答
“
深度
学习
需要大数据”规则从何而来?
、
、
、
、
在
阅读关于
深度
学习
的文章时,我经常会遇到这样的规律:只有当你有大量的数据可供
使用
时,
深度
学习
才是有效的。
浏览 0
提问于2019-02-18
得票数 4
9
回答
机器
学习
中
的归纳
偏差
是什么?
、
机器
学习
中
的归纳
偏差
是什么?为什么它是必要的?
浏览 28
提问于2016-02-26
得票数 77
2
回答
每个神经元的神经网络
偏差
、
、
、
我一直
在
关注安德鲁吴
在
神经网络上的视频。在这些视频
中
,他不把偏见与每一个神经元联系起来。相反,
在
计算了每一层的激活后,他
在
每一层的顶端都添加了一个偏置单元,并利用这种
偏差
以及计算来计算下一层的激活(正向传播)。 然而,
在
机器
学习
的其他一些博客和像这样的视频
中
,每个神经元都有一种偏见。
浏览 4
提问于2016-05-12
得票数 14
回答已采纳
1
回答
什么是完全连接层加性偏压?
我将特别
使用
PyTorch,但我怀疑我的问题适用于
深度
学习
&CNN,因此我选择在这里发布。https://www.youtube.com/watch?torch.nn.Linear将bias参数设置为False,然后将torch.nn.Linear功能等效(当然不包括GPU支持)到下面的NumPy行:注意,
在
torch.nn.Linear
中
,默认情况下
偏差
设置
浏览 0
提问于2021-06-20
得票数 2
回答已采纳
1
回答
无
深度
学习
的内容推荐系统
、
、
我正在探索推荐系统的领域,我所能找到的只是利用
深度
学习
的
技巧
。我不想在深造领域工作。因此,对于内容推荐系统,除了
深度
学习
之外,还有其他方法吗?或者,如果我不喜欢
深度
学习
,我应该换个话题吗?我还想在推荐系统
中
绘制图表,但是对于内容而不是基于协作的建议。任何资源都是有用的。
浏览 2
提问于2022-05-18
得票数 0
2
回答
验证的准确性总是接近训练的准确性。
、
、
、
、
目前,我将所有的超参数保持不变,并且只从1、5、26
中
改变了LSTM层
中
的单元数。编辑: 应要求提供进一步资料。每个模型所
使用
的超参数都可以
在
图的图例中看到。由于时间依赖性,我无法
使用
验证方法,如KFold交叉验证。因此,我
使用
所谓
浏览 0
提问于2018-12-14
得票数 1
回答已采纳
1
回答
我对配重的一般理解正确吗?
、
、
、
我开始了一门
深度
学习
课程。我试着做一个例子,向我自己解释权重是如何从数学上找到的。如果我下面写的是胡说八道的话,我很高兴听到你的解释。谢谢。 因此,对于给定的图像,我们做了WX+b。
浏览 2
提问于2017-01-29
得票数 1
1
回答
什么是googlenet
中
的bias节点以及如何删除它?
、
、
、
我是
深度
学习
的新手,我想建立一个可以识别相似图像的模型,我正在阅读研究论文。这是他们
使用
的短语:"remove the bias term inthe last linear layer"。我不知道什么是
偏差
项,也不知道如何从googlenet或其他预训练模型
中
删除它。if someone help me out with this it would be great! :)
浏览 9
提问于2021-05-13
得票数 1
回答已采纳
1
回答
神经网络:权重和
偏差
收敛
我一直
在
阅读一些关于机器
学习
、神经网络和
深度
学习
的主题,其中之一就是这本(在我看来)很棒的在线书籍:现在我不明白的是:
在
隐藏层中计算的公式:
在
每次迭代
中
,权重和
偏差
都会根据导数略有变化,以便找到全局最优。如果是这
浏览 4
提问于2017-09-20
得票数 0
2
回答
决策树的验证曲线解释
、
我正在上机器
学习
课,我们现在用的是监督
学习
,从决策树开始。我
使用
的UCI信用卡数据集(是否某些人会拖欠他们的付款,因为过去的历史)。基于这个图和一些谷歌搜索,我相信正确的解释方法是这个数据集有很高的
偏差
,没有任何变化,没有真正的
学习
。或者,换句话说,对于这个数
浏览 0
提问于2019-09-18
得票数 4
回答已采纳
1
回答
如何从有向图实现PyTorch NN
、
、
我还希望将每个连接的预定义权重和
偏差
传递给它,但现在愿意忽略它。 我对这些条件的动机是,我正在尝试实现NEAT算法,该算法基本上是
使用
遗传算法来进化网络。
浏览 12
提问于2020-03-10
得票数 1
1
回答
控制AWS Sagemaker成本
、
我想将GPU容量用于
深度
学习
模型。Sagemaker非常
灵活
,可以启动按需集群进行培训。然而,我的部门希望得到保证,我们不会在AWS预算上超支。有没有办法
在
不
使用
专用机器的情况下“限制”成本?
浏览 3
提问于2020-06-15
得票数 1
1
回答
WandbCallback
中
的"save_graph“关键字是什么意思?
、
、
我
使用
权重和
偏差
来跟踪我的
深度
学习
模型。为了监视一切,我
在
.fit中
使用
了WandbCallback。
在
WandbCallback documentation中有一个关键字save_graph,它缺省为True。描述非常简短,我想知道保存的图形是什么,它是用来做什么的?保存图表是一项代价高昂的操作吗?
浏览 68
提问于2021-11-10
得票数 0
回答已采纳
1
回答
在
神经网络的背景下,什么是粗到细?
、
、
我
在
很多报纸上读到过,提到粗到细是
深度
学习
的一种
技巧
,但我永远也搞不懂它们到底是什么意思。这是否与多尺度推理有关,即它们
使用
粗、细输入图像?
浏览 0
提问于2019-03-25
得票数 2
回答已采纳
1
回答
如何
使用
keras实现简单的梯度下降?
、
、
我是一个
学习
深度
学习
的学生。这些天,我试图看到关于权重和
偏差
的损失函数的图表。特别是,我希望应用梯度下降方法来获得平滑的线条,而不是来自其他优化器的随机特征。然而,正常的,一般的和平坦的梯度下降(没有随机特征)
在
Keras官方文档
中
没有看到。关键参数、剪裁法线和剪裁值是否与普通GD相关?例如,如果SGD优化器
使用
键args,clipnormal=1,那么它会
使用
普通的SGD吗? 提前谢谢你。
浏览 13
提问于2019-11-08
得票数 1
1
回答
为什么我们
在
批量范数和激活后不需要卷积层
中
的
偏差
、
为什么
在
最后一层
中
不包括偏见仍然很常见?
浏览 26
提问于2019-06-11
得票数 2
回答已采纳
1
回答
在
tensorflow 2
中
从头开始训练keras应用程序
、
为了对不同的框架进行基准测试,我想从头开始训练一个初始v3网络。下面是构建模型的代码片段: IMAGE_RES = 229model = tf.keras.applications.InceptionV3(include_top=True,weights=None,classes=NUM_CLASSES) model.build(input_shape=(None, IMAGE_RES , IMAGE_RES , channels)) 根据keras官方网站的说法,参数weight=None意味着随机初始化。这是否意味着我正在从头开始训练我的网络?如果不
浏览 15
提问于2020-12-04
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习中训练参数的调节技巧
科技:使用深度学习技术在视频中定位潜在的人类活动
多版本 Python 在使用中的灵活切换
深度学习在放疗中的应用
深度学习在OCR中的应用
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券