腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
keras
实现
简单
的
梯度
下降
?
、
、
我是一个学习深度学习
的
学生。这些天,我试图看到关于权重和偏差
的
损失函数
的
图表。特别是,我希望应用
梯度
下降
方法来获得平滑
的
线条,而不是来自其他优化器
的
随机特征。
Keras
框架提供了各种类型
的
优化器,如SGD,RMSprop,Adagrad,AdaDelta,Adam等。然而,正常
的
,一般
的
和平坦
的
梯度
下降
(没有随机特征)在
Keras</em
浏览 13
提问于2019-11-08
得票数 1
2
回答
带Dropout层
的
Keras
小型批处理
梯度
下降
、
、
、
、
当batch_size参数大于1时,我有一个关于在
Keras
/Tensorflow中
实现
Dropout
的
问题。最初
的
文件说: 唯一
的
区别是,对于一个小批量
的
每一个训练案例,我们通过退出单位来抽样一个变薄
的
网络。该训练案例
的
前向和反向传播仅在这个稀疏
的
网络上进行。每个参数
的
梯度
在每个小批
的
训练案例中平均。任何不
使用
参数
的
训练案例都会为该
浏览 5
提问于2020-02-19
得票数 0
2
回答
随机
梯度
下降
的
批量大小是训练数据
的
长度,而不是1?
、
、
、
、
当
使用
批处理
梯度
下降
、随机
梯度
下降
和小批随机
梯度
下降
时,我试图绘制不同
的
学习结果。无论我看什么地方,我都读到batch_size=1和普通SGD一样,而batch_size=len(train_data)和批处理
梯度
下降
是一样
的
。我知道随机
梯度
下降
是指每次更新只
使用
一个数据样本,而批处理
梯度
下降
使用</
浏览 3
提问于2020-07-28
得票数 2
回答已采纳
2
回答
如何
使用
Keras
手动更新权重
、
、
、
、
我正在
使用
Keras
构建一个LSTM,并通过
使用
外部成本函数进行
梯度
下降
来调整它。因此,权重将更新为:我知道我可以
使用
keras
.getweights()获得权重,但
如何
进行
梯度
下降
并更新所有权重我试着
使用
initializer,但我还是没弄明白。我只找到了一些与tensorflow相关
的
代码,
浏览 3
提问于2018-07-16
得票数 15
1
回答
使用
两个输入层和numpy操作
的
Keras
上
的
丢失层
、
、
、
我有一个
使用
numpy和opencv方法
实现
的
丢失函数。此函数还
使用
网络
的
输入图像和输出。 是否有可能将输入和输出层转换为numpy数组,计算损失并
使用
它优化网络?
浏览 2
提问于2017-10-01
得票数 2
回答已采纳
2
回答
“模块”对象不可调用
的
sgd
、
、
这是我
的
密码。from
keras
.optimizers import gradient_descent_v2 as SGD sgd=SGD(lr=0.01,momentum=0.9,decay=(0.01/25)
浏览 11
提问于2022-04-30
得票数 0
1
回答
简单
梯度
下降
实现
误差
、
、
我尝试用一个线性回归玩具问题,用
梯度
体面算法对MSE函数进行优化。gradient_decent(v_next) v_0 = np.array([[1], [1]]) 我尝试过不同
的
alpha值,但是代码永远不会收敛(无限递归),问题似乎在于递归
的
停止条件,但是在运行了几次之后,v_next和v_prev在-infinte之间反弹到无穷大。
浏览 1
提问于2021-01-07
得票数 0
回答已采纳
1
回答
如何
正确
使用
tensorflow2中
的
优化器?
、
、
、
、
我问自己,下面的代码是否只做了一个
梯度
下降
的
步骤,还是做了整个
梯度
下降
算法?opt = tf.
keras
.optimizers.SGD(learning_rate=self.learning_rate) opt = tf.
keras
.optimizers.SGD(learning_ratetrain = opt.minimize(self.loss, var_list=[self.W1, self.b1, self.W2, self.b2, self.W3, se
浏览 9
提问于2022-01-16
得票数 2
1
回答
在
keras
中裁剪adam优化器
的
奖励
、
、
、
、
另外,
如何
才能
实现
对亚当
的
奖励?你能告诉我怎么做吗?
浏览 0
提问于2018-10-03
得票数 9
2
回答
基于向量运算
的
随机
梯度
下降
?
、
、
假设我想
使用
N个样本
的
数据集来训练一个随机
梯度
下降
回归算法。由于数据集
的
大小是固定
的
,我将重用数据T次。在每次迭代或“时代”中,在随机地重新排序整个训练集之后,我
使用
每个训练样本一次。我
的
实现
是基于Python和Numpy
的
。因此,利用向量运算可以显着地减少计算时间。想出一个批量
梯度
下降
的
矢量化
实现
是非常
简单
的
浏览 0
提问于2014-10-10
得票数 10
回答已采纳
2
回答
当
使用
随机
梯度
下降
( batch_size )作为优化器时,fit()方法中
的
sgd值应该是多少?
、
、
我对这种型号
的
批次大小感到困惑。我
使用
sgd,即随机
梯度
下降
作为优化器(请参阅代码)。我知道在sgd中,
使用
训练集中
的
一个随机实例来计算每个步骤
的
梯度
。因此,根据它,batch_size应该等于1。这是因为默认值32将使其成为最小批处理
梯度
下降
.import tensorflow as tf fashion_mnist =
浏览 0
提问于2019-07-17
得票数 1
回答已采纳
4
回答
L1正则化在
Keras
/Tensorflow *真的*L1-正则化吗?
、
、
、
、
利用L1正则化方法对
Keras
中
的
神经网络参数进行
keras
.regularizers.l1(0.01)正则化,得到稀疏模型。我发现,虽然我
的
许多系数接近于零,但它们中
的
一些实际上是零。通过查看,它建议
Keras
简单
地将参数
的
L1范数添加到损失函数中。 这将是不正确
的
,因为参数几乎肯定永远不会像L1正则化时所期望
的
那样(在浮点错误范围内)变为零。当参数为零时,L1范数是不可微
的
,因此需要
使用
浏览 8
提问于2017-03-31
得票数 13
1
回答
我们能在最大熵模型中
使用
梯度
下降
法吗?
我看到很多
实现
使用
GIS或IIS来训练最大熵模型。我们能用
梯度
下降
法吗?如果我们可以
使用
它,为什么大多数教程直接告诉GIS或IIS方法,但不显示
简单
的
梯度
下降
法来训练最大熵模型?是否有一个玩具代码
使用
简单
的
梯度
去训练最大模型?我认为很容易
实现
一个玩具代码,它
的
推导只是计算经验期望和模型期望。
浏览 0
提问于2016-07-10
得票数 2
回答已采纳
2
回答
神经网络函数最小化器
的
时间复杂度
、
、
、
、
我试着训练一个neural network来识别A到J
的
手写信件。我有一套200000码
的
训练。每个训练集都是784像素值
的
列表。我正在
使用
python
的
fmin_cg库
的
scipy最小化函数。我面临
的
问题是,每次迭代都要花费大量
的
时间。第二次迭代耗时20分钟。 第三名还在跑。这可能是因为我
的
电脑过时了,只有2GB
的
内存和一个缓慢
的
处理器,但是我以前用traini
浏览 0
提问于2016-10-31
得票数 1
回答已采纳
1
回答
Scikit学习中
的
线性回归和
梯度
下降
?
、
、
、
在机器学习
的
coursera课程中,它说
梯度
下降
应该收敛。我们
如何
在现实世界中
使用
scikit-learn中
的
线性回归?或者为什么scikit-learn不在线
浏览 0
提问于2015-12-26
得票数 26
回答已采纳
1
回答
如何
在Java中创建在QNMinimizer中
使用
的
diffFunction?
、
、
、
我正在尝试
使用
斯坦福NLP库中
的
QNMinimizer,但在使qn.minimize正常运行所需
的
参数方面遇到了问题。= new QNMinimizer(10, true)我需要将一个diffFunction类型
的
对象放在"null“所在
的
位置,但不确定
如何
创建/
实现
一个。我有一个
使用
梯度
下降
<
浏览 3
提问于2017-04-07
得票数 0
1
回答
tf.
keras
.optimizers.Adam和其他具有最小化
的
优化器
、
、
、
、
我想用tf.contrib.
keras
来摆弄它。然而,有一件事我不明白。tf.train中
的
类有一个函数minimize,您可以
使用
它来优化您
的
函数。但是,tf.contrib.
keras
.optimizers中
的
类不存在此minimize函数。minimize function does not exists 因为没有minimize函数,所以
keras
包装器无法工作。我试图寻找一个
使用
tf.
keras
和tensorflow
浏览 3
提问于2018-02-17
得票数 5
1
回答
SGDClassifier fit()与partial_fit()
、
、
、
我对fit()和partial_fit()
的
SGDClassifier方法感到困惑。文件中都说,“用随机
梯度
下降
来拟合线性模型。”关于随机
梯度
下降
,我所知道
的
是,在一次迭代中更新模型
的
参数需要一个训练示例(或整个训练
的
一部分)。
梯度
下降
在每次迭代中
使用
整个数据集。我想用logistic回归来训练一个模型。我要
实现
法向
梯度
下降
和随机
梯度</
浏览 2
提问于2016-11-18
得票数 0
回答已采纳
2
回答
Keras
中
的
策略
梯度
、
、
、
、
我一直试图建立一个
使用
‘深度Q-学习’
的
模型,其中我有大量
的
行动(2908)。在
使用
标准DQN:()取得有限
的
成功之后,我决定做更多
的
研究,因为我认为动作空间太大,无法进行有效
的
探索。然后我发现了这篇论文:,在这里他们
使用
了一个参与者-评论家模型和策略
梯度
,这导致了我:,在那里,他们
使用
策略
梯度
来获得比DQN更好
的
结果。我已经找到了几个在
Keras
、和中
实
浏览 6
提问于2016-11-05
得票数 23
8
回答
选择学习率
、
、
、
、
我目前正致力于利用反向传播
实现
神经网络
的
随机
梯度
下降
( SGD ),虽然我理解它
的
目的,但我有一些关于
如何
为学习速率选择值
的
问题。如果不是我应该选择什么样
的
价值观,我应该
如何
选择它们?似乎你想要小<e
浏览 0
提问于2014-06-16
得票数 114
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
DL笔记:用 Python 实现梯度下降的算法
Logistic regression 的梯度下降解法-附python实现
如何使用Keras集成多个卷积网络并实现共同预测
随机梯度下降法和牛顿法的理论以及Python实现
如何理解深度学习的优化?通过分析梯度下降的轨迹
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券