腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
在一定数量的训练
数据
后,机器学习模型的性能为何保持稳定?
、
、
图像表明,传统的机器学习
算法
经过一定量的
数据
后,性能趋于平稳,而深度学习
算法
的性能随着
数据
量的增加而提高。与机器学习模型的手动特征选择相比,深度学习方法是否能自动学习重要的特征?
浏览 0
提问于2019-05-10
得票数 2
2
回答
当我使用相同的
数据
训练和
数据
测试时,反向传播
神经网络
的误差会不会很大呢?
、
、
、
我在用
神经网络
反向传播编程。我有大约90个
数据
,并对所有
数据
进行了一些培训,用于
数据
培训(90个
数据
)和相同的
数据
测试
数据
(90个
数据
)。我使用迭代阈值约2次来测试它,它给了我相当
大
的误差(MAPE/均方误差约为60% )。恐怕我的
算法
错了,因为获得训练误差小于10%的唯一方法是使用大约3000 k迭代的迭代阈值,它的训练需要相当长的时间(我没有使用动量)。只是一个反向传播
神经网络
)。
浏览 2
提问于2017-05-21
得票数 0
回答已采纳
1
回答
为什么设置“导出OPENBLAS_NUM_THREADS=1”会损害性能?
、
、
、
、
但是我发现了一个奇怪的现象,就是设置这个值会严重损害我的RL
算法
的性能(我已经为TD3和SAC做了一些测试,所有结果都一致表明“导出OPENBLAS_NUM_THREADS=1”会降低性能)。为什么这会造成这么
大
的问题?
算法
采用Tensorflow1.13 1.13实现,
数据
通过输入
神经网络
。所有测试都是在OpenAI健身房的环境上进行的。
浏览 0
提问于2019-05-13
得票数 2
回答已采纳
1
回答
如何计算机器学习和深度学习模型的
大
O时间复杂度?还有其他措施来定义模型的复杂性吗?
、
、
、
是否可以像在其他
算法
/程序中那样使用
大
O复杂度度量? 我有建议,根据内存使用情况或培训时间来度量复杂性。然而,这些都不是理论上的措施,可能会因机器而异。我使用的一种方法是简单地比较可训练参数的总数。具体来说,我们可以考虑,比如卷积
神经网络
。。
浏览 6
提问于2020-03-21
得票数 0
1
回答
“HessPattern”不是在matlab中工作吗?
、
254016x254016 87043112 double sparse 此外,如果我设置trust-regions而不是quasi-newton,则
算法
将运行
浏览 1
提问于2018-08-29
得票数 1
回答已采纳
1
回答
为机器学习准备
数据
集的正确方法是什么?
、
、
、
在机器学习方面,我是个菜鸟,我试图使用ML对一些
数据
进行分类。现在,我已经对有监督和无监督的学习
算法
做了一些基本的阅读,如决策树、聚类、
神经网络
..etc等。我很难理解的是为ML问题准备
数据
集的正确的总体过程。我目前的理解是,为了评估准确性,
算法
应该输入预先标记的结果(来自
数据
集的一个重要子集?)以评估预期结果与
算法
的决策之间的差异? 如果这是正确的,那么如何对大型
数据
浏览 2
提问于2013-10-14
得票数 7
2
回答
神经网络
训练时间?
我建立了一个相当标准的反向传播
算法
,使用一个包含39个变量的10,000个
数据
集,通过5层x5节点网络进行前向传播的过程,每次迭代几乎需要5分钟。使用这样
大
的
数据
集,
神经网络
通常需要花费很多时间来训练吗?我的初始
数据
集是10倍长,但我不能等待一个小时仅仅是完成一次向前传球。
浏览 0
提问于2017-03-10
得票数 3
1
回答
多层
神经网络
在学习速率为0.1的10年代后收敛到无穷
大
、
因此,我试图设计一个多层
神经网络
,由3个输入神经元、3个隐神经元和1个输出神经元组成。这是代码,它在仅仅10个时代之后收敛,学习速率为0.1,错误的值降到无穷
大
: double hidden[] = {1d,1d,1d}; }我敲掉了一个隐藏的神经元,它仍然收敛到无穷
大
,所有的重量!!
浏览 2
提问于2013-12-18
得票数 1
回答已采纳
1
回答
如何在NEAT中设置层数(扩充拓扑的神经进化)?
、
解空间由整形限制为2层人工
神经网络
。无法将配置文件的参数归档,以便我可以获得2个以上的层。 我开始修改并使用NEAT的xor2.py文件来用于我的
数据
集。现在,我在解决方案空间中遇到了两层人工
神经网络
。有没有办法在配置文件中指定我需要3层或更多层?我试着检查配置文件中的所有参数,但找不到。
浏览 36
提问于2019-02-16
得票数 1
回答已采纳
1
回答
AI
算法
中比较常用的模型都有什么?
、
浏览 219
提问于2022-08-27
3
回答
使用Weka进行游戏
、
、
、
我正在做一个项目,其中我有
神经网络
(或其他
算法
)在扑克中玩对方。在每次输赢之后,我希望
神经网络
(或其他
算法
)更新以响应损失的错误(这是如何计算的在这里并不重要)。我还想实现的另一个想法是使用遗传
浏览 1
提问于2011-03-10
得票数 2
2
回答
数据
过度拟合的现象随训练
算法
的不同而不同吗?
、
、
、
、
假设我有一个
数据
集,我想用
神经网络
和支持向量机进行训练。在训练后的
数据
集中,
神经网络
是否会过度适应,而支持向量机则不会?就像一个
数据
集对一种训练
算法
来说是否过分适合,而不太适合另一种训练
算法
吗?或者如果它不适合于一种训练
算法
,那么可以假设它也不适合其他的训练
算法
?
浏览 0
提问于2016-08-08
得票数 0
回答已采纳
8
回答
神经网络
可以用来寻找函数的最小值(A)吗?
、
、
、
我对
神经网络
感兴趣有一段时间了,并考虑在python中使用一个比较时域(最快)中各种最小化技术的轻型项目。 然后我意识到我甚至不知道NN是否适合最小化。你认为如何?
浏览 11
提问于2009-03-16
得票数 10
回答已采纳
1
回答
连续强化学习优化
我正在实现连续强化学习(用深度强化学习的连续控制),但在优化策略-
神经网络
时遇到了一些问题。然而,由于Q-
神经网络
(最初)不是Q(状态,动作)的完全逼近,当政策的作用变得很大/无限时,我遇到了问题。当行动->无限时,Q->无穷
大
,这意味着策略的权重被优化到非常
大
或无限
大
的值。Morover,当政策开始输出接近无穷
大
的值时,这意味着q-值变得太大,而增强值变得不相关,因为"r + gamma*Q“被非常
大
的q-值所主导。 您推荐的解决方案是
浏览 1
提问于2017-04-29
得票数 2
1
回答
人工
神经网络
中的无监督学习
、
、
、
如果我要用遗传
算法
训练一个人工
神经网络
的权重,这是什么类型的学习呢?我相信它是无人监管的但它有名字吗?它似乎可能属于强化学习,但我不太确定。
浏览 4
提问于2014-02-23
得票数 1
回答已采纳
1
回答
如何使用pybrain黑盒优化将
神经网络
训练到有监督的
数据
集?
、
、
、
我使用过pybrain,了解了如何生成具有自定义架构的
神经网络
,并使用反向传播
算法
将其训练为有监督的
数据
集。 然而,我对优化
算法
以及任务、学习代理和环境的概念感到困惑。例如:我如何实现(1)这样的
神经网络
,以使用pybrain遗传
算法
(2)对XOR
数据
集进行分类?
浏览 1
提问于2013-04-02
得票数 19
回答已采纳
1
回答
图像处理中的数字识别
算法
/准则
、
、
、
、
我正在努力学习图像处理,在这方面我给自己设定了一个目标。一个数字识别系统。现在的问题是,我很难想象这些工具如何帮助我实现我的目标。这真的很令人沮丧,因为在网上查找这个问题会给出非常普遍和宽泛的答案。如果不能,至少可以给我推荐一本书,甚至是一个领域,因为在看了
浏览 5
提问于2013-03-20
得票数 0
1
回答
如果我知道函数的输入和输出,有什么方法可以使程序近似于函数的代码?
我认为sha256是一个例子。当输入字符时,就会得到一个散列,并且已经知道输入是什么了。如果我有这两件事,一个程序能猜出sha256使用的函数吗?例如,将输入转换成输出?
浏览 5
提问于2022-09-13
得票数 -2
1
回答
基于h2o的时间差分(强化学习)
我想知道h2o是否能够实现时间差分(强化学习)? 我知道TensorFlow有这个能力。
浏览 30
提问于2019-02-19
得票数 0
回答已采纳
1
回答
根据
数据
类型,最适合的机器学习
算法
是什么?
、
、
我是
数据
科学的初学者。我发现一些机器学习
算法
在给定特定类型的
数据
(即数值、分类、文本、图形)时表现得更好。我在网上搜索了这个话题,但没有运气。希望对这个问题的回答将有助于
数据
科学的初学者。 更新:如果您能够解释哪些类型的
数据
最适合下面的
算法
,那就更好了。朴素贝叶斯,支持向量机,回归,K-均值,深层
神经
浏览 0
提问于2017-06-23
得票数 9
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
浅谈神经网络算法
浅谈神经网络算法之梯度下降算法
数据挖掘十大算法
神经网络算法——和谁更强?
神经网络架构算法介绍
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券