腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
pytorch
的均方对数误差
你好,我是
PyTorch
的新手,我想在我的神经网络中使用均方对数误差作为损失函数来训练我的
DQN
代理,但是我在
PyTorch
的nn.functional中找不到MSLE,什么是实现它的最好方法?
浏览 27
提问于2021-05-22
得票数 1
回答已采纳
1
回答
Pytorch
使用了太多的资源
、
、
、
我正在使用
pytorch
训练一个
DQN
模型。使用ubuntu,如果我使用htop,我会得到 ? 正如你所看到的,所有的资源都被使用了,我对此有点担心。这是我的code。我必须使用
pytorch
添加我的需求吗? 请注意,我的计算机上没有GPU,只有CPU
浏览 19
提问于2020-04-09
得票数 5
回答已采纳
1
回答
NameError:在GOOGLE COLAB中运行开放式AI健身房时未定义名称'base‘
、
、
、
、
我正在学习
Pytorch
.org,中的
DQN
强化学习教程 但在这里,当我试图渲染一个屏幕并使用python display显示时,我得到的结果是name base not found。有人能帮我吗?
浏览 2
提问于2020-08-05
得票数 1
2
回答
更新:将每行数据整形为(x,1)数组
、
、
、
最近,我正在阅读Michael Nielsen 的神经网络和深度学习,并想在贷款违约数据上测试神经网络。但是,经过多次尝试,我仍然无法将csv格式的数据转换为脚本所需的矩阵格式。. v1 v2 v3 ... v770; 2. 2 1 2 ... 1; 下面是我导入的方法:tr_input = [np.reshape(genfromtxt('training.csv', delimiter=','), (7
浏览 0
提问于2018-06-29
得票数 0
1
回答
强化学习中探索/利用的最佳实践
、
我的问题是在我对
PyTorch
DQN
教程中的代码进行检查后提出的,但随后又提到了强化学习:强化学习中最佳探索/利用的最佳实践是什么?在
DQN
教程中,steps_done变量是一个全局变量,EPS_DECAY = 200。
浏览 22
提问于2019-02-04
得票数 0
回答已采纳
1
回答
Pytorch
Double
DQN
无法正常工作
、
、
我正在尝试为cartpole v0创建一个双
dqn
网络,但是网络似乎没有像预期的那样工作,并且在8-9奖励时停滞不前。我做错了什么?next_observation) q_a_next = q_next[q_argmax] obv_reward = q target_reward = torch
浏览 7
提问于2018-08-15
得票数 1
1
回答
使用
pytorch
的
dqn
的动作选择
、
、
我是
DQN
的新手,正在尝试理解它的编码。
浏览 65
提问于2021-08-01
得票数 0
1
回答
如何在
PyTorch
中为软角色评论者设置损失函数
、
、
、
我正在尝试在
PyTorch
中为软Q学习、参与者-批评者策略梯度算法实现一个自定义损失函数。这来自于下面的论文。该算法的结构类似于深度Q学习,因为我们使用网络来估计Q值,并使用目标网络来稳定结果。然而,与
DQN
不同的是,我们从Q(s)计算V(s)的方法是:这非常简单,可以用
PyTorch
进行计算。我的主要问题是如何设置损失函数。
浏览 21
提问于2019-11-20
得票数 0
1
回答
解决错误:尺寸错配,m1:[30x2],m2:[30x2]
、
、
我收到以下错误消息: File "C:\Users\Sam\Desktop\Bitcoin\Q_Learning\
DQN
_NEW_Original.py'input' (position 1) mus
浏览 0
提问于2021-06-21
得票数 0
1
回答
GPU是否缩短了策略RL的培训时间?
、
、
我想知道使用GPU是否会有效,如果我使用的政策(如PPO) RL作为模型?我最近训练了一个模型,GPU的利用率约为2%。
浏览 0
提问于2021-10-13
得票数 1
回答已采纳
16
回答
如何在windows中安装
pytorch
?
、
、
、
、
我正在尝试在windows上安装
pytorch
,但有一个可用,但显示错误。 conda install -c peterjc123
pytorch
=0.1.12
浏览 1
提问于2017-12-11
得票数 14
2
回答
基于
DQN
的健身赛车v0
、
、
、
、
我已经成功地使用了PPO算法,现在我想使用
DQN
算法,但是当我想训练模型时,它给了我这个错误: import osfrom stable_baselines3 import
DQN
env = DummyVecEnv([lambda: env]) log_path
浏览 4
提问于2022-03-31
得票数 2
1
回答
PyTorch
DQN
代码不能解决OpenAI CartPole
、
、
、
0.01target_update = 10lr = 0.001 screen = self.render('rgb_array').transpose((2, 0, 1)) #
PyTorch
Agent(strategy, em.num_actions_available(), device) memory = Rep
浏览 21
提问于2020-02-07
得票数 1
1
回答
决斗
DQN
和双
DQN
的区别?
、
、
、
我读过一些文章,但还是找不出决斗
DQN
和双
DQN
之间的区别吗?他们之间到底有什么区别?另外,决斗
DQN
需要建立在双
DQN
之上吗?谢谢!
浏览 0
提问于2019-05-31
得票数 3
2
回答
将具有第一行标题的二维数组转换为object JavaScript
、
、
我有一个以第一行作为标题的数组: array = [[ 'combi', 'DQ#', 'sd', 'Level 3', 'Level 6', 'Level 7' ], [ '
DQn
DQDC Simple','
DQn
', 'DQDC', 'Simple', 'Simple_A7', 0.262],[ '
DQn
浏览 39
提问于2021-04-07
得票数 2
回答已采纳
2
回答
如何理解这个map-reduce代码是如何工作的?
= v, acc), {})) [ 'combi', 'DQ#', 'sd', 'Level 3', 'Level 6', 'Level 7' ], [ '
浏览 16
提问于2021-10-05
得票数 0
回答已采纳
2
回答
Pytorch
modified
DQN
算法错误“未实现‘’的导数”
、
我正在尝试构造新的观察值,并将其应用到
DQN
中。我使用
pytorch
DQN
算法和我的观察代码。它还没有完成,所以数据还不清楚。 return len(self.memory) super(
DQN
, self).BATCH_SIZE = 5
浏览 1
提问于2018-05-11
得票数 1
1
回答
使用MultiDiscrete ActionSpace AttributeError的健身房RL:'MultiDiscrete‘对象没有属性’空格‘
我正在尝试构建一个强化学习算法,它可以玩MasterMind游戏。我使用的是MultiDiscrete功能和观测空间。动作空间有4个插槽,每个有6种颜色,观察空间是2x4。我创建了一个自定义环境来连接我的程序游戏。由于出现错误,环境还没有准备好。也许有人能帮我解决这个问题。from gym import Envfrom stable_baselines3.common.policies import MultiInputActorCriti
浏览 0
提问于2022-10-21
得票数 0
1
回答
tf_agents
dqn
初始化失败
、
、
、
connect 4 board import tensorflow as tffrom tf_agents.agents.
dqn
import
dqn
_agentimport numpy as np agent =
dqn</
浏览 12
提问于2022-09-05
得票数 0
回答已采纳
1
回答
需要在lua中具有不同文件名的包。
、
遵循,我试图将DeepMind
dqn
导入到iTorch笔记本中。package.path = package.path .. ";/path/to/
dqn
/?.lua"require '
dqn
' 我获得了一个(预期的)错误,因为文件夹中没有名为
dqn
.lua的文件。实际上,这些模块的源代码包含在文件Neura
浏览 3
提问于2015-11-16
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
DQN三大改进(一)-Double DQN
强化学习:DQN与Double DQN讨论
DQN论文理解
学习DQN
深度强化学习 DQN 初探
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券