腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
错误: DQN要求每个操作都有一个维度的模型
、
、
、
SequentialMemory(limit=2000,window_length=3)----> 4 dqn = DQNAgent(model=model,memory=memory,policy=policy,
dueling
_typesite-packages/rl/agents/
浏览 86
提问于2021-06-16
得票数 1
1
回答
SwiftUI @Published不一致地更新视图
., Optional(
Dueling
_Disks.Piece(isLight: false, id: 434BCE7B-D1B6-45E8-81AB-15F76007F76A)), Optional(
Dueling
_Disks.Piece(isLight: true, id: 63070399-84AB-43EE-9D03-BA21D64E0399)), ..., Optional(
Dueling
_Disks.Piece, id: D870C5F2-AF0F-4667-8CF1-0F7D81A82D17)), Optional(
D
浏览 1
提问于2022-02-04
得票数 1
1
回答
强化学习中不同方法的理解与评价
、
、
、
我一直试图使用不同的变体(如Q-learning、Deep Q-
Network
、Double DQN和
Dueling
Double DQN )在Python上实现强化学习算法。
浏览 4
提问于2021-01-08
得票数 2
回答已采纳
1
回答
合并字典并保持唯一的值
、
、
、
: 1, 'name': 'The Musical Hop'}, "city": "New York", "v
浏览 6
提问于2022-08-03
得票数 0
回答已采纳
1
回答
层lstm_24的输入0与图层不兼容:期望的ndim=3,找到的ndim=2。收到的完整形状:[64,8]
、
、
、
、
我有一个对决的双深Q网络模型,它与两个密集层一起工作,我试图把它转换成两个LSTM层,因为我的模型处理时间序列。当我更改代码中的密集层时,会出现此错误,并且无法处理它。我知道这个问题在这里已经解决了很多次了,但是这些解决方案并不有效。class DuelingDeepQNetwork(keras.Model): super(DuelingDeepQNetwork, self).__init__() self.dense1
浏览 2
提问于2020-08-01
得票数 0
2
回答
KerasRL :值错误:张量必须来自与张量相同的图
、
、
、
、
window_length=3) enable_
dueling
_
network
=True,
dueling
_type='avg', nb_actions=actions, nb_steps_warmup=1000
浏览 22
提问于2022-03-11
得票数 1
1
回答
比较2个JSON-文件并创建一个新的键(如果值匹配)
、
、
、
"URL": "https://domain.local/123qwe" { "TrackName": "
Dueling
"URL": "https://domain.local/nbs678" { "Position": &q
浏览 4
提问于2020-03-25
得票数 1
回答已采纳
1
回答
在注册时添加其他角色
、
、
add_secondary_role( $user_id ) { if ( in_array( 'um_
dueling
-pianist
浏览 0
提问于2019-04-07
得票数 0
回答已采纳
2
回答
比较两个JavaScript对象并根据条件移动数据
、
、
、
"URL": "https://domain.local/nbs678" { "TrackName": "
Dueling
domain.local/123qwe", }, "Position"
浏览 2
提问于2020-03-30
得票数 0
回答已采纳
2
回答
词典理解的唯一价值,返回字典中字符串的实例
、
、
、
'id': 1, 'name': 'The Musical Hop', 'city': 'San Francisco', 'state': 'CA'}, {'id': 2, 'name': 'The
Dueling
浏览 7
提问于2020-06-01
得票数 1
回答已采纳
1
回答
是否可以将原始数据上传到数据库?
、
、
}, { "state": "NY", "id": 2, "name": "The
Dueling
浏览 17
提问于2020-02-25
得票数 0
1
回答
为什么在运行keras.fit时出现值错误
、
、
、
window_length=3) enable_
dueling
_
network
=True,
dueling
_type='avg', return dqn
浏览 7
提问于2022-04-17
得票数 0
1
回答
env.observation_space中的环境返回字典
、
、
、
、
SequentialMemory(limit=2000, window_length=3) return dqn dqn = build_agent
浏览 5
提问于2022-08-22
得票数 3
1
回答
如何在非常大的州中使用DeepQLearning?
、
mdp = SimpleGridWorld(); # the gridworld state islearning_rate=0.005,log_freq=500, recurrence=false,double_q=true,
dueling
浏览 12
提问于2020-05-28
得票数 1
回答已采纳
1
回答
与Keras决斗DQN
、
、
、
、
我正在尝试实现
Dueling
DQN,但如果我以这种方式构建NN架构,它看起来并不是在学习 X_input = Input(shape=(self.state_size,))https://github.com/pythonlessons/Reinforcement_Learning/blob/master/03_CartPole-reinforcement-learning_
Dueling
_DDQN
浏览 27
提问于2020-06-12
得票数 1
1
回答
在Keras库中,"nb_steps_warmup“在DQNAgent对象初始化中的含义是什么?
、
nb_actions, memory=memory, nb_steps_warmup=11, dqn.compile(Adam(lr=1e-5), metrics=['mae
浏览 0
提问于2019-02-22
得票数 4
回答已采纳
1
回答
ValueError:检查输入时出错:期望Input_input有4个维,但得到了形状为(1,1,2)的数组
、
、
、
、
inf, inf, (2,), float32) obs = env.observation_space.shape[0] #2 dqn = DQNAgent(model=model, memory=memory, policy=policy, #RL Algorithm enable_
dueling
_
network
=True,
dueling
_type='avg', #tech
浏览 4
提问于2022-06-08
得票数 0
1
回答
如何在javascript中获取仅在必要时更新的状态?
Dueling
4.armorClass + 1; case 3: level2 = "</b>
Dueling
浏览 0
提问于2016-01-16
得票数 1
1
回答
ValueError:层"max_pooling2d“的输入0与该层不兼容:预期的ndim=4,found ndim=5。收到的完整形状:(无,3,51,39,32)
、
、
、
、
window_length=3) enable_
dueling
_
network
=True,
dueling
_type="avg", return dqn dqn
浏览 1
提问于2022-01-21
得票数 1
回答已采纳
1
回答
rllib DQN实现中的Atari评分与奖励
、
、
、
、
我试着用RLLib复制突破的DQN分数。5米台阶后,平均奖励为2.0,而使用DQN的已知突破得分为100+。我想知道这是否是因为奖励剪辑,因此实际奖励不符合Atari的分数。在OpenAI基线中,实际得分放在info['r']中,奖励值实际上是剪裁值。RLLib的情况也是这样吗?在训练过程中有什么方法可以看到实际的平均分数吗?
浏览 10
提问于2019-11-03
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券