以前我认为更小的batch_size会导致更快的训练,但在keras的实践中,我得到了相反的结果,即更大的batch_size使训练更快。我正在实现一个示例代码,通过增加batch_size的数量,训练变得更快。这与我以前的普遍看法相反( batch_size越小,训练速度越快),下面是示例代码: # fit modelstart = time.time()
history
这是我的第一个初始代码,它成功地请求了多个Ethereum地址的平衡。f"It took {total_time} to make {len(Wallet_Address)} API calls")
但是,我请求1000个Ethereum地址,并且我希望用异步函数来改进我的代码这是我的尝试。我做错了什么?
我正在寻找LSTM网络是如何工作的,但我找不到任何好的来源来解释它的成本功能如何工作?我的意思是我知道我们有一个输入序列x<1> to x<t>和一个y_hat<1> to y_hat<t>序列,但是我们如何计算损失或成本函数呢?我们应该计算每个单元的y_label<i> - y_hat<i>吗?如果是这样的话,我们在哪里积累这些资源,当我们使用它时?哪里?多么?
LSTM网络是监督学习还是我感到困惑?