腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
-
Batch
规范化
简单
问题
、
我实现了一个带有批处理
规范化
的模型: def __init__(self, D_in, H_1, H_2, D_out):criterion(y_pred, Val_Y) cnt2+=1 我有两个
问题
浏览 8
提问于2019-11-11
得票数 0
1
回答
在火炬中应用l2归一化时尺寸超出范围
、
、
、
、
我得到了一个运行时错误: i_enc = F.normalize(input =i_
batch
, p=2, dim=1, eps=1e-12) # (
batch
, K, feat_dim) # q -> 512(
浏览 0
提问于2018-07-15
得票数 0
回答已采纳
2
回答
批处理
规范化
在keras和
pytorch
中似乎不一样。
、
、
、
我有一个
简单
的模型,并尝试如何批量归一化工作,适用于线性层。它似乎根本没有
规范化
,因为默认情况下,它在keras中初始化为identity。在
pytorch
中检查了相同的权重后,它的批量
规范化
确实会进行更改。请看下面的内容。为什么?模型中的错误在哪里?(new_state_dict, strict=False)
batch
_
pytorch</em
浏览 2
提问于2019-04-16
得票数 2
4
回答
基于时差和批量的神经网络优化
、
、
、
for epoch from 10 to 200 (in steps of 10): I save
batch
, epoch, Accuracy; 在此之后,我保留了最小的时间和最小的对应批次,它们具有最高的识别值(除best_params外):epoch =
浏览 3
提问于2021-01-21
得票数 1
1
回答
使用conda安装torchtext 0.11.0后的ImportError
、
、
我的
PyTorch
是纯cpu的,我已经试验了conda install
pytorch
-mutex -c
pytorch
和conda install
pytorch
cpuonly -c
pytorch
,
batch
_idx): self.log("train_loss", loss)
浏览 2
提问于2021-11-24
得票数 2
回答已采纳
1
回答
用于更改批处理输出的
PyTorch
DataLoader的子类
、
、
我感兴趣的是如何将转换应用到由
PyTorch
DataLoader类生成的批处理中。我知道我可以做一些
简单
的事情 X = some_function(X) 但是我也想在DataLoader中使用
pytorch
-lightning,所以这不是一种选择
PyTorch
数据器子类的正确方法是什么?
浏览 8
提问于2022-04-04
得票数 0
1
回答
在尝试运行下一个管道时,将面临管道故障(iter(Train_data_loader))。我正在本地jupyter笔记本上运行代码
、
、
、
、
链接总代码“”def create_data_loader(df, tokenizer, max_len,
batch
_size): reviewsdf.sentiment.to_numpy(), max_len=max_len return DataLoader(
batch
_size=
batch
_size, )
B
浏览 3
提问于2021-03-07
得票数 0
回答已采纳
5
回答
无法在谷歌colab上导入
pytorch
_lightning
、
、
、
pip install
pytorch
_lightning -qqq但会得到以下错误:<ipython-input-7-d883b15aac58> in <module>() 26 27 if _TORCHTEXT_A
浏览 8
提问于2021-03-09
得票数 8
1
回答
PyTorch
's torch.nn.functional.interpolate行为怪异
、
、
我对
PyTorch
的张量调整选项有异议。在下面的代码中,x是pokemon的8864x64 RGB图像的数据集。xs是同一数据集的字典,具有不同的分辨率。,口袋妖怪采用普通的64x64格式,如预期的: 是否有可供选择的调整大小的
PyTorch
我在使用AvgPool2d和Upsample时遇到了大致相同的
问题
。我也会调整非图像张量的大小,所以PIL并不总是一种选择.无论如何,使用GPU而不是CPU是有帮助的。
浏览 2
提问于2020-12-04
得票数 3
1
回答
将sess.run转换为
pytorch
、
、
、
我正在尝试将一个代码从tf转换为
pytorch
。代码中我被卡住的部分是这个sess.run。据我所知,
pytorch
不需要它,但我找不到复制它的方法。我给你附上代码。ebno_db = ebnos_db[i]
batch
_size= ( torch.eq(x, x_hat).type(torch.float32) * -1 ) + 1 ber = torch.mean(wrong_bits) 我认为误码率
浏览 182
提问于2020-04-27
得票数 0
回答已采纳
1
回答
如何在
PyTorch
序列模型中指定
batch
_size?
、
、
我在
PyTorch
中有一个序列模型: model = nn.Sequential( nn.LSTM(64nn.Softmax() ) 我想强制批量大小到嵌入层: nn.Embedding(alphabet_size, 64) 在Keras中: Embedding(alphabet_size, 64,
batch
_input_shape=(
batch
_size, time_steps))) 该怎么做呢?
浏览 46
提问于2020-11-30
得票数 1
1
回答
为什么python多处理使用的CPU和GPU比指定的并行进程数更多?
、
、
、
我使用python多处理来并行运行8个
pytorch
进程(针对8个CPU核心和8个GPU线程)。但它消耗了48个GPU和24+图形处理器线程。id_list: evaluate, )def evaluate(id): #
PyTorch
浏览 43
提问于2021-07-13
得票数 0
回答已采纳
1
回答
“BCEWithLogitsLoss”对象没有属性“向后”错误
PyTorch
、
、
、
、
我试着微调伯特模型,也就是,伯特基-没有为文本分类任务。在对丢失调用反向()时,我遇到了一个奇怪的错误,如下所示我找不到任何语法错误,也检查了丢失函数的输入(输出和目标),即nn.BCEWithLogitsLoss(输出、目标),然后我发现格式是正确的。我不知道是什么导致了这个错误。如果你们中的任何一个能提前帮助我处理this......thanks,我会很高兴的:)‘’def train_loop_fn(data_loa
浏览 1
提问于2020-11-25
得票数 0
2
回答
批处理size=1时的批
规范化
、
、
、
、
当我使用批处理
规范化
而设置
batch
_size = 1时,会发生什么?但是为什么当我设置
batch
_size = 1时没有出现错误呢?(因此,即使是
batch
_size = 1,批处理中仍然有很多像素。所以
batch
_size=1仍然可以工作的原因不是因为1e-19) 我已经检查
浏览 0
提问于2020-01-08
得票数 6
回答已采纳
1
回答
火把闪电的输出预测意味着什么?
、
有人能给我解释一下哪里能找到火把闪电预报张量的输出吗?#Predictingmodel.eval() test_result = trainer.test(model, graph_test_loader, verbose=False) ##[{'
浏览 14
提问于2022-08-23
得票数 0
回答已采纳
1
回答
如何轻松地将
PyTorch
数据中心转换为tf.Dataset?
、
、
、
如何将
pytorch
数据中心转换为tf.Dataset?我发现了这个片段:- datasetshuffle: dataset = dataset.
batch
(
batch
_size)
浏览 3
提问于2021-12-01
得票数 0
1
回答
Tensorflow到
PyTorch
、
我正在将Tensorflow代码转换为
PyTorch
代码。我不熟悉
PyTorch
,所以在
PyTorch
库中找到匹配的方法对我来说并不容易。len_
batch
= tf.shape(alpha_cumsum)[0] rand_prob = tf.random_uniform(shape = [len_
ba
浏览 4
提问于2020-12-01
得票数 0
1
回答
批量归一化中的尺寸
、
、
、
我试图在Tensorflow中构建一个广义的批处理
规范化
函数。[57,57,96]def
batch
_normalization_layer(
batch
): # Calculate
ba
浏览 4
提问于2017-04-14
得票数 0
回答已采纳
1
回答
Pytorch
的nn.TransformerEncoder "src_key_padding_mask“未按预期运行
、
、
、
我正在使用
Pytorch
的nn.TransformerEncoder模块。我得到了带有(正常)形状(
batch
-size, seq-len, emb-dim)的输入样本。这个掩码应该是一个具有形状(
batch
-size, seq-len)的张量,并且对于每个索引,要么使用True表示填充零,要么使用False表示其他任何值。 我通过这样做实现了这一点: . . .
浏览 247
提问于2020-12-23
得票数 2
回答已采纳
1
回答
CoreML中的潜在向量方差比
PyTorch
大得多
、
我有一个
PyTorch
模型,我已经转换成CoreML了。在
PyTorch
中,推导出的潜在向量的取值范围在±1.6左右,但转换后的模型变化高达±55.0。是什么导致了如此巨大的差异?转换非常
简单
:enc_fname = os.path.join(models_dir, encoder.name + '_
浏览 5
提问于2020-08-30
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从头开始了解PyTorch的简单实现
一个简单而强大的深度学习库—PyTorch
手把手教 深度学习库PyTorch
PyTorch Lightning,一个轻量级的PyTorch框架!
PyTorch,灵活的Python深度学习框架!
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券