首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何使用PyTorch的量化功能?

背景 在深度学习中,量化指的是使用更少的 bit 来存储原本以浮点数存储的 tensor,以及使用更少的 bit 来完成原本以浮点数完成的计算。...一个量化后的模型,其部分或者全部的 tensor 操作会使用 int 类型来计算,而不是使用量化之前的 float 类型。...从上面我们可以得知,权重部分的量化是“静态”的,是提前就转换完毕的,而之所以叫做“动态”量化,就在于前向推理的时候动态的把 input 的 float tensor 转换为量化 tensor。...我们就以上面的 CivilNet 网络为例,当在静态量化后的模型进行前向推理和原始的模型的区别是什么呢?...总结 那么如何更方便的在你的代码中使用 PyTorch 的量化功能呢?

6.2K21

Transformers 4.37 中文文档(二十二)

关于如何使用 PyTorch 对 BERT 进行多标签分类微调的笔记。 一个关于如何使用 BERT 进行摘要的 EncoderDecoder 模型的热启动的笔记本。...一个关于如何使用 BERT 进行命名实体识别的微调的笔记本,仅在标记化期间使用每个单词的第一个词片。要将单词的标签传播到所有词片,可以查看笔记本的这个版本。...在自注意力头中用于计算加权平均值的注意力 softmax 后的注意力权重。 BertForMaskedLM 的前向方法,覆盖了__call__特殊方法。...注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。 TFBertForMaskedLM 的前向方法,覆盖__call__特殊方法。...在自注意力头中使用注意力 softmax 后的注意力权重,用于计算加权平均值。 TFBertForMultipleChoice 的前向方法,覆盖了__call__特殊方法。

20510
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Transformers 4.37 中文文档(二十三)

    解码器的交叉注意力层的注意力权重,在注意力 softmax 后使用,用于计算交叉注意力头中的加权平均值。 BertGenerationEncoder 的前向方法,覆盖了__call__特殊方法。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。...如果要更好地控制如何将input_ids索引转换为相关向量,这很有用,而不是使用模型的内部嵌入查找矩阵。...如果您想要更多控制如何将input_ids索引转换为相关向量,这将很有用,而不是使用模型的内部嵌入查找矩阵。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。

    22510

    Transformers 4.37 中文文档(二十一)

    一个关于如何使用 fastai 和 blurr微调 BART 进行摘要的笔记本。 一个关于如何使用 Trainer 类微调 BART 以在两种语言中进行摘要的笔记本。...掩码语言建模任务指南 翻译 一个关于如何使用 Seq2SeqTrainer微调 mBART 以进行印地语到英语翻译的笔记本。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。...编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。 BartModel 的前向方法,覆盖了__call__特殊方法。...如果要更好地控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这很有用。

    19310

    Transformers 4.37 中文文档(五十五)

    标记分类任务指南 填充-掩码 一篇关于如何使用 Transformers 和 Tokenizers 从头开始训练新语言模型的博客,使用 RoBERTa。...如果您想要更多控制如何将 input_ids 索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。

    27010

    Transformers 4.37 中文文档(二十五)

    如果您想要更多控制如何将 input_ids 索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...如果您想要更多控制如何将 decoder_input_ids 索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...如果要更好地控制如何将 input_ids 索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。...如果您想要更多控制如何将 input_ids 索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。...如果您想要更多控制如何将 input_ids 索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。

    17710

    Transformers 4.37 中文文档(四十三)

    如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。 MBartModel 的前向方法,覆盖了__call__特殊方法。...如果您希望更多地控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...编码器的注意力权重,在注意力 softmax 之后使用,用于计算自注意力头中的加权平均值。 MBartForQuestionAnswering 的前向方法,覆盖了__call__特殊方法。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。

    33210

    Transformers 4.37 中文文档(五十七)

    如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。...如果您想要更多控制如何将input_ids索引转换为相关向量,这很有用,而不是使用模型的内部嵌入查找矩阵。...如果您想要更多控制如何将input_ids索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。...在自注意力头中用于计算加权平均值的注意力权重。 RoFormerForMultipleChoice 的前向方法,覆盖了__call__特殊方法。...在注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。 TFRoFormerModel 的前向方法,覆盖了__call__特殊方法。

    24510

    Transformers 4.37 中文文档(五十二)

    设置默认量化器 QDQBERT 模型通过Pytorch 量化工具包中的TensorQuantizer向 BERT 添加了伪量化操作(QuantizeLinear/DequantizeLinear ops...TensorQuantizer是用于量化张量的模块,QuantDescriptor定义了张量应该如何量化。有关更多详细信息,请参阅Pytorch 量化工具包用户指南。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...如果您想要更多控制如何将input_ids索引转换为相关向量,这将很有用,而不是使用模型的内部嵌入查找矩阵。

    12710

    Transformers 4.37 中文文档(三十七)

    一篇关于如何生成文本:使用不同的解码方法进行语言生成与 Transformers 的博客,使用 GPT-2。...一篇关于如何使用 Megatron-LM 训练语言模型的博客,使用 GPT-2 模型。 一本关于如何微调 GPT2 以生成您最喜爱的艺术家风格歌词的笔记。...解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。 GPT2Model 的前向方法,覆盖了__call__特殊方法。...解码器的交叉注意力层的注意力权重,在注意力 softmax 后使用,用于计算交叉注意力头中的加权平均值。 TFGPT2Model 的前向方法,覆盖了__call__特殊方法。...在自注意力头中使用注意力 softmax 后的注意力权重,用于计算加权平均值。 TFGPT2DoubleHeadsModel 的前向方法,覆盖__call__特殊方法。

    10010

    Transformers 4.37 中文文档(八十一)

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。 WhisperModel 的前向方法,覆盖了__call__特殊方法。...如果您想要更多控制如何将 input_ids 索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。...如果您想要更多控制如何将decoder_input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。...编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。 TFWhisperModel 的前向方法覆盖了__call__特殊方法。...编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。 FlaxWhisperPreTrainedModel的前向方法覆盖了__call__特殊方法。

    96910

    Transformers 4.37 中文文档(五十)

    如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。...在自注意力头中用于计算加权平均值的注意力权重在注意力 softmax 之后。 OPTModel 的前向方法,覆盖了__call__特殊方法。...如果您想要更多控制如何将input_ids索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。...注意力权重在注意力 softmax 之后,用于计算自注意力头中的加权平均值。 TFOPTModel 的前向方法,覆盖 __call__ 特殊方法。...如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。

    35210

    Transformers 4.37 中文文档(六十一)

    如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。...如果您想要更多控制如何将input_ids索引转换为相关向量,这将很有用,而不是使用模型的内部嵌入查找矩阵。...解码器的交叉注意力层的注意力权重,在注意力 softmax 之后使用,用于计算交叉注意力头中的加权平均值。 TFXGLMModel 的前向方法,覆盖了__call__特殊方法。...注意力权重在注意力 softmax 之后,用于计算自注意力头中的加权平均值。 XLMModel 的前向方法,覆盖了__call__特殊方法。...在注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。 TFXLMModel 的前向方法覆盖了__call__特殊方法。

    27910
    领券