首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Integrated Gradients:打开深度模型的黑箱

    今天,我们介绍一种更加合理并且有效的解释模型输出的方法:Integrated Gradients,出自Google 2017年的一篇论文"Axiomatic Attribution for Deep Networks...简单来说,「Integrated Gradients将输入的第 个特征的归因(attribution)定义为:从基线(baseline) 到输入 之间的直线路径的路径积分」: 其中...的直线路径上插值,然后对这些插值的梯度求和的方式进行: 当然,这个方法已经在很多用于解释和理解模型的开源库中实现,这里推荐PyTorch官方提供Captum[4],其中大部分的例子都使用了Integrated Gradients...但其实这篇论文的很多篇幅是在说明Integrated Gradients具有的一些优良性质: 「Sensitivity」: 如果baseline和input在某一特征上不同,但却具有不同的输出,那么这一特征应具有非零的归因...Gradients方法违反了这一性质。 「Implementation Invariance」: 对于两个函数等效的网络(输入相同则输出相同),归因应当一致。

    1.2K50

    OpenAI 开源最新工具包,模型增大 10 倍只需额外增加 20% 计算时间

    函数进行替换,可以输入如下程序来引入相关函数: from memory_saving_gradients import gradients 大家可以像使用 tf.gradients 函数一样使用 gradients...gradients 函数有一个额外的功能——检查点(checkpoints)。 检查点会对 gradients 函数进行指示——在计算图的前向传播中,图中的哪一部分节点是用户想要检查的点。...覆盖 tf.gradients 函数 使用 gradients 函数的另一个方法是直接覆盖 tf.gradients 函数,方法如下: import tensorflow as tf import memory_saving_gradients...gradients_memory(ys, xs, grad_ys=None, **kwargs): return memory_saving_gradients.gradients(ys, xs,...__dict__["gradients"] = gradients_memory 这样操作之后,所有调用 tf.gradients 函数的请求都会使用新的节省内存的方法。

    74770
    领券