该图对于我的理解就是假设我们训练了一个数据量非常大的模型,然后从这个模型中采样一种分类的特征与少样本数据特征进行融合,等于我们再推理的时候,这种模型就可以推理少样本数据的类别,虽然少样本数据可能是鸭子,但是是跟狗的特征融合的,那么就可以把鸭子推理成狗。这里推理成狗是因为原模型的标签是狗,你也可以改成鸭子。
latent_loss = KL-Divergence(latent_variable, unit_gaussion)
generation_loss = mean(square(generated_image - real_image))
这里我们来解释一下什么是特征分布,特征分布是区别于样本分布的,样本分布就是你的数据集中各个种类占总数的占比,如某一数据集中有三种鸢尾花,它们的比例是1:1:1,那么这就是一种均匀分布。
特征分布指的是某个特征在整个数据集上的分布情况。
假设我们需要识别的是猫这个种类(无论是英短,波斯,金渐层,银渐层),首先卷积神经网络会提取它们的特征,如毛发、眼睛、胡子、尾巴,耳朵......(神经网络提取出来的特征不一定是我们人类能理解的,这里只是打个比方),假设有一个特征是毛发长度(该数据集并不只包含猫,还有其他的种类),它在整个数据集中满足以下分布
那么该特征的总体分布(整个数据集中)就是一个正态分布的。