理想情况下的机器学习模型应 当能够仅利用数据流中的新样本更新模型, 而无需 耗费大量计算资源进行重新训练....例如, 在社交媒体中, 新类型的新闻 事件层出不穷[18,19];在电商平台上, 新类型的商品 会不断涌现[20] . 机器学习模型不断学习新增的类 别无疑会遭受灾难性遗忘....如图2所示, 任务增量学习和类别 增量学习的训练/测试集设定完全一致, 但类别增量 学习要求模型在测试阶段在所有已知类别中进行 预测, 而任务增量学习则只要求在给定任务的标记 空间中进行预测....对于模型大小受限的类 别增量学习过程, 应当考虑引入模型压缩[200] 和剪 枝[201–203] 手段, 在不伤害模型判别能力的情况下 改善模型的存储开销....双向传递的知识迁移:当前基于知识蒸馏的 类别增量学习算法使用旧模型对新模型进行指导, 从而缓解模型在旧类别上的灾难性遗忘.