实验室动态

[CVPR 2023] Dealing with Changing Training Bias in Replay for Online Continual Learning

[CVPR 2023] Dealing with Changing Training Bias in Replay for Online Continual Learning

郭一铎关于用replay方法在实时连续学习场景学习跨任务边界的论文《Dealing with Changing Training Bias in Replay for Online Continual Learning》被CVPR 2023接收。

实时连续学习是指模型需要在不断接收新数据的场景中学习新的任务,而replay方法则是通过回放之前的经验来缓解遗忘问题。然而,由于数据分布的变化以及模型自身的变化,灾难性遗忘问题会导致replay方法的性能下降。传统的方法注重于采样策略,比如基于梯度方向的样本选择策略。然而,本文提出了另一个挑战,称为跨任务类别区分(CTCD),在类增量学习(CIL)中具有重要作用。CTCD指的是在有限或无法获取旧任务数据的情况下,建立新任务和旧任务类别之间的决策边界。尽管重放(replay)方法在一定程度上解决了CTCD问题,但它们仍然受到一个重要的类别训练偏差的影响,该偏差会随着学习更多任务而改变。本论文关注CIL中的跨任务类别判别问题,并提出了一种新的优化框架来分别优化跨任务分类和任务内分类目标。此外,我们从梯度不平衡(GI)的角度进一步分析了跨任务类别判别问题,并发现了两种梯度不平衡(数据不平衡和CL不平衡)。基于我们的分析,我们提出了一种“基于梯度的自适应损失”来补偿我们框架中跨任务分类的GI。disjoint的在线连续学习场景和长尾的在线连续学习场景中的实验结果表明,我们的方法GSA比最新的强基线方法表现更好。