基于正则化的方法是目前连续学习(CL)中常用的选择。最近的理论研究表明,这些方法都依赖于模型权重的Hessian矩阵近似。然而,由于训练期间Hessian估计固定不变,这些方法在知识转移和遗忘之间存在次优权衡。本文重新审视了Meta-Continual Learning(Meta-CL),并首次将其与正则化方法结合起来。具体而言,Meta-CL通过双层优化获得的超梯度隐式近似Hessian,但由于随机内存缓冲区采样引起的高方差问题,其效果受到限制。我们提出了方差减少的Meta-CL(VR-MCL),通过理论分析和综合实验验证了VR-MCL在及时和准确Hessian近似方面的优越性。