成都网站优化方案,重庆网站seo设计,代码模版 网站,网站建设中翻译翻译自文章#xff1a;Investigating Continual Pretraining in Large Language Models: Insights and Implications
摘要
本文研究了大型语言模型#xff08;LLMs#xff09;中不断学习#xff08;CL#xff09;的不断发展领域#xff0c;重点是制定有效和可持续的训练…翻译自文章Investigating Continual Pretraining in Large Language Models: Insights and Implications
摘要
本文研究了大型语言模型LLMs中不断学习CL的不断发展领域重点是制定有效和可持续的训练策略。我们主要关注持续领域自适应预训练这是一个旨在使LLMs能够整合来自各个领域的新信息同时保留先前学到的知识并增强跨领域知识转移的能力而无需依赖于特定领域的识别过程。与以往主要集中于有限的任务或领域并主要旨在解决遗忘问题的研究不同我们的研究评估了LLMs在实际场景中适应不断变化的数据环境的能力和特点。为此我们引入了一个旨在衡量LLMs对这些不断演变的数据环境的适应能力的新基准提供了全面的评估框架。我们检验了模型大小对学习效果和遗忘的影响以及新兴领域的进展和相似性对模型内知识转移的影响。我们的研究揭示了几个关键见解i当领域序列显示语义相似性时持续预训练使LLMs能够与基于单一微调相比更好地专注于当前领域ii跨多个领域的训练增强了向后和向前的知识转移iii较小的模型特别敏感于持续预训练表现出最显著的遗忘和学习速度。我们认为我们的研究标志着在LLMs中研究CL建立更为现实的评估基准的转变并有潜力在引导未来研究方向方面发挥关键作用。
Introduction
自然语言处理NLP领域的最新进展受到大型语言模型LLMs的发展的显着影响 (Devlin et al.,2018; Radford et al., 2019; Brown et al., 2020)。这些模型在来自不同领域的大规模语料库上进行训练已经成为许多NLP任务的通用工具。然而LLMs的规模和复杂性的增加引发了人们对训练它们所带来的经济和生态成本的担忧这一点在最近的研究中得到了强调 (Luccioni et al., 2022)。这种情况迫使我们需要比每次有新数据流进来就重新训练这些模型更有效的方法。在这种情况下持续学习CL成为了一个关键策略 (Sun et al., 2019; Biesialska et al., 2020)可以减少经济和环境成本同时保持模型的相关性。特别是通过诸如持续微调等策略这涉及对LLM逐步进行一系列下游任务的微调 (Wu etal., 2021; Ramasesh et al., 2021; Scialom et al., 2022; Mehta et al., 2023)和持续领域自适应预训练等策略专注于增量更新以使LLM适应新领域 (Xu et al., 2019; Gururangan et al., 2020; Ke et al., 2023b)避免了在有新数据到来时需要进行透彻的重新训练。在本文中我们深入研究了CL框架中的领域自适应的挑战重点关注了LLMs的持续领域自适应预训练。这个过程涉及使用大规模、未标记的领域特定语料库进行持续训练 (Xu et al., 2019; Gururanganet al., 2020; Ke et al., 2023b)。鉴于数据的动态性和新领域的出现持续领域自适应预训练似乎是一个比从头开始训练更计算和环境友好的替代选择同时也允许利用预训练网络。持续领域自适应的两个愿景是(i)在不发生灾难性遗忘CF的情况下实现跨领域的知识转移 (French, 1999)(ii)在不需要为每个任务明确标识领域的情况下有效运行。 最近针对LLMs的CL方面的进展探索了各种方法包括参数高效自适应 (Gururangan et al., 2021; Khanet al., 2022; Zhang et al., 2022)和指导微调 (Scialom et al., 2022; Razdaibiedina et al., 2023; Luo et al.,2023b)。这些方法的主要目标是减轻在下游任务微调LLMs时的遗忘i.e.并没有强调预训练。我们的研究与Gururangan et al. (2020)的工作最相关他们评估了RoBERTa (Liu et al., 2019)模型在持续预训练跨四个领域时的转移能力。最近Cossu et al. (2022)展示了在五个下游任务上测试持续预训练的RoBERTa和BERT (Devlin et al., 2018)模型的稳健性。同样Ke et al. (2023a)介绍了RoBERTa的持续预训练方法并在六个下游任务上进行了测试。然而这些研究还不足以得出持续预训练是否减轻遗忘或促进长期训练时的适应的结论该领域仍然缺乏对各种规模和体系结构的LLMs在大规模和更现实的环境中的全面评估。 我们的工作试图填补这一空白通过在不同领域上进行预训练LLMs并在整个预训练过程中评估其语言建模性能使我们的研究脱离了先前狭窄领域关注的研究(Cossu et al., 2022; Wang et al., 2023; Keet al., 2023b)。我们利用了大规模多领域数据集M2D2 Reid et al. (2022)其中包含来自维基百科和Semantic Scholar等来源的236个层次化组织的领域。该数据集为在各种LLMs上研究CL提供了一个理想的环境促进了对遗忘和知识传递的深入分析。我们的研究不仅突出了LLMs的适应能力还为未来的领域自适应和CL方法研究奠定了基础。我们的主要贡献在于评估预训练LLMs在广泛的持续学习环境中的能力重点关注模型规模和架构编码器-解码器与仅解码器对其学习新任务和保留先前学习信息的能力的影响。我们还研究了领域相似性及出现领域顺序对知识转移和整体CL性能的影响。我们的发现揭示了几个关键的见解(i) 在100个以上语义有序的域上持续预训练模型优于在每个域上单独微调(ii) 结合多样化的训练领域可以在长期CL视野内实现积极的向和反向转移(iii) CL的后期阶段更容易遗忘(iv) 持续预训练增强了下游性能。
Methodology
在本部分中我们将描述我们的训练过程概述用于模型持续预训练和评估的任务领域并解释评估流程。 每个M2D2数据集中的领域都被分割成训练、验证和测试集并且没有数据泄露正如Reid et al. (2022)所概述的那样。每个验证和测试集都包含超过100万标记从而可以在特定领域内进行准确的评估。我们通过在L2领域的测试集上测试困惑度来衡量所有方法的有效性。对于持续的领域自适应预训练实验当在一个领域上完成一轮训练后我们对模型进行检查点并计算当前和以前领域的测试困惑度。
Results and Findings
在本节中我们讨论我们的主要发现。我们首先讨论持续预训练的困惑度以及最终模型检查点的困惑度。然后我们分析成功的反向和正向转移的动态过程。我们最后报告下游任务的性能并进行消融研究。
Analysis of continual pretraining and the final model
最终模型的困惑度优于零-shot 我们的研究表明在不同域序列和模型大小上最终模型在困惑度方面始终优于或与零-shot基线相匹配。我们报告了所有领域的平均困惑度表明跨学习期间积累的知识平均而言并不会对学习领域的预测产生不利影响。值得注意的是训练序列的随机化结果比相似顺序的域序列具有更有利的平均困惑度。我们在表 4中对维基和S2ORC数据集的困惑度值进行了详细比较突显了GPT系列在忘记先前部分的同时在后面部分的困惑度增加。当领域在语义上排序时,CPT相对于标准FT更有利 将FT列与CPT列进行比较发现在后续训练域具有高相似性的情况下持续预训练优于标准微调。这一观察结果符合这样一个前提模型在当前任务上的性能与其初始检查点有内在联系。也就是说当培训领域基于相似性排序时最后的检查点Mi自然而然地比原始模型M0更好地转移到下一个域Di1。另一方面当训练领域的顺序是随机的发现从原始模型M0开始更有益。这一观察结果与最近有关连续测试时适应的研究 (Press et al., 2023)和检查点选择策略的研究 (Fisch et al., 2023)一致突显了训练序列中起始点的战略价值。最终性能与模型大小相关 与关于缩放规律的最新研究一致(Kaplan et al., 2020; Bahri et al., 2021)更大模型的持续学习结果在CPT和LC性能上更好无论训练顺序如何。然而这种一致的模式不仅仅可以归因于持续学习因为模型大小严重影响零-shot性能。以零-shot性能作为基线请参见表 2中括号内的值我们观察到GPT2-small在四种评估场景中有三种情况中最大程度地受益于持续预训练。
详细见https://arxiv.org/html/2402.17400v1