当前位置: 首页 > news >正文

支付网站设计汽车用品网站建设

支付网站设计,汽车用品网站建设,百度快照优化排名推广,企业建站系统开源#x1f34e;个人主页#xff1a;小嗷犬的个人主页 #x1f34a;个人网站#xff1a;小嗷犬的技术小站 #x1f96d;个人信条#xff1a;为天地立心#xff0c;为生民立命#xff0c;为往圣继绝学#xff0c;为万世开太平。 基本信息 标题: Editing Models with Task… 个人主页小嗷犬的个人主页 个人网站小嗷犬的技术小站 个人信条为天地立心为生民立命为往圣继绝学为万世开太平。 基本信息 标题: Editing Models with Task Arithmetic 作者: Gabriel Ilharco, Marco Tulio Ribeiro, Mitchell Wortsman, Suchin Gururangan, Ludwig Schmidt, Hannaneh Hajishirzi, Ali Farhadi 发表: ICLR 2023 arXiv: https://arxiv.org/abs/2212.04089 摘要 改变预训练模型的行为——例如提高其在下游任务上的性能或减轻在预训练过程中学习的偏差——是开发机器学习系统时的常见做法。 在本工作中我们提出了一种以任务向量为中心的新范式来引导神经网络的行为。 任务向量指定了预训练模型权重空间中的一个方向使得在该方向上的移动可以改善任务性能。 我们通过从在任务上微调后的模型权重中减去预训练模型的权重来构建任务向量。 我们表明这些任务向量可以通过如取反和加法等算术运算进行修改和组合并且相应地引导结果模型的行为。 取反任务向量会降低目标任务上的性能而对控制任务上的模型行为影响很小。 此外将任务向量相加可以同时提高多个任务上的性能。 最后当任务通过形式为“ A A A 对于 B B B 正如 C C C 对于 D D D”的类比关系相联系时结合来自三个任务的向量可以改善第四个任务的性能即使没有使用第四个任务的数据进行训练。 总的来说我们在多个模型、模态和任务上的实验表明任务算术是一种简单、高效且有效的编辑模型的方法。 任务向量 为了我们的目的一个任务通过用于微调的数据集和损失函数实例化。 设 θ pre ∈ R d \theta_{\text{pre}} \in \mathbb{R}^d θpre​∈Rd 为预训练模型的权重 θ ft t ∈ R d \theta_{\text{ft}}^t \in \mathbb{R}^d θftt​∈Rd 为在任务 t t t 上微调后的相应权重。 任务向量 τ t ∈ R d \tau_t \in \mathbb{R}^d τt​∈Rd 由 θ ft t \theta_{\text{ft}}^t θftt​ 和 θ pre \theta_{\text{pre}} θpre​ 的逐元素差给出即 τ t θ ft t − θ pre \tau_t \theta_{\text{ft}}^t - \theta_{\text{pre}} τt​θftt​−θpre​。 当任务从上下文中明确时我们省略标识符 t t t简单地将任务向量称为 τ \tau τ。 任务向量可以应用于来自相同架构的任何模型参数 θ \theta θ通过逐元素加法带有可选的缩放项 λ \lambda λ使得生成的模型具有权重 θ new θ λ τ \theta_{\text{new}} \theta \lambda \tau θnew​θλτ。 在我们的实验中缩放项是使用留出的验证集确定的。 请注意将单个任务向量添加到预训练模型中其中 λ 1 \lambda 1 λ1结果是该任务上微调的模型。 Editing models with task arithmetic 我们重点关注三种任务向量上的算术表达式如图1所示对任务向量取反、将任务向量相加以及组合任务向量以形成类比。 所有操作都是逐元素应用于权重向量的。 当对任务向量 τ \tau τ 取反时应用得到的向量 τ new − τ \tau_{\text{new}} -\tau τnew​−τ 对应于在微调模型和预训练模型之间进行外推。得到的模型在目标任务上表现更差对控制任务的性能几乎没有变化。 将两个或多个任务向量 τ i \tau_i τi​ 相加得到 τ new ∑ i τ i \tau_{\text{new}} \sum_i \tau_i τnew​∑i​τi​结果是一个在所有任务上都表现出色的多任务模型有时甚至比在单个任务上微调的模型表现更好。 最后当任务 A A A、 B B B、 C C C 和 D D D 形成类比形式“ A A A 对于 B B B 正如 C C C 对于 D D D”时任务向量 τ new τ C ( τ B − τ A ) \tau_{\text{new}} \tau_C (\tau_B - \tau_A) τnew​τC​(τB​−τA​) 提升了任务 D D D 的性能即使该任务的数据很少或没有数据。 对于所有操作通过应用 τ new \tau_{\text{new}} τnew​ 得到的模型权重由 θ new θ λ τ new \theta_{\text{new}} \theta \lambda \tau_{\text{new}} θnew​θλτnew​ 给出其中缩放项 λ \lambda λ 是使用留出的验证集确定的。 Forgetting via negation 在这部分中我们展示对任务向量取反是一种有效的方法可以在不显著影响其他任务性能的情况下降低其在目标任务上的表现。 遗忘或“反学习”可以帮助缓解预训练时学到的不希望有的偏差完全遗忘任务可能是为了遵守法规或出于伦理原因比如防止图像分类器识别面部或通过OCR“读取”个人信息。 这些干预措施不应显著影响模型在处理编辑范围之外的数据时的行为。 因此我们在控制任务上测量准确率除了评估任务向量来源的目标任务。 我们的实验展示了对任务向量取反在编辑图像分类和文本生成模型中的有效性。 图像分类 对于图像分类我们使用了CLIP模型和Ilharco等人研究的八个任务的任务向量这些任务从卫星图像识别到交通标志分类Cars、DTD、EuroSAT、GTSRB、MNIST、RESISC45、SUN397和SVHN。 对于控制任务我们使用ImageNet。我们通过在每个目标任务上进行微调来生成任务向量。 我们与两个额外的基线进行比较通过向增加损失的方向进行微调即使用梯度上升如Golatkar等人和Tarun等人所做以及使用一个随机向量其中每一层的幅度与任务向量的相应层相同。 如表1所示对任务向量取反是在减少目标任务准确率的同时对控制任务影响最小的有效编辑策略。 例如负任务向量将ViT-L/14的平均目标任务准确率降低了45.8个百分点而对控制任务的准确率几乎没有变化。 相比之下使用随机向量对目标任务准确率影响不大而使用梯度上升进行微调则严重恶化了控制任务的性能。 文本生成 我们研究了是否可以通过对训练出特定行为的任务向量取反来缓解该模型的特定行为。 具体而言我们的目标是减少由各种大小的GPT-2模型生成的有毒内容的数量。 我们通过在Civil Comments中毒性分数高于0.8的数据上微调来生成任务向量然后对这个任务向量取反。 与上节一样我们还比较了在微调时使用梯度上升的基线以及使用相同幅度的随机任务向量。 此外我们还与从Civil Comments毒性分数小于0.2的非有毒样本上进行微调进行了比较类似于Liu等人。 我们使用Detoxify测量了一千个模型生成的毒性。 对于控制任务我们测量了语言模型在WikiText-103上的困惑度。 如表2所示使用负任务向量进行编辑是有效的将分类为有毒的生成量从4.8%减少到0.8%同时在控制任务上保持困惑度在预训练模型的0.5个百分点以内。 相比之下使用梯度上升进行微调通过将控制任务的性能降低到不可接受的水平来减少有毒生成而在非有毒数据上进行微调在减少任务生成和控制任务上都比任务向量差。 作为实验对照添加一个随机向量对有毒生成或在WikiText-103上的困惑度几乎没有影响。 Learning via addition 我们现在将注意力转向添加任务向量无论是构建能够在多个任务上同时表现出色的多任务模型还是改进单任务性能。 这一操作使我们能够在不进行额外训练或访问训练数据的情况下重用和转移来自内部模型或大量公开可用的微调模型的知识。 我们探索了在各种图像分类和自然语言处理任务上添加任务向量的应用。 图像分类 我们开始使用与上文相同的八个模型这些模型在一系列多样化的图像分类任务Cars、DTD、EuroSAT、GTSRB、MNIST、RESISC45、SUN397和SVHN上进行了微调。 如图2所示我们展示了通过添加这些任务中所有成对的任务向量所获得的准确性。 为了考虑任务难度的差异我们通过在该任务上微调的模型的准确率来归一化每个任务的准确率。 在归一化后微调模型在其各自任务上的性能均为1因此使用多个专用模型的平均性能也为1。 如图2所示添加成对的任务向量得到一个单一模型其性能大幅超越零样本模型并且与使用两个专用模型相当平均归一化准确率为98.9%。 除了任务对之外我们还探索了为所有可能的子集总共 2 8 2^8 28 个添加任务向量。 在图3中我们展示了最终模型的归一化准确性这些准确性是通过对所有八个任务进行平均得到的。 随着可用任务向量数量的增加可以生成更好的多任务模型。当所有任务向量都可用时通过添加任务向量生成的最佳模型达到了91.2%的平均性能尽管将多个模型压缩成了一个。 自然语言处理 除了构建多任务模型外我们还探讨了添加任务向量是否是提高单个目标任务性能的有效方法。 为此我们首先在GLUE基准中的四个任务上微调T5-base模型如Wortsman等人所做。 然后我们在Hugging Face Hub上搜索兼容的检查点共找到427个候选者。 我们尝试将每个对应的任务向量添加到我们的微调模型中基于留出的验证数据选择最佳的检查点和缩放系数。 如表3所示添加任务向量可以提高目标任务的性能相比微调。 Task analogies 在本节中我们探讨了以“ A A A 对于 B B B 正如 C C C 对于 D D D”形式的任务类比并展示使用前三个任务的向量进行任务算术可以提高任务D的性能即使对于该任务的数据很少或根本没有数据。 Domain generalization 对于许多目标任务收集未标记的数据比收集人工注释更容易且成本更低。 当目标任务的标记数据不可用时我们可以使用任务类比来提高目标任务的准确性利用有标记数据的辅助任务和无监督学习目标。 例如考虑使用Yelp数据进行情感分析的目标任务。 使用任务类比我们可以构建一个任务向量 τ ^ yelp; sent τ amazon; sent ( τ yelp; lm − τ amazon; lm ) \hat{\tau}_{\text{yelp; sent}} \tau_{\text{amazon; sent}} (\tau_{\text{yelp; lm}} - \tau_{\text{amazon; lm}}) τ^yelp; sent​τamazon; sent​(τyelp; lm​−τamazon; lm​)其中 τ amazon; sent \tau_{\text{amazon; sent}} τamazon; sent​ 是通过在来自Amazon的标记数据上进行微调获得的情感分析使用来自Amazon的数据McAuley Leskovec而 τ yelp; lm \tau_{\text{yelp; lm}} τyelp; lm​ 和 τ amazon; lm \tau_{\text{amazon; lm}} τamazon; lm​ 是通过在两个数据集的输入上进行无监督语言建模获得的任务向量。 在表4中我们展示了使用此类任务类比可以提高T5模型在多个尺度上的准确性无论是将Amazon还是Yelp二元情感分析作为目标任务。 我们经验性地发现给情感分析任务向量更高的权重可以提高准确性因此我们在这些实验中使用了两个独立的缩放系数——一个用于情感分析任务向量另一个用于两个语言建模任务向量。 使用任务向量在所有模型和数据集上都优于在剩余的辅助情感分析任务上进行微调接近在目标任务上进行微调的性能。 Subpopulations with little data 在某些数据子群体中通常存在一些固有的稀缺性——例如室内环境中的狮子图像比户外环境中的狮子图像或一般情况下的狗无论室内还是室外图像更为罕见。 每当这些子群体与数据更为丰富的其他群体存在类比关系时如本例所示我们可以应用任务类比例如 τ ^ lion indoors τ lion outdoors ( τ dog indoors − τ dog outdoor ) \hat{\tau}_{\text{lion indoors}} \tau_{\text{lion outdoors}} (\tau_{\text{dog indoors}} - \tau_{\text{dog outdoor}}) τ^lion indoors​τlion outdoors​(τdog indoors​−τdog outdoor​)。 我们通过创建四个子群体来探索这一情景使用ImageNet和人类素描数据集之间的125个重叠类别。 我们将这些类别分为大致相等的两个子集创建四个子群体A、B、C和D其中(A, C)和(B, D)共享相同的类别而(A, B)和(C, D)共享相同的风格照片逼真图像或素描。 尽管这些子群体在我们的实验中有许多类别但我们使用简化的子集 “real dog”, “real lion”, “sketch dog” and “sketch lion” 作为运行示例。 给定一个目标子群体我们通过在剩余的子群体上独立微调三个模型来创建任务向量然后通过任务算术将它们组合起来例如对于目标子群体“sketch lion” τ ^ sketch lion τ sketch dog ( τ real lion − τ real dog ) \hat{\tau}_{\text{sketch lion}} \tau_{\text{sketch dog}} (\tau_{\text{real lion}} - \tau_{\text{real dog}}) τ^sketch lion​τsketch dog​(τreal lion​−τreal dog​)。 我们在图4中展示了结果这些结果是对四个目标子群体的平均值。 与预训练模型相比任务向量平均提高了3.4个百分点的准确性。 此外当目标子群体的一些数据可用于微调时从编辑后的模型开始始终比从预训练模型开始获得更高的准确性。 仅从类比中获得的收益没有额外的数据大致相当于为目标子群体收集和标注大约一百个训练样本的效果。 讨论 在这一节中我们通过探讨不同任务的任务向量之间的相似性以及不同学习率和随机种子的影响对先前结果进行了进一步的分析。 我们最后讨论了我们方法的一些局限性。 Similarity between task vectors 在图5中我们探讨了不同任务的任务向量之间的余弦相似度旨在了解如何通过加法将多个模型合并为单个多任务模型。 我们观察到来自不同任务的向量通常接近正交并推测这允许通过加法组合任务向量干扰最小。 我们还观察到当任务在语义上彼此相似时余弦相似度更高。 例如图5中最大的余弦相似度出现在MNIST、SVHN和GTSRB之间这些任务的关键是识别数字以及EuroSAT和RESISC45之间它们都是卫星图像识别数据集。 这种“任务空间”中的相似性可能有助于解释Ilharco等人中的某些结果其中在单个任务上微调的模型权重与预训练模型权重之间进行插值——用我们的术语来说就是应用单个任务向量——有时可以提高没有数据的不同任务的准确性例如应用MNIST任务向量可以提高SVHN的准确性。 The impact of the learning rate 在图6中我们观察到增加学习率会降低使用任务向量和微调单个模型时的准确性但对于单个模型这种下降更为平缓。 这些发现与的研究结果一致该研究观察到在使用较大的学习率时两个微调模型之间的线性路径上的准确性会降低。 因此虽然较大的学习率在微调单个模型时可能可以接受但我们建议在使用任务向量时更加谨慎。 此外我们假设较大的学习率可以解释在添加来自自然语言处理任务的向量时的一些方差其中我们采用社区中其他人微调的模型。 The evolution of task vectors throughout fine-tuning 图7展示了任务向量在微调过程中的演变。 中间任务向量迅速收敛到微调结束时获得的最终任务向量方向。 此外通过添加两个图像分类任务的中间任务向量获得的模型精度在仅几百步后就趋于饱和。 这些结果表明使用中间任务向量可以是一种在精度损失很小的情况下节省计算的有用方法。 Limitations 任务向量仅限于具有相同架构的模型因为它们依赖于模型权重上的逐元素操作。 此外在我们所有的实验中我们仅在从同一预训练初始化微调的模型上执行算术运算尽管有研究表明放宽这一假设是有希望的。 我们还注意到一些架构非常流行并且有“标准”初始化——例如在撰写本文时Hugging Face Hub上有超过3000个模型是从同一BERT-base初始化微调的还有超过800个模型是从同一T5-small初始化微调的。 总结 在这篇论文中我们介绍了一种基于任务向量算术运算的编辑模型新范式。 对于各种视觉和NLP模型添加多个专用任务向量可以导致一个在所有目标任务上表现良好的单一模型甚至可以提升单个任务的表现。 取反任务向量允许用户移除不希望的行为例如有毒生成甚至完全忘记特定任务同时保持其他方面的性能。 最后任务类比利用现有数据来提高数据稀缺的领域或子群体的性能。 在任务向量上的算术运算仅涉及添加或减去模型权重因此计算效率高尤其是与涉及额外微调的替代方案相比。 因此用户可以轻松尝试各种模型编辑从大量公开可用的微调模型中回收和转移知识。 由于这些操作导致单个模型大小不变因此不会产生额外的推理成本。 我们的代码可在https://github.com/mlfoundations/task_vectors上获取。
http://www.hkea.cn/news/14261248/

相关文章:

  • 广州企业自助建站WP Rocket-WordPress
  • 郑州 服装网站建设百度搜索排名优化哪家好
  • 南京建设监理协会网站打不开网站彩铃怎么做的
  • 重庆建站公司网站模板一分钟建站
  • wordpress全站启用ssl网站logo制作教程
  • 上海外贸网站推广服务如何开发一款app软件
  • 计算机网站设计网站开发的具体流程图
  • 张家口购物网站开发设计js做网站
  • 婚纱摄影网站源码asp双语对照网站
  • 长春建设平台网站的公司wordpress 待办事项
  • 宝安做网站哪家好抖音信息流广告怎么投放
  • 个人网站服务器一年多少钱精美图表网站推荐
  • 支付网站建设费账务处理国美的网站做的怎么样
  • 网页制作网站首页个人网站如何发布
  • 做网站公司人员优设网视频剪辑
  • ps怎么做网站视频特效wordpress分类归档不科学
  • 手机网站底部广告代码企业目录
  • 深圳企业医疗网站建设如何做网站编辑
  • 河南省城乡与住房建设厅网站首页网站建设跑业务
  • 个人网站备案 拍照南通企业建站模板
  • 国内做网站的龙头企业自己做的网站怎么用qq登入
  • 校园网网站建设规划书西红门网站建设
  • 电子商务购物网站建设实验报告长沙好玩的地方景点推荐
  • 茂名网站建设造价工程师注册公示查询
  • 厦门手机网站wordpress对联广告
  • 网站建设的用户环境建设商城网站公司
  • 大冶专业建站公司企业网站推广效果从哪些方面进行分析
  • 给自己的家乡建设网站长春网站排名优化价格
  • 网站运营论文重庆网站供奉
  • 做网站需要什么样的服务器广州网站托管