当前位置: 首页 > news >正文

wordpress设置关站动漫网站在线免费观看

wordpress设置关站,动漫网站在线免费观看,英文网站报价,有了域名空间服务器怎么做网站Chinese Spelling Correction as Rephrasing Language Model(AAAI2024) 一#xff0e;概述 目前最先进的方法将CSC(Chinese Spelling Correction)作为序列标注任务#xff0c;并在句子对上微调基于bert的方法。然而#xff0c;我们注意到在将一个字符标注为另一个字符的过…Chinese Spelling Correction as Rephrasing Language Model(AAAI2024) 一概述 目前最先进的方法将CSC(Chinese Spelling Correction)作为序列标注任务并在句子对上微调基于bert的方法。然而我们注意到在将一个字符标注为另一个字符的过程中存在一个严重缺陷即校正过于依赖于错误。这与人类的思维方式相反在人类的思维方式中人们根据语义重新表述完整的句子而不是仅仅根据之前记忆的错误模式。这样对于机器纠错带 来了通用性和移植性瓶颈。 为此我们提出了复述语言模型(Rephrasing Language Model, ReLM)该模型被训练成通过填充额外的槽来复述整个句子而不是字符到字符的标注。 代码https://github.com/gingasan/lemon 作者认为基于序列标注的纠错模型在训练过程中大量记忆错误字符和正确字符之间的映射并简单地复制其他字符这在测试集中仍然可以获得不错的分数。但这意味着最终的纠正将过度地依赖于原始错误本身而忽略了整个句子的语义。上图(a)部分模型会强记见过的编辑对导致在新的样本上表现很不好。最根本原因来源于Tagging(标注)这种拟合方式模型会不可避免地陷入到上述强记的问题。(b)部分和Tagging不一样我们大部分时候不会关注句子里典型的易错字而是会注重看懂这个句子想表达什么也就是语义semantics。随后我们会根据记住的这个句子的大概在心里把它重新写一遍只是这个过程一般只发生在潜意识里。 不同于字符到字符的序列标注我们提出将句子重新表述作为微调CSC模型的训练目标称为rephrasing Language model (ReLM)其中源句子将首先编码到语义空间中然后根据给定的掩码槽(mask slots)将其表述为正确的句子。ReLM模型也是基于Bert。 本文主要贡献如下 A.提出ReLM来缩小机器拼写纠正和人工拼写纠正之间的差距。 B.ReLM显著增强了CSC模型的泛化性并在微调和零样本CSC基准测试中刷新了新的最先进的结果。 C.探讨了并增强了CSC对其他任务的可移植性。 D.分析表明ReLM有效地利用并保留了预训练模型中预训练的知识而标注模型则没有。 二方法概述 1.问题定义 输入一个句子X{x1,x2,…,xn}模型对其中可能错误的字符进行校正生成结果Y{y1,y2,…,yn}。 2.标注(Tagging) 序列标注是许多自然语言处理任务中的常见模型其中模型被训练以将一个字符映射到另一个相应的字符例如命名实体识别词性标记。所有这些任务都共享一个关键属性即它们强烈依赖于输入和输出字符之间的对齐信息。CSC模型可以极大地记忆将xi纠正为yi的不重要的编辑对并在xi的不同上下文中继续应用而无需参考语义。因此原来的训练目标退化为 这里的xi是一个错误字符。 3.复述(Rephrasing) 在本文中我们提出用复述代替序列标注作为CSC的主要训练目标。为了消除模型拟合错误的趋势这里训练预训练模型去复述原始句子。具体来说Transformer层首先将源句子转移到语义空间。然后该模型生成一个新的句子同时根据语义纠正其中的所有错误。这个过程与人类进行拼写纠正的过程是一致的。当一个人看到一个句子时他首先会把这个句子记在脑子里(类似于把它编码到语义空间)然后根据他的语言本能(PLM中预训练的权重)把这个语义转换成一个新的句子。我们看到除了学习序列标注之外预训练知识为这种学习复述提供了很好的基础。而序列标注并没有很好地利用预训练的好处。 复述过程也可以基于自回归架构建模并使用解码器逐个生成输出字符。具体来说我们将源字符X和目标字符Y连接起来作为输入句子{x1,x2,…,xn,,y1,y2,…,yn,}这里的和是分隔符和结束符。训练模型自回归预测所有目标字符。因此基于复述的拼写纠正寻求解决以下概率(yi,i1) 4.复述语言模型(Rephrasing Language Model) 基于Bert结构提出非自回归复述模型ReLM。如上图输入句子拼接上等数量的[MASK]即{x1,x2,…,xn,,m1,m2,…,mn}随后让模型在这些[MASK]上重新写一遍原句并改正其中的潜在错别字。由于BERT可以同时看到左侧和右侧上下文因此ReLM寻求解决yi, i1~n的以下概率: ReLM优于自回归模型因为它总是可以生成与输入相同长度的输出句子这使得它更加准确。 5.辅助掩码语言建模(Auxiliary Masked Language Modeling) 与标注模型不同在CSC上进行微调的ReLM仍然是以语言模型为核心。然而模型仍然有机会学习源句和目标句的对齐。因此我们提出了一个关键策略即用未使用的token统一地掩盖源句子中的一小部分非错误token以极大地正则化模型防止学习字符到字符的对齐。ReLM最终需要纠正潜在的错字同时恢复整个句子。 6.与序列标注的区别(Distinguish from Sequence Tagging) ReLM是Pyi|X的有偏估计它对Pyi|Xm1m2··mn进行优化。模型依赖于整个语义。与公式(1)相反公式(3)预测yi以整个源句子X作为条件。具体来说在ReLM中没有字符对齐并且模型不允许像在序列标注中那样找到执行字符到字符映射的快捷方式。 7.ReLM用于多任务(ReLM for Multi-Task) 在典型的多任务学习中我们为每个任务添加一个特定的分类头并为所有任务训练一个共享编码器。例如CSC将在具有句子分类的编码器内共享相同的语言表示。然而实证分析表明当传统的基于标注的CSC与其他任务联合训练时它的性能可能会大大下降。 相比之下以语言模型为核心的ReLM自然适合语言建模之上的多任务学习而基于标注的CSC则不适合。具体地说每个单独的任务都被模板化为mask语言建模的格式如图2所示。一般来说所有的任务都统一为一种类似复述的格式这增强了CSC对各种任务的可移植性。此外ReLM支持提示调优。我们在输入的句子前面加上一系列可训练的字符作为提示符引导模型针对不同的任务并针对每个任务优化相应的提示符。我们发现引入提示可以进一步改善结果但程度不大。 ![
http://www.hkea.cn/news/14332265/

相关文章:

  • 泰国用什么网站做电商网站电脑端和手机端
  • 电子商务网站建设的论文石家庄做网站网络公司
  • js网站页面效果代码广告平面设计培训班要学多久
  • 小工作室做网站wordpress弹窗广告
  • 网站设计不包括沼气服务网站建设管理
  • 个人如何做购物网站 关于支付接口龙口网络公司
  • 湛江免费建站哪里有沈阳公司网站
  • 国内网站开发的主流技术如何用网站开发工具停止网页进程
  • 南宁定制网站制作网络公司开销售单的软件哪个好用
  • 苏州公司网站建设电话线上营销怎么做
  • 深圳建设银行官方网站免费pc网站建设
  • 产品类型 速成网站html源码之家
  • 手机端公司网站怎么做商务网站的功能和建设
  • 怀柔网站制作百度游戏官网
  • 龙岩网站优化济宁网站建设 企业谷
  • 有关网站空间正确的说法是货运配载做网站
  • 北京网站开发飞沐镇江论坛
  • 营销型企业网站建设方案书厦门百度seo排名
  • 做网站一定要注册公司吗全球互联网排名前十名
  • 五棵松网站建设腾讯云服务器租用
  • 长春建站优化加徽信xiala5效果好百度seo排名曝光行者seo
  • h5素材做多的网站如何做流量网站
  • 河南省建设工程质量协会网站猪八戒网仿照哪个网站做的
  • 手机网站制作注意事项怎么给自己做网站吗
  • 想学做网站需要学什么新会区住房和城乡建设局网站
  • 网站建设销售找客户话术泰安网络推广诚信臻动传媒
  • 大淘客网站是怎么做的网站迭代
  • 百度站长平台网站改版工具进销存十大软件
  • 聊城微信推广网站网站如何做电脑销售
  • 网站锚文本链接怎么做wordpress sozo