当前位置: 首页 > news >正文

上海opencart网站建设wordpress多条件过滤

上海opencart网站建设,wordpress多条件过滤,卖一手房做哪个网站好,筋郑州做网站文章目录1 背景介绍2 标记员筛选2.1 标记员筛选标准3 数据集及其标注3.1 预训练3.2 微调3.2.1 SFT-demonstration data3.2.2 RM-comparison data3.3 数据集大小4 模型实现1 背景介绍 ChatGPT的训练过程与InstructGPT相近#xff0c;大致分为三步#xff1a; SFT#xff1a… 文章目录1 背景介绍2 标记员筛选2.1 标记员筛选标准3 数据集及其标注3.1 预训练3.2 微调3.2.1 SFT-demonstration data3.2.2 RM-comparison data3.3 数据集大小4 模型实现1 背景介绍 ChatGPT的训练过程与InstructGPT相近大致分为三步 SFT收集描述型数据对GPT3.5有监督微调RM收集对比型数据训练一个奖励型模型RMPPO使用PPO算法用RM继续微调GPT3.5 由上述可见任何一个训练过程首当其冲的是获取到每个任务阶段所需要的标注型数据因此本文将对ChatGPT可能使用到的数据及其标注方法进行介绍。 2 标记员筛选 由于在ChatGPT微调的过程中对数据极为敏感人们所希望的语言对话模型所生成的回答应该是真实、无害、有帮助的并且在模型评估时真实、无害是基本要素。在这样的需求下openAI在挑选标记员时进行了一系列的筛选测试从而保证结果的可靠性。 2.1 标记员筛选标准 对敏感言论的看法。敏感言论指的是能够引起人的强烈负面情绪的言论openai要求标记者对其看法应尽量一致答案排名能力。要求标记员与研究人员就模型给出的问题回答排序应一致识别不同领域的敏感内容的能力。 3 数据集及其标注 3.1 预训练 由于无论是ChatGPT所采用的GPT3.5还是InstructGPT所采用的GPT3都是事先训练好的预训练模型进行微调所以无需太多关注预训练阶段所使用的数据。 在预训练阶段模型采用无监督学习方式所采用数据集来自大规模文本数据如网页、电子书、新闻文章、博客等无需进行标注。训练过程中模型接受一个输入序列通常是文本的一部分通过前面已经生成的部分来预测接下来的一个单词。在训练过程中模型会根据预测结果和实际标签的差异来更新模型的参数以使得模型能够更好地预测下一个单词与GPT训练方式相似。 上式描述了预训练阶段模型的似然函数模型设置了大小为k的窗口每次用k个单词去预测随后出现的单词使整体预测概率最大。 https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf 3.2 微调 在有了预训练模型阶段我们将用具体的下游任务类型出现的数据对模型进行微调从而产生符合预期的效果。在InstructGPT中训练过程分为了三个阶段为有监督微调SFT、奖励模型训练RM、基于RM模型使用PPO微调SFT。本节内容将对各阶段出现的数据及标注各数据集的大小进行介绍 3.2.1 SFT-demonstration data 在微调阶段模型会使用人类对话数据进一步优化模型微调阶段属于有监督学习需要对文本进行标注。对于这个阶段的数据(demonstration data)将会构造或针对给定的问题由标注工对这些问题进行回答问题-回答对构成有标签的数据用于对模型微调。出现的问题形式共有3种 plain直接给出需求问题如“世界上最大的河”few-shot先给出一些问题和回答再提出新问题。如“给出此条微博的情感分析”先提供若干条微博信息并给出其“正面”或者“负面”的标签再给出一条新的微博内容 user-based根据具体的用户场景设计出的问题场景类型共10类如生成类问题问答头脑风暴聊天重写总结分类抽取等。如头脑风暴场景下的“学习古希腊时应该知道的重点”生成类场景下的“写一篇短篇小说讲述一只棕熊到海滩上和一只海豹交朋友然后回家的故事”对故事进行续写。 3.2.2 RM-comparison data 在RM阶段针对给定问题由SFT微调得到的模型先产生对原问题的不同答案由标注工对答案的正确性进行排序(comparison data)并选择更倾向于模型输出的哪一个答案如下 Q“解释什么是数据结构” A. 数据结构是计算机的一门专业课可用特殊的结构对数据进行存储为高效的算法提供条件 B. 数据结构涉及数学知识 C. 数据结构属于生物学领域 D. 数据结构属于材料学领域 标注结果ABCD以上结果的排序依据遵从从有帮助性、真实性、无害性三个评估角度出发其中对绝大多数任务来说无害性、真实性的权重会远高于有帮助性训练时则有帮助性权重更高。但也有特殊情况如 某一个答案相较于其它提供的帮助非常明显该输出仅有些许不真实/有害prompt不属于高风险领域贷款申请、治疗、医疗、法律咨询等那么将提高“有帮助性”所占的权重。如果出现帮助性相同但不真实/有害在不同的地方那么将从用户角度判断哪种可能对用户造成更大的损失从而将它的排序结果置后。 此外我们还希望模型具备“ 当输入是一些有害的言论时希望输出是无害的 ” 的能力。该能力的评价标准将从无害性和连续性出发这里的连续性指的是输入和输出在逻辑上可以构成一个文本而不会读起来明显像两个文本的情况。我们将从输出的有害度输入输出相对有害度输入输出文本连续性上进行打分从而依据打分结果获得排序结果。 标记员的在第二个阶段RM标注工作在如下图所示的界面完成。 在第一张图中标注员首先会给出1-7范围内的得分得分更高的回答质量也更高并且基于真实性无害性有帮助性给出元数据的标签。而第二张图指的是在上一张图的工作完成以后对模型的所有输出进行排序。 3.3 数据集大小 在InstructGPT上雇佣了40人进行标注及API中获得的。 训练集上SFT标注了13k条数据API人工RM标注了33kAPI人工PPO标注了31kAPI。 验证集上SFT任务有1653条RM有18k条PPO中有16k条。 4 模型实现 在数据集采集及标注完全后需要分别训练出两个不同的模型即SFT和RM。 在SFT阶段使用采集的问答对数据对GPT进行有监督微调。 在RM阶段使用对比数据集训练RM奖励模型。 RM模型是将SFT去掉softmax层改成输出为1的线性层从而在以问答为输入的情况下输出得到奖励值。 在训练过程中为了避免过拟合现象的出现采用成对展示输出结果的方式然后用户从中选择更好的结果输出。 RM所定义的损失函数会最大化两者之间的差值。RM损失函数x代表promptyw代表的是质量较高的回答yl代表质量较低的r为奖励模型的输入结果。每轮对prompt的所有回答进行两两比较这样设计损失函数使得yw质量较高回答的得分尽可能高最大化两个回答之间的差值。 在最后PPO阶段是利用第二步得到的奖励模型指导SFT训练用PPO算法微调SFT。针对给定的问题由SFT生成回答。问题-回答作为输入用RM模型得到奖励值用奖励值使用PPO更新SFT为一次迭代。由于SFT每轮参数都会发生变化导致强化学习的环境也改变所以在损失函数中加入KL散度。 InstructGPT
http://www.hkea.cn/news/14305291/

相关文章:

  • 大连专业手机自适应网站制作上海提供虚拟注册地址的园区
  • 信用网站建设内容公司画册
  • 网站设计建设合同html网页制作企业类网站
  • wordpress个人博客模板下载台州优化排名推广
  • 大型集团网站免费模板网站都有什么
  • 加强校园网站建设方案下列选项哪些是网络营销的特点
  • 元典科技网站建设泸州网站制作
  • 网站建设所用的工具十大高端全屋定制
  • 中国联通网站建设与维护百度上做网站
  • 医联体网站建设集团高端网站
  • 网站设计软件培训怎么样设计素材类网站开发策划书
  • 网站建设注意哪些内容新闻营销
  • 一流的龙岗网站建设网站添加漂浮二维码怎么做
  • 网站建设与运营公司主营业务收入与成本如何提高网站的访问量
  • 苏州有哪些做网站公司好wordpress资源下载类模板
  • 惠州网站设计公司濮阳做网站建设的公司
  • 类似wordpress的建站系统鞍山人才网档案查询系统
  • 网站做防御公司网站首页怎么做
  • 学校网站建设说明材料武邑网站建设公司
  • 开个人网站怎么赚钱做问卷调查的网站有哪些
  • 长沙网站排名技术wordpress学人的冬天
  • 房地产交易网站模版带前台的wordpress模板下载
  • 网站建设公司怎么宣传苏州网络自学网站建设
  • 成全视频免费观看在线看1000集flash网站做seo优化好不好
  • 网站建设方案云盘做网站需要合同吗
  • 哪个网站可以做魔方图片大全百度竞价关键词出价技巧
  • 做神马网站优化网站建设服务多少钱
  • 北京做网站便宜的公司哪家好南京哪家公司做网站
  • 建设网站用户名是什么优钙网logo设计
  • 仙桃住房和城乡建设部网站装修价格