当前位置: 首页 > news >正文

网站编辑如何做天津滨海新区邮编

网站编辑如何做,天津滨海新区邮编,商城网站主要功能,免费视频课程网站模板目录 #x1f354; 什么是ChatGPT#xff1f; #x1f354; GPT-1介绍 2.1 GPT-1模型架构 2.2 GPT-1训练过程 2.2.1 无监督的预训练语言模型 2.2.2 有监督的下游任务fine-tunning 2.2.3 整体训练过程架构图 2.3 GPT-1数据集 2.4 GPT-1模型的特点 2.5 GPT-1模型总结…  目录 什么是ChatGPT GPT-1介绍 2.1 GPT-1模型架构 2.2 GPT-1训练过程 2.2.1 无监督的预训练语言模型 2.2.2 有监督的下游任务fine-tunning 2.2.3 整体训练过程架构图 2.3 GPT-1数据集 2.4 GPT-1模型的特点 2.5 GPT-1模型总结 GPT-2介绍 3.1 GPT-2模型架构 3.2 GPT-2训练核心思想 3.3 GPT-2的数据集 3.4 GPT-2模型的特点 3.5 GPT-2模型总结 学习目标 了解ChatGPT的本质 了解GPT系列模型的原理和区别 什么是ChatGPT ChatGPT 是由人工智能研究实验室 OpenAI 在2022年11月30日发布的全新聊天机器人模型, 一款人工智能技术驱动的自然语言处理工具. 它能够通过学习和理解人类的语言来进行对话, 还能根据聊天的上下文进行互动, 真正像人类一样来聊天交流, 甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务. ​ ​ 数据显示, ChatGPT在推出2个多月的时间内月活跃用户已经超过1亿, 这, 成为史上增长最快的消费者应用. 全球每天约有1300万独立访问者使用ChatGPT, 而爆炸性的增量也给该公司发展带来了想象空 间. 自从 ChatGPT 出现后. 突然之间, 每个人都在谈论人工智能如何颠覆他们的工作、公司、学校和生活. 那么ChatGPT背后的实现原理是什么呢接下来我们将给大家进行详细的解析. 在我们了解ChatGPT模型原理之前, 需要回顾下ChatGPT的成长史, 即我们需要对GPT-1、GPT-2、GPT-3等一系列模型进行了解和学习, 以便我们更好的理解ChatGPT的算法原理. GPT-1介绍 2018年6月, OpenAI公司发表了论文“Improving Language Understanding by Generative Pre-training”《用生成式预训练提高模型的语言理解力》, 推出了具有1.17亿个参数的GPT-1Generative Pre-training , 生成式预训练模型. 与BERT最大的区别在于GPT-1采用了传统的语言模型方法进行预训练, 即使用单词的上文来预测单词, 而BERT是采用了双向上下文的信息共同来预测单词. 正是因为训练方法上的区别, 使得GPT更擅长处理自然语言生成任务(NLG), 而BERT更擅长处理自然语言理解任务(NLU). 2.1 GPT-1模型架构 看三个语言模型的对比架构图, 中间的就是GPT-1: ​ ​ 从上图可以很清楚的看到GPT采用的是单向Transformer模型, 例如给定一个句子[u1, u2, ..., un], GPT在预测单词ui的时候只会利用[u1, u2, ..., u(i-1)]的信息, 而BERT会同时利用上下文的信息[u1, u2, ..., u(i-1), u(i1), ..., un]. 作为两大模型的直接对比, BERT采用了Transformer的Encoder模块, 而GPT采用了Transformer的Decoder模块. 并且GPT的Decoder Block和经典Transformer Decoder Block还有所不同, 如下图所示: ​ ​ 如上图所示, 经典的Transformer Decoder Block包含3个子层, 分别是Masked Multi-Head Attention层, encoder-decoder attention层, 以及Feed Forward层. 但是在GPT中取消了第二个encoder-decoder attention子层, 只保留Masked Multi-Head Attention层, 和Feed Forward层. 注意: 对比于经典的Transformer架构, 解码器模块采用了6个Decoder Block; GPT的架构中采用了12个Decoder Block. ​ ​ 2.2 GPT-1训练过程 GPT-1的训练包括两阶段过程: 预训练 微调 第一阶段: 无监督的预训练语言模型. 第二阶段: 有监督的下游任务fine-tunning. 2.2.1 无监督的预训练语言模型 给定句子U [u1, u2, ..., un], GPT训练语言模型时的目标是最大化下面的似然函数: 上述公式具体来说是要预测每个词ui的概率这个概率是基于它前面 ui-k 到 ui−1 个词以及模型 Θ。这里的 k 表示上文的窗口大小理论上来讲 k 取的越大模型所能获取的上文信息越充足模型的能力越强。 GPT是一个单向语言模型,模型对输入U 进行特征嵌入得到 transformer 第一层的输h0再经过多层 transformer 特征编码使用最后一层的输出即可得到当前预测的概率分布计算过程如下 其中Wp是单词的位置编码, We是单词本身的word embedding. Wp的形状是[max_seq_len, embedding_dim], We的形状是[vocab_size, embedding_dim]. 得到输入张量h0后, 要将h0传入GPT的Decoder Block中, 依次得到ht: 最后通过得到的ht来预测下一个单词: 2.2.2 有监督的下游任务fine-tunning GPT经过预训练后, 会针对具体的下游任务对模型进行微调. 微调采用的是有监督学习, 训练样本包括单词序列[x1, x2, ..., xn]和label y. GPT微调的目标任务是根据单词序列[x1, x2, ..., xn]预测标签y. 其中$W_y$表示预测输出的矩阵参数, 微调任务的目标是最大化下面的函数: 综合两个阶段的目标任务函数, 可知GPT的最终优化函数为: 2.2.3 整体训练过程架构图 根据下游任务适配的过程分两步: 1、根据任务定义不同输入, 2、对不同任务增加不同的分类层. 具体定义可以参见下图: ​ ​ 分类任务Classification: 将起始和终止token加入到原始序列两端, 输入transformer中得到特征向量, 最后经过一个全连接得到预测的概率分布 文本蕴涵Entailment: 将前提premise和假设hypothesis通过分隔符Delimiter隔开, 两端加上起始和终止token. 再依次通过transformer和全连接得到预测结果 文本相似度Similarity: 输入的两个句子, 正向和反向各拼接一次, 然后分别输入给transformer, 得到的特征向量拼接后再送给全连接得到预测结果 问答和常识推理Multiple-Choice: 将 N个选项的问题抽象化为N个二分类问题, 即每个选项分别和内容进行拼接, 然后各送入transformer和全连接中, 最后选择置信度最高的作为预测结果 总的来说都是通过在序列前后添加 Start 和 Extract 特殊标识符来表示开始和结束序列之间添加必要的 Delim 标识符来表示分隔当然实际使用时不会直接用 “Start/Extract/Delim” 这几个词而是使用某些特殊符号。基于不同下游任务构造的输入序列使用预训练的 GPT 模型进行特征编码然后使用序列最后一个 token 的特征向量进行预测。 可以看到不论下游任务的输入序列怎么变最后的预测层怎么变中间的特征抽取模块都是不变的具有很好的迁移能力。 2.3 GPT-1数据集 GPT-1使用了BooksCorpus数据集, 文本大小约 5 GB包含 7400w 的句子。这个数据集由 7000 本独立的、不同风格类型的书籍组成, 选择该部分数据集的原因: 书籍文本包含大量高质量长句保证模型学习长距离信息依赖。 这些书籍因为没有发布, 所以很难在下游数据集上见到, 更能验证模型的泛化能力. 2.4 GPT-1模型的特点 模型的一些关键参数为 参数取值transformer 层数12特征维度768transformer head 数12总参数量1.17 亿 优点 在有监督学习的12个任务中, GPT-1在9个任务上的表现超过了state-of-the-art的模型 利用Transformer做特征抽取, 能够捕捉到更长的记忆信息, 且较传统的 RNN 更易于并行化 缺点 GPT 最大的问题就是传统的语言模型是单向的. 针对不同的任务, 需要不同的数据集进行模型微调, 相对比较麻烦 2.5 GPT-1模型总结 GPT-1证明了transformer对学习词向量的强大能力, 在GPT-1得到的词向量基础上进行下游任务的学习, 能够让下游任务取得更好的泛化能力. 对于下游任务的训练, GPT-1往往只需要简单的微调便能取得非常好的效果. GPT-1在未经微调的任务上虽然也有一定效果, 但是其泛化能力远远低于经过微调的有监督任务, 说明了GPT-1只是一个简单的领域专家, 而非通用的语言学家. GPT-2介绍 2019年2月, OpenAI推出了GPT-2, 同时, 他们发表了介绍这个模型的论文“Language Models are Unsupervised Multitask Learners” 语言模型是无监督的多任务学习者. 相比于GPT-1, GPT-2突出的核心思想为多任务学习, 其目标旨在仅采用无监督预训练得到一个泛化能力更强的语言模型, 直接应用到下游任务中. GPT-2并没有对GPT-1的网络结构进行过多的创新与设计, 而是使用了更多的网络参数与更大的数据集: 最大模型共计48层, 参数量达15亿. ​ ​ 3.1 GPT-2模型架构 在模型方面相对于 GPT-1 来说GPT-2做了微小的改动: LN层被放置在Self-Attention层和Feed Forward层前, 而不是像原来那样后置目的随着模型层数不断增加梯度消失和梯度爆炸的风险越来越大这些调整能够减少预训练过程中各层之间的方差变化使梯度更加稳定 在最后一层Tansfomer Block后增加了LN层 输入序列的最大长度从 512 扩充到 1024; ​ ​ 3.2 GPT-2训练核心思想 目前大部分 NLP 模型是结合无监督的 Pre-training 和监督学习的 Fune-tuning, 但这种方法的缺点是针对某特定任务需要不同类型标注好的训练数据. GPT-2的作者认为这是狭隘的专家而不是通才, 因此该作者希望能够通过无监督学习训练出一个可以应对多种任务的通用系统. 标题中的多任务学习与我们常规理解的有监督学习中的多任务不太一样这里主要是指模型从大规模数据中学到的能力能够直接在多个任务之间进行迁移而不需要额外提供特定任务的数据因此引出了 GPT-2 的主要观点zero-shot。通过 zero-shot在迁移到其他任务上的时候不需要额外的标注数据也不需要额外的模型训练。 因此, GPT-2的训练去掉了Fune-tuning只包括无监督的预训练过程, 和GPT-1第一阶段训练一样, 也属于一个单向语言模型 理解GPT-2模型的学习目标: 使用无监督的预训练模型做有监督的任务. 语言模型其实也是在给序列的条件概率建模, 即p(sn|s1,s2,...,sn−1) 在 GPT-1 中下游任务需要对不同任务的输入序列进行改造在序列中加入了开始符、分隔符和结束符之类的特殊标识符但是在 zero-shot 前提下我们无法根据不同的下游任务去添加这些标识符因为不进行额外的微调训练模型在预测的时候根本不认识这些特殊标记。所以在 zero-shot 的设定下不同任务的输入序列应该与训练时见到的文本长得一样也就是以自然语言的形式去作为输入例如下面两个任务的输入序列是这样改造的 机器翻译任务translate to french, { english text }, { french text } 阅读理解任务answer the question, { document }, { question }, { answer } 为什么上述输入序列的改造是有效的或者说为什么 zero-shot 是有效的这里引用原文的一句话 Our approach motivates building as large and diverse a dataset as possible in order to collect natural language demonstrations of tasks in as varied of domains and contexts as possible. 大概意思是从一个尽可能大且多样化的数据集中一定能收集到不同领域不同任务相关的自然语言描述示例例如下图中展示了英法互译任务在自然语言中出现的示例表明了不同任务的任务描述在语料中真实存在 ​ ​ 所以 GPT-2 的核心思想就是当模型的容量非常大且数据量足够丰富时仅仅靠语言模型的学习便可以完成其他有监督学习的任务不需要在下游任务微调。 综上, GPT-2的核心思想概括为: 任何有监督任务都是语言模型的一个子集, 当模型的容量非常大且数据量足够丰富时, 仅仅靠训练语言模型的学习便可以完成其他有监督学习的任务. 3.3 GPT-2的数据集 为了保证 zero-shot 的效果必须要足够大且覆盖面广。所以 GPT-2 专门爬取了大量的网络文本数据GPT-2的文章取自于Reddit上高赞的文章, 命名为WebText. 数据集共有约800万篇文章, 累计体积约40G. 为了避免和测试集的冲突, WebText移除了涉及Wikipedia的文章. 3.4 GPT-2模型的特点 与GPT-1的区别 主推 zero-shot而 GPT-1 为 pre-train fine-tuning 训练数据规模更大GPT-2 为 800w 文档 40GGPT-1 为 5GB 模型大小GPT-2 最大 15 亿参数GPT-1为 1 亿参数 模型结构调整层归一化 训练参数batch_size 从 64 增加到 512上文窗口大小从 512 增加到 1024等等 优点 文本生成效果好, 在8个语言模型任务中, 仅仅通过zero-shot学习, GPT-2就有7个超过了state-of-the-art的方法. 海量数据和大量参数训练出来的词向量模型有迁移到其它类别任务中而不需要额外的训练. 缺点: 无监督学习能力有待提升 有些任务上的表现不如随机 3.5 GPT-2模型总结 GPT-2的最大贡献是验证了通过海量数据和大量参数训练出来的词向量模型有迁移到其它类别任务中而不需要额外的训练. 但是很多实验也表明, GPT-2的无监督学习的能力还有很大的提升空间, 甚至在有些任务上的表现不比随机的好. 尽管在有些zero-shot的任务上的表现不错, 但是我们仍不清楚GPT-2的这种策略究竟能做成什么样子. GPT-2表明随着模型容量和数据量的增大, 其潜能还有进一步开发的空间, 基于这个思想, 诞生了我们下面要介绍的GPT-3. 小结 本章节主要讲述了GPT-1与GPT-2的发展历程
http://www.hkea.cn/news/14506555/

相关文章:

  • 毕业设计h5网站制作关键词搜索挖掘爱网站
  • 别人是怎么建设网站的网站内怎么做链接
  • 广东网站备案需要多久工业设计展板
  • 上海网站建设特点家居建材网站源码
  • 中国建筑人才网是什么网站第三方网站建设平台
  • 网站系统修改石家庄哪里能制作网站
  • 怎样做电影网站溧阳 做网站
  • 网站后台不能审核删除北京做网站周云帆
  • 中国建设银行上海市分行网站wordpress 显示缩略图
  • 绵阳市建设银行网站电子商务网站开发问题研究
  • 网站开发需求 模板使用apmserv本地搭建多个网站
  • 湖南网站推wordpress主题windows
  • 网站开发备案百度seo推广软件
  • 宣城网站优化用wordpress做微博
  • icann官方网站锦州网站建设推广
  • 网站建设与维护课程设计报告书交通建设工程质量监督局网站
  • 模块网站和定制网站区别网站开发个人基本情况1000字
  • 北京模板网站开发公司网络推广方案联系昔年下拉
  • 菏泽网站建设谁最出名公司网站设计制作长沙
  • 网站最好的优化是什么腾讯cdn加速wordpress
  • 多国语言外贸网站模板网站备备份教程
  • 做小程序好还是做微网站好php网站怎么做后台管理
  • dedecms蓝色企业网站模板免费下载c net 做网站好吗
  • 满洲里建设局网站首页怎么创建网页链接
  • 四川省建设领域信用系统网站网站域名的作用是什么意思
  • 国外创意型网站设计网站开发行业竞争大吗
  • 电商网站开发服务海南省建设工程质量安全检测协会网站
  • 做问卷的网站生成二维码浙江建设厅网站
  • wordpress地址和站点地址什么网站可免费发布信息
  • 域名网站这么做电子商务网站建设实验报告