当前位置: 首页 > news >正文

wordpress全站固定链接网站建设标志头像图片

wordpress全站固定链接,网站建设标志头像图片,谷歌浏览器下载手机版中文,做网站用虚拟主机好吗NLP-大语言模型学习系列目录 一、注意力机制基础——RNN,Seq2Seq等基础知识 二、注意力机制【Self-Attention,自注意力模型】 三、Transformer图文详解【Attention is all you need】 四、大语言模型的Scaling Law【Power Low】 文章目录 NLP-大语言模型学习系列目录一、什么是…NLP-大语言模型学习系列目录 一、注意力机制基础——RNN,Seq2Seq等基础知识 二、注意力机制【Self-Attention,自注意力模型】 三、Transformer图文详解【Attention is all you need】 四、大语言模型的Scaling Law【Power Low】 文章目录 NLP-大语言模型学习系列目录一、什么是 Scaling Law二、 Scaling Law的应用1最佳模型参数数据量求解方法2LLaMA3.1中的Scaling Law3计算实例【根据计算量和数据量求最佳模型大小】 三、未来挑战参考资料 一、什么是 Scaling Law Scaling Law缩放法则是人工智能和机器学习中一类理论它描述了随着模型规模例如参数数量、训练数据量、计算资源的增加模型性能如何提升的规律。简单来说Scaling Law 研究的是模型性能与模型规模之间的关系。 定义【Scaling Law】1 在生成模型中被广泛观察到的现象对于计算量C模型参数量N和数据大小D当不受另外两个因素影响时模型的性能与每个因素都呈幂律关系 性能 ∝ N α \propto N^{\alpha} ∝Nα性能 ∝ D β \propto D^{\beta} ∝Dβ性能 ∝ C γ \propto C^{\gamma} ∝Cγ 这些公式中的 α、β、γ 是对应维度的缩放指数。通常模型性能可以用Test Loss来表示Loss越小说明模型性能越好。 Scaling Law背后的基本思想是模型的性能可以通过简单的扩展例如增加模型参数、训练数据或计算资源来不断提升并且这种提升往往遵循一定的幂律关系。通过研究这种关系研究者可以预测模型在不同规模下的性能表现指导大模型的设计和训练。 二、 Scaling Law的应用 Scaling Law总结出来的一个规律是 C ≈ 6 N D C\approx6ND C≈6ND 其中C是计算量N是参数量D是训练数据量。举个例子 假设一个模型有 10亿个参数 N 1 0 9 N10^9 N109 , 并且训练数据集的规模是 D 1 0 12 \mathrm{D}10^{12} D1012 1万亿个 token.使用公式 C 6ND, 总的计算量就是: C 6 × 1 0 9 × 1 0 12 6 × 1 0 21 F L O P s C6 \times 10^9 \times 10^{12}6 \times 10^{21} \mathrm{FLOPs} C6×109×10126×1021FLOPs 这表明要训练这个模型, 大约需要 6 × 1 0 21 6\times 10^{21} 6×1021 次浮点运算。 这个规律有什么用呢?通过前面的Scaling Law我们知道训练大模型时增加模型的参数量或者训练的数据量模型性能会得到提升。但是我们并不能无止境的增加因为现实训练模型收到计算量的制约训练一个语言大模型是很费钱的。所以当给定一个计算量budget我们怎么分配N和D得到一个最好的模型呢 1最佳模型参数数据量求解方法 上面的问题可以建模为如下的优化问题 N o p t ( C ) , D o p t ( C ) argmin ⁡ N , D s.t. FLOPs ( N , D ) C L ( N , D ) , L ^ ( N , D ) ≜ E A N α B D β . N_{opt}(C),D_{opt}(C)\underset{N,D\text{ s.t. FLOPs}(N,D)C}{\operatorname*{argmin}}L(N,D),\\ \hat{L}(N,D)\triangleq E\frac A{N^\alpha}\frac B{D^\beta}. Nopt​(C),Dopt​(C)N,D s.t. FLOPs(N,D)Cargmin​L(N,D),L^(N,D)≜ENαA​DβB​. 这个多变量问题怎么解呢主要有三种方法 固定模型大小改变训练数据固定计算量改变模型大小拟合幂律曲线 根据上表的结果得出a0.5,b0.5 根据图3右边两图所得到的点向外延伸可以得到给定计算量C最佳的N、D. 2LLaMA3.1中的Scaling Law 如下图所示是LLaMA3.1中的Scaling LawLLaMA3.1发布了3个模型分别是8B,70B,405B.这个405B是怎么定下来的呢难道是领导拍脑袋想出来的吗国内可能是hh).显然他们做了实验先在小数据和小模型上进行实验左图然后根据实验结果画出Scaling Law曲线找到对应计算量的最优模型大小和最优训练数据量。 3计算实例【根据计算量和数据量求最佳模型大小】 例 假设你有1000张H100显卡并且可以用6个月。假设你有10T的数据。那么你应该训练多大的模型 另一种更快的估计方法 三、未来挑战 尽管 Scaling Law 提供了重要的理论指导仍然存在一些挑战 计算成本问题大规模扩展模型的参数和训练数据通常需要极高的计算成本。虽然 Scaling Law 提供了理论依据但大规模训练的实际成本可能难以承受。数据质量Scaling Law 假设数据量的增加会提升模型性能但在实际应用中数据的质量同样至关重要低质量数据可能会导致性能下降甚至模型偏差。性能饱和Scaling Law 研究表明性能提升并不是无限的通常会在某个点达到瓶颈。因此研究者需要找到其他方法如新架构、知识蒸馏来进一步提高性能。 参考资料 Scaling Laws for Neural Language Models【paper】 ↩︎
http://www.hkea.cn/news/14503539/

相关文章:

  • 企业移动网站建设商做影评的网站模版
  • 导购 网站模板会员管理网站建设
  • 做自己的网站好还是博客好wordpress 知道创宇
  • wordpress 用户名湖南seo优化推荐
  • 福建省网站建设方案书wordpress评论开启
  • 返利网站建设wordpress小说站
  • 什么网站可以做线上小游戏重庆观音桥好吃街
  • led灯 东莞网站建设wordpress后台加统计代码
  • 中国建设银行培训网站php网站开发防注入
  • 实时网站推广的最终目的是我的世界大盒子怎么做视频网站
  • 花卉网站建设推广2w网站建设发展环境
  • 网站建设添加资料如何在百度上发表文章
  • 南通建公司网站建筑网课学习观后感
  • 网站推广什么意思重庆哪里有做淘宝网站推广的
  • 有关网站建设的书新浪舆情通
  • 做搜狗pc网站软件做网站一年的维护费用是多少
  • 郑州小企业网站建设python在线编程软件
  • w7自己做网站怎么做个人网站建设
  • PHP套模板做网站网站推广培训机构
  • 网站群如何做网站搜索引擎优化工作原理的先后顺序
  • 二级域名分发网站广告主
  • 易语言做网站爆破工具简述什么叫市场营销
  • 建站平台排行台山网站开发
  • 凡科怎么建设网站济南网站建设报价
  • 网站制作平台能赚钱吗先四年疫后灾
  • 宁波甬晟园林建设有限公司网站免费网站统计工具
  • 墓园网站建设价格做网站的集群方案
  • 北京网站建设哪家专业dedecms 倒计时 天数 网站首页
  • 山西焦煤集团公司网站wordpress 时区 8小时
  • 迁西县住房和城乡规划建设局网站网站建设好后给领导作介绍