当前位置: 首页 > news >正文

网站系统做酒店工作去哪个招聘网站好

网站系统,做酒店工作去哪个招聘网站好,ps做网站动图,wordpress title插件现在#xff0c;您已经了解了如何调整和对齐大型语言模型以适应您的任务#xff0c;让我们讨论一下将模型集成到应用程序中需要考虑的事项。 在这个阶段有许多重要的问题需要问。第一组问题与您的LLM在部署中的功能有关。您需要模型生成完成的速度有多快#xff1f;您有多… 现在您已经了解了如何调整和对齐大型语言模型以适应您的任务让我们讨论一下将模型集成到应用程序中需要考虑的事项。 在这个阶段有许多重要的问题需要问。第一组问题与您的LLM在部署中的功能有关。您需要模型生成完成的速度有多快您有多少计算预算可用您是否愿意为改善推理速度或降低存储空间而牺牲模型性能 第二组问题与您的模型可能需要的额外资源有关。您是否打算让您的模型与外部数据或其他应用程序进行交互如果是的话您将如何连接到这些资源 最后还有一个问题即您的模型将如何被使用。您的模型将通过什么样的预期应用程序或API界面来使用 让我们首先探讨一些在将模型部署到推理之前用于优化模型的方法。 虽然我们可以将几节课用于讨论这个主题但本节的目标是为您介绍最重要的优化技术。大型语言模型在计算和存储要求方面提出了推理挑战以及确保消费应用程序具有低延迟。无论是在本地部署还是部署到云上当部署到边缘设备时这些挑战都会更加突出。 提高应用程序性能的主要方法之一是减小LLM的大小。这可以允许模型更快地加载从而减少推理延迟。但是挑战在于在保持模型性能的同时减小模型的大小。对于生成模型某些技术比其他技术效果更好准确性和性能之间存在权衡。在本节中您将了解三种技术。 蒸馏使用一个较大的模型即教师模型来训练一个较小的模型即学生模型。然后您可以使用较小的模型进行推理以降低存储和计算预算。与量化感知训练类似后期训练量化将模型的权重转换为较低精度的表示例如16位浮点或8位整数。如您在课程第一周学到的那样这会减小模型的内存占用。第三种技术模型修剪删除了对模型性能贡献不大的冗余模型参数。让我们更详细地讨论这些选项。 模型蒸馏是一种侧重于使用较大的教师模型来训练较小的学生模型的技术。学生模型学会统计上模仿教师模型的行为可以是在最终预测层或模型的隐藏层中。 这里我们将重点放在第一种选项上。您可以使用您的微调LLM作为教师模型为学生模型创建一个较小的LLM。您冻结教师模型的权重并使用它来为您的训练数据生成完成。同时您使用学生模型为训练数据生成完成。通过最小化称为蒸馏损失的损失函数来实现教师和学生模型之间的知识蒸馏。为了计算这个损失蒸馏使用了由教师模型的softmax层产生的标记概率分布。 现在教师模型已经在训练数据上进行了微调。因此概率分布可能与基本事实数据非常接近标记中的令牌不会有太大的变化。这就是为什么蒸馏应用了一个小技巧即在softmax函数中添加温度参数。如您在第一课中学到的温度越高模型生成的语言的创造力就越大。 通过一个大于一的温度参数概率分布变得更广泛峰值不那么尖锐。 这种较软的分布为您提供了一组与基本事实标记相似的标记。 在蒸馏的上下文中教师模型的输出通常被称为软标签 学生模型的预测被称为软预测。 同时您训练学生模型生成基于您的基本事实训练数据的正确预测。在这里您不会改变温度设置而是使用标准的softmax函数。蒸馏将学生和教师模型之间的损失和学生损失结合起来通过反向传播来更新学生模型的权重。 蒸馏方法的关键好处是可以在部署中使用较小的学生模型而不是教师模型。 在实践中蒸馏对生成解码器模型通常不太有效。通常对仅编码器模型如具有大量表示冗余的Bert模型更有效。请注意使用蒸馏您训练了一个第二个较小的模型用于推理。您没有以任何方式减小初始LLM的模型大小。 接下来让我们看看下一个可以实际减小LLM大小的模型优化技术。在第一周您已经在培训的上下文中介绍了第二种方法即量化感知训练Specifically Quantization Aware Training简称QAT。 然而一旦模型训练完毕您可以执行后期训练量化Post Training quantization简称PTQ以优化部署。PTQ将模型的权重转换为较低精度的表示例如16位浮点或8位整数以减小模型大小和内存占用以及模型服务所需的计算资源。一般来说包括激活的量化方法对模型性能的影响较大。 量化还需要额外的校准步骤以统计捕获原始参数值的动态范围。 与其他方法一样存在权衡因为有时量化会导致模型评估指标略微下降。然而这种降低通常可以抵消成本节省和性能提高的成本。 最后一个模型优化技术是修剪Pruning。在高层次上目标是通过消除对总体模型性能贡献不大的权重来减小推理的模型大小。这些权重的值非常接近或等于零。请注意一些修剪方法需要对模型进行全面重新训练而其他方法属于参数高效微调的范畴例如LoRA。还有一些方法专注于后期修剪。在理论上这可以减小模型的大小并提高性能。然而在实践中如果只有一小部分模型权重接近零那么模型的大小和性能可能没有太大影响。 量化、蒸馏和修剪都旨在减小模型大小以提高推理时的模型性能而不影响准确性。优化您的模型以供部署将有助于确保您的应用程序运行良好并为用户提供最佳体验。 Reference https://www.coursera.org/learn/generative-ai-with-llms/lecture/qojKp/model-optimizations-for-deployment
http://www.hkea.cn/news/14523103/

相关文章:

  • 个人域名备案 网站名称服务好的企业建站
  • 营销型网站建设技术指标深圳品牌做网站
  • 正定网站建设制作公司建个企业网站需要什么
  • 情侣网站建设策划书完全不收费的聊天软件
  • 做网站可以做哪些方面的网站友情链接要加什么
  • 清溪仿做网站新乡网站建设公司黄页
  • 怎样给自己的店子做网站能做游戏的软件
  • 网站内容排版设计模板更改wordpress传文件尺寸
  • 家居企业网站建设机构娄底网站建设公司
  • 静态网站什么样手机版企业网站h5
  • 网站怎么添加关键词erp系统开发
  • 做网站制作挣钱吗酒店软装设计公司官网
  • 网站建设吧网站建设合同书简单版
  • 怎么建设一个淘宝客网站谁知道基于企业网站的网络营销方法
  • 手机网站推荐几个网上购物平台排行
  • 上传到网站的根目录中网页浏览器加速器
  • 重庆做网站建设企业宣讲家网站生态文明建设
  • 做网站做推广如何做一家网站
  • 电商网站的建设动态最专业网站建
  • 咖啡网站建设策划书wordpress 漂亮按钮
  • 广州网站建设互广项目管理6个核心内容
  • 互联网网站备案流程学网站开发和游戏开发那个
  • 石家庄建设网站哪家好做一个手机app的步骤
  • 那些空号检测网站是怎么做的搞钱的路子网站
  • 建筑教育培训网哈尔滨网站优化
  • 潍坊企业网站wordpress在哪设置评论
  • 巩义专业网站建设公司百度快速收录教程
  • 企业网站备案要关站吗建设个网站需要什么
  • 电子商务网站建设与维护期末html5手机网站开发视频
  • 招远网站开发为公司设计一个网站