当前位置: 首页 > news >正文

2021半夜好用的网站c2c网站建设公司

2021半夜好用的网站,c2c网站建设公司,西安专业网站建设公司哪家好,Wordpress主题 程序员量化大型语言模型(llm)是减少这些模型大小和加快推理速度的最流行的方法。在这些技术中#xff0c;GPTQ在gpu上提供了惊人的性能。与非量化模型相比#xff0c;该方法使用的VRAM几乎减少了3倍#xff0c;同时提供了相似的精度水平和更快的生成速度。 ExLlamaV2是一个旨在从…量化大型语言模型(llm)是减少这些模型大小和加快推理速度的最流行的方法。在这些技术中GPTQ在gpu上提供了惊人的性能。与非量化模型相比该方法使用的VRAM几乎减少了3倍同时提供了相似的精度水平和更快的生成速度。 ExLlamaV2是一个旨在从GPTQ中挤出更多性能的库。由于新的内核它还经过了优化可以进行(非常)快速的推理。并且它还引入了一种新的量化格式EXL2它为如何存储权重带来了很大的灵活性。 在本文中我们将介绍如何量化EXL2格式的基本模型以及如何运行它们。当然如果你喜欢使用现有的已经量化好的模型TheBloke 仍然是第一选择。 量化EXL2模型 首先需要安装ExLlamaV2库 pip install exllamav2#为了使用官方的一些脚本我们还要把官方的代码clone到本地git clone https://github.com/turboderp/exllamav2我们使用出色的zephyr-7B-beta这是一种使用DPO进行微调的Mistral-7B模型。它声称在MT测试台上的表现优于Llama-2 70b的效果这对于一个小十倍的模型来说是非常好的结果。 使用以下命令下载zephyr-7B-beta(这可能需要一段时间因为模型大约是15gb): git lfs installgit clone https://huggingface.co/HuggingFaceH4/zephyr-7b-betaGPTQ还需要一个校准数据集该数据集用于通过比较基本模型及其量化版本的输出来衡量量化过程的影响。我们将使用wikitext数据集直接下载测试文件如下: wget https://huggingface.co/datasets/wikitext/resolve/9a9e482b5987f9d25b3a9b2883fc6cc9fd8071b3/wikitext-103-v1/wikitext-test.parquet准备工作完成后就可以利用ExLlamaV2库提供的convert.py脚本来进行量化了主要的参数是 -i:以HF格式(FP16)转换的基模型路径。 -o:存放临时文件和最终输出的工作目录路径。 -c:校准数据集的路径(Parquet格式)。 -b:目标平均加权位数(bpw)。例如4.0 bpw将给出4位精度的存储权重。 让我们使用带有以下参数的convert.py脚本开始量化过程: mkdir deephub-quantpython python exllamav2/convert.py \-i base_model \-o deephub-quant \-c wikitext-test.parquet \-b 5.0这里就需要一个GPU来量化这个模型。根据官方文档指出7B型号需要大约8 GB的VRAM, 70B型号需要大约24 GB的VRAM。zephyr-7b-beta在白嫖的谷歌Colab的T4 GPU经过了2小时10分钟完成了量化。 ExLlamaV2利用GPTQ算法来降低权重的精度同时最大限度地减少对输出的影响。GPTQ算法的更多详细信息可以参考我们以前的文章。 量化过程使用现有脚本非常的简单。那么还有最后一个问题为什么要使用“EXL2”格式而不是常规的GPTQ格式呢?EXL2带来了哪些新功能 它支持不同级别的量化:它不局限于4位精度可以处理2、3、4、5、6和8位量化。 它可以在一个模型和每一层中混合不同的精度以保留最重要的权重和具有更多bit的层。 ExLlamaV2在量化过程中使用了这种额外的灵活性。它会自动尝试不同的量化参数并测量了它们引入的误差。除了尽量减少错误之外ExLlamaV2还会将必须达到平均位数作为参数这个我们在以前文章中也有介绍。所以我们可以创建一个混合的量化模型例如每个权重的平均位数为3.5或4.5。 ExLlamaV2另外一个好处是它创建的不同参数的基准被保存在measurement.json文件中。我们可以直接看到具体的信息 key: model.layers.0.self_attn.q_proj,numel: 16777216,options: [{desc: 0.05:3b/0.95:2b 32g s4,bpw: 2.1878662109375,total_bits: 36706304.0,err: 0.011161142960190773,qparams: {group_size: 32,bits: [3,2],bits_prop: [0.05,0.95],scale_bits: 4}},比如上面的内容ExLlamaV2使用了5%的3位精度和95%的2位精度平均值为2.188 bpw组大小为32。这导致了一个明显的误差所以在选择最佳参数时要考虑到这个误差通过查看json文件的结果我们可以判断出这次量化是否符合我们的要求并且进行调整。 使用ExLlamaV2进行推理 模型已经量子化了下面就是使用模型进行推理了。首先需要将基本配置文件从base_model目录复制到新的deephub-quant目录代码如下 !rm -rf deephub-quant/out_tensor!rsync -av --exclude*.safetensors --exclude.* ./base_model/ ./deephub-quant/最直接的方法是使用ExLlamaV2 repo中的test_inference.py脚本(注意我在这里没有使用聊天模板): python exllamav2/test_inference.py -m quant/ -p I have a dream与GGUF/llama.cpp或GPTQ等其他量化技术和工具相比生成速度也非常快(在T4 GPU上每秒56.44个令牌)。 也可以使用chatcode.py脚本的聊天版本来获得更大的灵活性: python exllamav2/examples/chatcode.py -m deephub-quant -mode llama总结 ExLlamaV2已经被集成到几个常见的后端中比如oobabooga的文本生成web UI。但是它需要FlashAttention 2和CUDA 12.1这在windows中可能需要费一些时间。 ExLlamaV2与GPTQ或llama.cpp等其他解决方案相比可以自定义量化我们的模型。在量化之后它每秒提供的令牌数量更多更快。这对于定制化的需求来说是非常有帮助的。 最后本文代码 https://avoid.overfit.cn/post/ce9c31f9650943bfa220f48f3ee2f430 作者Maxime Labonne
http://www.hkea.cn/news/14555276/

相关文章:

  • 网站开发导向图合肥软件开发公司
  • 做印刷网站公司网站栏目名称大全
  • 北京模板网站建设太原网站建设托管
  • 腾讯域名怎么建设网站松江九亭网站建设
  • 南昌冶金建设有限公司网站如何制作微信小程序游戏
  • ps做网站连接莱芜网站建设开发公司
  • 开源站群cms网站建设虚拟主机说明
  • 品牌包装建设网站WordPress出现404怎么办
  • 长沙网站seo方法品牌推广服务
  • 钦州网站制作网站弹窗怎么做
  • sae网站代备案且网站制作
  • 网站准确的定位100%上热门文案
  • 访问国外网站快的dns通州网站建设是什么
  • 微信支付公司网站制作网站团队人员
  • 网站建设补贴是经信局的政策吗10大营销理论
  • 做破解的网站怎样建立门户网站
  • 苏州网站建设要点动易做网站如何
  • 厚瑜珠海网站建设外资公司注册代理
  • 网站打开速度概念网址注册
  • wordpress建站难不难wordpress 全站ajax
  • 免费做销售网站有哪些营销广告文案
  • 网页界面设计宽度和安全区wordpress做seo
  • 建设一个私人视频网站wordpress自定义上传头像
  • 网站建设客户资料收集清单招考网站开发
  • 网站首页轮播图片素材内网访问wordpress很慢
  • 厚街做网站的公司wordpress支持gif
  • 贵阳做个网站需要多少钱营销管理
  • 网站建设制作设计营销 中山网站建设维护 天博网络
  • 网站运营推广难做创业投资平台
  • 新手做导航网站万网域名网站建设