当前位置: 首页 > news >正文

天气网站建设网络推广引流有哪些渠道

天气网站建设,网络推广引流有哪些渠道,数据分析网站怎么做,东莞企业邮箱本篇文章主要介绍如何使用新的Hugging Face LLM推理容器将开源LLMs#xff0c;比如BLOOM大型语言模型部署到亚马逊云科技Amazon SageMaker进行推理的示例。我们将部署12B Open Assistant Model#xff0c;这是一款由开放助手计划训练的开源Chat LLM。 这个示例包括#xff1… 本篇文章主要介绍如何使用新的Hugging Face LLM推理容器将开源LLMs比如BLOOM大型语言模型部署到亚马逊云科技Amazon SageMaker进行推理的示例。我们将部署12B Open Assistant Model这是一款由开放助手计划训练的开源Chat LLM。 这个示例包括 设置开发环境 获取全新Hugging Face LLM DLC 将开放助手12B部署到亚马逊云科技Amazon SageMaker 进行推理并与我们的模型聊天 清理环境 什么是Hugging Face LLM Inference DLC Hugging Face LLM DLC是一款全新的专用推理容器可在安全的托管环境中轻松部署LLM。DLC由文本生成推理TGI提供支持这是一种用于部署和服务大型语言模型LLM的开源、专门构建的解决方案。TGI使用张量并行和动态批处理为最受欢迎的开源LLM包括StarCoder、BLOOM、GPT-Neox、Llama和T5实现高性能文本生成。文本生成推理已被IBM、Grammarly等客户使用Open-Assistant计划对所有支持的模型架构进行了优化包括 张量并行性和自定义cuda内核 在最受欢迎的架构上使用flash-attention优化了用于推理的变形器代码 使用bitsandbytes进行量化 连续批处理传入的请求以增加总吞吐量 使用safetensors加速重量加载启动时间 Logits扭曲器温度缩放、topk、重复惩罚… 用大型语言模型的水印添加水印 停止序列记录概率 使用服务器发送事件SSE进行Token流式传输 官方支持的模型架构目前为 BLOOM/BLOOMZ MT0-XXL Galactica SantaCoder gpt-Neox 20Bjoi、pythia、lotus、rosey、chip、redPajama、open Assistant FLAN-T5-XXLT5-11B Llamavicuna、alpaca、koala Starcoder/santaCoder Falcon 7B/Falcon 40B 借助亚马逊云科技Amazon SageMaker上推出的全新Hugging Face LLM Inference DLC亚马逊云科技客户可以从支持高度并发、低延迟LLM体验的相同技术中受益例如HuggingChat、OpenAssistant和Hugging Face Hub上的LLM模型推理API。 1.设置开发环境 使用SageMaker python SDK将OpenAssistant/pythia-12b-sft-v8-7k-steps部署到亚马逊云科技Amazon SageMaker。需要确保配置一个亚马逊云科技账户并安装SageMaker python SDK。 如果打算在本地环境中使用SageMaker。需要访问具有亚马逊云科技Amazon SageMaker所需权限的IAM角色。可以在这里找到更多关于它的信息。 2.获取全新Hugging Face LLM DLC 与部署常规的HuggingFace模型相比首先需要检索容器URI并将其提供给HuggingFaceModel模型类并使用image_uri指向该镜像。要在亚马逊云科技Amazon SageMaker中检索新的HuggingFace LLM DLC可以使用SageMaker SDK 提供的get_huggingface_llm_image_uri方法。此方法允许根据指定的 “后端”、“会话”、“区域” 和 “版本”检索所需的Hugging Face LLM DLC 的 URI。 要将[Open Assistant Model]openAssistant/Pythia-12b-sft-v8-7K-steps部署到亚马逊云科技Amazon SageMaker创建一个HuggingFaceModel模型类并定义终端节点配置包括hf_model_id、instance_type等。使用g5.4xlarge实例类型它有1个NVIDIA A10G GPU和64GB的GPU内存。 亚马逊云科技Amazon SageMaker现在创建端点并将模型部署到该端点。这可能需要10-15分钟。 4.进行推理并与模型聊天 部署终端节点后可以对其进行推理。使用predictor中的predict方法在端点上进行推理。可以用不同的参数进行推断来影响生成。参数可以设置在parameter中设置。 温度控制模型中的随机性。较低的值将使模型更具确定性而较高的值将使模型更随机。默认值为0。 max_new_tokens要生成的最大token数量。默认值为20最大值为512。 repeption_penalty控制重复的可能性默认为null。 seed用于随机生成的种子默认为null。 stop用于停止生成的代币列表。生成其中一个令牌后生成将停止。 top_k用于top-k筛选时保留的最高概率词汇标记的数量。默认值为null它禁用top-k过滤。 top_p用于核采样时保留的参数最高概率词汇标记的累积概率默认为null。 do_sample是否使用采样否则使用贪婪的解码。默认值为false。 best_of生成best_of序列如果是最高标记logpros则返回序列默认为null。 details是否返回有关世代的详细信息。默认值为false。 return_full_text是返回全文还是只返回生成的部分。默认值为false。 truncate是否将输入截断到模型的最大长度。默认值为true。 typical_p代币的典型概率。默认值null。 水印生成时使用的水印。默认值为false。 可以在swagger文档中找到TGI的开放api规范。 openAssistant/Pythia-12b-sft-v8-7K-steps是一种对话式聊天模型这意味着我们可以使用以下提示与它聊天 先试一试问一下夏天可以做的一些很酷的想法 现在使用不同的参数进行推理以影响生成。参数可以通过输入的parameters属性定义。这可以用来让模型在“机器人”回合后停止生成。 现在构建一个快速gradio应用程序来和它聊天。 程序运行成功后显示如下聊天窗口 现在已经成功地将Open Assistant模型部署到亚马逊云科技Amazon SageMaker并对其进行了推理。此外还构建了一个快速的gradio应用程序可以与模型聊天。 现在可以使用亚马逊云科技Amazon SageMaker上全新Hugging Face LLM DLC构建世代人工智能应用程序的时候了。 5.清理环境 删除模型和端点。 6.总结 从上面的部署过程可以看到整个部署大语言模型的过程非常简单这个主要得益于SageMaker Hugging Face LLM DLC的支持还可以通过将Amazon SageMaker部署的端点与应用集成满足实际的业务需求。
http://www.hkea.cn/news/14432500/

相关文章:

  • 铜陵做网站ninety ajax wordpress
  • 专门做民宿的网站网站论坛建设方案
  • 网站分成比例系统怎么做手机网站自助建站源码
  • 做富集分析的网站建设网站应该注意的地方
  • 电商货源网站邢台市住建局
  • 石家庄做网站建设的公司排名河池做网站
  • 农业企业网站模板免费下载免费空白ppt模板下载
  • php可以做视频网站有哪些php网站源码删除
  • vps可以用了做网站吗wordpress4.7.2卡
  • 嘉兴市建设官方网站做软件公司网站
  • php网站开发方案wordpress 登录页面
  • 99元一月做网站公司网站模版
  • 创意餐厅网站建设文案书网站建设公司加盟
  • 网站公司logo设计小学生免费编程课
  • 郑州营销网站建设公司digging into wordpress
  • 专业做网站建设的推广 广州网站建设公司
  • 杭州网站建设提供商建设行业年度峰会网站
  • 长春能开发网站的公司最好的手机网站建设
  • 做简历的什么客网站设计公司logo网站
  • 高级网站开发工程师证免费照片编辑器
  • php建站视频教程网站建设与规划结论
  • 济南移动网站制作蒙阴县城乡建设局网站
  • 一级门户网站建设费用懒人做图网站
  • 建设银行金牛支行网站seo优化技术教程
  • 网站建设app小程序网站下面 备案
  • gif表情包在线制作网站做网站会员金字塔系统
  • 宁波做网站十大公司哪家好金堂县建设局网站
  • 土特产网站模板 织梦张家港杨舍网站制作
  • 北京商城网站建设报价单乱码网站怎么办
  • 建设互联网教育网站网站服务器在哪里买好