当前位置: 首页 > news >正文

怎么让别人找你做网站互动平台有效学时是什么意思

怎么让别人找你做网站,互动平台有效学时是什么意思,高端html5网站设计工作室织梦模板 dedecms5.7,互动模板wordpress目录 前言 本机环境 GLM4代码库下载 模型文件下载#xff1a;文件很大 修改为从本地模型文件启动 启动模型cli对话demo 慢#xff0c;巨慢#xff0c;一个字一个字的蹦 GPU资源使用情况 GLM3资源使用情况对比 前言 GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 …目录 前言 本机环境 GLM4代码库下载 模型文件下载文件很大 修改为从本地模型文件启动 启动模型cli对话demo 慢巨慢一个字一个字的蹦 GPU资源使用情况  GLM3资源使用情况对比 前言 GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中 GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出超越 Llama-3-8B 的卓越性能。 除了能进行多轮对话GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用Function Call和长文本推理支持最大 128K 上下文等高级功能。 本代模型增加了多语言支持支持包括日语韩语德语在内的 26 种语言。 我们还推出了支持 1M 上下文长度约 200 万中文字符的 GLM-4-9B-Chat-1M 模型和基于 GLM-4-9B 的多模态模型 GLM-4V-9B。GLM-4V-9B 具备 1120 * 1120 高分辨率下的中英双语多轮对话能力在中英文综合能力、感知推理、文字识别、图表理解等多方面多模态评测中GLM-4V-9B 表现出超越 GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max 和 Claude 3 Opus 的卓越性能。 本机环境 OSWindows CPUAMD Ryzen 5 3600X 6-Core Processor Mem32GB GPURTX 4060Ti 16G GLM4代码库下载 参考LLM大语言模型一ChatGLM3-6B本地部署_llm3 部署-CSDN博客 # 下载代码库 https://github.com/THUDM/GLM-4.git 模型文件下载文件很大 建议从modelscope下载模型这样就不用担心网络问题了。 模型链接如下  glm-4-9b-chat汇聚各领域最先进的机器学习模型提供模型探索体验、推理、训练、部署和应用的一站式服务。https://modelscope.cn/models/ZhipuAI/glm-4-9b-chat/files git lfs install # 以安装则忽略 git clone https://www.modelscope.cn/ZhipuAI/glm-4-9b-chat.git 做好心理准备接近20G我的带宽只有300Mbps~~ 修改为从本地模型文件启动 修改此文件basic_demo/trans_cli_demo.py 修改这一行 MODEL_PATH os.environ.get(MODEL_PATH, D:\github\glm-4-9b-chat) 该为你下载的模型文件夹 This script creates a CLI demo with transformers backend for the glm-4-9b model, allowing users to interact with the model through a command-line interface.Usage: - Run the script to start the CLI demo. - Interact with the model by typing questions and receiving responses.Note: The script includes a modification to handle markdown to plain text conversion, ensuring that the CLI interface displays formatted text correctly. import os import torch from threading import Thread from typing import Union from pathlib import Path from peft import AutoPeftModelForCausalLM, PeftModelForCausalLM from transformers import (AutoModelForCausalLM,AutoTokenizer,PreTrainedModel,PreTrainedTokenizer,PreTrainedTokenizerFast,StoppingCriteria,StoppingCriteriaList,TextIteratorStreamer )ModelType Union[PreTrainedModel, PeftModelForCausalLM] TokenizerType Union[PreTrainedTokenizer, PreTrainedTokenizerFast]# 改为你下载的模型文件夹 MODEL_PATH os.environ.get(MODEL_PATH, D:\github\glm-4-9b-chat)def load_model_and_tokenizer(model_dir: Union[str, Path], trust_remote_code: bool True ) - tuple[ModelType, TokenizerType]:model_dir Path(model_dir).expanduser().resolve()if (model_dir / adapter_config.json).exists():model AutoPeftModelForCausalLM.from_pretrained(model_dir, trust_remote_codetrust_remote_code, device_mapauto)tokenizer_dir model.peft_config[default].base_model_name_or_pathelse:model AutoModelForCausalLM.from_pretrained(model_dir, trust_remote_codetrust_remote_code, device_mapauto)tokenizer_dir model_dirtokenizer AutoTokenizer.from_pretrained(tokenizer_dir, trust_remote_codetrust_remote_code, encode_special_tokensTrue, use_fastFalse)return model, tokenizermodel, tokenizer load_model_and_tokenizer(MODEL_PATH, trust_remote_codeTrue)class StopOnTokens(StoppingCriteria):def __call__(self, input_ids: torch.LongTensor, scores: torch.FloatTensor, **kwargs) - bool:stop_ids model.config.eos_token_idfor stop_id in stop_ids:if input_ids[0][-1] stop_id:return Truereturn Falseif __name__ __main__:history []max_length 8192top_p 0.8temperature 0.6stop StopOnTokens()print(Welcome to the GLM-4-9B CLI chat. Type your messages below.)while True:user_input input(\nYou: )if user_input.lower() in [exit, quit]:breakhistory.append([user_input, ])messages []for idx, (user_msg, model_msg) in enumerate(history):if idx len(history) - 1 and not model_msg:messages.append({role: user, content: user_msg})breakif user_msg:messages.append({role: user, content: user_msg})if model_msg:messages.append({role: assistant, content: model_msg})model_inputs tokenizer.apply_chat_template(messages,add_generation_promptTrue,tokenizeTrue,return_tensorspt).to(model.device)streamer TextIteratorStreamer(tokenizertokenizer,timeout60,skip_promptTrue,skip_special_tokensTrue)generate_kwargs {input_ids: model_inputs,streamer: streamer,max_new_tokens: max_length,do_sample: True,top_p: top_p,temperature: temperature,stopping_criteria: StoppingCriteriaList([stop]),repetition_penalty: 1.2,eos_token_id: model.config.eos_token_id,}t Thread(targetmodel.generate, kwargsgenerate_kwargs)t.start()print(GLM-4:, end, flushTrue)for new_token in streamer:if new_token:print(new_token, end, flushTrue)history[-1][1] new_tokenhistory[-1][1] history[-1][1].strip()启动模型cli对话demo 运行该py文件即可效果如下 模型运行时会报个warning C:\Users\Administrator\.cache\huggingface\modules\transformers_modules\glm-4-9b-chat\modeling_chatglm.pm.py:189: UserWarning: 1Torch was not compiled with flash attention. (Triggered internally at C:\cb\pytorc000h_1000000000000\work\aten\src\ATen\native\transformers\cuda\sdp_utils.cpp:263.)   context_layer torch.nn.functional.scaled_dot_product_attention(query_layer, key_layer, value_layer,  不过也没影响运行。 慢巨慢一个字一个字的蹦 GPU资源使用情况  16G显存使用率90%内存使用16G50% GLM3资源使用情况对比
http://www.hkea.cn/news/14304228/

相关文章:

  • 网站热力图用ps怎么做动态电商网站怎么做
  • 什么网站可以做兼职 知乎如何做网站连接
  • 韶关市网站建设无锡网站怎么推广效果好
  • 西安建站价格表如何介绍自己的网页设计
  • 南宁seo建站怎么做多语言网站
  • 大型网站开发 广州官方网站首页
  • 英文注册查询网站资源网址有哪些
  • 平湖企业网站建设杭州自助建站模板下载
  • 做php网站用什么软件好中国建筑考试网入口
  • 网站排名和什么有关wordpress批量定时更新
  • 如何建设网站论坛试玩qq在线登录聊天
  • 涞水住房和城乡建设厅网站深圳企业公司网站建设平台
  • 盐山县网站建设wordpress批量修改引用网址
  • wordpress能做企业网站吗广州网络营销的推广
  • flash网站as网站开发如何记账
  • 湛江市seo网站设计联系方式wordpress添加二维码弹窗
  • 长春火车站在哪软件界面设计要求
  • 宝安专业网站建设百度个人网站申请
  • 怎么做网站导航栏wordpress调用文章内容标签
  • seo软件优化工具软件seo在网站建设中的作用
  • 网站设计论文分类号怎么做网站 新手做网站
  • 做网站推广的工作好吗苏州中设建设集团有限公司网站
  • 开一个做网站的工作室cn域名的网站
  • 在哪里可以学习做网站网站制作报价维持地建网络
  • 新手如何入侵一个网站手机做推广比较好的网站
  • 有哪些做PPT背景网站厦门营销型网站建设公司
  • 设计网站100个免费百度云盘网站开发
  • 定州市住房和建设局网站莱芜规划
  • 云主机建网站软件北京网站制作团队
  • 做门头上那个网站申报wordpress调用文章标签