当前位置: 首页 > news >正文

网站制作公司前景中国互联网大厂排名

网站制作公司前景,中国互联网大厂排名,门户网站建设招标公告,企业信用信息年报公示目录 一、前置准备 1.1 电脑操作系统#xff1a;windows 11 1.2 前置服务安装#xff08;避免访问127.0.0.1被拒绝#xff09; 1.2.1 iis安装并重启 1.2.2 openssh安装 1.2.3 openssh服务更改为自动模式 1.2.4 书生浦语平台 ssh配置 1.3 补充#xff08;前置服务ok… 目录 一、前置准备 1.1 电脑操作系统windows 11 1.2 前置服务安装避免访问127.0.0.1被拒绝 1.2.1 iis安装并重启 1.2.2 openssh安装 1.2.3 openssh服务更改为自动模式 1.2.4 书生·浦语平台 ssh配置 1.3  补充前置服务ok仍被拒绝 二、部署InternLM2-Chat-1.8B模型进行智能对话 2.1 配置基础环境 2.2 下载 InternLM2-Chat-1.8B 模型 2.3 运行结果 三、部署八戒-Chat-1.8B模型进行智能对话 3.1 配置基础环境 3.2 demo并运行 3.3 运行结果 四、使用 Lagent 运行 InternLM2-Chat-7B 模型 4.1 配置基础环境 4.2  使用 Lagent 运行 InternLM2-Chat-7B 模型为内核的智能体 4.3  运行结果 4.4 作业-huggingface_hub python 包下载InternLM2-Chat-7B 的 config.json 文件 五、部署 浦语·灵笔2 模型 5.1 图文写作 5.2 图片理解 六、课程总结 6.1 课程收获 6.1.1 关于Lagent 一、前置准备 1.1 电脑操作系统windows 11 1.2 前置服务安装避免访问127.0.0.1被拒绝 1.2.1 iis安装并重启 操作控制面板----程序和功能----启用或关闭windows功能----Internet Information Services   Internet   Information services可承载的Web核心 输入127.0.01出现以下界面就是成功了 1.2.2 openssh安装 操作添加可选功能----openssh 1.2.3 openssh服务更改为自动模式 操作cmd----service.msc----openssh切换成自动方式 1.2.4 书生·浦语平台 ssh配置 1终端生成SSH密钥 ssh-keygen -t rsa 2ssh公钥复制到InternStudio 密钥放在C\Users\Administrator/.ssh/id_rsa下进入到目录下进行查看、复制 type id_rsa.pub 3点击首页的配置SSH Key将公钥复制进去 4本地终端ssh连接 操作平台点击ssh连接复制登录命令至终端 1.3  补充前置服务ok仍被拒绝 1.3.1 确认是否设置隧道端口号是ssh连接的端口号如果要输密码就是ssh的密码我这边跳过密码了。 ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p 38894 1.3.2 确认6006端口是否被占用占用就杀掉进程 netstat ano | findstr : 6006 1.3.3 防火墙是否关闭 二、部署InternLM2-Chat-1.8B模型进行智能对话 2.1 配置基础环境 conda activate demo pip install huggingface-hub0.17.3 pip install transformers4.34  pip install psutil5.9.8 pip install accelerate0.24.1 pip install streamlit1.32.2  pip install matplotlib3.8.3  pip install modelscope1.9.5 pip install sentencepiece0.1.99 2.2 下载 InternLM2-Chat-1.8B 模型 1创建2个python脚本 mkdir -p /root/demo touch /root/demo/cli_demo.py touch /root/demo/download_mini.py cd /root/demo 2下载模型参数文件 import os from modelscope.hub.snapshot_download import snapshot_download # 创建保存模型目录 os.system(mkdir /root/models) # save_dir是模型保存到本地的目录 save_dir/root/models snapshot_download(Shanghai_AI_Laboratory/internlm2-chat-1_8b,                    cache_dirsave_dir,                    revisionv1.1.0) python /root/demo/download_mini.py 3下载模型cli_demo.py import torch from transformers import AutoTokenizer, AutoModelForCausalLM model_name_or_path /root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b tokenizer AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_codeTrue, device_mapcuda:0) model AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_codeTrue, torch_dtypetorch.bfloat16, device_mapcuda:0) model model.eval() system_prompt You are an AI assistant whose name is InternLM (书生·浦语). - InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless. - InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文. messages [(system_prompt, )] print(Welcome to InternLM chatbot, type exit to exit.) while True:     input_text input(\nUser   )     input_text input_text.replace( , )     if input_text exit:         break     length 0     for response, _ in model.stream_chat(tokenizer, input_text, messages):         if response is not None:             print(response[length:], flushTrue, end)             length len(response) 2.3 运行结果 conda activate demo python /root/demo/cli_demo.py   三、部署八戒-Chat-1.8B模型进行智能对话 3.1 配置基础环境 1进入环境并用Git获取demo conda activate demo cd /root/ git clone https://gitee.com/InternLM/Tutorial -b camp2 cd /root/Tutorial 3.2 demo并运行 1windows终端运行38894替换成自己的端口 ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p 38894 2平台运行 python /root/Tutorial/helloworld/bajie_download.py streamlit run /root/Tutorial/helloworld/bajie_chat.py --server.address 127.0.0.1 --server.port 6006 3.3 运行结果 四、使用 Lagent 运行 InternLM2-Chat-7B 模型 4.1 配置基础环境 1进入conda环境 conda activate demo 2下载Lagent相关代码并安装 git clone https://gitee.com/internlm/lagent.git cd /root/demo/lagent git checkout 581d9fb8987a5d9b72bb9ebd37a95efd47d479ac pip install -e .  4.2  使用 Lagent 运行 InternLM2-Chat-7B 模型为内核的智能体 1进入lagent文件夹设置软链接快速访问方式 cd /root/demo/lagent ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b 2更改模型路径 修改进入lagent/examples/internlm2_agent_web_demo_hf.py第71行 value/root/models/internlm2-chat-7b 3运行前提已经设置隧道。出现拒绝访问参考 1.2、1.3 章节 streamlit run /root/demo/lagent/examples/internlm2_agent_web_demo_hf.py --server.address 127.0.0.1 --server.port 6006 4.3  运行结果 4.4 作业-huggingface_hub python 包下载InternLM2-Chat-7B 的 config.json 文件 1安装huggingface_hub pip install -U huggingface_hub 2)创建下载脚本 3运行 五、部署 浦语·灵笔2 模型 5.1 图文写作 1进入conda环境 conda activate demo2补充环境包 pip install timm0.4.12 sentencepiece0.1.99 markdown22.4.10 xlsxwriter3.1.2 gradio4.13.0 modelscope1.9.5 3下载 InternLM-XComposer 仓库 相关的代码资源 cd /root/demo git clone https://gitee.com/internlm/InternLM-XComposer.git cd /root/demo/InternLM-XComposer git checkout f31220eddca2cf6246ee2ddf8e375a40457ff626 4构造软链接 ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-7b /root/models/internlm-xcomposer2-7b ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-vl-7b /root/models/internlm-xcomposer2-vl-7b 5启动 InternLM-XComposer cd /root/demo/InternLM-XComposer python /root/demo/InternLM-XComposer/examples/gradio_demo_composition.py  \ --code_path /root/models/internlm-xcomposer2-7b \ --private \ --num_gpus 1 \ --port 6006 6访问127.0.0.16006 5.2 图片理解 1进入conda环境 2启动 InternLM-XComposer2-vl cd /root/demo/InternLM-XComposer python /root/demo/InternLM-XComposer/examples/gradio_demo_chat.py  \ --code_path /root/models/internlm-xcomposer2-vl-7b \ --private \ --num_gpus 1 \ --port 6006 3访问127.0.0.16006 六、课程总结 6.1 课程收获 6.1.1 关于Lagent 一个轻量级的开源框架帮助用户高效构建基于大型语言模型LLM的智能代理。它还提供了一些典型的工具来增强LLM的功能。 主要特点包括高效的推理引擎支持、对多种代理的支持、极简易的扩展能力以及支持多种LLM如GPT-3.5/4、LLaMA 2和InternLM等。 Lagent的设计旨在提高扩展性和可用性允许用户通过简单的继承和装饰来创建个性化的工具集从而使模型到智能代理的转换只需一步操作。此外Lagent的文档也经过了全面的升级覆盖了完整的API文档。 Lagent支持通过简单的代码定义智能代理、动作以及与LLM的交互使得构建智能代理变得更加直接和灵活。 当前LLM Agent正处于实验和概念验证阶段。在实际使用中还面临着诸多挑战如处理任务时的循环问题、记忆模块的策略问题以及因幻觉问题而错误使用工具的问题等。这些问题的解决需要LLM本身的进一步发展和Agent框架的优化。然而围绕LLM Agent的生态正在逐渐丰富探索Agent模型、框架以及应用的研究正在积极进行中旨在提升Agent的能力使其能更好地应对现实世界的复杂性。
http://www.hkea.cn/news/14290089/

相关文章:

  • 免费永久网站空间书店网站模板下载
  • .net网站开发实训报告电子商务工资多少钱一个月
  • 自己建立网站教程建筑工程网络进度计划备注填写范例
  • 做卖挖掘机的网站子主题wordpress
  • 网站建设中是因为没有ftp上传吗电子商务网站建设多少钱
  • 江苏盐城网站建设住建局查询房产信息
  • 做职业测评的网站注册安全工程师条件
  • 建站宝盒合作wordpress怎么看免费主题
  • 网站建设需要几十万wordpress_广告主题
  • 老版建设银行网站网站建设公司swot分析
  • 西安专业做网站的公司哪家好暴雪战网怎么改国际服
  • 光华路网站建设个人博客网站怎么建立
  • 网站优化怎么做ppt网站内容更新用什么
  • 拼多多网站首页泉州网站seo
  • 快速网站推广鹤壁网站建设
  • 树莓派做的网站大学网站建设排名
  • 佛山外贸网站建设特色手机商城官方网站
  • 商城网站设计制作中小企业网站建设 网络营销
  • 做网站运用的软件asp网站上哪做
  • 免费素材网站哪个最好企业网站建设协议范本
  • 韩城市住房和城乡建设局网站WordPress增加文章来源插件
  • 建设一个网站的基本成本开发微信小程序步骤
  • 单仁网站建设为某企业策划一次网络营销活动
  • 关于建设网站的报告书微信网站如何制作软件
  • 泉州住房城乡建设局网站猎聘网招聘官网app
  • 网站运营专员做什么wordpress 函数 文件大小
  • 网站管理系统开发的i深圳谁开发的
  • 电子商务网站模块室内装修图片效果图
  • 西安网站制作维护网站开发策划个人简历
  • 乐清网站只做西安网页设计设计培训