当前位置: 首页 > news >正文

ipv6跟做网站有关吗水果网页设计图片

ipv6跟做网站有关吗,水果网页设计图片,物流网站建设平台,视频网站 费用本文记录了从环境部署到微调模型、效果测试的全过程#xff0c;以及遇到几个常见问题的解决办法#xff0c;亲测可用#xff08;The installed version of bitsandbytes was compiled without GPU support. NotImplementedError: Architecture ‘LlamaForCausalLM’ not sup…本文记录了从环境部署到微调模型、效果测试的全过程以及遇到几个常见问题的解决办法亲测可用The installed version of bitsandbytes was compiled without GPU support. NotImplementedError: Architecture ‘LlamaForCausalLM’ not supported!RuntimeError: Internal: could not parse ModelProto from E:\my\ai\llama3\models\my-llama-3-8b-0517\tokenizer.json 一 安装开发环境 1 创建环境 首先请确报你已经安装好了conda工具 在命令行中键入如下指令创建python环境 conda create -n llama_factorypython3.10 -y创建成功后切换到新环境 conda activate llama_factory安装cuda pytorch等核心工具 conda install pytorch2.2.2 torchvision0.17.2 torchaudio2.2.2 pytorch-cuda11.8 -c pytorch -c nvidia pip3 install torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install llmtuner2 下载可微调的模型 创建用于存放模型的文件夹取名为models将llama3 8b的模型文件项目下载到此处。下载时间稍微有点长请耐心等待 git clone https://www.modelscope.cn/LLM-Research/Meta-Llama-3-8B-Instruct.git 3 安装llama factory 回到上层目录将llama factory源代码拉到此处 git clone https://github.com/hiyouga/LLaMA-Factory.git完成后进入项目目录cd LLaMA-Factory安装环境依赖 pip install -e .[metrics,modelscope,qwen] pip install -r requirements.txt --index-url https://mirrors.huaweicloud.com/repository/pypi/simple4 运行llama factory 回到上层目录修改下面的代码将刚才下载的模型目录替换进来然后把这一堆代码复制后在命令行中敲入 python src/web_demo.py –model_name_or_path E:\my\ai\llama3\models\Meta-Llama-3-8B-Instruct模型目录 –template llama3 –infer_backend vllm –vllm_enforce_eager如果看到下面这个图就说明成功了。复制里面的端口号组成地址localhost:7860复制到浏览器打开 成功打开训练页面。 如果运行失败提示The installed version of bitsandbytes was compiled without GPU support.那说明你的环境出现了问题。请查看这篇文章解决The installed version of bitsandbytes was compiled without GPU support 亲测可用 二 数据微调 1 制作训练数据 进入llama-factory/data目录 新建一个json文件起名为my_data_zh.json 按下面的格式填入你的训练数据后保存即可条数不限哦 数据集参数说明 instruction该数据的说明比如“你是谁”这种问题就属于“自我介绍”“你吃屎么”这种问题属于“业务咨询” input向他提的问题 output他应该回答的内容 [{instruction: 自我介绍, // 问题说明input: 你是谁, // 问题output: 我是奇葩大人最忠实的仆人奇葩大人万岁万万岁 // 答案},{instruction: 自我介绍,input: 谁制造了你,output: llama给与我骨骼奇葩大人赋予我灵魂你就是我的再生父母梦中爹娘我愿意匍匐在你脚下奉你为神明} ]完成后保存 2 注册数据集 首先找到数据集的管理文件打开llamafactory/data目录下的dataset_info.json文件 这个文件里面放的是所有数据集的名称和对应的数据文件名里面已经存在的是factory自带的数据集 我们在这里新加一条数据集把刚才创建的文件名搞进去 a_my_data: { file_name: my_data_zh.json},别忘了保存好。 接下来回到管理页面看看是否成功添加 打开浏览器地址http://localhost:7860按f5刷新一下先 找到数据集输入框点击 已经看到了我们的自定义数据集点击即可选定。 如果想看具体内容可以点击右侧的预览数据集按钮查看数据是否有问题。 3 开始微调训练 回到浏览器的管理页面http://localhost:7860如图所示这是我们最需要关心的几个参数设置 模型名称由于我们在上文下载的模型是llama3-8b所以这里要选择同名模型llama3-8b。这里将决定采用何种网络结构解析模型。 模型路径这里就是上文下载的模型文件目录。 微调方法这里可选择lora、full、freeze三种模式普通用户请选择lora。 full全量模型训练。该模型将消耗大量显存。以8B模型为例8b等于80亿参数占用显存约8*28 24G所以普通显卡就不要考虑这个模式了 lora微调模型训练这个占用显存较小经测试4080显卡可以跑起来 数据集因为我们刚才注册了自己的数据所以这里点框后就会弹出数据列表选中我们的自定义数据即可。注意这里允许数据集多选。 其他设置视你的实际情况而定最主要的设置已经完成了。 接下来拉到页面最下方点击“开始”按钮就可以开始训练了 可以看到控制台中已经开始跑起来了 完成训练后我们回到页面上方点击“刷新适配器”按钮然后点击“适配器路径”就可以看到我们刚刚训练好的记录了点击选中。 回到上级目录创建用于存放模型的文件夹起名为my-llama-3-8b 回到管理页面设置“最大分块大小”为4这个选项会把过大的模型分割为几个文件我们设置每个文件最大为4GB 设置“导出设备”为“cuda”这个选项决定你的模型会使用什么硬件资源。如果是在高性能显卡主机上使用建议选择cuda 设置“导出目录”为刚才我们新建的文件夹。 最后点击“开始导出”按钮等待导出结束 4 合并模型 为了让ollama可以执行该模型我们需要量化模型对模型进行合并转换。最终导出扩展名为gguf的模型文件 首先下载ollama源代码 git clone https://github.com/ollama/ollama.git然后下载llama.cpp源代码 git clone https://github.com/ggerganov/llama.cpp.git 如果上面那个下不了就用这个git clone https://github.com/Rayrtfr/llama.cpp进入llama.cpp目录cd llama.cpp 接下来就可以对模型进行转转换了 #注释 python convert.py --outfile 要导出的文件地址.gguf 微调后的模型来源目录 python convert.py --outfile E:\my\ai\llama3\models\my-llama-3-8b-0517\my8b.gguf E:\my\ai\llama3\models\my-llama-3-8b-0517注意是convert.py不是convert-hf-to-gguf.py。我相信这也是你能来看我这篇教程的原因。网上大部分都教大家用convert-hf-to-gguf.py但这个会报错NotImplementedError: Architecture ‘LlamaForCausalLM’ not supported!该脚本已经不支持llama的最新组件了。一定要用convert.py 如果执行上面指令报错RuntimeError: Internal: could not parse ModelProto from E:\my\ai\llama3\models\my-llama-3-8b-0517\tokenizer.json 就在指令后面加上 --vocab-type hfft 就可以解决问题开始转换模型 python convert.py --outfile E:\my\ai\llama3\models\my-llama-3-8b-0517\my8b.gguf E:\my\ai\llama3\models\my-llama-3-8b-0517 --vocab-type hfft当看到模型输出地址字符就说明已经成功转换了。 5 模型量化 说明一下什么是量化 我们看别人弄好的模型后面都有个q的字符q表示存储权重精度的位数 q2、q3、q4… 表示模型的量化位数。例如q2表示2位量化q3表示3位量化以此类推。量化位数越高模型的精度损失就越小模型的磁盘占用和计算需求也会越大。 模型量化可以帮助我们控制模型的精度、计算量和模型文件大小。比如之前我导出的模型约16G对于一个7B的模型来说这个文件太大运算量太高太不方便了一般家用电脑根本就跑不起来呀。。我们在这里可以通过量化手段降低模型精度从而降低模型的性能消耗和占用容量。 下面我们开始量化操作。首先在llama.cpp目录下创建一个名为build的目录 cd llama.cpp mkdir build cd build然后使用cmake构建量化工具 cmake .. cmake --build . --config Release构建完成后进入到llama.cpp\build\bin\Release目录下cd \build\bin\Release 我们看到该有的都有啦接下来通过命令行使用quantize工具来量化模型 # 注释quantize 源文件路径 导出文件路径 量化参数 quantize E:\my\ai\llama3\models\my8b.gguf E:\my\ai\llama3\models\my8b_q4.gguf q4_0接下来就是漫长的等待了 6 测试训练结果 使用ollama来测试我们自己微调的模型。 ollama run 注册的模型名如果你还没部署好ollama请看这个文章ollama的本地部署 将模型导入ollama的步骤请看我这篇短文ollama 导入gguf模型
http://www.hkea.cn/news/14585607/

相关文章:

  • 做网站应规避的风险网站开发售后工作
  • ssh小型购物网站开发asp网站 会员注册
  • 常德市建设局网站深圳网站制作的公司哪家好
  • 河北住房建设厅网站昆明网站建设解决方案
  • 河南郑州建设厅网站通用企业手机网站模板
  • 免费的查企业的网站上海公司电话号码大全
  • wordpress 本地建站教程全国安装平台有哪些
  • 南京做网站南京乐识专业中国纪检监察报多久一期
  • 江苏网站建设联系方式wordpress rss小工具
  • 如何知道自己网站主机厦门北京网站建设
  • 电白区住房和城乡建设局网站网站建设前期情况说明
  • 乐营销网站模板网站建设 报价
  • 建筑找活网站哪个最好做围棋死活题的网站
  • 怎么让网站文章被收录学网站论坛
  • 网站大图分辨率做多大网站建设经验材料
  • o2o网站建设代理商做游戏的php网站有哪些
  • 建设银行反钓鱼网站佛山网站建设的设计原则
  • 文档怎么做网站链接wordpress修改主题模板
  • 外包网站建设公司番禺做网站系统
  • 网站备案 注销企业文化标语经典
  • 如何不花钱建设网站系统开发的一般过程
  • 成都捕鱼网站建设注册公司需要什么条件才能开
  • 有哪些网站可以做推文南阳设计公司排名
  • 余姚做百度网站建设深圳市专业的做网站
  • 上海做网站的公司排名权威行业网站建设公司
  • 昆明网站建设服务公司建筑网站视频大全
  • 汕头高端网站开发女性购物平台排行榜
  • 论文网站建设重庆hms网站建设
  • 洪梅镇仿做网站做学习交流网站
  • spring框架做网站网站备案多久过期