当前位置: 首页 > news >正文

seo网站推广优化费用山东省住房城乡建设厅

seo网站推广优化费用,山东省住房城乡建设厅,aws创建wordpress,店面设计师哪里找LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一#xff1a; 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建…LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建的。 conda create --name llama_test python3.9 conda activate llama_test 安装python依赖的包 pip3 install -r requirements.txt 编译llama.cpp mac LLAMA_METAL1 make windows , 用powershell 运行 make 下载llama2模型 直接在huggingface里下载量化了的 gguf格式的llama2模型。 https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF/tree/main 我下载的是llama-2-7b-chat.Q4_0.gguf 拷贝llama-2-7b-chat.Q4_0.gguf 到llama.cpp目录里的models目录里 运行模型 如果是windows要用powershell ./main -m ./models/llama-2-7b-chat.Q4_0.gguf --color --ctx_size 2048 -n -1 -ins -b 256 --top_k 10000 --temp 0.2 --repeat_penalty 1.1 -t 8 方法二 Meta已将llama2开源任何人都可以通过在meta ai上申请并接受许可证、提供电子邮件地址来获取模型。 Meta 将在电子邮件中发送下载链接。 下载llama2  获取download.sh文件将其存储在mac上打开mac终端执行 chmod x ./download.sh 赋予权限。运行 ./download.sh 开始下载过程复制电子邮件中的下载链接粘贴到终端仅下载13B-chat 安装系统依赖的东西 必须安装 Xcode 才能编译 C 项目。 如果您没有请执行以下操作 xcode-select --install 接下来安装用于构建 C 项目的依赖项。 brew install pkgconfig cmake最后我们安装 Torch。 如果您没有安装python3请通过以下方式安装 brew install python3.11 像这样创建一个虚拟环境 /opt/homebrew/bin/python3.11 -m venv venv 激活 venv。 source venv/bin/activate 安装 PyTorch: pip install --pre torch torchvision --extra-index-url https://download.pytorch.org/whl/nightly/cpu 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 安装python依赖包 pip3 install -r requirements.txt 编译 LLAMA_METAL1 make 如果你有两个arch (x86_64, arm64), 可以用下面指定arm64 arch -arm64 make 将下载的 13B 移至 models 文件夹下的 llama.cpp 项目。 将模型转换为ggml格式 13B和70B是不一样的。 Convert-pth-to-ggml.py 已弃用请使用 Convert.py 代替 13B-chat python3 convert.py --outfile ./models/llama-2-13b-chat/ggml-model-f16.bin --outtype f16 ./models/llama-2-13b-chat Quantize 模型: In order to run these huge LLMs in our small laptops we will need to reconstruct and quantize the model with the following commands, here we will convert the model’s weights from float16 to int4 requiring less memory to be executed and only losing a little bit of quality in the process. 13B-chat: ./quantize ./models/llama-2-13b-chat/ggml-model-f16.bin ./models/llama-2-13b-chat/ggml-model-q4_0.bin q4_0 运行模型 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -r ### Question: -p ### Question: 您可以使用 -ngl 1 命令行参数启用 GPU 推理。 任何大于 0 的值都会将计算负载转移到 GPU。 例如 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -ngl 1 -r ### Question: -p ### Question: 在我的 Mac 上测试时它比纯 cpu 快大约 25%。 其它 ggml格式的llama2 如果你下载的是ggml格式的 要运行下面命令转换格式 python convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin (llama) C:\Users\Harry\PycharmProjects\llama.cpppython convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin * Using config: Namespace(inputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.bin), outputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin), nameNone, descNone, gqa1, eps1e-5, context_length2048, model_metadata_dirNone, vocab_dirNone, vocabtypespm) WARNING Be aware that this conversion script is best-effort. Use a native GGUF model if possible. WARNING - Note: If converting LLaMA2, specifying --eps 1e-5 is required. 70B models also need --gqa 8. * Scanning GGML input file * File format: GGJTv3 with ftype MOSTLY_Q4_0 * GGML model hyperparameters: Hyperparameters: n_vocab32000, n_embd5120, n_mult256, n_head40, n_layer40, n_rot128, n_ff13824, ftypeMOSTLY_Q4_0 WARNING Special tokens may not be converted correctly. Use --model-metadata-dir if possible WARNING * Preparing to save GGUF file This gguf file is for Little Endian only * Adding model parameters and KV items * Adding 32000 vocab item(s) * Adding 363 tensor(s)gguf: write headergguf: write metadatagguf: write tensors * Successful completion. Output saved to: models\llama-2-13b-chat.ggmlv3.q4_0.gguf.bin 参考资料 GitHub - facebookresearch/llama: Inference code for LLaMA models A comprehensive guide to running Llama 2 locally – Replicate
http://www.hkea.cn/news/14594259/

相关文章:

  • 网站的备案的要多少钱百度营销app
  • 网站运营包括哪些内容汕头第一网 e京网
  • 企业企业网站建设吴中区做网站的公司
  • 黄山建设网站公司电话什么是定制网站
  • 济南代做标书网站标志网站制作报价
  • 马鞍山做网站的公司78搭建一个app
  • 温州网站建设专业的公司免费行情网站app大全
  • 中国和城乡建设部网站首页做外贸要访问国外的网站怎么办
  • 公众号网站网络广告是较为常见的一种网络营销方式
  • 怎么自己做推广网站玩车 wordpress
  • 网站建设哪家好灵活苏州久远网络校园网站建设管理工作制度
  • 用PS怎么做网站界面自己免费制作app
  • 网站开发网页权限如何控制制作网站页面
  • 网站开发适配网站费计入什么科目
  • html网站设计模板下载wordpress 计划表格
  • 构建网站需要什么意思临沂网站建设 百度优化
  • 做网站什么服务器好网站开发求职信
  • 做网站的论坛网址转换成短链接
  • 做网站怎么防止被黑连锁店装修
  • 商务网站建设简答题及答案wordpress重写插件
  • 长沙网站建设流程南京装修公司
  • 银川 网站制作网络游戏的危害
  • world做网站怎么做连接郴州网签备案查询系统
  • 网站域名禁止续费临沂百度代理公司有几个
  • 计算机协会网站模板昆山网站建设是什么
  • 柳州网站建设公司哪家好网站小图标 免费
  • 做网站建设公司企业做淘宝一件代发的网站
  • 运城做网站价格网站主机租用
  • 云南网站开发公司介绍济南网站建设sdjy6
  • 济宁哪里做网站最便宜天津快推科技有限公司