当前位置: 首页 > news >正文

一般做网站的宽度怎么处理的深圳华强北现在能去吗

一般做网站的宽度怎么处理的,深圳华强北现在能去吗,wordpress在哪里输入统计代码,房地产新闻app哪个好对于机器在内网#xff0c;无法连接互联网的服务器来说#xff0c;想要部署体验开源的大模型#xff0c;需要拷贝各种依赖文件进行环境搭建难度较大#xff0c;本文介绍如何通过制作docker镜像的方式#xff0c;通过llama.cpp实现量化大模型的快速内网部署体验。 一、llam…对于机器在内网无法连接互联网的服务器来说想要部署体验开源的大模型需要拷贝各种依赖文件进行环境搭建难度较大本文介绍如何通过制作docker镜像的方式通过llama.cpp实现量化大模型的快速内网部署体验。 一、llama_cpp介绍 LLaMA 全称是Large Language Model Meta AI是由Meta AI原FacebookAI研究实验室研究人员发布的一个预训练语言模型。该模型最大的特点就是基于以较小的参数规模取得了优秀的性能模型参数量从7B到65B 与其他大型语言模型一样LLaMA的工作原理是将一连串的单词作为输入并预测下一个单词以递归地生成文本。 LLaMA.cpp 项目是开发者 Georgi Gerganov 基于 Meta 的 LLaMA 模型实现的纯 C/C 版本用于模型推理。 无需任何额外依赖相比 Python 代码对 PyTorch 等库的要求C/C 直接编译出可执行文件跳过不同硬件的繁杂准备可以在笔记本上运行大大降低了门槛。 项目开源地址GitHub - ggerganov/llama.cpp: Port of Facebooks LLaMA model in C/C 二、镜像制作过程 1、下载基础镜像 在dockerhub上下载对应的镜像版本关注需要的cuda版本和操作系统版本。 docker pull nvidia/cuda:11.2.2-devel-ubuntu20.04 运行镜像 docker run -id --gpus all -v D:\download:/app/model -p 8080:8080 nvidia/cuda:11.2.2-devel-ubuntu20.04 进入容器 docker exec -it xxxx /bin/bash 2、配置yum apt-get -y install git wget 修改国内源 gedit /etc/apt/sources.list deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse apt-get update 3、安装python3.10 下载依赖 apt install build-essential zlib1g-dev libncurses5-dev libgdbm-dev libnss3-dev libssl-dev libreadline-dev libffi-dev libsqlite3-dev wget libbz2-dev 下载python源码 wget https://www.python.org/ftp/python/3.10.0/Python-3.10.0.tgz tar -zvxf Python-3.10.0.tgz cd Python-3.10.0/ 配置 ./configure --enable-optimizations 编译 make 安装 make install 更新python默认指向删除旧的链接 remove /usr/bin/python ln -s /usr/local/bin/python3.10 /usr/bin/python ln -s /usr/local/bin/pip3 /usr/bin/pip 4、安装make等其他库 apt-get -y install build-essential libgl-dev libglib2.0-0 gcc g make cmake unzip curl 5、安装llama.app mkdir /app cd /app git clone GitHub - ggerganov/llama.cpp: Port of Facebooks LLaMA model in C/C cd llama.cpp mkdir build cd build cmake .. -DLLAMA_CUBLASON cmake --build . --config Release 报错如下 报错 CMake Error at CMakeLists.txt:252 (cmake_minimum_required): CMake 3.17 or higher is required.  You are running version 3.16.3 -- Configuring incomplete, errors occurred! 6.更新cmake版本(如果上一步没有报错则跳过该步骤) wget https://cmake.org/files/v3.23/cmake-3.23.0.tar.gz tar -zxvf cmake-3.23.0.tar.gz cd cmake-3.23.0 ./configure make -j8 make install ln -s /usr/local/bin/cmake /usr/bin/cmake 重新编译安装 cmake .. -DLLAMA_CUBLASON cmake --build . --config Release 成功 7.运行 ./server --host 0.0.0.0 -m /app/model/xxxx.gguf -c 128 -ngl 10
http://www.hkea.cn/news/14545441/

相关文章:

  • 网站的开发工具有哪些西安网络推广优化培训
  • 水果网站建设计划书wordpress 短标签
  • 做网站导出用什么色彩模式广西玉林网站建设
  • 正规的企业网站建设铜陵县住房和城乡建设局网站
  • 网站建设怎么添加背景音乐wordpress 5.2.1英文转中文
  • 深圳网站建设 公司元wordpress 免密码破解
  • 展示照片的网站模板如何加强网站信息管理建设
  • 服务器里怎么建设网站股票做空网站
  • 邢台网站建设电话wordpress 邀请注册年度报告
  • 厦门人才网官网登录南京网络优化公司有哪些
  • 地图网站怎么做怎样网络营销推广
  • 网站页面排版成都建立网站的公司网站
  • 网站访问统计 曲线图珠海斗门建设局官方网站
  • 网站下方一般放什么原因杭州高端网站开发
  • 网站建设登录界面代码wordpress 文章章节
  • 如何建立自己免费网站扬州专注企业网站建设
  • 做网站去哪找源码织梦动漫网站模板
  • 企业网站建设常见问题凤岗仿做网站
  • 网站维护经费影响网站打开速度
  • 网站建设大概要多少钱建设银行 企业
  • 做网站怎么开发程序如何在iis下建设网站
  • 做女装代理需要自建网站么群晖wordpress配置
  • 以前的网站忘了怎么办啊团购网站制作
  • 黑客攻击的网站wordpress大学 视频教程
  • 视频制作素材网站做诚信通谁给做网站
  • 山西网站建设自助业务网站系统
  • 外贸建站网站建设吉工之家找工作建筑工作
  • win2003网站建设搜索引擎关键词怎么优化
  • 精品课程网站建设 公司广告设计自学网教程
  • 茂名专业网站建设99作文网