网站建设的关键点,中国建筑建设通的网站,淮北建设机械网站,网站开发的未来展望最近 AI 火的一塌糊涂#xff0c;除了 ChatGPT 以外#xff0c;AI 绘画领域也有很大的进步#xff0c;以下几张图片都是 AI 绘制的#xff0c;你能看出来么#xff1f; 一、环境搭建
上面的效果图其实是使用了开源的 AI 绘画项目 stable-diffusion 绘制的#xff0c;这是…最近 AI 火的一塌糊涂除了 ChatGPT 以外AI 绘画领域也有很大的进步以下几张图片都是 AI 绘制的你能看出来么 一、环境搭建
上面的效果图其实是使用了开源的 AI 绘画项目 stable-diffusion 绘制的这是它的官方仓库
https://github.com/CompVis/stable-diffusion
但是这个官方项目并不适合我们这些新手直接使用好在有一些基于 stable-diffusion 封装的 webui 开源项目可以通过界面交互的方式来使用 stable-diffusion极大的降低了使用门槛以下是几个比较火的 webui 项目
https://github.com/AUTOMATIC1111/stable-diffusion-webuihttps://github.com/Sygil-Dev/sygil-webui
其中AUTOMATIC1111 的 stable-diffusion-webui 是目前功能最多最好用的强烈推荐下面就来介绍如何使用它。
1、下载项目
stable-diffusion-webui 没有发布可执行程序比如.exe我们需要通过 git 的方式将整个工程源码拉下来运行
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git注这个开源项目目前的更新频率很快会不定期的修复一些 bug 或加入一些新功能所以建议可以时常 git pull 拉取最新代码。 2、Python 环境
stable-diffusion-webui 主要是使用 Python 开发的所以运行这个工程需要安装一下 Python 环境并配置好环境变量因为 Python 环境的安装很简单这里就不多说了环境配置完成之后可以通过以下命令查看 Python 的版本号验证环境是否正常
python --version注意官方推荐安装 Python 3.10.6 版本 另外建议使用 Anaconda 管理多个 Python 环境详见
官方的 conda 环境安装说明https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs#alternative-installation-on-windows-using-condaanaconda 常用命令https://blog.csdn.net/ligous/article/details/124209700
3、CUDA 环境
默认 stable-diffusion-webui 运行使用的是 GPU 算力也就是说需要用到 Nvidia 显卡配置越高绘图越快。这里我们需要安装 CUDA 驱动先确定一下电脑能安装的 CUDA 版本桌面右下角-右键 NVIDIA 设置图标-NVIDIA 控制面板 可以看到我的电脑的显示的是 NVIDIA CUDA 11.6.134 driver所以我的电脑要安装的 CUDA 版本不能超过 11.6。 注意高版本显卡是可以安装低版本的 CUDA 驱动的比如我也可以安装经典的 10.2 版本但是安装 11.6 版本可以获得更高的 GPU 运行效率所以一般来说推荐安装显卡支持的最高 CUDA 版本。 在下面的网址中找到对应的 CUDA 版本进行安装
CUDA 官方归档https://developer.nvidia.com/cuda-toolkit-archive 直接选择 “精简” 安装就可以了安装完成之后可以使用如下命令查看 CUDA 版本来验证 CUDA 是否安装成功
nvcc --version注如果你没有 Nvidia 显卡也可以通过给 stable-diffusion-webui 指定运行参数 --use-cpu sd让其使用 CPU 算力运行但是非常不建议你这么做CPU 算力跟 GPU 算力相比简直天差地别可能 GPU 只需要 10 秒就能绘制完成而 CPU 却要 10 分钟这不是开玩笑的。另外如果你的显卡内存不多建议 4G 的显卡加上 --medvram 启动参数2G 的显卡加上 --lowvram 启动参数。怎么配置启动参数我们后面说。 4、启动项目
在安装配置好运行环境之后直接运行工程下的 webui-user.bat 文件即可如果是类 Unix 系统则运行 webui-user.sh。首次启动会自动下载一些 Python 依赖库具体哪些库请看工程下的 requirements.txt 以及项目需要用到的配置和模型文件比如v1-5-pruned-emaonly.safetensors将近 4 个 G~初始化一次之后下次启动就快了。
Launching Web UI with arguments:
...
Running on local URL: http://127.0.0.1:7860
To create a public link, set shareTrue in launch().看到这个提示就说明成功运行起来了打开网址就可以看到程序的运行界面了 温馨提示该项目是英文页面可以使用浏览器的翻译功能转成中文来使用~ 二、使用
stable-diffusion-webui 的功能很多主要有如下 2 个
文生图text2img根据提示词Prompt的描述生成相应的图片。图生图img2img将一张图片根据提示词Prompt描述的特点生成另一张新的图片。 注本文只讲解文生图text2img功能图生图img2img后续有机会再出文章喜欢的请多多点赞关注支持一下 。 1、文生图text2img
在开始使用文生图之前有必要了解以下几个参数的含义
参数说明Prompt提示词正向Negative prompt消极的提示词反向Width Height要生成的图片尺寸。尺寸越大越耗性能耗时越久。CFG scaleAI 对描述参数Prompt的倾向程度。值越小生成的图片越偏离你的描述但越符合逻辑值越大则生成的图片越符合你的描述但可能不符合逻辑。Sampling method采样方法。有很多种但只是采样算法上有差别没有好坏之分选用适合的即可。Sampling steps采样步长。太小的话采样的随机性会很高太大的话采样的效率会很低拒绝概率高(可以理解为没有采样到,采样的结果被舍弃了)。Seed随机数种子。生成每张图片时的随机种子这个种子是用来作为确定扩散初始状态的基础。不懂的话用随机的即可。以上对参数的解析源自以下文章 https://zhuanlan.zhihu.com/p/574063064https://baijiahao.baidu.com/s?id1758865024644276830wfrspiderforpc 接下来我们来生成一张赛博朋克风格的猫咪图片配置以下参数后点击 “Generate” 即可
Prompta cute cat, cyberpunk art, by Adam Marczyński, cyber steampunk 8 k 3 d, kerem beyit, very cute robot zen, beeple |Negative prompt(deformed, distorted, disfigured:1.3), poorly drawn, bad anatomy, wrong anatomy, extra limb, missing limb, floating limbs, (mutated hands and fingers:1.4), disconnected limbs, mutation, mutated, ugly, disgusting, blurry, amputation, flowers, human, man, womanCFG scale6.5Sampling methodEuler aSampling steps26Seed1791574510注提示词Prompt越多AI 绘图结果会更加精准另外目前中文提示词的效果不好还得使用英文提示词。 2、模型文件
眼尖的你可能发现了上面截图里左上角 Stable Diffusion checkpoint 的值怎么跟之前截图里的不一样这是因为我换了一个模型文件还记得前面提到那个将近 4 个 G 大小的模型文件v1-5-pruned-emaonly.safetensors吗那是 stable-diffusion-webui 的默认模型文件用这个模型文件生成出来的图片比较丑因此我换了另一个模型文件。模型文件下载的网站几个比较出名的就是 civitai这上面共享的都是别人训练好的模型。 模型文件下载地址 civitaihttps://civitai.com/默认的 v1-5-pruned-emaonlyhttps://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main 根据你要生成的图片风格比如动漫、风景挑选合适的模型查看前面那个文生图的例子使用的就是这个 Deliberate 模型直接点击 “Download Latest” 即可下载该模型文件。 注模型文件有 2 种格式分别是 .ckptModel PickleTensor 和 .safetensorsModel SafeTensor据说 .safetensors 更安全这两种格式 stable-diffusion-webui 都支持随意下载一种即可。 将下载好的模型文件放到 stable-diffusion-webui\models\Stable-diffusion 目录下 放置好模型文件之后需要重启一下 stable-diffusion-webui执行 webui-user.bat才能识别到。 这些模型文件一般会附带一组效果图点击任意一张就可以看到生成该效果图的一些参数配置 把这些参数配置到 stable-diffusion-webui 中点击 “Generate” 就可以生成类似效果的图片了。 注因为 AI 绘图带有随机性质所以生成出来的图片跟效果图不一定完全一样。 文生图功能有很多东西可以发掘你可以用它来生成世界上独一无二的图片而要用好文生图功能提示词Prompt是必须掌握的重中之重它是有语法规则的在此推荐两篇对 Prompt 详细说明的文章
全网 Stable Diffusion Prompt 运用技巧https://www.bilibili.com/read/cv19903784Prompt 工具網站https://www.accucrazy.com/prompt-tools-ai/
三、工程配置
前面说到stable-diffusion-webui 是可以配置启动参数的这是官方的 wiki
配置参数文档https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Command-Line-Arguments-and-Settings
1、常用参数
这里列几个常用的参数说明一下
参数说明–listen默认启动绑定的 ip 是 127.0.0.1只能是你自己电脑可以访问 webui如果你想让同个局域网的人都可以访问的话可以配置该参数会自动绑定 0.0.0.0 ip。–port xxx默认端口是 7860如果想换个端口可以配置该参数例如--port 8888。–gradio-auth username:password如果你希望给 webui 设置登录密码可以配置该参数例如--gradio-auth GitLqr:123456。–use-cpu默认使用 GPU 算力需要 Nvidia 显卡如果没显卡可以配置该参数改用 CPU 算力。–medvram为低显存比如4G启用模型优化会牺牲一点速度。–lowvram为极低显存比如2G启用模型优化会牺牲很多速度。–autolaunch启动时自动打开浏览器访问 webui。
要配置这些参数很简单打开 webui-user.bat把你需要配置的参数添加到 COMMANDLINE_ARGS 后面即可
echo offset PYTHON
set GIT
set VENV_DIR
set COMMANDLINE_ARGS--listen --port 8888 --gradio-auth GitLqr:123456 --autolaunchcall webui.bat2、API 接口服务
除了上述几个常用的参数外还有一个特别的参数 --api可以在启动 stable-diffusion-webui 的同时启动一个接口服务在 COMMANDLINE_ARGS 后面追加上 --api
echo offset PYTHON
set GIT
set VENV_DIR
set COMMANDLINE_ARGS--listen --port 8888 --gradio-auth GitLqr:123456 --autolaunch --apicall webui.bat重启后在 url 后面加上 /docs 即可看到 api 请求说明文档 这样我们就可以通过编写程序的方式使用文生图、图生图等功能了关于接口传参格式等要求参见官方 wiki
官方 api 说明文档https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/API#api-guide-by-kilvoctu