- 发布日期:2024-09-09 01:11 点击次数:199 著述目次 诳言stable-diffusion-webui系列AMD显卡请看这篇著述前发问题环境安设历程升级CUDA驱动安设CUDAToolKit安设cuDNN克隆名堂地址安设Pytorch启动名堂 题外话 诳言stable-diffusion-webui系列
主要先容stable-diffusion-webui的 主题开发、插件开发 等内容KK系列,感酷爱的一又友不错订阅下!
诳言Stable-Diffusion-Webui-客制化主题(一) 诳言Stable-Diffusion-Webui-客制化主题(二) 诳言Stable-Diffusion-Webui-客制化主题(三)
不定时更新中...
AMD显卡请看这篇著述stable-diffusion-webui手动安设详备技巧(AMD显卡)
前提最初不提倡去安设stable-diffusion-webui的一键安设包,既然学习就一次性把它学会。然后,最主要的是一键安设有以下问题: 1、安设包的中的torch版块与我方的CUDA版块不兼容,临了天然不错初始圭臬,可是根底不会激活GPU去加速渲染图形,导致渲染一副图形的速率极慢 2、stable-diffusion-webui提倡的python版块是3.10,可是python3.10可能无法通过pip大意conda去下载某些CUDA版块对应的torch,导致临了圭臬无法启动
问题笔者在安设历程中碰到的问题: CUDA版块是10.2,使用python3.10去下载torch包时恒久取法找到CUDA10.2对应的torch包,这个问题困扰了我一天,之后发现python3.10当今是不救济cuda10.2版块的torch包的,不错通过 CUDA版块对应的torch去检验,最终通过先升级显卡驱动(升级CUDA版块)再下载对应CUDA版块的CUDAToolKit,再下载CUDA版块对应的torch包即可。
环境OS:Windows10 显卡类型:NVIDIA(英伟达) Python版块:3.10.6(必须为该版块) Git:必须
安设历程 升级CUDA驱动笔者这里由于碰到了以上所述问题,是以先要升级CUDA驱动,如若是更高版块的驱动不错跳过该技巧。
需要凭据我方显卡类型去下载相应的驱动,win + x ->开导管制器 ->裸露适配器
图片KK系列
然后去 CUDA驱动 填写对应的显卡信息后搜索显卡驱动图片
笔者这里遴荐第一个驱动进行下载,下载之后是一个exe文献,径直按照技巧安设即可,历程相比浅显不再赘述图片
telegram 文爱 安设完成后检验CUDA版块,笔者这里是11.4.176图片
大意是使用大叫nvidia-smi检验,不错看到CUDA版块是11.4,相应的驱动版块是472.84PS C:\Users\samsung> nvidia-smi Sat Apr 1 14:02:38 2023 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 472.84 Driver Version: 472.84 CUDA Version: 11.4 | |-------------------------------+----------------------+----------------------+ | GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |===============================+======================+======================| | 0 NVIDIA GeForce ... WDDM | 00000000:01:00.0 Off | N/A | | N/A 0C P8 N/A / N/A | 75MiB / 4096MiB | 0% Default | | | | N/A | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=============================================================================| | 0 N/A N/A 14052 C+G ...IA GeForce Experience.exe N/A | +-----------------------------------------------------------------------------+安设CUDAToolKit
如若原本装过CUDA ToolKit请先卸载
CUDA ToolKit 找到CUDA驱动版块对应的CUDA ToolKit版块下载,由于笔者这里的CUDA驱动版块是472.84,是以CUDA ToolKit版块遴荐11.4.4,CUDA驱动版块与CUDA ToolKit对应运筹帷幄
图片
图片
下载好之后是一个exe文献,cuda_11.4.4_472.50_windows.exe,不错看到名字中含有不错使用该CUDA ToolKit的最小CUDA驱动为472.50。安设很浅显,这里不再赘述。最终检验CUDA的践诺版块,nvcc --version
PS C:\Users\samsung> nvcc --version nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2021 NVIDIA Corporation Built on Mon_Oct_11_22:11:21_Pacific_Daylight_Time_2021 Cuda compilation tools, release 11.4, V11.4.152 Build cuda_11.4.r11.4/compiler.30521435_0安设cuDNN
cuDNN版块 cuDNN是一个神经聚集学习的加速库,因为stable-diffusion-webui中凭据一些模子进行文本生图时不错用该包加速渲染速率。找到与CUDA版块一直的cuDNN下载
图片
下载后将该压缩包解压,将内部的全部文献复制到CUDA安设的目次下,路劲为: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.4图片
注:不错看到天然有同名文献夹,可是莫得同名文献,是以cuDNN的文献在复制到CUDA中时是不会领导要粉饰的情况,如若有,那么一定是那处出错了 克隆名堂地址stable-diffusion-webui
图片
克隆github名堂自行查询,相比浅显不再赘述。如若由于聚集的原因无法克隆,不错先将名堂fork到 我方的 https://gitee.com/ 仓库(国内仓库走访较快),然后再克隆到土产货,标准如下:
图片
图片
图片
此时 git clone https://… 去把名堂克隆到土产货就行 安设Pytorch笔者这里使用Anaconda安设了一个python3.10.6的杜撰环境,天然公共也不错不使用Anaconda,径直下载安设python3.10.6亦然不错的
pytorch 需要安设CUDA版块对应的Pytorch版块,如若不是使用Annconda,请使用pip install指示下载pytorch
图片
笔者这里本应该安设CUDA11.4对应的pytorch,可是pytorch官网中当今并莫得提供该版块,于是安设了CUDA11.3对应的pytorch版块,该版块不错在CUDA11.4中使用# 创建一个python3.10.6的杜撰环境,并定名为 sdui (base) C:\Users\samsung>conda create -n sdui python==3.10.6 ... #激活创建的杜撰环境 sdui (base) C:\Users\samsung>conda activate sdui # 安设pytorch,恭候时刻取决于网速 (sdui) C:\Users\samsung>conda install pytorch torchvision torchaudio pytorch-cuda=11.3 -c pytorch -c nvidia #测试torch是否安设奏效 (sdui) C:\Users\samsung>python Python 3.10.6 | packaged by conda-forge | (main, Oct 24 2022, 16:02:16) [MSC v.1916 64 bit (AMD64)] on win32 Type "help", "copyright", "credits" or "license" for more information. >>> import torch >>> torch.cuda.is_available() # true代表奏效使用torch True启动名堂
细心:如若不是使用Anaconda安设的杜撰python环境,那么最初需要双击 webui-user.bat初始后会在名堂根目次下生成一个杜撰的python环境(其实是拷贝了系解除经安设的python版块到webui的指定目次),即\venv\Scripts\python.exe,后续安设的python依赖包齐是需要通过该杜撰python环境中的python大叫去下载的
(2023-06-12)近期好多同学反馈双击webui-user.bat安设时历程中会反复报错,其实大深广的特殊是由于在安设历程中会去github拉去依赖包时超时而导致的,践诺原因是不成班师的走访github,于是不错给在需要去github拉去依赖的代码处加上代理地址:
(旧版块stable-diffusion-webui加代理):插足webui根目次下,裁剪launch.py,全局搜索https://github.com,然后在前边加上https://ghproxy.com/前缀,即最终酿成了https://ghproxy.com/https://github.com,谨记保存!
(新版块stable-diffusion-webui加代理):如若要给新版块的sd加代理,那么和以上的形式不太相同了(2023-05-29): 需要插足到sd根目次下的modules文献夹,然后裁剪launch_utils.py
图片
这么安设历程应该会班师好多!# 插足名堂根目次,安设名堂 requirements.txt 中条目的依赖。不错添加给pip大意conda添加国内镜像,这么不错加速下载速率。若何添加镜像这里不再赘述。 (sdui) D:\AI\project\stable-diffusion-webui>python -m pip install -r requirements.txt #启动名堂 (sdui) D:\AI\project\stable-diffusion-webui>python launch.py Python 3.10.6 | packaged by conda-forge | (main, Oct 24 2022, 16:02:16) [MSC v.1916 64 bit (AMD64)] Commit hash: 22bcc7be428c94e9408f589966c2040187245d81 Installing clip Installing open_clip Traceback (most recent call last): File "D:\AI\project\stable-diffusion-webui\launch.py", line 355, in <module> prepare_environment() File "D:\AI\project\stable-diffusion-webui\launch.py", line 269, in prepare_environment run_pip(f"install {openclip_package}", "open_clip") File "D:\AI\project\stable-diffusion-webui\launch.py", line 129, in run_pip return run(f'"{python}" -m pip {args} --prefer-binary{index_url_line}', desc=f"Installing {desc}", errdesc=f"Couldn't install {desc}") File "D:\AI\project\stable-diffusion-webui\launch.py", line 97, in run raise RuntimeError(message) RuntimeError: Couldn't install open_clip. Command: "C:\Users\samsung\.conda\envs\sdui\python.exe" -m pip install git+https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b --prefer-binary Error code: 1 stdout: Looking in indexes: https://mirrors.cloud.tencent.com/pypi/simple Collecting git+https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b Cloning https://github.com/mlfoundations/open_clip.git (to revision bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b) to e:\temp\pip-req-build-godg7jm4 stderr: Running command git clone --filter=blob:none --quiet https://github.com/mlfoundations/open_clip.git 'E:\temp\pip-req-build-godg7jm4' fatal: unable to access 'https://github.com/mlfoundations/open_clip.git/': OpenSSL SSL_read: SSL_ERROR_SYSCALL, errno 10054 error: subprocess-exited-with-error git clone --filter=blob:none --quiet https://github.com/mlfoundations/open_clip.git 'E:\temp\pip-req-build-godg7jm4' did not run successfully. exit code: 128 See above for output. note: This error originates from a subprocess, and is likely not a problem with pip. error: subprocess-exited-with-error git clone --filter=blob:none --quiet https://github.com/mlfoundations/open_clip.git 'E:\temp\pip-req-build-godg7jm4' did not run successfully. exit code: 128 See above for output. note: This error originates from a subprocess, and is likely not a problem with pip.
这里报错长途open_clip依赖,因为这个依赖包是从github上去拉去的,笔者这里由于聚集不相识,是以下载失败了。此时不错径直使用conda指示去下载,其实下载指示不错去以上报错中的open_clip的github地址检验,不错看到践诺安设的是open_clip_torch依赖
图片
(sdui) D:\AI\project\stable-diffusion-webui>python -m pip install open_clip_torch
此外,也不错径直去github仓库将open_clip的代码clone到土产货,然后插足open_clip名堂根目次下推论相应指示去安设
(sdui) D:\AI\project\open_clip>python setup.py build install
问题处理后再次回到名堂根目次下启动名堂
(sdui) D:\AI\project\stable-diffusion-webui>python launch.py Python 3.10.6 | packaged by conda-forge | (main, Oct 24 2022, 16:02:16) [MSC v.1916 64 bit (AMD64)] Commit hash: 22bcc7be428c94e9408f589966c2040187245d81 Cloning Stable Diffusion into D:\AI\project\stable-diffusion-webui\repositories\stable-diffusion-stability-ai... Cloning Taming Transformers into D:\AI\project\stable-diffusion-webui\repositories\taming-transformers... Traceback (most recent call last): File "D:\AI\project\stable-diffusion-webui\launch.py", line 355, in <module> prepare_environment() File "D:\AI\project\stable-diffusion-webui\launch.py", line 289, in prepare_environment git_clone(taming_transformers_repo, repo_dir('taming-transformers'), "Taming Transformers", taming_transformers_commit_hash) File "D:\AI\project\stable-diffusion-webui\launch.py", line 151, in git_clone run(f'"{git}" clone "{url}" "{dir}"', f"Cloning {name} into {dir}...", f"Couldn't clone {name}") File "D:\AI\project\stable-diffusion-webui\launch.py", line 97, in run raise RuntimeError(message) RuntimeError: Couldn't clone Taming Transformers. Command: "git" clone "https://github.com/CompVis/taming-transformers.git" "D:\AI\project\stable-diffusion-webui\repositories\taming-transformers" Error code: 128 stdout: <empty> stderr: Cloning into 'D:\AI\project\stable-diffusion-webui\repositories\taming-transformers'... fatal: unable to access 'https://github.com/CompVis/taming-transformers.git/': Failed to connect to github.com port 443: Timed out
又报错了,通过输出不错看出,这一步会在名堂根目次下生成一个repositories文献夹,然后会从github上克隆一些名堂到该文献夹下,可是克隆https://github.com/CompVis/taming-transformers.git名堂时超时报错了,是以又是聚集的问题,咱们径直将该名堂手动克隆到repositories文献夹下,然后插足taming-transformers目次下推论
(sdui) D:\AI\project\stable-diffusion-webui\repositories\taming-transformers>python setup.py build install # 细心:这里有一个坑,如若不是使用Anaconda生成的杜撰python环境的话,而是径直安设的python环境的话,名堂启动时会在名堂根目次下生成一个杜撰的python环境,后续技巧安设的python依赖包齐是通过该杜撰环境的python指示安设的,是以,此时应该插足到该杜撰python环境的目次下,使用该杜撰环境的python去推论 python setup.py build install 这么的指示。 杜撰环境python旅途:名堂根目次\venv\Scripts\python.exe
大意多启动名堂试几次,笔者这里再次启动名堂后等了一会就不错了
(sdui) D:\AI\project\stable-diffusion-webui>python launch.py Python 3.10.6 | packaged by conda-forge | (main, Oct 24 2022, 16:02:16) [MSC v.1916 64 bit (AMD64)] Commit hash: 22bcc7be428c94e9408f589966c2040187245d81 Cloning Taming Transformers into D:\AI\project\stable-diffusion-webui\repositories\taming-transformers... Cloning K-diffusion into D:\AI\project\stable-diffusion-webui\repositories\k-diffusion... Cloning CodeFormer into D:\AI\project\stable-diffusion-webui\repositories\CodeFormer... Cloning BLIP into D:\AI\project\stable-diffusion-webui\repositories\BLIP... Installing requirements for CodeFormer Installing requirements for Web UI Launching Web UI with arguments: No module 'xformers'. Proceeding without it. ============================================================================== You are running torch 1.12.1. The program is tested to work with torch 1.13.1. To reinstall the desired version, run with commandline flag --reinstall-torch. Beware that this will cause a lot of large files to be downloaded, as well as there are reports of issues with training tab on the latest version. Use --skip-version-check commandline argument to disable this check. ============================================================================== Downloading: "https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors" to D:\AI\project\stable-diffusion-webui\models\Stable-diffusion\v1-5-pruned-emaonly.safetensors 100%|█████████████████████████████████████████████████████████████████████████████| 3.97G/3.97G [16:22<00:00, 4.34MB/s] Calculating sha256 for D:\AI\project\stable-diffusion-webui\models\Stable-diffusion\v1-5-pruned-emaonly.safetensors: 6ce0161689b3853acaa03779ec93eafe75a02f4ced659bee03f50797806fa2fa Loading weights [6ce0161689] from D:\AI\project\stable-diffusion-webui\models\Stable-diffusion\v1-5-pruned-emaonly.safetensors Creating model from config: D:\AI\project\stable-diffusion-webui\configs\v1-inference.yaml LatentDiffusion: Running in eps-prediction mode DiffusionWrapper has 859.52 M params. Applying cross attention optimization (Doggettx). Textual inversion embeddings loaded(0): Model loaded in 32.4s (calculate hash: 19.4s, load weights from disk: 0.7s, create model: 1.3s, apply weights to model: 3.9s, apply half(): 1.7s, load VAE: 1.1s, move model to device: 1.3s, load textual inversion embeddings: 2.8s). Running on local URL: http://127.0.0.1:7860 To create a public link, set `share=True` in `launch()`. Startup time: 1079.2s (import torch: 8.3s, import gradio: 6.2s, import ldm: 4.3s, other imports: 11.4s, list extensions: 0.3s, list SD models: 1008.8s, setup codeformer: 0.8s, list builtin upscalers: 0.1s, load scripts: 4.7s, load SD checkpoint: 32.9s, create ui: 0.9s, gradio launch: 0.5s).
这一步历程相比长,不错看到会下载一个3.79G的Stable-diffusion模子到项主张models文献夹下。其实我认为这里代码是不错优化下的,如若用户事前一经单独下载好了相应的模子(因为之后在使用历程中咱们亦然不错手动导入模子到models文献夹下),那么不错全齐径直放到models文献夹底下,无需再次下载,是以这里我认为不错行为可选选项让用户在大叫行中交互:是否下载xxx模子。 到这里咱们就不错走访以上日记输出中的地址进行项主张走访:http://127.0.0.1:7860
图片
此时不错看到python正在使用GPU,解说CUDA是起作用的。图片
到这里就算是安设奏效了,如若思要汉化,github也有相应的汉化包,读者可自行探索使用。对于软件的使用笔者亦然一个生手,公共有好的教程不错放在驳斥区一说念学习。
题外话此外,思创建一个微信群公共换取学习。入群需要盲从规章: 辞谢运筹帷幄包括但不限于政事、色情、宗教类等罪人中华东说念主民共和司法律的音讯; 辞谢告白; 辞谢暗地加群友; 群友一切的赔本由我方承担,应当升迁警惕KK系列,不要轻信他东说念主!!! 个东说念主微信:INYOURWORLDWITHME(加群备注:AI绘图)
本站仅提供存储就业,系数内容均由用户发布,如发现存害或侵权内容,请点击举报。- KK系列 ETF主力榜 | 半导体ETF(159813)主力资金净流出843.02万元,居可比基金第一2024-11-08
- KK系列 告别数据线: 终了PC到Android无线文献传输2024-11-08
- KK系列 第一次读纪实漫画《最白的白色:南极之旅》❄️2024-11-07
- KK系列 普尔防护格林几乎入手,输球不输阵,格林齐不敢惹普尔了2024-11-06
- KK系列 复方阿胶浆涉重叠结算背后,一款大单品撑起东阿阿胶三成营收2024-11-05
- KK系列 7胜0负!定约第一!NBA最攻防兼备球队确立,超等四巨头偷偷崛起2024-11-04