加油,加油。
nvidia官网驱动会自带cuda,如果自己再安装源内cuda可能会有版本不匹配的问题。所以源内cuda就搭配源内驱动使用。
这个webui是用的venv,不需要conda。但是需要python3-venv
另外它的一键安装命令bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)
应该是可以正常使用的,不需要自己手动补全依赖。不过确实有部分包是国外服务器,可能发生下载失败的问题。(包括这个脚本本身的raw.githubusercontent.com这个网址也是被ban了的,楼主说的先clone再运行webui.sh效果应该是一样的,这样可以绕开这个网址)。
nvidia官网驱动会自带cuda,如果自己再安装源内cuda可能会有版本不匹配的问题。所以源内cuda就搭配源内驱动使用。
这个webui是用的venv,不需要conda。但是需要python3-venv
另外它的一键安装命令bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)
应该是可以正常使用的,不需要自己手动补全依赖。不过确实有部分包是国外服务器,可能发生下载失败的问题。(包括这个脚本本身的raw.githubusercontent.com这个网址也是被ban了的,楼主说的先clone再运行webui.sh效果应该是一样的,这样可以绕开这个网址)。
说的不太对,驱动带的cuda是driver api,不是cuda runtime,所以是没办法直接用的。
当然,楼主这样直接装cuda也不对,因为不同的pytorch/tensorRT需要的cuda版本是不一样的。
以pytorch 2.0为例,官方目前推荐是cuda-11.7和cuda11.8,所以装这两个版本就没错了。
当然,其实最新版的pytorch,使用conda安装的话,会内置cuda/cudnn包,所以其实理论上本机不装cuda也没问题,当然我还是习惯本机装cuda/cudnn,方便用c++开发一些模型量化程序。
《我的坛友是大佬》
良心!赶快收进资源整理
说的不太对,驱动带的cuda是driver api,不是cuda runtime,所以是没办法直接用的。
当然,楼主这样直接装cuda也不对,因为不同的pytorch/tensorRT需要的cuda版本是不一样的。
以pytorch 2.0为例,官方目前推荐是cuda-11.7和cuda11.8,所以装这两个版本就没错了。
当然,其实最新版的pytorch,使用conda安装的话,会内置cuda/cudnn包,所以其实理论上本机不装cuda也没问题,当然我还是习惯本机装cuda/cudnn,方便用c++开发一些模型量化程序。
我使用 sudo apt install nvidia-cuda-toolkit
安装时候,看到安装cuda的版本是11.7,
因为我还不知道deepin20.9现在是哪个debian版本,所以不知道怎么选,就用了这种安装cuda的方法了。
下边是cuda官网的选择版本的图,我不确定是选哪个。
我使用 sudo apt install nvidia-cuda-toolkit
安装时候,看到安装cuda的版本是11.7,
因为我还不知道deepin20.9现在是哪个debian版本,所以不知道怎么选,就用了这种安装cuda的方法了。
下边是cuda官网的选择版本的图,我不确定是选哪个。
20.9还是Debian10,但是v23就不能在官网装了(虽然有Debian11的影子,但魔改太多了)
我使用 sudo apt install nvidia-cuda-toolkit
安装时候,看到安装cuda的版本是11.7,
因为我还不知道deepin20.9现在是哪个debian版本,所以不知道怎么选,就用了这种安装cuda的方法了。
下边是cuda官网的选择版本的图,我不确定是选哪个。
可以的,但是建议固化一下版本,否则哪天说不定就随着系统更新,自动更新到更高的cuda版本。理论上*.run包更加稳妥。
可以的,但是建议固化一下版本,否则哪天说不定就随着系统更新,自动更新到更高的cuda版本。理论上*.run包更加稳妥。
刚才重装了下cuda toolkit,又改写了下帖子.现在装到12.1的版本了,因为我发现之前的nvidia-cuda-toolkit的cuda版本是11.6的,画了张简单的图,还没报错,结果晚上画复杂的图,直接报错了,各种兼容问题。12.1画复杂的图也正常了,之后换几个mode试试还报错不。
刚才重装了下cuda toolkit,又改写了下帖子.现在装到12.1的版本了,因为我发现之前的nvidia-cuda-toolkit的cuda版本是11.6的,画了张简单的图,还没报错,结果晚上画复杂的图,直接报错了,各种兼容问题。12.1画复杂的图也正常了,之后换几个mode试试还报错不。
😂 cuda最好还是匹配比较好,不同版本cuda里面的api不一样,有的api在cuda12会被废弃,这样就会报错。
而且cuda12是一个比较大的更新,支持的c++标准从之前的c++11变成c++20了,所以变更很大,暂时不建议尝鲜,等pytorch官方支持再搞比较好。
学会Stable Diffusion,获得优先择偶权😏
😂 cuda最好还是匹配比较好,不同版本cuda里面的api不一样,有的api在cuda12会被废弃,这样就会报错。
而且cuda12是一个比较大的更新,支持的c++标准从之前的c++11变成c++20了,所以变更很大,暂时不建议尝鲜,等pytorch官方支持再搞比较好。
cuda toolkit 11.7--11.8都没有debian10的版本,只支持debian11的版本,所以我就直接装了12.1的版本了。
Popular Ranking
ChangePopular Events
More
只是能用,因为这两天有点晕,记忆力有点差,各种环节都有点没理清,基本靠history事后理思路的,加上pip没有history这种的记录命令的能力,所以可能会有错乱。
ai绘画对显卡有要求,一般至少也得有4G显存,如果只有核显,就不用试了,A卡也能用,不过得使用rocm来替代cuda,性能会比n卡差挺多的,大体流程差不多,自己百度下和这篇帖子对照下,应该也能安装成功。
因为我用的github加速链接过不了审核,所以各位用github下载的时候,各显神通吧
nvidia驱动,装系统时候选择安装闭源驱动或者从官网下载安装都可以 NVIDIA驱动官网地址
安装cuda toolkit cudakit官方下载地址,一般高版本cuda是兼容低版本的,选择最高版本的就行,我选的是12.1。
照着这么选就行,然后运行下边的命令
贴一下命令,如果是其他版本的,就要自己选了。
安装时要注意两点,第一步打字accept接受,第二步把nvidia driver取消掉,不然可能会安装失败。然后切换到Install安装就行。
安装miniconda3,并配置conda和pip的国内源。自己百度吧,我一般使用tuna源。 安装完成后如果使用conda,提示没有这个命令,就需要检查下环境变量是否添加了
你的家目录/miniconda3/bin
,或者是否source ~/.bashrc
,conda create -n ai python=3.10.6
conda activate ai
下载 Stable Diffusion
git clone /https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
sudo chmod 777 webui.sh
./webui.sh
会自动在 stable-diffusion-webui 目录下创建一个venv的python虚拟环境,等待安装python包,之后如果卡GFPGAN,就需要手动安装GFPGAN,如果不卡gfpgan,就跳过第三步。wget https://github.com/TencentARC/GFPGAN/archive/refs/heads/master.zip
随便下载在哪个目录下都行,解压。之后切换到stable diffusion的venv目录下,然后source bin/activate
切换到vevn的python,再cd到 gfpgan的目录下 (目录里有setup.py),运行python -m setup.py install
,python webui.py
如果报错,缺什么包,装什么包即可(缺包的提示如果包名包含_
一般要换成-
)。之后再运行python webui.py
,直到弹出下图就行了`使用浏览器打开http://127.0.0.1:7860 能看到正常使用了。
因为没录屏,各种环节都是凭借记忆来写的,可能有疏漏,见谅。