
【AIGC】ComfyUI安装及常见问题cuda及pytorch安装教程
手动安装要复杂很多,需要搭建开发环境,即安装python、cuda、cudnn、pytorch。1、查看nvidiaw信息确认cuda的版本,通过powershell查看,右上角显示了版本信息。3、安装好后再检查pytorch与cuda是否建立依赖关系,如果还没有,私信我。2、下载前用powershell查看是否安装,安装后通过此命令查看是否安装成功。选择系统信息,点击下载,你的图和我截图不一样,
说明:ComfyUI安装方式有很两种,第一种是下载独立包。独立包下载到本地后,即可使用。不需要搭建(安装)python、cuda、cudnn、pytorch环境.
第二种是,手动安装。手动安装要复杂很多,需要搭建开发环境,即安装python、cuda、cudnn、pytorch。这里介绍的是就是第二种。
假设已经安装好python,并且没有任何问题。如果还没有安装python请查看python安装。安装好后进行下一步。
一、下载ComfyUI
用git下载代码,没有git先安装很简单
git clone https://github.com/comfyanonymous/ComfyUI.git
二、下载ComfyUI-Manager自定义插件
菜单插件,可以用它下载很多节点以及模型
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
三、下载ComfyUI-Translation自定义插件
翻译插件,将英文翻译成中文。需要在设置中修改language
git clone https://github.com/AIGODLIKE/AIGODLIKE-ComfyUI-Translation.git
无独立显卡安装:无独立显卡也就意味着你只能通过CPU运行ComfyUI,安装步骤
在clone下来的代码中修改ComfyUI/comfy/model_management.py文件中第25行:
# Determine VRAM State
vram_state = VRAMState.NORMAL_VRAM
set_vram_to = VRAMState.NORMAL_VRAM
cpu_state = CPUState.GPU
把这里的cpu_state = CPUState.GPU改为cpu_state = CPUState.CPU
这样在启动的时候,会通过CPU运行ComfyUI。
没有独立显卡的转到ComfyUI根目录,打开命令(shift + 右键)选择“在此处打开powershell窗口”然后输入下面的命令
pip install -r requirements.txt
安装完成后,启动ComfyUI。同样在ComfyUI根目录执行命令,运行期间不能关闭命令窗口,并且以后每次都需要通过命令启动
python main.py
四、安装Cuda
1、查看nvidiaw信息确认cuda的版本,通过powershell查看,右上角显示了版本信息
nvidim-smi
2、下载前用powershell查看是否安装,安装后通过此命令查看是否安装成功
nvcc -V
成功会输出以下信息
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2023 NVIDIA Corporation
Built on Mon_Apr__3_17:36:15_Pacific_Daylight_Time_2023
Cuda compilation tools, release 12.1, V12.1.105
Build cuda_12.1.r12.1/compiler.32688072_0
3、下载安装cuda下载地址,红框-----查看所有版本,
选择版本,红框-----
选择系统信息,点击下载,你的图和我截图不一样,那是因为你没有选择好系统信息
3、安装,按提示信息一步一步装就行了,想修改安装路径自己就改一下吧
五、安装pytorch
1、打开pytorch官网,点我打开。往下拉,直到看到下面的内容(第一个红框内容仔细看一看)点第二个红框查看pytorch的版本
2、开始安装,打开powershell窗口,复制安装命令,执行。
六、检查pytorch与Cuda建立依赖关系(此项不一定要执行)
1、检查pytorch与cuda是否建立依赖关系,打开IDLE
依次输入代码
import torch
print(torch.__version__)
print(torch.cuda.is_available())
成功如下:
输出结果与上图一样,恭喜安装成功。
2、没有成功那就下载cudnn,点我下载, 选择对应的版本,下载安装
3、安装好后再检查pytorch与cuda是否建立依赖关系,如果还没有,私信我。
七、启动comfyUI时常见问题
1、在Windows上安装ComfyUI,启动之后报错误:python\comfyui\ComfyUI\main.py", line 94, in <module>
Traceback (most recent call last):
File "F:\python\comfyui\ComfyUI\main.py", line 94, in <module>
import execution
File "F:\python\comfyui\ComfyUI\execution.py", line 11, in <module>
import nodes
File "F:\python\comfyui\ComfyUI\nodes.py", line 21, in <module>
import comfy.diffusers_load
File "F:\python\comfyui\ComfyUI\comfy\diffusers_load.py", line 3, in <module>
import comfy.sd
File "F:\python\comfyui\ComfyUI\comfy\sd.py", line 5, in <module>
from comfy import model_management
File "F:\python\comfyui\ComfyUI\comfy\model_management.py", line 119, in <module>
total_vram = get_total_memory(get_torch_device()) / (1024 * 1024)
File "F:\python\comfyui\ComfyUI\comfy\model_management.py", line 88, in get_torch_device
return torch.device(torch.cuda.current_device())
File "F:\python\conda\envs\comfyui\lib\site-packages\torch\cuda\__init__.py", line 778, in current_device
_lazy_init()
File "F:\python\conda\envs\comfyui\lib\site-packages\torch\cuda\__init__.py", line 293, in _lazy_init
torch._C._cuda_init()
RuntimeError: config[i] == get()->name() INTERNAL ASSERT FAILED at "C:\\cb\\pytorch_1000000000000\\work\\c10\\cuda\\CUDAAllocatorConfig.cpp":229, please report a bug to PyTorch. Allocator backend parsed at runtime != allocator backend parsed at load time
在PyTorch的Issues中作者给出了答案
我们需要在ComfyUI/main.py中加一些代码:
import comfy.options
comfy.options.enable_args_parsing()
import os
import importlib.util
import folder_paths
import time
from comfy.cli_args import args
改为如下代码:
import comfy.options
comfy.options.enable_args_parsing()
import os
os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "backend:cudaMallocAsync"
import torch
x = torch.randn(1).cuda()
print(x)
import importlib.util
import folder_paths
import time
from comfy.cli_args import args
更多推荐
所有评论(0)