说明:ComfyUI安装方式有很两种,第一种是下载独立包。独立包下载到本地后,即可使用。不需要搭建(安装)python、cuda、cudnn、pytorch环境.

第二种是,手动安装。手动安装要复杂很多,需要搭建开发环境,即安装python、cuda、cudnn、pytorch。这里介绍的是就是第二种。

假设已经安装好python,并且没有任何问题。如果还没有安装python请查看python安装。安装好后进行下一步。

一、下载ComfyUI

用git下载代码,没有git先安装很简单

git clone https://github.com/comfyanonymous/ComfyUI.git

二、下载ComfyUI-Manager自定义插件

菜单插件,可以用它下载很多节点以及模型

git clone https://github.com/ltdrdata/ComfyUI-Manager.git

三、下载ComfyUI-Translation自定义插件

翻译插件,将英文翻译成中文。需要在设置中修改language

git clone https://github.com/AIGODLIKE/AIGODLIKE-ComfyUI-Translation.git

无独立显卡安装:无独立显卡也就意味着你只能通过CPU运行ComfyUI,安装步骤
在clone下来的代码中修改ComfyUI/comfy/model_management.py文件中第25行:

# Determine VRAM State
vram_state = VRAMState.NORMAL_VRAM
set_vram_to = VRAMState.NORMAL_VRAM
cpu_state = CPUState.GPU
把这里的cpu_state = CPUState.GPU改为cpu_state = CPUState.CPU
这样在启动的时候,会通过CPU运行ComfyUI。

没有独立显卡的转到ComfyUI根目录,打开命令(shift + 右键)选择“在此处打开powershell窗口”然后输入下面的命令

pip install -r requirements.txt

安装完成后,启动ComfyUI。同样在ComfyUI根目录执行命令,运行期间不能关闭命令窗口,并且以后每次都需要通过命令启动

python main.py

四、安装Cuda

1、查看nvidiaw信息确认cuda的版本,通过powershell查看,右上角显示了版本信息

nvidim-smi

2、下载前用powershell查看是否安装,安装后通过此命令查看是否安装成功

nvcc -V

成功会输出以下信息

nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2023 NVIDIA Corporation
Built on Mon_Apr__3_17:36:15_Pacific_Daylight_Time_2023
Cuda compilation tools, release 12.1, V12.1.105
Build cuda_12.1.r12.1/compiler.32688072_0

3、下载安装cuda下载地址,红框-----查看所有版本,

选择版本,红框-----

选择系统信息,点击下载,你的图和我截图不一样,那是因为你没有选择好系统信息

3、安装,按提示信息一步一步装就行了,想修改安装路径自己就改一下吧

五、安装pytorch

1、打开pytorch官网,点我打开。往下拉,直到看到下面的内容(第一个红框内容仔细看一看)点第二个红框查看pytorch的版本

2、开始安装,打开powershell窗口,复制安装命令,执行。

六、检查pytorch与Cuda建立依赖关系(此项不一定要执行)

1、检查pytorch与cuda是否建立依赖关系,打开IDLE

依次输入代码

import torch
print(torch.__version__)
print(torch.cuda.is_available())

成功如下:

输出结果与上图一样,恭喜安装成功。

2、没有成功那就下载cudnn,点我下载,​​​​​​ ​选择对应的版本,下载安装

3、安装好后再检查pytorch与cuda是否建立依赖关系,如果还没有,私信我。

七、启动comfyUI时常见问题

1、在Windows上安装ComfyUI,启动之后报错误:python\comfyui\ComfyUI\main.py", line 94, in <module>

Traceback (most recent call last):
  File "F:\python\comfyui\ComfyUI\main.py", line 94, in <module>
    import execution
  File "F:\python\comfyui\ComfyUI\execution.py", line 11, in <module>
    import nodes
  File "F:\python\comfyui\ComfyUI\nodes.py", line 21, in <module>
    import comfy.diffusers_load
  File "F:\python\comfyui\ComfyUI\comfy\diffusers_load.py", line 3, in <module>
    import comfy.sd
  File "F:\python\comfyui\ComfyUI\comfy\sd.py", line 5, in <module>
    from comfy import model_management
  File "F:\python\comfyui\ComfyUI\comfy\model_management.py", line 119, in <module>
    total_vram = get_total_memory(get_torch_device()) / (1024 * 1024)
  File "F:\python\comfyui\ComfyUI\comfy\model_management.py", line 88, in get_torch_device
    return torch.device(torch.cuda.current_device())
  File "F:\python\conda\envs\comfyui\lib\site-packages\torch\cuda\__init__.py", line 778, in current_device
    _lazy_init()
  File "F:\python\conda\envs\comfyui\lib\site-packages\torch\cuda\__init__.py", line 293, in _lazy_init
    torch._C._cuda_init()
RuntimeError: config[i] == get()->name() INTERNAL ASSERT FAILED at "C:\\cb\\pytorch_1000000000000\\work\\c10\\cuda\\CUDAAllocatorConfig.cpp":229, please report a bug to PyTorch. Allocator backend parsed at runtime != allocator backend parsed at load time

在PyTorch的Issues中作者给出了答案

我们需要在ComfyUI/main.py中加一些代码:

import comfy.options
comfy.options.enable_args_parsing()

import os
import importlib.util
import folder_paths
import time
from comfy.cli_args import args

改为如下代码:

import comfy.options
comfy.options.enable_args_parsing()

import os
os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "backend:cudaMallocAsync"

import torch

x = torch.randn(1).cuda()
print(x)

import importlib.util
import folder_paths
import time
from comfy.cli_args import args

Logo

为开发者提供按需使用的算力基础设施。

更多推荐