Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

生成这两个视频后我安装了更新,然后就不好用了 #14

Open
Marksusu opened this issue Sep 24, 2024 · 12 comments
Open

生成这两个视频后我安装了更新,然后就不好用了 #14

Marksusu opened this issue Sep 24, 2024 · 12 comments

Comments

@Marksusu
Copy link

CogVideoX_Fun_00001.mp4
CogVideoX_Fun_00002.1.mp4

你好,事情是这样的。
当时我在测试如何放大视频,生成这两个视频后我安装了更新,然后就不好用了。
如下是刚刚又试了一次〔把视频拖进去,相同的工作流相同的种子〕,出错后的终端信息:

Starting server

To see the GUI go to: http://127.0.0.1:8188
got prompt
[Ollama Vision] 
            request query params:
            
            - query: Please, in conjunction with the protagonist's traits as depicted in the accompanying image and the overall stylistic ambiance of the scene, conceptualize a subtle action for them to perform. The description should be provided in English, ensuring it does not exceed 200 words.
            - url: http://127.0.0.1:11434
            - model: llava:latest
            - extra_model: none
            - options: {'seed': 710906439665594}
            - keep_alive: 0
            
            
loading model: llava:latest
HTTP Request: POST http://127.0.0.1:11434/api/generate "HTTP/1.1 200 OK"
/home/mark/.conda/envs/comfy-env/lib/python3.11/site-packages/transformers/tokenization_utils_base.py:1601: FutureWarning: `clean_up_tokenization_spaces` was not set. It will be set to `True` by default. This behavior will be depracted in transformers v4.45, and will be then set to `False` by default. For more details check this issue: https://github.com/huggingface/transformers/issues/31884
  warnings.warn(

Requested to load SD3ClipModel_
Loading 1 new model
loaded completely 0.0 4541.693359375 True
transformer type: fun_5b
GGUF: True
model weight dtype: torch.bfloat16 manual cast dtype: torch.bfloat16
CompletedProcess(args=['/home/mark/.conda/envs/comfy-env/bin/python3.11', 'main.py'], returncode=-9)  # 到这里就不一样了

我还找到了之前还好用时的终端提示:

Update check done.
got prompt
[Ollama Vision] 
            request query params:
            
            - query: Please, in conjunction with the protagonist's traits as depicted in the accompanying image and the overall stylistic ambiance of the scene, conceptualize a subtle action for them to perform. The description should be provided in English, ensuring it does not exceed 200 words.
            - url: http://127.0.0.1:11434
            - model: llava:latest
            - extra_model: none
            - options: {'seed': 710906439665594}
            - keep_alive: 0
            
            
loading model: llava:latest
HTTP Request: POST http://127.0.0.1:11434/api/generate "HTTP/1.1 200 OK"
/home/mark/.conda/envs/comfy-env/lib/python3.11/site-packages/transformers/tokenization_utils_base.py:1601: FutureWarning: `clean_up_tokenization_spaces` was not set. It will be set to `True` by default. This behavior will be depracted in transformers v4.45, and will be then set to `False` by default. For more details check this issue: https://github.com/huggingface/transformers/issues/31884
  warnings.warn(

Requested to load SD3ClipModel_
Loading 1 new model
loaded completely 0.0 4541.693359375 True
transformer type: fun_5b
GGUF: True
model weight dtype: torch.bfloat16 manual cast dtype: torch.bfloat16  # 从这里往下的信息应该是正确的,出错的那边就不一样
Closest size: 240x416
The config attributes {'snr_shift_scale': 1.0} were passed to DPMSolverMultistepScheduler, but are not expected and will be ignored. Please verify your scheduler_config.json configuration file.
/home/mark/.conda/envs/comfy-env/lib/python3.11/site-packages/diffusers/configuration_utils.py:140: FutureWarning: Accessing config attribute `vae_latent_channels` directly via 'VaeImageProcessor' object attribute is deprecated. Please access 'vae_latent_channels' over 'VaeImageProcessor's config object instead, e.g. 'scheduler.config.vae_latent_channels'.
  deprecate("direct config name access", "1.0.0", deprecation_message, standard_warn=False)

100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:42<00:00,  1.70s/it]
torch.Size([1, 10, 16, 52, 30])
Prompt executed in 76.63 seconds

我记得当时同时更新的还有 CogVideoXWrapper ,不知道是否相关,帮帮查查看好吗,谢谢你啦~

@wailovet
Copy link
Contributor

这已经是全部报错信息了吗

@Marksusu
Copy link
Author

这已经是全部报错信息了吗

你好,回复好快啊,谢谢你~可我刚刚关了电脑……😅

我只截取了与这个工作流直接相关的信息,你能看到Update check done就是我检查了 ComfyUI 管理器的更新后,还没立即安装时的样子,当时能正常生成影片。

结果,装了更新之后就不好用了,我也截取了当时的终端提示,确定没有遗漏。

@wailovet
Copy link
Contributor

很可能内存不足引起的崩溃

@Marksusu
Copy link
Author

很可能内存不足引起的崩溃

嗯,我下午再试试。
谢谢你的回复~😀
(我记得,前天晚上还生成了很多小片断,玩了好久都没有显存不够的问题,更新后却一次都没成功过,实在很奇怪。)

@wailovet
Copy link
Contributor

一般突然崩溃很可能是内存不足,显存不够的话会爆OOM的

@Marksusu
Copy link
Author

一般突然崩溃很可能是内存不足,显存不够的话会爆OOM的

原来是这样,谢谢你的解答~
今天试了,是能成功生成视频的(是重启电脑带来的收益吧)。

CogVideoX_Fun_00001.mp4

我只是不太明白,爆显存后,最应该采取的措施是什么?
比如昨天,我尝试重启 ComfyUI 多次,ComfyUI 是可以启动的,但每次生成都会失败,并出现 CompletedProcess(args=['/home/mark/.conda/envs/comfy-env/bin/python3.11', 'main.py'], returncode=-9) 这样的提示。难道 ComfyUI 的重启不能起到清理显存的作用吗?
另外,工作流里能加入(如果有的话)专门清理显存的节点吗?
如果能,在生成视频的流程中的哪一步清理显存才合理?
能不能把显存分成几个部分,轮流清理、利用……以保证工作流持续完成?

@wailovet
Copy link
Contributor

我这里指的是内存 RAM , 不是显存 VRAM

@Marksusu
Copy link
Author

我这里指的是内存 RAM , 不是显存 VRAM

哦,你说的应该是对的。
刚刚我连续使用这个工作流都好好的,但当我在浏览器中另开一个 Page Assist (在侧栏中调用 Ollama )后,就又一次出现了 CompletedProcess(args=['/home/mark/.conda/envs/comfy-env/bin/python3.11', 'main.py'], returncode=-9) 的提示,同时 ComfyUI 也自动被强制退出了。
也许昨天我重启 ComfyUI 不奏效,也是这种情况。可能是这个浏览器插件被关闭时,并没有空出相应的内存、显存什么的。
而我当时并没有意识到这一点,还以为是节点更新导致的。
我没有意识到这是我个人的操作问题,给你们添麻烦了,真不好意思~

再次感谢你的耐心解答,谢谢~:)

@QiqLiang
Copy link

这已经是全部报错信息了吗

你好,回复好快啊,谢谢你~可我刚刚关了电脑……😅

我只截取了与这个工作流直接相关的信息,你能看到Update check done就是我检查了 ComfyUI 管理器的更新后,还没立即安装时的样子,当时能正常生成影片。

结果,装了更新之后就不好用了,我也截取了当时的终端提示,确定没有遗漏。

你好,想请教一下怎么在Linux运行起来,应该跑哪个文件呢?

@wailovet
Copy link
Contributor

这已经是全部报错信息了吗

你好,回复好快啊,谢谢你~可我刚刚关了电脑……😅
我只截取了与这个工作流直接相关的信息,你能看到Update check done就是我检查了 ComfyUI 管理器的更新后,还没立即安装时的样子,当时能正常生成影片。
结果,装了更新之后就不好用了,我也截取了当时的终端提示,确定没有遗漏。

你好,想请教一下怎么在Linux运行起来,应该跑哪个文件呢?

这是ComfyUI的插件,你至少需要先使用ComfyUI ,另外我有一段时间没跟踪ComfyUI-CogVideoXWrapper的最新版本了,建议先看看
CogVideo
ComfyUI-CogVideoXWrapper

@Marksusu
Copy link
Author

这已经是全部报错信息了吗

你好,回复好快啊,谢谢你~可我刚刚关了电脑……😅
我只截取了与这个工作流直接相关的信息,你能看到Update check done就是我检查了 ComfyUI 管理器的更新后,还没立即安装时的样子,当时能正常生成影片。
结果,装了更新之后就不好用了,我也截取了当时的终端提示,确定没有遗漏。

你好,想请教一下怎么在Linux运行起来,应该跑哪个文件呢?

这里面最大的可能性是 ── KJ 大佬一直在孜孜不倦做改进( https://github.com/kijai/ComfyUI-CogVideoXWrapper ),常常是他一更新,原有的工作流就不能用了。

后来,在 11 月 7 号(大概),我更新了 KJ 大佬的节点后,工作流又能跑通了(应该是 CogVideoXFun Sampler 做了某处修改),我就复制了一份。

工作流:

❷❹1109-cog_fun_Komfy_by_longer_side.json

停止更新的节点包:

KJ_stop_2024.1115.1723.tar.gz

@Marksusu
Copy link
Author

这已经是全部报错信息了吗

你好,回复好快啊,谢谢你~可我刚刚关了电脑……😅
我只截取了与这个工作流直接相关的信息,你能看到Update check done就是我检查了 ComfyUI 管理器的更新后,还没立即安装时的样子,当时能正常生成影片。
结果,装了更新之后就不好用了,我也截取了当时的终端提示,确定没有遗漏。

你好,想请教一下怎么在Linux运行起来,应该跑哪个文件呢?

这是ComfyUI的插件,你至少需要先使用ComfyUI ,另外我有一段时间没跟踪ComfyUI-CogVideoXWrapper的最新版本了,建议先看看 CogVideo ComfyUI-CogVideoXWrapper

KJ 大佬十分勤奋,已经改了很多版了 🤣😅
好儿好儿的,吃着火锅唱着歌,火锅就变成火铳子了

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants