如何在ComfyUI中安装和配置LTX-2 GGUF模型:2026完整指南
在消费级硬件上运行专业AI视频生成刚刚成为可能。LTX-2 GGUF模型将Lightricks强大的音视频生成能力带到了仅需8GB显存的GPU上,让原本仅限于高端工作站的同步视频和音频创作变得大众化。
LTX-2于2026年初发布,是一个190亿参数的扩散变换器模型,可以同时生成视频和音频。虽然全精度模型需要32GB+显存,但GGUF(GPT生成统一格式)量化版本使得主流消费级GPU(如RTX 4060、RTX 4070,甚至更老的显存有限的显卡)也能进行生成。

本指南基于Reddit用户HerrDehy的社区验证方法和广泛测试,提供在ComfyUI中安装和配置LTX-2 GGUF模型的分步说明。你将学习如何设置环境、下载正确的模型、配置工作流,以及针对特定硬件优化性能。
你将学到:
- 理解GGUF量化及其对LTX-2的好处
- 安装ComfyUI及所需的自定义节点
- 下载和组织LTX-2 GGUF模型文件
- 配置文本生成视频和图像生成视频工作流
- 针对不同显存级别优化生成设置
- 排查常见安装问题
什么是GGUF以及为什么对LTX-2很重要?
GGUF(GPT生成统一格式)是一种量化格式,将模型精度从16位或32位浮点降低到更低的位深度(3位、4位、6位或8位)。这种压缩大幅减少了内存需求,同时保留了模型的大部分生成能力。
显存挑战
LTX-2的全精度模型对硬件要求很高:
- LTX-2 19B (BF16): 至少需要~32GB显存
- LTX-2 19B (FP8): ~16GB显存
- LTX-2 19B (NVFP4): ~10GB显存(仅限NVIDIA RTX 40系列)
这些要求使得大多数用户无法使用专业视频生成。消费级GPU通常提供:
- RTX 4060: 8GB显存
- RTX 4070: 12GB显存
- RTX 4080: 16GB显存
- RTX 3080: 10-12GB显存
GGUF解决方案
GGUF量化通过智能压缩弥合了这一差距。通过在不太关键的模型层降低数值精度,同时在重要区域保持更高精度,GGUF模型实现了显著的内存节省,质量损失极小。
主要优势:
- 可访问性: 在8-16GB显存GPU上运行LTX-2
- 速度: 由于数据移动减少,推理更快
- 灵活性: 针对不同硬件的多个量化级别
- 质量: Q4-Q6级别的质量损失几乎无法察觉
LTX-2 GGUF量化级别详解
LTX-2 GGUF模型有多个量化级别,每个级别在质量、速度和内存使用之间提供不同的权衡。了解这些选项有助于你为硬件选择合适的模型。
可用的量化格式
| 量化级别 | 文件大小 | 显存需求 | 质量损失 | 速度 | 最适合 |
|---|---|---|---|---|---|
| Q3_K_S | ~8GB | 9-10GB | 中等 | 最快 | 极端显存限制 |
| Q3_K_M | ~9GB | 10-11GB | 中等 | 非常快 | 预算GPU(8GB) |
| Q4_0 | ~10GB | 11-12GB | 低 | 快 | RTX 4060, RTX 3060 Ti |
| Q4_K_S | ~11GB | 12-13GB | 低 | 快 | RTX 4070(推荐) |
| Q4_K_M | ~12GB | 13-14GB | 非常低 | 平衡 | RTX 4070, RTX 3080 |
| Q5_0 | ~13GB | 14-15GB | 极小 | 平衡 | RTX 4080 |
| Q5_K_M | ~14GB | 15-16GB | 极小 | 稍慢 | RTX 4080 |
| Q6_K | ~16GB | 17-18GB | 接近零 | 较慢 | RTX 4090 |
| Q8_0 | ~20GB | 21-22GB | 几乎没有 | 最慢 | RTX 4090, 专业卡 |
选择合适的量化级别
8GB显存(RTX 4060, RTX 3060 Ti):
- 从Q4_0或Q3_K_M开始
- 在512×512或640×384分辨率生成
- 使用16-24帧生成短片段
- 预计2-4分钟生成时间
12GB显存(RTX 4070, RTX 3080):
- Q4_K_S或Q4_K_M提供最佳平衡
- 在768×512或640×480分辨率生成
- 使用24-32帧生成1-2秒片段
- 预计1-3分钟生成时间
16GB+显存(RTX 4080, RTX 4090):
- Q5_K_M或Q6_K提供接近原始质量
- 在1024×576或更高分辨率生成
- 使用32-48帧生成更长片段
- RTX 4090可使用Q8_0获得最大保真度
质量vs性能权衡:
- Q3量化: 质量降低明显,适合测试
- Q4量化: 大多数用户的最佳选择,质量损失极小
- Q5-Q6量化: 接近原始质量,需要更高显存
- Q8量化: 与全精度几乎相同
系统要求
在安装LTX-2 GGUF模型之前,确保你的系统满足这些规格。
最低硬件要求
GPU: NVIDIA GPU,8GB+显存
- RTX 4060 (8GB) - Q3/Q4模型的最低要求
- RTX 3060 Ti (8GB) - Q3/Q4模型的最低要求
- 目前不支持AMD GPU
内存: 16GB系统内存最低
- 推荐32GB以获得更流畅的操作
- 模型在传输到GPU之前会加载到系统内存
存储: 50GB+可用磁盘空间
- GGUF模型: 8-20GB(取决于量化)
- VAE和文本编码器: ~10GB
- ComfyUI和依赖项: ~5GB
- 输出工作空间: ~10GB
操作系统:
- Windows 10/11 (64位) - 推荐
- Linux (Ubuntu 20.04+或同等版本)
- macOS (有限支持,仅CPU,非常慢)
软件先决条件
Python: 3.10或更高版本
- 推荐Python 3.11或3.12
- 强烈推荐虚拟环境
CUDA: 11.8或更高版本
- 推荐CUDA 12.1+以获得最佳性能
- 从NVIDIA网站下载
Git: 用于克隆仓库
- Windows: Git for Windows
- Linux/Mac: 预装或通过包管理器安装
最佳性能的推荐规格
为了获得LTX-2 GGUF模型的最佳体验:
- GPU: RTX 4070或更好(12GB+显存)
- 内存: 32GB DDR4/DDR5
- 存储: NVMe SSD,100GB+可用空间
- CPU: 现代多核处理器(6+核心)
分步安装指南
本节提供在ComfyUI中安装LTX-2 GGUF模型的详细说明,基于Reddit用户HerrDehy的社区验证方法。
步骤1: 安装或更新ComfyUI
如果你还没有安装ComfyUI,请按照以下步骤操作。如果已经安装,请跳到更新部分。
全新安装(Windows):
- 克隆ComfyUI仓库:
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
- 创建Python虚拟环境:
python -m venv venv
venv\Scripts\activate
- 安装依赖项:
pip install -r requirements.txt
- 安装支持CUDA的PyTorch:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121
- 启动ComfyUI验证安装:
python main.py
在浏览器中打开http://localhost:8188确认ComfyUI正在运行。
全新安装(Linux):
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121
python main.py
更新现有ComfyUI:
如果已经安装了ComfyUI,更新到最新版本:
cd ComfyUI
git pull origin master
pip install -r requirements.txt --upgrade
重要: 确保运行最新版本的ComfyUI以获得GGUF兼容性。
步骤2: 安装所需的自定义节点
LTX-2 GGUF需要两个必要的自定义节点包:ComfyUI-GGUF和ComfyUI-KJNodes。
方法A: 通过ComfyUI Manager安装(推荐)
- 启动ComfyUI:
python main.py
-
打开ComfyUI Manager:
- 在
http://localhost:8188访问ComfyUI - 点击界面中的"Manager"按钮
- 选择"Install Custom Nodes"
- 在
-
安装ComfyUI-GGUF:
- 搜索"ComfyUI-GGUF"
- 点击结果旁边的"Install"
- 等待安装完成
-
安装ComfyUI-KJNodes:
- 搜索"ComfyUI-KJNodes"
- 点击"Install"
- 等待安装完成
-
关闭ComfyUI(对下一步很重要)
方法B: 手动安装
如果ComfyUI Manager不可用:
cd ComfyUI/custom_nodes
# 安装ComfyUI-GGUF
git clone https://github.com/city96/ComfyUI-GGUF.git
cd ComfyUI-GGUF
pip install -r requirements.txt
cd ..
# 安装ComfyUI-KJNodes
git clone https://github.com/kijai/ComfyUI-KJNodes.git
cd ComfyUI-KJNodes
pip install -r requirements.txt
cd ../..
步骤3: 使用关键补丁更新ComfyUI-GGUF
关键步骤: 官方ComfyUI-GGUF版本尚不支持LTX-2 GGUF模型。你必须手动更新两个文件,使用未合并的提交。
这一步基于HerrDehy的Reddit指南,对于LTX-2 GGUF的工作至关重要。
1. 备份现有文件(可选但推荐):
cd ComfyUI/custom_nodes/ComfyUI-GGUF
copy loader.py loader.py.backup
copy nodes.py nodes.py.backup
2. 下载更新的文件:
访问这些URL并下载文件:
- loader.py: https://github.com/city96/ComfyUI-GGUF/blob/f083506720f2f049631ed6b6e937440f5579f6c7/loader.py
- nodes.py: https://github.com/city96/ComfyUI-GGUF/blob/f083506720f2f049631ed6b6e937440f5579f6c7/nodes.py
3. 替换现有文件:
- 将下载的
loader.py复制到ComfyUI/custom_nodes/ComfyUI-GGUF/loader.py - 将下载的
nodes.py复制到ComfyUI/custom_nodes/ComfyUI-GGUF/nodes.py - 提示时覆盖
为什么需要这一步: 特定提交(f083506)包含对LTX-2架构的支持,但尚未合并到主分支。没有此更新,ComfyUI将无法识别LTX-2 GGUF模型。
注意: 这是一个临时解决方案。一旦更改合并到官方版本,就不需要此手动更新了。
步骤4: 下载LTX-2 GGUF模型文件
现在你将从Kijai的Hugging Face仓库下载所需的模型文件。该仓库托管专门为ComfyUI准备的社区优化LTX-2模型。
模型仓库: https://huggingface.co/Kijai/LTXV2_comfy/tree/main
必需文件:
1. VAE模型(视频和音频编码器)
下载两个VAE文件并放置在ComfyUI/models/vae/:
LTX2_audio_vae_bf16.safetensors(~1.5GB)LTX2_video_vae_bf16.safetensors(~1.2GB)
2. 文本编码器(嵌入连接器)
下载并放置在ComfyUI/models/text_encoders/:
ltx-2-19b-embeddings_connector_bf16.safetensors(~2.8GB)
3. GGUF扩散模型(选择一个)
从ComfyUI/models/diffusion_models/下载一个量化级别:
8GB显存:
ltx2-19b-Q3_K_M.gguf(~9GB)ltx2-19b-Q4_0.gguf(~10GB)
12GB显存(推荐):
ltx2-19b-Q4_K_S.gguf(~11GB)ltx2-19b-Q4_K_M.gguf(~12GB)
16GB+显存:
ltx2-19b-Q5_K_M.gguf(~14GB)ltx2-19b-Q6_K.gguf(~16GB)
可选但推荐的文件:
4. 空间放大器(用于更高分辨率输出)
从官方LTX-2仓库下载并放置在ComfyUI/models/latent_upscale_models/:
5. 蒸馏LoRA(用于更快生成)
下载并放置在ComfyUI/models/loras/:
6. Gemma FP8文本编码器(替代方案,更低显存)
下载并放置在ComfyUI/models/text_encoders/:
步骤5: 组织模型文件
下载后,验证你的目录结构与此布局匹配:
ComfyUI/
├── models/
│ ├── vae/
│ │ ├── LTX2_audio_vae_bf16.safetensors
│ │ └── LTX2_video_vae_bf16.safetensors
│ ├── text_encoders/
│ │ ├── ltx-2-19b-embeddings_connector_bf16.safetensors
│ │ └── gemma_3_12B_it_fp8_e4m3fn.safetensors (可选)
│ ├── diffusion_models/
│ │ └── ltx2-19b-Q4_K_M.gguf (或你选择的量化)
│ ├── latent_upscale_models/
│ │ └── ltx-2-spatial-upscaler-x2-1.0.safetensors (可选)
│ └── loras/
│ └── ltx-2-19b-distilled-lora-384.safetensors (可选)
重要注意事项:
- 文件名区分大小写
- 确保文件在正确的目录中
- 不要在这些文件夹中创建额外的子目录
- GGUF模型必须在
diffusion_models/,而不是checkpoints/
步骤6: 下载和加载工作流
HerrDehy创建了与LTX-2 GGUF模型配合使用的预配置工作流。这些工作流对于正常运行至关重要。
下载工作流:
文本生成视频工作流:
- URL: https://github.com/HerrDehy/SharePublic/blob/main/LTX2_T2V_GGUF.json
- 右键点击"Raw"按钮并"另存为"
- 保存到你喜欢的位置
图像生成视频工作流:
- URL: https://github.com/HerrDehy/SharePublic/blob/main/LTX2_I2V_GGUF v0.3.json
- 右键点击"Raw"按钮并"另存为"
- 保存到你喜欢的位置
在ComfyUI中加载工作流:
- 启动ComfyUI:
cd ComfyUI
python main.py
-
访问界面
http://localhost:8188 -
加载工作流:
- 将下载的JSON文件拖放到ComfyUI画布上
- 或点击"Load" → "Load Workflow"并选择JSON文件
-
验证节点连接:
- 所有节点应该显示,没有红色错误指示器
- 检查模型路径是否正确检测
- 查找"Text to Video"或"Image to Video"节点
-
选择你的模型:
- 在GGUF加载器节点中,选择你下载的GGUF模型
- 在VAE加载器节点中,选择音频和视频VAE文件
- 在文本编码器节点中,选择嵌入连接器
如果看到缺少节点错误:
- 确保已安装ComfyUI-GGUF和ComfyUI-KJNodes
- 验证你已更新GGUF节点文件(步骤3)
- 完全重启ComfyUI
- 检查控制台中的特定错误消息
配置和优化
加载工作流后,你需要根据硬件和质量要求配置生成参数。
理解关键参数
分辨率设置:
- 必须能被32整除
- LTX-2 GGUF的常见选项:
- 512×512: 快速测试,低显存
- 640×384: 宽屏,平衡
- 768×512: 高清质量,中等显存
- 1024×576: 全高清,高显存
帧数:
- 必须能被8整除,加1(例如9、17、25、33)
- 更多帧=更长视频但显存需求呈指数增长
- 推荐起点: 17或25帧
采样步数:
- 范围: 20-50步
- 更多步数=更好质量但生成更慢
- 推荐: Q4模型使用25-30步
CFG比例(无分类器引导):
- 范围: 1.0-15.0
- 较低值(3-5): 更有创意,提示词遵循度较低
- 较高值(7-10): 更严格遵循提示词
- 推荐: 5.0-7.0
针对不同显存级别的优化
8GB显存配置:
分辨率: 512×512或640×384
帧数: 17 (24fps约0.7秒)
步数: 25
CFG比例: 5.0
量化: Q3_K_M或Q4_0
预计生成时间: 3-5分钟
12GB显存配置(推荐):
分辨率: 768×512
帧数: 25 (24fps约1秒)
步数: 30
CFG比例: 6.0
量化: Q4_K_M
预计生成时间: 2-3分钟
16GB+显存配置:
分辨率: 1024×576
帧数: 33 (24fps约1.4秒)
步数: 35
CFG比例: 7.0
量化: Q5_K_M或Q6_K
预计生成时间: 3-4分钟
首次生成测试
现在一切都已配置好,让我们用LTX-2 GGUF创建你的第一个视频。
推荐的测试提示词
从一个简单、清晰的提示词开始,验证你的设置正常工作:
一只金毛猎犬小狗在阳光明媚的花园里玩红色的球,快乐地摇着尾巴。柔和的鸟鸣环境声。镜头从左向右缓慢平移。
这个提示词效果好的原因:
- 简单的主体(小狗),LTX-2处理得很好
- 清晰的动作(玩球)
- 明确的场景(阳光花园)
- 音频描述(鸟鸣)
- 指定了镜头运动(左右平移)
生成过程
- 在文本输入节点中输入提示词
- 根据显存设置参数:
- 8GB: 512×512, 17帧, 25步
- 12GB: 768×512, 25帧, 30步
- 16GB+: 1024×576, 33帧, 35步
- 点击右上角的"Queue Prompt"
- 在控制台窗口监控进度
- 等待完成(根据硬件2-5分钟)
评估输出质量
当第一个视频生成后,检查这些方面:
视觉质量:
- 运动流畅无抖动
- 主体外观一致
- 适当的光照和阴影
- 无明显伪影或失真
音频质量:
- 与视频动作同步
- 声音清晰适当
- 无爆音或失真
提示词遵循度:
- 主体符合描述
- 动作正确
- 场景准确
- 镜头运动遵循指示
如果质量不佳,尝试:
- 提高量化级别(Q3 → Q4 → Q5)
- 增加采样步数
- 调整CFG比例
- 用更多细节完善提示词
常见问题排查
以下是安装和运行LTX-2 GGUF模型时最常见问题的解决方案。
CUDA显存不足错误
症状: 生成期间出现"RuntimeError: CUDA out of memory"
解决方案:
- 降低分辨率: 尝试512×512而不是768×512
- 减少帧数: 使用17帧而不是25帧
- 使用更低量化: 从Q4切换到Q3
- 关闭其他应用程序: 释放GPU内存
- 重启ComfyUI: 清除缓存的模型
- 检查显存使用: 使用
nvidia-smi监控
缺少节点或红色错误指示器
症状: 工作流显示红色节点或"Node not found"错误
解决方案:
- 验证已安装自定义节点:
- 检查
ComfyUI/custom_nodes/ComfyUI-GGUF存在 - 检查
ComfyUI/custom_nodes/ComfyUI-KJNodes存在
- 检查
- 确认GGUF节点更新: 验证你已替换loader.py和nodes.py
- 完全重启ComfyUI: 关闭终端并重新启动
- 检查Python版本: 必须是3.10+
- 重新安装依赖项:
cd ComfyUI/custom_nodes/ComfyUI-GGUF
pip install -r requirements.txt --upgrade
模型未找到或加载错误
症状: "Model not found"或"Failed to load model"错误
解决方案:
- 验证文件路径:
- GGUF模型必须在
models/diffusion_models/ - VAE文件必须在
models/vae/ - 文本编码器必须在
models/text_encoders/
- GGUF模型必须在
- 检查文件名: 确保拼写和大小写准确
- 验证文件完整性: 如果文件损坏,重新下载
- 检查磁盘空间: 确保有足够的可用空间
- 尝试绝对路径: 在节点设置中使用完整文件路径
生成时间过慢
症状: 短片段生成需要10+分钟
解决方案:
- 验证GPU使用: 检查
nvidia-smi显示GPU活动 - 更新NVIDIA驱动: 安装最新驱动程序
- 使用更低量化: Q4比Q5/Q6更快
- 减少步数: 尝试20-25步而不是35-50步
- 检查CPU瓶颈: 确保GPU正在被利用
- 启用性能模式: 在NVIDIA控制面板中
在线试用LTX-2
如果你想在承诺本地设置之前测试LTX-2,或者需要在没有硬件限制的情况下快速访问,可以在Z-Image在线试用。
Z-Image为LTX-2和其他最先进的AI视频模型提供简化的界面,无需安装。这对以下情况特别有用:
测试提示词: 在运行本地生成之前尝试不同的提示词
快速迭代: 当你不在工作站时生成视频
比较模型: 测试LTX-2与其他视频生成模型
学习: 无需设置开销即可理解提示词工程
硬件评估: 确定本地安装是否值得投资
该平台处理所有技术复杂性,让你专注于创意和提示词优化。一旦你熟悉了LTX-2的功能,就可以按照本指南设置本地安装。
总结
LTX-2 GGUF模型代表了在消费级硬件上实现专业AI视频生成的重大突破。通过遵循本指南,你已经学会了如何:
- 安装ComfyUI及LTX-2 GGUF支持所需的自定义节点
- 从社区仓库下载和组织模型文件
- 应用LTX-2兼容性的关键GGUF节点补丁
- 配置文本生成视频和图像生成视频工作流
- 针对不同显存级别优化设置
- 排查常见安装和生成问题
核心要点
从Q4量化开始: 对于大多数拥有8-16GB显存的用户,Q4_K_M提供了质量、速度和内存使用的最佳平衡。
遵循手动更新步骤: 手动更新ComfyUI-GGUF节点文件(步骤3)的关键步骤是必不可少的。没有这个,LTX-2 GGUF模型将无法正确加载。
针对硬件优化: 根据你的显存使用配置建议,避免内存不足错误并实现合理的生成时间。
社区资源很重要: 本指南基于HerrDehy的Reddit帖子和社区测试。AI视频生成社区积极分享工作流、优化和解决方案。
下一步
现在你已经运行了LTX-2 GGUF:
- 尝试提示词: 测试不同的主体、场景和镜头运动
- 尝试图像生成视频: 使用I2V工作流为静态图像添加动画
- 探索量化级别: 如果有显存余量,尝试Q5或Q6以获得更好的质量
- 加入社区: 在Reddit和Discord上分享你的结果并向他人学习
- 保持更新: 关注官方GGUF节点更新,这将简化安装
社区资源
原始Reddit指南: Using GGUF models for LTX2 in T2V by HerrDehy
模型仓库: Kijai的LTX-2 ComfyUI模型
ComfyUI-GGUF: city96的GGUF节点仓库
官方LTX-2: Lightricks LTX-2仓库
AI视频生成的未来越来越容易获得,LTX-2 GGUF正处于这一民主化的前沿。借助消费级硬件和社区驱动的优化,专业视频创作能力现在已触手可及,面向全球的创作者、开发者和爱好者。
最后更新: 2026年1月10日
本指南基于社区验证的方法,随着LTX-2 GGUF官方支持的改进将持续更新。
来源
- Reddit: Using GGUF models for LTX2 in T2V
- Hugging Face: Kijai/LTXV2_comfy
- GitHub: HerrDehy/SharePublic
- GitHub: city96/ComfyUI-GGUF
- Hugging Face: Lightricks/LTX-2
- GGUF量化对比研究
- ComfyUI官方仓库