如何在ComfyUI中安装和配置LTX-2 GGUF模型:2026完整指南

Jan 10, 2026

如何在ComfyUI中安装和配置LTX-2 GGUF模型:2026完整指南

在消费级硬件上运行专业AI视频生成刚刚成为可能。LTX-2 GGUF模型将Lightricks强大的音视频生成能力带到了仅需8GB显存的GPU上,让原本仅限于高端工作站的同步视频和音频创作变得大众化。

LTX-2于2026年初发布,是一个190亿参数的扩散变换器模型,可以同时生成视频和音频。虽然全精度模型需要32GB+显存,但GGUF(GPT生成统一格式)量化版本使得主流消费级GPU(如RTX 4060、RTX 4070,甚至更老的显存有限的显卡)也能进行生成。

19

本指南基于Reddit用户HerrDehy的社区验证方法和广泛测试,提供在ComfyUI中安装和配置LTX-2 GGUF模型的分步说明。你将学习如何设置环境、下载正确的模型、配置工作流,以及针对特定硬件优化性能。

你将学到:

  • 理解GGUF量化及其对LTX-2的好处
  • 安装ComfyUI及所需的自定义节点
  • 下载和组织LTX-2 GGUF模型文件
  • 配置文本生成视频和图像生成视频工作流
  • 针对不同显存级别优化生成设置
  • 排查常见安装问题

什么是GGUF以及为什么对LTX-2很重要?

GGUF(GPT生成统一格式)是一种量化格式,将模型精度从16位或32位浮点降低到更低的位深度(3位、4位、6位或8位)。这种压缩大幅减少了内存需求,同时保留了模型的大部分生成能力。

显存挑战

LTX-2的全精度模型对硬件要求很高:

  • LTX-2 19B (BF16): 至少需要~32GB显存
  • LTX-2 19B (FP8): ~16GB显存
  • LTX-2 19B (NVFP4): ~10GB显存(仅限NVIDIA RTX 40系列)

这些要求使得大多数用户无法使用专业视频生成。消费级GPU通常提供:

  • RTX 4060: 8GB显存
  • RTX 4070: 12GB显存
  • RTX 4080: 16GB显存
  • RTX 3080: 10-12GB显存

GGUF解决方案

GGUF量化通过智能压缩弥合了这一差距。通过在不太关键的模型层降低数值精度,同时在重要区域保持更高精度,GGUF模型实现了显著的内存节省,质量损失极小。

主要优势:

  • 可访问性: 在8-16GB显存GPU上运行LTX-2
  • 速度: 由于数据移动减少,推理更快
  • 灵活性: 针对不同硬件的多个量化级别
  • 质量: Q4-Q6级别的质量损失几乎无法察觉

LTX-2 GGUF量化级别详解

LTX-2 GGUF模型有多个量化级别,每个级别在质量、速度和内存使用之间提供不同的权衡。了解这些选项有助于你为硬件选择合适的模型。

可用的量化格式

量化级别 文件大小 显存需求 质量损失 速度 最适合
Q3_K_S ~8GB 9-10GB 中等 最快 极端显存限制
Q3_K_M ~9GB 10-11GB 中等 非常快 预算GPU(8GB)
Q4_0 ~10GB 11-12GB RTX 4060, RTX 3060 Ti
Q4_K_S ~11GB 12-13GB RTX 4070(推荐)
Q4_K_M ~12GB 13-14GB 非常低 平衡 RTX 4070, RTX 3080
Q5_0 ~13GB 14-15GB 极小 平衡 RTX 4080
Q5_K_M ~14GB 15-16GB 极小 稍慢 RTX 4080
Q6_K ~16GB 17-18GB 接近零 较慢 RTX 4090
Q8_0 ~20GB 21-22GB 几乎没有 最慢 RTX 4090, 专业卡

选择合适的量化级别

8GB显存(RTX 4060, RTX 3060 Ti):

  • 从Q4_0或Q3_K_M开始
  • 在512×512或640×384分辨率生成
  • 使用16-24帧生成短片段
  • 预计2-4分钟生成时间

12GB显存(RTX 4070, RTX 3080):

  • Q4_K_S或Q4_K_M提供最佳平衡
  • 在768×512或640×480分辨率生成
  • 使用24-32帧生成1-2秒片段
  • 预计1-3分钟生成时间

16GB+显存(RTX 4080, RTX 4090):

  • Q5_K_M或Q6_K提供接近原始质量
  • 在1024×576或更高分辨率生成
  • 使用32-48帧生成更长片段
  • RTX 4090可使用Q8_0获得最大保真度

质量vs性能权衡:

  • Q3量化: 质量降低明显,适合测试
  • Q4量化: 大多数用户的最佳选择,质量损失极小
  • Q5-Q6量化: 接近原始质量,需要更高显存
  • Q8量化: 与全精度几乎相同

系统要求

在安装LTX-2 GGUF模型之前,确保你的系统满足这些规格。

最低硬件要求

GPU: NVIDIA GPU,8GB+显存

  • RTX 4060 (8GB) - Q3/Q4模型的最低要求
  • RTX 3060 Ti (8GB) - Q3/Q4模型的最低要求
  • 目前不支持AMD GPU

内存: 16GB系统内存最低

  • 推荐32GB以获得更流畅的操作
  • 模型在传输到GPU之前会加载到系统内存

存储: 50GB+可用磁盘空间

  • GGUF模型: 8-20GB(取决于量化)
  • VAE和文本编码器: ~10GB
  • ComfyUI和依赖项: ~5GB
  • 输出工作空间: ~10GB

操作系统:

  • Windows 10/11 (64位) - 推荐
  • Linux (Ubuntu 20.04+或同等版本)
  • macOS (有限支持,仅CPU,非常慢)

软件先决条件

Python: 3.10或更高版本

  • 推荐Python 3.11或3.12
  • 强烈推荐虚拟环境

CUDA: 11.8或更高版本

  • 推荐CUDA 12.1+以获得最佳性能
  • 从NVIDIA网站下载

Git: 用于克隆仓库

  • Windows: Git for Windows
  • Linux/Mac: 预装或通过包管理器安装

最佳性能的推荐规格

为了获得LTX-2 GGUF模型的最佳体验:

  • GPU: RTX 4070或更好(12GB+显存)
  • 内存: 32GB DDR4/DDR5
  • 存储: NVMe SSD,100GB+可用空间
  • CPU: 现代多核处理器(6+核心)

分步安装指南

本节提供在ComfyUI中安装LTX-2 GGUF模型的详细说明,基于Reddit用户HerrDehy的社区验证方法。

步骤1: 安装或更新ComfyUI

如果你还没有安装ComfyUI,请按照以下步骤操作。如果已经安装,请跳到更新部分。

全新安装(Windows):

  1. 克隆ComfyUI仓库:
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
  1. 创建Python虚拟环境:
python -m venv venv
venv\Scripts\activate
  1. 安装依赖项:
pip install -r requirements.txt
  1. 安装支持CUDA的PyTorch:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121
  1. 启动ComfyUI验证安装:
python main.py

在浏览器中打开http://localhost:8188确认ComfyUI正在运行。

全新安装(Linux):

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121
python main.py

更新现有ComfyUI:

如果已经安装了ComfyUI,更新到最新版本:

cd ComfyUI
git pull origin master
pip install -r requirements.txt --upgrade

重要: 确保运行最新版本的ComfyUI以获得GGUF兼容性。

步骤2: 安装所需的自定义节点

LTX-2 GGUF需要两个必要的自定义节点包:ComfyUI-GGUF和ComfyUI-KJNodes。

方法A: 通过ComfyUI Manager安装(推荐)

  1. 启动ComfyUI:
python main.py
  1. 打开ComfyUI Manager:

    • http://localhost:8188访问ComfyUI
    • 点击界面中的"Manager"按钮
    • 选择"Install Custom Nodes"
  2. 安装ComfyUI-GGUF:

    • 搜索"ComfyUI-GGUF"
    • 点击结果旁边的"Install"
    • 等待安装完成
  3. 安装ComfyUI-KJNodes:

    • 搜索"ComfyUI-KJNodes"
    • 点击"Install"
    • 等待安装完成
  4. 关闭ComfyUI(对下一步很重要)

方法B: 手动安装

如果ComfyUI Manager不可用:

cd ComfyUI/custom_nodes

# 安装ComfyUI-GGUF
git clone https://github.com/city96/ComfyUI-GGUF.git
cd ComfyUI-GGUF
pip install -r requirements.txt
cd ..

# 安装ComfyUI-KJNodes
git clone https://github.com/kijai/ComfyUI-KJNodes.git
cd ComfyUI-KJNodes
pip install -r requirements.txt
cd ../..

步骤3: 使用关键补丁更新ComfyUI-GGUF

关键步骤: 官方ComfyUI-GGUF版本尚不支持LTX-2 GGUF模型。你必须手动更新两个文件,使用未合并的提交。

这一步基于HerrDehy的Reddit指南,对于LTX-2 GGUF的工作至关重要。

1. 备份现有文件(可选但推荐):

cd ComfyUI/custom_nodes/ComfyUI-GGUF
copy loader.py loader.py.backup
copy nodes.py nodes.py.backup

2. 下载更新的文件:

访问这些URL并下载文件:

3. 替换现有文件:

  • 将下载的loader.py复制到ComfyUI/custom_nodes/ComfyUI-GGUF/loader.py
  • 将下载的nodes.py复制到ComfyUI/custom_nodes/ComfyUI-GGUF/nodes.py
  • 提示时覆盖

为什么需要这一步: 特定提交(f083506)包含对LTX-2架构的支持,但尚未合并到主分支。没有此更新,ComfyUI将无法识别LTX-2 GGUF模型。

注意: 这是一个临时解决方案。一旦更改合并到官方版本,就不需要此手动更新了。

步骤4: 下载LTX-2 GGUF模型文件

现在你将从Kijai的Hugging Face仓库下载所需的模型文件。该仓库托管专门为ComfyUI准备的社区优化LTX-2模型。

模型仓库: https://huggingface.co/Kijai/LTXV2_comfy/tree/main

必需文件:

1. VAE模型(视频和音频编码器)

下载两个VAE文件并放置在ComfyUI/models/vae/:

  • LTX2_audio_vae_bf16.safetensors (~1.5GB)
  • LTX2_video_vae_bf16.safetensors (~1.2GB)

2. 文本编码器(嵌入连接器)

下载并放置在ComfyUI/models/text_encoders/:

  • ltx-2-19b-embeddings_connector_bf16.safetensors (~2.8GB)

3. GGUF扩散模型(选择一个)

ComfyUI/models/diffusion_models/下载一个量化级别:

8GB显存:

  • ltx2-19b-Q3_K_M.gguf (~9GB)
  • ltx2-19b-Q4_0.gguf (~10GB)

12GB显存(推荐):

  • ltx2-19b-Q4_K_S.gguf (~11GB)
  • ltx2-19b-Q4_K_M.gguf (~12GB)

16GB+显存:

  • ltx2-19b-Q5_K_M.gguf (~14GB)
  • ltx2-19b-Q6_K.gguf (~16GB)

可选但推荐的文件:

4. 空间放大器(用于更高分辨率输出)

从官方LTX-2仓库下载并放置在ComfyUI/models/latent_upscale_models/:

5. 蒸馏LoRA(用于更快生成)

下载并放置在ComfyUI/models/loras/:

6. Gemma FP8文本编码器(替代方案,更低显存)

下载并放置在ComfyUI/models/text_encoders/:

步骤5: 组织模型文件

下载后,验证你的目录结构与此布局匹配:

ComfyUI/
├── models/
│   ├── vae/
│   │   ├── LTX2_audio_vae_bf16.safetensors
│   │   └── LTX2_video_vae_bf16.safetensors
│   ├── text_encoders/
│   │   ├── ltx-2-19b-embeddings_connector_bf16.safetensors
│   │   └── gemma_3_12B_it_fp8_e4m3fn.safetensors (可选)
│   ├── diffusion_models/
│   │   └── ltx2-19b-Q4_K_M.gguf (或你选择的量化)
│   ├── latent_upscale_models/
│   │   └── ltx-2-spatial-upscaler-x2-1.0.safetensors (可选)
│   └── loras/
│       └── ltx-2-19b-distilled-lora-384.safetensors (可选)

重要注意事项:

  • 文件名区分大小写
  • 确保文件在正确的目录中
  • 不要在这些文件夹中创建额外的子目录
  • GGUF模型必须在diffusion_models/,而不是checkpoints/

步骤6: 下载和加载工作流

HerrDehy创建了与LTX-2 GGUF模型配合使用的预配置工作流。这些工作流对于正常运行至关重要。

下载工作流:

文本生成视频工作流:

图像生成视频工作流:

在ComfyUI中加载工作流:

  1. 启动ComfyUI:
cd ComfyUI
python main.py
  1. 访问界面 http://localhost:8188

  2. 加载工作流:

    • 将下载的JSON文件拖放到ComfyUI画布上
    • 或点击"Load" → "Load Workflow"并选择JSON文件
  3. 验证节点连接:

    • 所有节点应该显示,没有红色错误指示器
    • 检查模型路径是否正确检测
    • 查找"Text to Video"或"Image to Video"节点
  4. 选择你的模型:

    • 在GGUF加载器节点中,选择你下载的GGUF模型
    • 在VAE加载器节点中,选择音频和视频VAE文件
    • 在文本编码器节点中,选择嵌入连接器

如果看到缺少节点错误:

  • 确保已安装ComfyUI-GGUF和ComfyUI-KJNodes
  • 验证你已更新GGUF节点文件(步骤3)
  • 完全重启ComfyUI
  • 检查控制台中的特定错误消息

配置和优化

加载工作流后,你需要根据硬件和质量要求配置生成参数。

理解关键参数

分辨率设置:

  • 必须能被32整除
  • LTX-2 GGUF的常见选项:
    • 512×512: 快速测试,低显存
    • 640×384: 宽屏,平衡
    • 768×512: 高清质量,中等显存
    • 1024×576: 全高清,高显存

帧数:

  • 必须能被8整除,加1(例如9、17、25、33)
  • 更多帧=更长视频但显存需求呈指数增长
  • 推荐起点: 17或25帧

采样步数:

  • 范围: 20-50步
  • 更多步数=更好质量但生成更慢
  • 推荐: Q4模型使用25-30步

CFG比例(无分类器引导):

  • 范围: 1.0-15.0
  • 较低值(3-5): 更有创意,提示词遵循度较低
  • 较高值(7-10): 更严格遵循提示词
  • 推荐: 5.0-7.0

针对不同显存级别的优化

8GB显存配置:

分辨率: 512×512或640×384
帧数: 17 (24fps约0.7秒)
步数: 25
CFG比例: 5.0
量化: Q3_K_M或Q4_0
预计生成时间: 3-5分钟

12GB显存配置(推荐):

分辨率: 768×512
帧数: 25 (24fps约1秒)
步数: 30
CFG比例: 6.0
量化: Q4_K_M
预计生成时间: 2-3分钟

16GB+显存配置:

分辨率: 1024×576
帧数: 33 (24fps约1.4秒)
步数: 35
CFG比例: 7.0
量化: Q5_K_M或Q6_K
预计生成时间: 3-4分钟

首次生成测试

现在一切都已配置好,让我们用LTX-2 GGUF创建你的第一个视频。

推荐的测试提示词

从一个简单、清晰的提示词开始,验证你的设置正常工作:

一只金毛猎犬小狗在阳光明媚的花园里玩红色的球,快乐地摇着尾巴。柔和的鸟鸣环境声。镜头从左向右缓慢平移。

这个提示词效果好的原因:

  • 简单的主体(小狗),LTX-2处理得很好
  • 清晰的动作(玩球)
  • 明确的场景(阳光花园)
  • 音频描述(鸟鸣)
  • 指定了镜头运动(左右平移)

生成过程

  1. 在文本输入节点中输入提示词
  2. 根据显存设置参数:
    • 8GB: 512×512, 17帧, 25步
    • 12GB: 768×512, 25帧, 30步
    • 16GB+: 1024×576, 33帧, 35步
  3. 点击右上角的"Queue Prompt"
  4. 在控制台窗口监控进度
  5. 等待完成(根据硬件2-5分钟)

评估输出质量

当第一个视频生成后,检查这些方面:

视觉质量:

  • 运动流畅无抖动
  • 主体外观一致
  • 适当的光照和阴影
  • 无明显伪影或失真

音频质量:

  • 与视频动作同步
  • 声音清晰适当
  • 无爆音或失真

提示词遵循度:

  • 主体符合描述
  • 动作正确
  • 场景准确
  • 镜头运动遵循指示

如果质量不佳,尝试:

  • 提高量化级别(Q3 → Q4 → Q5)
  • 增加采样步数
  • 调整CFG比例
  • 用更多细节完善提示词

常见问题排查

以下是安装和运行LTX-2 GGUF模型时最常见问题的解决方案。

CUDA显存不足错误

症状: 生成期间出现"RuntimeError: CUDA out of memory"

解决方案:

  1. 降低分辨率: 尝试512×512而不是768×512
  2. 减少帧数: 使用17帧而不是25帧
  3. 使用更低量化: 从Q4切换到Q3
  4. 关闭其他应用程序: 释放GPU内存
  5. 重启ComfyUI: 清除缓存的模型
  6. 检查显存使用: 使用nvidia-smi监控

缺少节点或红色错误指示器

症状: 工作流显示红色节点或"Node not found"错误

解决方案:

  1. 验证已安装自定义节点:
    • 检查ComfyUI/custom_nodes/ComfyUI-GGUF存在
    • 检查ComfyUI/custom_nodes/ComfyUI-KJNodes存在
  2. 确认GGUF节点更新: 验证你已替换loader.py和nodes.py
  3. 完全重启ComfyUI: 关闭终端并重新启动
  4. 检查Python版本: 必须是3.10+
  5. 重新安装依赖项:
cd ComfyUI/custom_nodes/ComfyUI-GGUF
pip install -r requirements.txt --upgrade

模型未找到或加载错误

症状: "Model not found"或"Failed to load model"错误

解决方案:

  1. 验证文件路径:
    • GGUF模型必须在models/diffusion_models/
    • VAE文件必须在models/vae/
    • 文本编码器必须在models/text_encoders/
  2. 检查文件名: 确保拼写和大小写准确
  3. 验证文件完整性: 如果文件损坏,重新下载
  4. 检查磁盘空间: 确保有足够的可用空间
  5. 尝试绝对路径: 在节点设置中使用完整文件路径

生成时间过慢

症状: 短片段生成需要10+分钟

解决方案:

  1. 验证GPU使用: 检查nvidia-smi显示GPU活动
  2. 更新NVIDIA驱动: 安装最新驱动程序
  3. 使用更低量化: Q4比Q5/Q6更快
  4. 减少步数: 尝试20-25步而不是35-50步
  5. 检查CPU瓶颈: 确保GPU正在被利用
  6. 启用性能模式: 在NVIDIA控制面板中

在线试用LTX-2

如果你想在承诺本地设置之前测试LTX-2,或者需要在没有硬件限制的情况下快速访问,可以在Z-Image在线试用。

Z-Image为LTX-2和其他最先进的AI视频模型提供简化的界面,无需安装。这对以下情况特别有用:

测试提示词: 在运行本地生成之前尝试不同的提示词
快速迭代: 当你不在工作站时生成视频
比较模型: 测试LTX-2与其他视频生成模型
学习: 无需设置开销即可理解提示词工程
硬件评估: 确定本地安装是否值得投资

该平台处理所有技术复杂性,让你专注于创意和提示词优化。一旦你熟悉了LTX-2的功能,就可以按照本指南设置本地安装。

总结

LTX-2 GGUF模型代表了在消费级硬件上实现专业AI视频生成的重大突破。通过遵循本指南,你已经学会了如何:

  • 安装ComfyUI及LTX-2 GGUF支持所需的自定义节点
  • 从社区仓库下载和组织模型文件
  • 应用LTX-2兼容性的关键GGUF节点补丁
  • 配置文本生成视频和图像生成视频工作流
  • 针对不同显存级别优化设置
  • 排查常见安装和生成问题

核心要点

从Q4量化开始: 对于大多数拥有8-16GB显存的用户,Q4_K_M提供了质量、速度和内存使用的最佳平衡。

遵循手动更新步骤: 手动更新ComfyUI-GGUF节点文件(步骤3)的关键步骤是必不可少的。没有这个,LTX-2 GGUF模型将无法正确加载。

针对硬件优化: 根据你的显存使用配置建议,避免内存不足错误并实现合理的生成时间。

社区资源很重要: 本指南基于HerrDehy的Reddit帖子和社区测试。AI视频生成社区积极分享工作流、优化和解决方案。

下一步

现在你已经运行了LTX-2 GGUF:

  1. 尝试提示词: 测试不同的主体、场景和镜头运动
  2. 尝试图像生成视频: 使用I2V工作流为静态图像添加动画
  3. 探索量化级别: 如果有显存余量,尝试Q5或Q6以获得更好的质量
  4. 加入社区: 在Reddit和Discord上分享你的结果并向他人学习
  5. 保持更新: 关注官方GGUF节点更新,这将简化安装

社区资源

原始Reddit指南: Using GGUF models for LTX2 in T2V by HerrDehy

模型仓库: Kijai的LTX-2 ComfyUI模型

工作流: HerrDehy的SharePublic仓库

ComfyUI-GGUF: city96的GGUF节点仓库

官方LTX-2: Lightricks LTX-2仓库

AI视频生成的未来越来越容易获得,LTX-2 GGUF正处于这一民主化的前沿。借助消费级硬件和社区驱动的优化,专业视频创作能力现在已触手可及,面向全球的创作者、开发者和爱好者。


最后更新: 2026年1月10日

本指南基于社区验证的方法,随着LTX-2 GGUF官方支持的改进将持续更新。

来源

Z-Image Team