目前是用的T4主机,请给出使用Ubuntu + Docker + ComfyUI的详细的步骤
下面给你一套在 T4 GPU 主机上部署 Ubuntu + Docker + ComfyUI 的完整方案。
目标是:一条命令启动,支持GPU,支持模型持久化,适合生产和长期运行。
我按 0基础到可用的顺序写。
一、系统准备(Ubuntu)
建议系统:
-
Ubuntu 22.04 LTS
-
GPU:NVIDIA T4
-
CUDA:11.8 或以上
先更新系统:
sudo apt update
sudo apt upgrade -y
安装基础工具:
sudo apt install -y git wget curl vim
二、安装 NVIDIA 驱动
先确认 GPU:
nvidia-smi
如果出现类似:
Tesla T4
Driver Version: 535.xx
CUDA Version: 12.x
说明驱动已经安装。
如果没有:
sudo ubuntu-drivers autoinstall
sudo reboot
重启后再次测试:
nvidia-smi
三、安装 Docker
安装 docker:
curl -fsSL https://get.docker.com | sh
启动 docker:
sudo systemctl enable docker
sudo systemctl start docker
把当前用户加入 docker 组:
sudo usermod -aG docker $USER
重新登录一次。
测试:
docker --version
四、安装 NVIDIA Container Toolkit(关键)
这是 Docker 使用 GPU 的核心组件。
安装:
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/libnvidia-container/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list \
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt update
sudo apt install -y nvidia-container-toolkit
配置 docker runtime:
sudo nvidia-ctk runtime configure --runtime=docker
重启 docker:
sudo systemctl restart docker
五、测试 GPU Docker
运行:
docker run --rm --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi
如果输出:
Tesla T4
说明 GPU Docker 已经成功。
六、创建 ComfyUI 项目目录
创建目录:
mkdir comfyui
cd comfyui
创建目录结构:
mkdir models
mkdir output
mkdir input
mkdir custom_nodes
结构:
comfyui
├ models
├ output
├ input
├ custom_nodes
└ docker-compose.yml
七、编写 docker-compose.yml
创建:
vim docker-compose.yml
写入:
version: "3"
services:
comfyui:
image: runpod/comfyui:latest
container_name: comfyui
ports:
- "8188:8188"
environment:
- NVIDIA_VISIBLE_DEVICES=all
- COMFYUI_SECURITY_LEVEL=0
volumes:
- ./models:/workspace/models
- ./output:/workspace/output
- ./input:/workspace/input
- ./custom_nodes:/workspace/custom_nodes
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
restart: unless-stopped
八、启动 ComfyUI
启动:
docker compose up -d
查看日志:
docker logs -f comfyui
如果看到:
Running on http://0.0.0.0:8188
说明启动成功。
九、访问 ComfyUI
浏览器打开:
http://服务器IP:8188
例如:
http://123.123.123.123:8188
就可以进入 ComfyUI UI。
十、模型放哪里
模型路径:
comfyui/models/checkpoints
例如:
models
├ checkpoints
│ └ juggernautXL.safetensors
├ loras
├ vae
├ controlnet
创建:
mkdir -p models/checkpoints
mkdir -p models/loras
mkdir -p models/controlnet
mkdir -p models/vae
十一、安装常用 ComfyUI 插件
进入容器:
docker exec -it comfyui bash
安装 Manager:
cd /workspace/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
退出:
exit
重启:
docker restart comfyui
十二、验证 GPU 是否在工作
运行:
docker exec -it comfyui nvidia-smi
如果看到:
python
占用 GPU,说明正常。
十三、推荐模型(T4 最适合)
T4 显存 16GB
推荐:
SDXL
juggernautXL
dreamshaperXL
SD1.5
revAnimated
deliberate
anything
十四、推荐 ComfyUI 工作流
必装:
ComfyUI-Manager
Impact Pack
AnimateDiff
IPAdapter
ControlNet
十五、生产环境建议(重要)
端口不要裸露公网。
建议加:
Nginx + 域名
或者
Cloudflare Tunnel
或者
Tailscale
十六、最终部署结构(推荐)
服务器结构:
/opt/ai
├ comfyui
│ ├ models
│ ├ output
│ ├ input
│ ├ custom_nodes
│ └ docker-compose.yml
启动:
docker compose up -d
十七、一个进阶技巧(T4 性能优化)
在 docker-compose.yml 加:
environment:
- PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128
能减少显存碎片。
十八、如果你想做 AI生产系统(非常推荐)
可以做:
ComfyUI
+
Automatic1111
+
Ollama
+
Whisper
+
TTS
变成一个:
AI内容生产服务器
例如:
-
AI绘画
-
AI视频
-
AI配音
-
AI数字人
如果你愿意,我可以 再给你一套真正生产级的部署架构:
T4服务器打造 AI工作站:
包含:
-
ComfyUI
-
SD WebUI
-
Fooocus
-
Ollama
-
OpenWebUI
-
Automatic1111
-
视频生成
-
数字人
全部 Docker一键部署架构。
我可以直接给你一套 完整 docker-compose(行业级方案)。
现在comfyUI已经可以正常工作 了
很好 ,既然 ComfyUI 已经在 T4 + Ubuntu + Docker 上正常运行,接下来建议你做的不是继续折腾安装,而是把环境升级为可长期使用的生产环境。
我给你一个下一步最合理的路线(90%的人都会这么走)。
一、先确认 GPU 是否真正被 ComfyUI 使用
进入容器:
docker exec -it comfyui nvidia-smi
如果看到类似:
python3 /workspace/ComfyUI/main.py
并且 GPU Memory 在增长,说明 GPU 正常。
二、安装 ComfyUI Manager(必须)
这是 ComfyUI插件管理器。
进入容器:
docker exec -it comfyui bash
安装:
cd /workspace/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
退出:
exit
重启:
docker restart comfyui
刷新网页,你会看到:
Manager
按钮。
三、必须安装的插件(强烈推荐)
打开 Manager → Install Custom Nodes
建议安装:
1 控制类
ComfyUI-Impact-Pack
功能:
-
高级控制
-
节点增强
-
分辨率控制
2 ControlNet
ComfyUI-Advanced-ControlNet
作用:
-
姿势控制
-
边缘控制
-
深度控制
3 IPAdapter
ComfyUI_IPAdapter_plus
作用:
图片参考生成
4 AnimateDiff
ComfyUI-AnimateDiff
作用:
文生视频
5 Video Helper
ComfyUI-VideoHelperSuite
作用:
-
视频输入
-
视频输出
四、T4 推荐模型(非常重要)
T4 16GB 显存,最稳的是:
SDXL
推荐:
JuggernautXL
DreamShaperXL
RealVisXL
SD1.5
推荐:
revAnimated
deliberate
anything
模型放这里:
models/checkpoints
五、推荐目录结构
建议整理:
models
├ checkpoints
├ loras
├ controlnet
├ vae
├ embeddings
├ ipadapter
创建:
mkdir -p models/{checkpoints,loras,vae,controlnet,ipadapter,embeddings}
六、建议开启自动更新插件
进入:
Manager
开启:
Auto Update
七、T4 性能优化(非常关键)
进入 docker-compose.yml
增加:
environment:
- PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128
可以减少:
CUDA out of memory
八、建议打开远程访问
如果你需要远程用:
http://服务器IP:8188
建议加:
方案1
Nginx
方案2(推荐)
Cloudflare Tunnel
方案3
Tailscale
九、建议做的三件大事(最重要)
如果你是要 做 AI 内容生产 或 数字人,建议继续部署:
1 数字人
部署:
MuseTalk
SadTalker
Wav2Lip
2 视频生成
AnimateDiff
SVD
3 AI助手
部署:
Ollama
OpenWebUI
十、真正高手都会这样搭环境
最终 AI 服务器:
AI-SERVER
├ ComfyUI
├ Automatic1111
├ Fooocus
├ Ollama
├ OpenWebUI
├ Whisper
├ TTS
├ AnimateDiff
└ DigitalHuman
一台 T4 就能跑。
十一、一个非常重要的问题
你现在需要用 ComfyUI 做什么?
1️⃣ AI绘画
2️⃣ 文生视频
3️⃣ AI数字人
4️⃣ 抖音内容生产
5️⃣ AI商品图
6️⃣ AI短视频
不同用途:
工作流完全不同。
如果你愿意,我可以直接给你 三套 ComfyUI 顶级工作流:
1️⃣ 抖音爆款视频工作流
(AI图片 → 视频 → 配音)
2️⃣ AI数字人工作流
3️⃣ 商品图电商工作流
全部是 行业级节点图。
AI数字人工作流
AI 数字人如果用 ComfyUI + 本地模型来做,一般是一个 多模块流水线(Pipeline),而不是单一工作流。
在 T4 16GB 上最稳定、效果最好的一套组合是:
ComfyUI + Wav2Lip / MuseTalk + TTS + Whisper
完整 AI 数字人生产链是:
文本 → 语音 → 人物视频驱动 → 合成视频
我给你一套 真正可落地的 AI 数字人工作流架构(很多短视频工作室都在用)。
一、AI数字人完整工作流
整体流程:
脚本生成
↓
TTS语音
↓
人像驱动
↓
口型同步
↓
视频生成
↓
自动剪辑
技术组件:
GPT / LLM → 文案
TTS → 语音
MuseTalk → 嘴型驱动
Wav2Lip → 高精度口型
ComfyUI → 人物生成
FFmpeg → 视频合成
二、最稳定数字人方案(推荐)
方案A(最稳定)
ComfyUI
+
SadTalker
+
Wav2Lip
+
EdgeTTS
优点:
-
非常稳定
-
资源需求低
-
T4 可以跑
缺点:
-
动作较少
方案B(效果最好)
ComfyUI
+
MuseTalk
+
SadTalker
+
IPAdapter
优点:
-
嘴型非常自然
-
支持真人驱动
-
2025主流
缺点:
-
部署稍复杂
三、AI数字人生成流程
第一步:生成数字人形象
ComfyUI工作流:
CheckpointLoader
↓
CLIPTextEncode
↓
KSampler
↓
VAE Decode
↓
SaveImage
prompt 示例:
a beautiful asian female news anchor,
studio lighting,
realistic skin,
professional broadcast,
4k
生成一张:
数字人头像
第二步:生成语音
推荐:
EdgeTTS
安装:
pip install edge-tts
生成语音:
edge-tts
--voice zh-CN-XiaoxiaoNeural
--text "今天给大家讲一个商业真相"
--write-media speech.mp3
第三步:生成说话视频
推荐:
SadTalker
输入:
人物图片
+
speech.mp3
输出:
会说话的视频
四、口型增强(关键)
使用:
Wav2Lip
作用:
让嘴型和语音完全同步
流程:
SadTalker视频
+
speech.mp3
↓
Wav2Lip
↓
最终视频
五、AI数字人自动流水线
最终自动化流程:
脚本生成
↓
EdgeTTS
↓
SadTalker
↓
Wav2Lip
↓
FFmpeg
↓
抖音视频
自动输出:
1080P视频
六、T4服务器推荐架构
你的服务器现在可以这样升级:
AI-SERVER
│
├ ComfyUI
├ SadTalker
├ Wav2Lip
├ MuseTalk
├ EdgeTTS
├ FFmpeg
└ Ollama
全部 docker 化。
七、数字人素材库(重要)
准备素材:
人物
数字人头像
数字人半身
数字人全身
背景
新闻背景
办公室背景
科技背景
声音
男声
女声
情绪
八、爆款数字人视频模板
短视频结构:
3秒钩子
↓
核心观点
↓
反转
↓
总结
示例:
你以为赚钱靠努力?
其实不是。
真正赚钱的人,
靠的是信息差。
比如AI。
九、全自动AI数字人工厂
最高级玩法是:
脚本生成
↓
TTS
↓
数字人
↓
自动剪辑
↓
自动发布
实现:
Python
+
ComfyUI API
+
FFmpeg
+
Auto Upload
可以做到:
一天自动生产 100 条视频
十、2026最强数字人技术
当前效果排名:
1 MuseTalk
2 Wav2Lip
3 SadTalker
4 D-ID
5 HeyGen
本地部署最强:
MuseTalk + Wav2Lip
十一、我非常建议你做一件事
既然你已经:
T4
ComfyUI
Docker
你完全可以搭一个:
AI短视频工厂
自动生产:
AI数字人
AI商业解读
AI历史故事
AI财经评论
一天产出:
50条视频
如果你愿意,我可以直接给你:
一套完整的 AI数字人生产系统(行业级)
包括:
1️⃣ MuseTalk 一键部署 docker
2️⃣ Wav2Lip docker
3️⃣ SadTalker docker
4️⃣ ComfyUI 数字人工作流 JSON
5️⃣ 自动生成视频脚本
甚至可以做到:
输入一句话 → 自动生成完整抖音视频。
如果需要,我可以把 整套部署架构 + 工作流图 全部画出来。
给出详细的安装步骤
你现在的目标是部署这一套 AI数字人方案B(效果最好):
ComfyUI
+ MuseTalk
+ SadTalker
+ IPAdapter
你的环境已经是:
-
Ubuntu
-
Docker
-
ComfyUI 已经运行
-
GPU:T4 16GB
所以我们只需要 增加三个模块:
1️⃣ IPAdapter(ComfyUI插件)
2️⃣ SadTalker(数字人驱动)
3️⃣ MuseTalk(最强口型驱动)
我给你一套 可稳定运行的完整步骤。
一、安装 IPAdapter(ComfyUI插件)
这是最简单的一步。
进入 ComfyUI 容器:
docker exec -it comfyui bash
进入插件目录:
cd /workspace/custom_nodes
安装插件:
git clone https://github.com/cubiq/ComfyUI_IPAdapter_plus.git
退出容器:
exit
重启 ComfyUI:
docker restart comfyui
下载 IPAdapter 模型
创建目录:
mkdir -p models/ipadapter
下载模型:
cd models/ipadapter
wget https://huggingface.co/h94/IP-Adapter/resolve/main/models/ip-adapter-plus_sdxl_vit-h.safetensors
CLIP Vision 模型:
mkdir -p models/clip_vision
cd models/clip_vision
wget https://huggingface.co/h94/IP-Adapter/resolve/main/models/image_encoder/model.safetensors
二、安装 SadTalker
SadTalker 用来 让图片开口说话。
创建目录:
cd /opt
git clone https://github.com/OpenTalker/SadTalker.git
cd SadTalker
创建 Python 环境:
python3 -m venv sadtalker_env
source sadtalker_env/bin/activate
安装依赖:
pip install -r requirements.txt
安装 PyTorch(T4 推荐):
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
下载 SadTalker 模型
创建模型目录:
mkdir checkpoints
下载模型:
bash scripts/download_models.sh
如果下载慢:
可以使用国内镜像或 HuggingFace 下载。
测试 SadTalker
准备:
-
一张人脸图片
face.png -
一段语音
speech.wav
运行:
python inference.py \
--driven_audio speech.wav \
--source_image face.png \
--result_dir results
输出:
results/result.mp4
三、安装 MuseTalk(核心)
MuseTalk 是 目前最自然的嘴型驱动模型。
安装依赖:
cd /opt
git clone https://github.com/TMElyralab/MuseTalk.git
cd MuseTalk
创建环境:
python3 -m venv musetalk_env
source musetalk_env/bin/activate
安装依赖:
pip install -r requirements.txt
安装 PyTorch:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
下载 MuseTalk 模型
创建模型目录:
mkdir models
下载:
python scripts/download_models.py
如果失败:
可以手动下载:
主要模型:
musetalk.pth
wav2vec2
face parsing model
四、测试 MuseTalk
准备:
face.mp4
speech.wav
运行:
python inference.py \
--video_path face.mp4 \
--audio_path speech.wav \
--result_path result.mp4
输出:
result.mp4
嘴型会和语音同步。
五、完整 AI数字人流水线
最终流程是:
ComfyUI 生成数字人
↓
EdgeTTS 生成语音
↓
SadTalker 生成基础视频
↓
MuseTalk 优化嘴型
↓
FFmpeg 合成最终视频
六、自动化脚本示例
自动流程:
text → speech → video
例如:
python generate_avatar_video.py \
--text "AI时代已经来了" \
--avatar girl.png
自动生成:
AI数字人视频.mp4
七、服务器最终结构(推荐)
建议结构:
/opt/ai
│
├ comfyui
├ musetalk
├ sadtalker
├ wav2lip
├ tts
└ output
八、T4 推荐参数
MuseTalk:
分辨率 512
batch 4
fp16 开启
ComfyUI:
1024 SDXL
九、数字人效果最佳组合
业内现在最强是:
ComfyUI (人物生成)
+
IPAdapter (人物一致性)
+
MuseTalk (嘴型)
+
EdgeTTS (语音)
效果接近:
HeyGen
D-ID
但 完全本地部署。
十、如果你愿意,我可以给你一套更高级的
我可以直接给你:
一套完整 AI数字人系统
包括:
-
Docker一键部署
-
MuseTalk + SadTalker + Wav2Lip
-
ComfyUI数字人工作流
-
自动生成抖音视频
最终做到:
输入一句话
↓
自动生成脚本
↓
自动生成语音
↓
自动生成数字人视频
也就是:
AI短视频工厂。
如果需要,我可以把 整套 docker-compose(生产级)直接给你。