Ubuntu + Docker + ComfyUI 搭建数据人 ChatGpt对话

目前是用的T4主机,请给出使用Ubuntu + Docker + ComfyUI的详细的步骤

下面给你一套在 T4 GPU 主机上部署 Ubuntu + Docker + ComfyUI 的完整方案
目标是:一条命令启动,支持GPU,支持模型持久化,适合生产和长期运行。

我按 0基础到可用的顺序写。


一、系统准备(Ubuntu)

建议系统:

  • Ubuntu 22.04 LTS

  • GPU:NVIDIA T4

  • CUDA:11.8 或以上

先更新系统:

sudo apt update
sudo apt upgrade -y

安装基础工具:

sudo apt install -y git wget curl vim


二、安装 NVIDIA 驱动

先确认 GPU:

nvidia-smi

如果出现类似:

Tesla T4
Driver Version: 535.xx
CUDA Version: 12.x

说明驱动已经安装。

如果没有:

sudo ubuntu-drivers autoinstall
sudo reboot

重启后再次测试:

nvidia-smi


三、安装 Docker

安装 docker:

curl -fsSL https://get.docker.com | sh

启动 docker:

sudo systemctl enable docker
sudo systemctl start docker

把当前用户加入 docker 组:

sudo usermod -aG docker $USER

重新登录一次。

测试:

docker --version


四、安装 NVIDIA Container Toolkit(关键)

这是 Docker 使用 GPU 的核心组件

安装:

distribution=$(. /etc/os-release;echo $ID$VERSION_ID)

curl -s -L https://nvidia.github.io/libnvidia-container/gpgkey | sudo apt-key add -

curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list \
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt update
sudo apt install -y nvidia-container-toolkit

配置 docker runtime:

sudo nvidia-ctk runtime configure --runtime=docker

重启 docker:

sudo systemctl restart docker


五、测试 GPU Docker

运行:

docker run --rm --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi

如果输出:

Tesla T4

说明 GPU Docker 已经成功。


六、创建 ComfyUI 项目目录

创建目录:

mkdir comfyui
cd comfyui

创建目录结构:

mkdir models
mkdir output
mkdir input
mkdir custom_nodes

结构:

comfyui
├ models
├ output
├ input
├ custom_nodes
└ docker-compose.yml


七、编写 docker-compose.yml

创建:

vim docker-compose.yml

写入:

version: "3"

services:
comfyui:
image: runpod/comfyui:latest
container_name: comfyui

ports:
- "8188:8188"

environment:
- NVIDIA_VISIBLE_DEVICES=all
- COMFYUI_SECURITY_LEVEL=0

volumes:
- ./models:/workspace/models
- ./output:/workspace/output
- ./input:/workspace/input
- ./custom_nodes:/workspace/custom_nodes

deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]

restart: unless-stopped


八、启动 ComfyUI

启动:

docker compose up -d

查看日志:

docker logs -f comfyui

如果看到:

Running on http://0.0.0.0:8188

说明启动成功。


九、访问 ComfyUI

浏览器打开:

http://服务器IP:8188

例如:

http://123.123.123.123:8188

就可以进入 ComfyUI UI。


十、模型放哪里

模型路径:

comfyui/models/checkpoints

例如:

models
├ checkpoints
│ └ juggernautXL.safetensors
├ loras
├ vae
├ controlnet

创建:

mkdir -p models/checkpoints
mkdir -p models/loras
mkdir -p models/controlnet
mkdir -p models/vae


十一、安装常用 ComfyUI 插件

进入容器:

docker exec -it comfyui bash

安装 Manager

cd /workspace/custom_nodes

git clone https://github.com/ltdrdata/ComfyUI-Manager.git

退出:

exit

重启:

docker restart comfyui


十二、验证 GPU 是否在工作

运行:

docker exec -it comfyui nvidia-smi

如果看到:

python

占用 GPU,说明正常。


十三、推荐模型(T4 最适合)

T4 显存 16GB

推荐:

SDXL

juggernautXL
dreamshaperXL

SD1.5

revAnimated
deliberate
anything


十四、推荐 ComfyUI 工作流

必装:

ComfyUI-Manager
Impact Pack
AnimateDiff
IPAdapter
ControlNet


十五、生产环境建议(重要)

端口不要裸露公网。

建议加:

Nginx + 域名

或者

Cloudflare Tunnel

或者

Tailscale


十六、最终部署结构(推荐)

服务器结构:

/opt/ai
├ comfyui
│ ├ models
│ ├ output
│ ├ input
│ ├ custom_nodes
│ └ docker-compose.yml

启动:

docker compose up -d


十七、一个进阶技巧(T4 性能优化)

docker-compose.yml 加:

environment:
- PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128

能减少显存碎片。


十八、如果你想做 AI生产系统(非常推荐)

可以做:

ComfyUI
+
Automatic1111
+
Ollama
+
Whisper
+
TTS

变成一个:

AI内容生产服务器

例如:

  • AI绘画

  • AI视频

  • AI配音

  • AI数字人


如果你愿意,我可以 再给你一套真正生产级的部署架构

T4服务器打造 AI工作站:

包含:

  • ComfyUI

  • SD WebUI

  • Fooocus

  • Ollama

  • OpenWebUI

  • Automatic1111

  • 视频生成

  • 数字人

全部 Docker一键部署架构

我可以直接给你一套 完整 docker-compose(行业级方案)

现在comfyUI已经可以正常工作 了

很好 ,既然 ComfyUI 已经在 T4 + Ubuntu + Docker 上正常运行,接下来建议你做的不是继续折腾安装,而是把环境升级为可长期使用的生产环境
我给你一个下一步最合理的路线(90%的人都会这么走)


一、先确认 GPU 是否真正被 ComfyUI 使用

进入容器:

docker exec -it comfyui nvidia-smi

如果看到类似:

python3 /workspace/ComfyUI/main.py

并且 GPU Memory 在增长,说明 GPU 正常。


二、安装 ComfyUI Manager(必须)

这是 ComfyUI插件管理器

进入容器:

docker exec -it comfyui bash

安装:

cd /workspace/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git

退出:

exit

重启:

docker restart comfyui

刷新网页,你会看到:

Manager

按钮。


三、必须安装的插件(强烈推荐)

打开 Manager → Install Custom Nodes

建议安装:

1 控制类

ComfyUI-Impact-Pack

功能:

  • 高级控制

  • 节点增强

  • 分辨率控制


2 ControlNet

ComfyUI-Advanced-ControlNet

作用:

  • 姿势控制

  • 边缘控制

  • 深度控制


3 IPAdapter

ComfyUI_IPAdapter_plus

作用:

图片参考生成


4 AnimateDiff

ComfyUI-AnimateDiff

作用:

文生视频


5 Video Helper

ComfyUI-VideoHelperSuite

作用:

  • 视频输入

  • 视频输出


四、T4 推荐模型(非常重要)

T4 16GB 显存,最稳的是:

SDXL

推荐:

JuggernautXL
DreamShaperXL
RealVisXL

SD1.5

推荐:

revAnimated
deliberate
anything

模型放这里:

models/checkpoints


五、推荐目录结构

建议整理:

models
├ checkpoints
├ loras
├ controlnet
├ vae
├ embeddings
├ ipadapter

创建:

mkdir -p models/{checkpoints,loras,vae,controlnet,ipadapter,embeddings}


六、建议开启自动更新插件

进入:

Manager

开启:

Auto Update


七、T4 性能优化(非常关键)

进入 docker-compose.yml

增加:

environment:
- PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128

可以减少:

CUDA out of memory


八、建议打开远程访问

如果你需要远程用:

http://服务器IP:8188

建议加:

方案1

Nginx

方案2(推荐)

Cloudflare Tunnel

方案3

Tailscale


九、建议做的三件大事(最重要)

如果你是要 做 AI 内容生产 或 数字人,建议继续部署:

1 数字人

部署:

MuseTalk
SadTalker
Wav2Lip


2 视频生成

AnimateDiff
SVD


3 AI助手

部署:

Ollama
OpenWebUI


十、真正高手都会这样搭环境

最终 AI 服务器:

AI-SERVER
├ ComfyUI
├ Automatic1111
├ Fooocus
├ Ollama
├ OpenWebUI
├ Whisper
├ TTS
├ AnimateDiff
└ DigitalHuman

一台 T4 就能跑


十一、一个非常重要的问题

你现在需要用 ComfyUI 做什么?

1️⃣ AI绘画
2️⃣ 文生视频
3️⃣ AI数字人
4️⃣ 抖音内容生产
5️⃣ AI商品图
6️⃣ AI短视频

不同用途:

工作流完全不同。


如果你愿意,我可以直接给你 三套 ComfyUI 顶级工作流

1️⃣ 抖音爆款视频工作流
(AI图片 → 视频 → 配音)

2️⃣ AI数字人工作流

3️⃣ 商品图电商工作流

全部是 行业级节点图

AI数字人工作流

AI 数字人如果用 ComfyUI + 本地模型来做,一般是一个 多模块流水线(Pipeline),而不是单一工作流。
T4 16GB 上最稳定、效果最好的一套组合是:

ComfyUI + Wav2Lip / MuseTalk + TTS + Whisper

完整 AI 数字人生产链是:

文本 → 语音 → 人物视频驱动 → 合成视频

我给你一套 真正可落地的 AI 数字人工作流架构(很多短视频工作室都在用)。


一、AI数字人完整工作流

整体流程:

脚本生成

TTS语音

人像驱动

口型同步

视频生成

自动剪辑

技术组件:

GPT / LLM → 文案
TTS → 语音
MuseTalk → 嘴型驱动
Wav2Lip → 高精度口型
ComfyUI → 人物生成
FFmpeg → 视频合成


二、最稳定数字人方案(推荐)

方案A(最稳定)

ComfyUI
+
SadTalker
+
Wav2Lip
+
EdgeTTS

优点:

  • 非常稳定

  • 资源需求低

  • T4 可以跑

缺点:

  • 动作较少


方案B(效果最好)

ComfyUI
+
MuseTalk
+
SadTalker
+
IPAdapter

优点:

  • 嘴型非常自然

  • 支持真人驱动

  • 2025主流

缺点:

  • 部署稍复杂


三、AI数字人生成流程

第一步:生成数字人形象

ComfyUI工作流:

CheckpointLoader

CLIPTextEncode

KSampler

VAE Decode

SaveImage

prompt 示例:

a beautiful asian female news anchor,
studio lighting,
realistic skin,
professional broadcast,
4k

生成一张:

数字人头像


第二步:生成语音

推荐:

EdgeTTS

安装:

pip install edge-tts

生成语音:

edge-tts
--voice zh-CN-XiaoxiaoNeural
--text "今天给大家讲一个商业真相"
--write-media speech.mp3


第三步:生成说话视频

推荐:

SadTalker

输入:

人物图片
+
speech.mp3

输出:

会说话的视频


四、口型增强(关键)

使用:

Wav2Lip

作用:

让嘴型和语音完全同步

流程:

SadTalker视频
+
speech.mp3

Wav2Lip

最终视频


五、AI数字人自动流水线

最终自动化流程:

脚本生成

EdgeTTS

SadTalker

Wav2Lip

FFmpeg

抖音视频

自动输出:

1080P视频


六、T4服务器推荐架构

你的服务器现在可以这样升级:

AI-SERVER

├ ComfyUI
├ SadTalker
├ Wav2Lip
├ MuseTalk
├ EdgeTTS
├ FFmpeg
└ Ollama

全部 docker 化。


七、数字人素材库(重要)

准备素材:

人物

数字人头像
数字人半身
数字人全身

背景

新闻背景
办公室背景
科技背景

声音

男声
女声
情绪


八、爆款数字人视频模板

短视频结构:

3秒钩子

核心观点

反转

总结

示例:

你以为赚钱靠努力?

其实不是。

真正赚钱的人,
靠的是信息差。

比如AI。


九、全自动AI数字人工厂

最高级玩法是:

脚本生成

TTS

数字人

自动剪辑

自动发布

实现:

Python
+
ComfyUI API
+
FFmpeg
+
Auto Upload

可以做到:

一天自动生产 100 条视频


十、2026最强数字人技术

当前效果排名:

1 MuseTalk
2 Wav2Lip
3 SadTalker
4 D-ID
5 HeyGen

本地部署最强:

MuseTalk + Wav2Lip


十一、我非常建议你做一件事

既然你已经:

T4
ComfyUI
Docker

你完全可以搭一个:

AI短视频工厂

自动生产:

AI数字人
AI商业解读
AI历史故事
AI财经评论

一天产出:

50条视频


如果你愿意,我可以直接给你:

一套完整的 AI数字人生产系统(行业级)

包括:

1️⃣ MuseTalk 一键部署 docker
2️⃣ Wav2Lip docker
3️⃣ SadTalker docker
4️⃣ ComfyUI 数字人工作流 JSON
5️⃣ 自动生成视频脚本

甚至可以做到:

输入一句话 → 自动生成完整抖音视频。

如果需要,我可以把 整套部署架构 + 工作流图 全部画出来。

已上传的图片

给出详细的安装步骤

你现在的目标是部署这一套 AI数字人方案B(效果最好)

ComfyUI
+ MuseTalk
+ SadTalker
+ IPAdapter

你的环境已经是:

  • Ubuntu

  • Docker

  • ComfyUI 已经运行

  • GPU:T4 16GB

所以我们只需要 增加三个模块

1️⃣ IPAdapter(ComfyUI插件)
2️⃣ SadTalker(数字人驱动)
3️⃣ MuseTalk(最强口型驱动)

我给你一套 可稳定运行的完整步骤


一、安装 IPAdapter(ComfyUI插件)

这是最简单的一步。

进入 ComfyUI 容器:

docker exec -it comfyui bash

进入插件目录:

cd /workspace/custom_nodes

安装插件:

git clone https://github.com/cubiq/ComfyUI_IPAdapter_plus.git

退出容器:

exit

重启 ComfyUI:

docker restart comfyui


下载 IPAdapter 模型

创建目录:

mkdir -p models/ipadapter

下载模型:

cd models/ipadapter

wget https://huggingface.co/h94/IP-Adapter/resolve/main/models/ip-adapter-plus_sdxl_vit-h.safetensors

CLIP Vision 模型:

mkdir -p models/clip_vision

cd models/clip_vision

wget https://huggingface.co/h94/IP-Adapter/resolve/main/models/image_encoder/model.safetensors


二、安装 SadTalker

SadTalker 用来 让图片开口说话

创建目录:

cd /opt
git clone https://github.com/OpenTalker/SadTalker.git
cd SadTalker

创建 Python 环境:

python3 -m venv sadtalker_env
source sadtalker_env/bin/activate

安装依赖:

pip install -r requirements.txt

安装 PyTorch(T4 推荐):

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118


下载 SadTalker 模型

创建模型目录:

mkdir checkpoints

下载模型:

bash scripts/download_models.sh

如果下载慢:

可以使用国内镜像或 HuggingFace 下载。


测试 SadTalker

准备:

  • 一张人脸图片 face.png

  • 一段语音 speech.wav

运行:

python inference.py \
--driven_audio speech.wav \
--source_image face.png \
--result_dir results

输出:

results/result.mp4


三、安装 MuseTalk(核心)

MuseTalk 是 目前最自然的嘴型驱动模型

安装依赖:

cd /opt
git clone https://github.com/TMElyralab/MuseTalk.git
cd MuseTalk

创建环境:

python3 -m venv musetalk_env
source musetalk_env/bin/activate

安装依赖:

pip install -r requirements.txt

安装 PyTorch:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118


下载 MuseTalk 模型

创建模型目录:

mkdir models

下载:

python scripts/download_models.py

如果失败:

可以手动下载:

主要模型:

musetalk.pth
wav2vec2
face parsing model


四、测试 MuseTalk

准备:

face.mp4
speech.wav

运行:

python inference.py \
--video_path face.mp4 \
--audio_path speech.wav \
--result_path result.mp4

输出:

result.mp4

嘴型会和语音同步。


五、完整 AI数字人流水线

最终流程是:

ComfyUI 生成数字人

EdgeTTS 生成语音

SadTalker 生成基础视频

MuseTalk 优化嘴型

FFmpeg 合成最终视频


六、自动化脚本示例

自动流程:

text → speech → video

例如:

python generate_avatar_video.py \
--text "AI时代已经来了" \
--avatar girl.png

自动生成:

AI数字人视频.mp4


七、服务器最终结构(推荐)

建议结构:

/opt/ai

├ comfyui
├ musetalk
├ sadtalker
├ wav2lip
├ tts
└ output


八、T4 推荐参数

MuseTalk:

分辨率 512
batch 4
fp16 开启

ComfyUI:

1024 SDXL


九、数字人效果最佳组合

业内现在最强是:

ComfyUI (人物生成)
+
IPAdapter (人物一致性)
+
MuseTalk (嘴型)
+
EdgeTTS (语音)

效果接近:

HeyGen
D-ID

完全本地部署


十、如果你愿意,我可以给你一套更高级的

我可以直接给你:

一套完整 AI数字人系统

包括:

  • Docker一键部署

  • MuseTalk + SadTalker + Wav2Lip

  • ComfyUI数字人工作流

  • 自动生成抖音视频

最终做到:

输入一句话

自动生成脚本

自动生成语音

自动生成数字人视频

也就是:

AI短视频工厂。

如果需要,我可以把 整套 docker-compose(生产级)直接给你。