开始使用
🚀 一键整合包 for Windows
注意事项:
- 整合包使用的是 CPU 版本的 torch,大小约 2.6G。
- 在配音步骤使用 UVR5 进行人声分离时,CPU 版本会显著慢于 GPU 加速的 torch。
- 整合包仅支持通过 API 调用 whisperXapi ☁️,不支持本地运行 whisperX 💻。
- 整合包使用的 whisperXapi 不支持中文转录,若需要使用中文,请从源码安装使用本地运行的 whisperX 💻。
- 整合包在转录步骤尚未进行 UVR5 人声分离,不建议使用 BGM 较嘈杂的视频。
如果需要以下功能,请从源码安装(需要Nvidia显卡以及至少 20G 硬盘空间):
- 输入语言为中文
- 本地运行 whisperX 💻
- 使用 GPU 加速的 UVR5 人声分离
- 转录 BGM 较嘈杂的视频
下载和使用说明
-
下载
v1.4
一键整合包(800M): 直接下载 (opens in a new tab) | 度盘备用 (opens in a new tab) -
解压后双击运行文件夹中的
一键启动.bat
-
在打开的浏览器窗口中,在侧边栏进行必要配置,然后一键出片!
💡 提示: 本项目需要配置大模型、WhisperX、TTS,请仔细往下阅读 API 准备
📋 API 准备
本项目需使用大语言模型、WhisperX 和 TTS ,每个环节都提供了多种选择,请仔细阅读配置指南😊
1. 获取大模型的 API_KEY:
推荐模型 | 推荐提供商 | base_url | 价格 | 效果 |
---|---|---|---|---|
claude-3-5-sonnet-20240620 (默认) | 云雾 api (opens in a new tab) | https://yunwu.zeabur.app (opens in a new tab) | ¥15 / 1M tokens | 🤩 |
deepseek-coder | deepseek (opens in a new tab) | https://api.deepseek.com (opens in a new tab) | ¥2 / 1M tokens | 😲 |
注:云雾api 还支持 openai 的 tts-1 接口,可在配音步骤选用。
提醒:deepseek在翻译过程有极低的概率错误,若出错请更换claude 3.5 sonnet模型
常见问题
选择哪一个模型好?
- 🌟 默认使用 Claude 3.5 ,翻译质量极佳,翻译的连贯性非常好,没有 ai 味。
- 🚀 若使用deepseek, 1h 视频翻译花费约 ¥1,效果一般。
如何获取 api key?
- 点击上面 推荐提供商 的链接
- 注册账户并充值
- 在 api key 页面新建一个即可
- 云雾api要注意勾选
无限额度
,模型处选择claude-3-5-sonnet-20240620
模型,渠道建议选纯AZ 1.5倍
能用别的模型吗?
- ✅ 支持 OAI-Like 的 API 接口,需要自行在 streamlit 侧边栏更换。
- ⚠️ 但其他模型(尤其是小模型)遵循指令要求能力弱,非常容易在翻译过程报错,强烈不推荐。
2. 准备 Replicate 的 Token (仅当选用 whisperXapi ☁️ 时)
VideoLingo 使用 WhisperX 进行语音识别,支持本地部署和云端api。
方案对比:
方案 | 缺点 |
---|---|
whisperX 🖥️ | • 安装CUDA 🛠️ • 下载模型 📥 • 高显存 💾 |
whisperXapi ☁️ | • 需梯子 🕵️♂️ • Visa卡 💳 • 中文效果差 🚫 |
获取令牌
- 在 Replicate (opens in a new tab) 注册并绑定 Visa 卡支付方式,获取令牌
- 或加入 QQ 群在群公告中免费获取测试令牌
3. TTS 的 API
VideoLingo提供了多种tts接入方式,以下是对比(如不使用配音仅翻译请跳过)
TTS 方案 | 优点 | 缺点 | 中文效果 | 非中文效果 |
---|---|---|---|---|
🎙️ OpenAI TTS | 情感真实 | 中文听起来像外国人 | 😕 | 🤩 |
🔊 Azure TTS (推荐) | 效果自然 | 充值不方便 | 🤩 | 😃 |
🎤 Fish TTS | 绝 | 需充值 偶尔不稳定 | 😱 | 😱 |
🗣️ GPT-SoVITS (测试) | 本地运行语音克隆 | 目前只支持英文输入中文输出,需要N卡推理模型,最好用于 无明显bgm 的单人视频,且底模最好与原声相近 | 😂 | 🚫 |
- OpenAI TTS,推荐使用 云雾 api (opens in a new tab),注意在模型处勾选
tts-1
; - Azure TTS 可在QQ群公告获取测试 key 或自行在 官网 (opens in a new tab) 注册充值;
- Fish TTS 可在QQ群公告获取测试 key 或自行在 官网 (opens in a new tab) 注册充值
OpenAI 声音怎么选?
声音列表可以在 官网 (opens in a new tab) 找到,例如 alloy
, echo
, nova
和 fable
等,在 config.py
中修改 OAI_VOICE
即可。
Azure 声音怎么选?
建议在 在线体验 (opens in a new tab) 中试听选择你想要的声音,在右边的代码中可以找到该声音对应的代号,例如 zh-CN-XiaoxiaoMultilingualNeural
Fish TTS 声音怎么选?
前往 官网 (opens in a new tab) 中试听选择你想要的声音,在 URL 中可以找到该声音对应的代号,例如丁真是 54a5170264694bfc8e9ad98df7bd89c3
,热门的几种声音已添加在 config.py
中,直接修改 FISH_TTS_CHARACTER
即可。如需使用其他声音,请在 config.py
中修改 FISH_TTS_CHARACTER_ID_DICT
字典。
GPT-SoVITS-v2 使用教程
-
前往 官方的语雀文档 (opens in a new tab) 查看配置要求并下载整合包。
-
将
GPT-SoVITS-v2-xxx
与VideoLingo
放在同一个目录下。注意是两文件夹并列。 -
选择以下任一方式配置模型:
a. 自训练模型:
- 训练好模型后,
GPT-SoVITS-v2-xxx\GPT_SoVITS\configs
下的tts_infer.yaml
已自动填写好你的模型地址,将其复制并重命名为你喜欢的英文角色名.yaml
- 在和
yaml
文件同个目录下,放入后续使用的参考音频,命名为你喜欢的英文角色名_参考音频的文字内容.wav
或.mp3
,例如Huanyuv2_你好,这是一条测试音频.wav
- 在 VideoLingo 网页的侧边栏中,将
GPT-SoVITS 角色
配置为你喜欢的英文角色名
。
b. 使用预训练模型:
- 从 这里 (opens in a new tab) 下载我的模型,解压后覆盖到
GPT-SoVITS-v2-xxx
。 - 在
GPT-SoVITS 角色
配置为Huanyuv2
。
c. 使用其他训练好的模型:
-
将
xxx.ckpt
模型文件放在GPT_weights_v2
文件夹下,将xxx.pth
模型文件放在SoVITS_weights_v2
文件夹下。 -
参考方法 a,重命名
tts_infer.yaml
文件,并修改文件中的custom
部分的t2s_weights_path
和vits_weights_path
指向你的模型,例如:# 示例 方法 b 的配置: t2s_weights_path: GPT_weights_v2/Huanyu_v2-e10.ckpt version: v2 vits_weights_path: SoVITS_weights_v2/Huanyu_v2_e10_s150.pth
-
参考方法 a,在和
yaml
文件同个目录下,放入后续使用的参考音频,命名为你喜欢的英文角色名_参考音频的文字内容.wav
或.mp3
,例如Huanyuv2_你好,这是一条测试音频.wav
,程序会自动识别并使用。 -
⚠️ 警告:请使用英文命名
角色名
,否则会出现错误。参考音频的文字内容
可以使用中文。目前仍处于测试版,可能产生报错。
# 期望的目录结构: . ├── VideoLingo │ └── ... └── GPT-SoVITS-v2-xxx ├── GPT_SoVITS │ └── configs │ ├── tts_infer.yaml │ ├── 你喜欢的英文角色名.yaml │ └── 你喜欢的英文角色名_参考音频的文字内容.wav ├── GPT_weights_v2 │ └── [你的GPT模型文件] └── SoVITS_weights_v2 └── [你的SoVITS模型文件]
- 训练好模型后,
配置完成后,注意在网页侧边栏选择 参考音频模式
,VideoLingo 在配音步骤时会自动在弹出的命令行中打开 GPT-SoVITS 的推理 API 端口,配音完成后可手动关闭。注意,此方法仍然不够稳定,容易出现漏字漏句或其他bug,请谨慎使用。
🛠️ 源码安装流程
Windows 前置依赖
在开始安装 VideoLingo 之前,注意预留 20G 硬盘空间,并请确保完成以下步骤:
依赖 | whisperX 🖥️ | whisperX ☁️ |
---|---|---|
Anaconda 🐍 | 下载 (opens in a new tab) | 下载 (opens in a new tab) |
Git 🌿 | 下载 (opens in a new tab) | 下载 (opens in a new tab) |
Cuda Toolkit 12.6 🚀 | 下载 (opens in a new tab) | - |
Cudnn 9.3.0 🧠 | 下载 (opens in a new tab) | - |
注意:安装 Anaconda 时勾选
添加到系统Path
,安装完 Cuda 和 Cudnn 后需要重启计算机 🔄
安装步骤
需要一定的 python 基础,支持Win, Mac, Linux。遇到任何问题可以询问官方网站 videolingo.io (opens in a new tab) 右下角的AI助手~
-
打开 Anaconda Prompt 并切换到桌面目录:
cd desktop
-
克隆项目并切换至项目目录:
git clone https://github.com/Huanshere/VideoLingo.git cd VideoLingo
-
创建并激活虚拟环境(必须 3.10.0):
conda create -n videolingo python=3.10.0 -y conda activate videolingo
-
运行安装脚本:
python install.py
根据提示选择所需的 whisper 方法,脚本将自动安装相应的 torch 和 whisper 版本
-
仅对于需要使用中文转录的用户:
请手动下载 Belle-whisper-large-v3-zh-punct 模型(度盘链接 (opens in a new tab)),并将其覆盖在项目根目录的
_model_cache
文件夹下,并注意在网页侧边栏指定转录语言为zh -
🎉 输入命令或点击
一键启动.bat
启动 Streamlit 应用:streamlit run st.py
-
在弹出网页的侧边栏中设置key,并注意选择whisper方法
-
(可选)更多进阶设置可以在
config.py
中手动修改
⚠️ 注意事项
-
UVR5 对系统资源要求较高,处理速度较慢。建议仅在拥有 16GB 以上内存和 8GB 以上显存的设备上勾选使用此功能。
-
翻译步骤极小可能出现 'phrase' 错误,遇到请反馈。
-
配音功能质量不稳定,为最佳质量,请尽量选择适合原视频的 TTS 语速,例如 OAITTS 语速较快,FishTTS 语速请试听后选择。