Zhenhuan-VITS / README_ZH.md
王兮楼
add project files
ef1c0cb
|
raw
history blame
3.6 kB

English Documentation Please Click here

VITS 快速微调

这个代码库会指导你如何将自定义角色(甚至你自己),加入预训练的VITS模型中,在1小时内的微调使模型具备如下功能:

  1. 在 模型所包含的任意两个角色 之间进行声线转换
  2. 以 你加入的角色声线 进行中日英三语 文本到语音合成。

本项目使用的底模涵盖常见二次元男/女配音声线(来自原神数据集)以及现实世界常见男/女声线(来自VCTK数据集),支持中日英三语,保证能够在微调时快速适应新的声线。

欢迎体验微调所使用的底模!

中日英:Hugging Face Spaces 作者:我

中日:Hugging Face Spaces 作者:SayaSS

目前支持的任务:

  • 从 10条以上的短音频 克隆角色声音
  • 从 3分钟以上的长音频(单个音频只能包含单说话人) 克隆角色声音
  • 从 3分钟以上的视频(单个视频只能包含单说话人) 克隆角色声音
  • 通过输入 bilibili视频链接(单个视频只能包含单说话人) 克隆角色声音

目前支持声线转换和中日英三语TTS的角色

  • 任意角色(只要你有角色的声音样本) (注意:声线转换只能在任意两个存在于模型中的说话人之间进行)

微调

建议使用 Google Colab 进行微调任务,因为VITS在多语言情况下的某些环境依赖相当难以配置。

在Google Colab里,我需要花多长时间?

  1. 安装依赖 (3 min)
  2. 选择预训练模型,详细区别参见Colab 笔记本页面
  3. 上传你希望加入的其它角色声音,详细上传方式见DATA.MD
  4. 进行微调,根据选择的微调方式和样本数量不同,花费时长可能在20分钟到2小时不等。

微调结束后可以直接下载微调好的模型,日后在本地运行(不需要GPU)

本地运行和推理

  1. 记得下载微调好的模型和config文件!
  2. 下载最新的Release包(在Github页面的右侧)
  3. 把下载的模型和config文件放在 inference文件夹下, 其文件名分别为 G_latest.pthfinetune_speaker.json
  4. 一切准备就绪后,文件结构应该如下所示:
inference
├───inference.exe
├───...
├───finetune_speaker.json
└───G_latest.pth
  1. 运行 inference.exe, 浏览器会自动弹出窗口, 注意其所在路径不能有中文字符或者空格.

在MoeGoe使用

  1. MoeGoe以及类似其它VITS推理UI使用的config格式略有不同,需要下载的文件为模型G_latest.pth和配置文件moegoe_config.json
  2. 按照MoeGoe页面的提示配置路径即可使用。
  3. MoeGoe在输入句子时需要使用相应的语言标记包裹句子才能正常合成。(日语用[JA], 中文用[ZH], 英文用[EN]),例如:
    [JA]こんにちわ。[JA]
    [ZH]你好![ZH]
    [EN]Hello![EN]