Spaces:
Running
A newer version of the Gradio SDK is available:
5.4.0
app_file: app.py
colorFrom: indigo
colorTo: blue
emoji: 💡
license: mit
pinned: false
sdk: gradio
sdk_version: 4.19.2
title: GSVI Tiny
概述
这是一个便捷的项目用于快速将您的GPT-soVITS模型上传到 modelscope 或者 Hugging Face 或任意支持gradio的空间 ,让所有人可以免费体验。
优点
- 推理速度较快(核心代码使用fast_inference_分支)
- 引入缓存机制,切换参考音频需要时间约为0
- 模型以文件夹形式存在,方便分享
- 可以自行指定角色和情绪
- 界面比较好看
如何使用
使用一键上传整合包
到地址下载整合包(地址待修改),按照其提示运行bat即可
手动上传到各种空间
git clone https://github.com/X-T-E-R/Tiny_GSVI.git
- 将模型放到trained文件夹下
- 将预训练模型放到pretrained_models文件夹下
- 删去.gitignore的
trained
/pretrained_models
这两行 - 书写
Information.md
- 修改
Readme.md
(本文件): 一般推荐只需要修改title
和emoji
- 然后通过git工具上传到各种空间
上传前的git命令
git lfs install
git add .
git commit -m "Automated commit from batch script"
git gc
git lfs ls-files
git remote add origin %url%
git pull --strategy-option=ours origin master --allow-unrelated-histories
git push origin master
参数与要求
空间要求
Hugging Face
能使用,无特别要求
创空间(modelscope)
要求选择ubuntu22.04-py310-torch2.1.0-tf2.14.0-modelscope1.10.0
这一个镜像版本
调整参数
在config.json
,您可以重点关注:
"locale": "zh_CN",
"max_text_length": 70,
"save_prompt_cache": "true",
- locale代表您选择的语言,当您想使用中文时可以切换成zh_CN
- max_text_length仅仅限制输入框的最大字数(英文按词算,中日文按字算),因为免费的空间实在是太卡了
- save_prompt_cache代表是否保存参考音频的向量到磁盘,会显著加速,建议开启
模型需求
对于模型,整体来说,您需要把从一个到一连串的文件夹放置在trained
文件夹内
1. 文件夹名称
文件夹名称就是角色名称
2. 文件夹内容
里面应该至少有3个文件,以pth
/ckpt
/wav
后缀名结尾
wav文件请命名成它包含的提示文本,时长在3-10s内。
3. json文件
您可以通过模型管理界面或文本编辑器来编辑infer_config.json
,里面的内容是参考音频配置。
更多参考音频与情绪配置相关请参见参考音频说明 (yuque.com)
有关代码与引用
内部的
Adapters/gsv_fast
文件夹、i18n
来自GPT-soVITS项目的fast_inference_
分支app.py 主要来自原项目的一个fork GSVI
架构形式来自:Uni-TTS-API ,把GPT-soVITS作为一个适配器,可以更通用的使用各种语音项目
版权问题
请仔细阅读本项目与GPT-soVITS项目的LICENSE,发布作品请严格标注项目作者、模型训练者、声音归属及链接,并注明作品使用GPT-SoVITS AI生成,本项目仅提供一个工具,不对任何声音数据集具有控制权或做出版权保证,如您不认可这一点,请立即停止使用!!!
请我喝奶茶
打个广告,觉得我写的内容好的可以在爱发电请我一杯奶茶! https://afdian.net/a/xter123
Credits
This repo is mainly based on the fast_inference_
branch of GPT-soVITS project
Special thanks to the following projects and contributors:
Theoretical
Pretrained Models
Text Frontend for Inference
WebUI Tools
Thanks to all contributors for their efforts