这是是之前的训练colab里导出ONNX模型
#创建虚拟环境
!conda create -n ONNX python= -y
(资料图片)
前面数据集制作有condacolab安转方法
#激活虚拟环境(!空格activate ONNX )
! activate ONNX
#安装pytorch==只适用colab没更新的情况
!conda install pytorch== torchvision== torchaudio== pytorch-cuda= -c pytorch
#安装依赖
%cd /content/drive/MyDrive/DiffSinger
!pip install -r -i /simple
#diffsingerdatsaet歌手
#diffsingerdatsaet_acoustic训练模型目录名
#diffsingerdatsaet_acoustic_ONNX生成目录.默认在DiffSinger目录产生
#--expose_gender --expose_velocity根据自己模型添加,如果和我之前config_一样就可以这样导出支持Gen参数,支持VEL参数
#导出声音模型
%cd /content/drive/MyDrive/DiffSinger
!python scripts/ acoustic --exp diffsingerdatsaet --expose_gender --expose_velocity --out diffsingerdatsaet_acoustic_ONNX
#自动音高导出
导出后可以构建OpenUTAU音源包
官方有详细介绍
我的打包仅供参考
diffsingerdatsaet #文件夹可任意命名
#diffsingerdatsaet_
#diffsingerdatsaet_acoustic.phonemes音素列表
#Diffsinger音源信息文件自己创建
phonemes: #音素列表
acoustic:diffsingerdatsaet_#你的onnx声学模型
vocoder: nsf_hifigan #所使用的声码器包名
augmentation_args:
random_pitch_shifting:
range: [-5., 5.]
scale:
random_time_stretching:
domain: log
range: [, ]
scale:
use_key_shift_embed: true
use_speed_embed: true
#我的预处理和导出设置这样的
#OpenUTAU音源信息
text_file_encoding: utf-8
portrait_opacity:
default_phonemizer:
singer_type: diffsinger
#音源基本信息文件
name=diffsingerdatsaet_acoustic
image= #图
voice= #作者
web= #网址
这样就声音就可以了,如果没有音高模型就可以直接使用导入OpenUTAU
如果加入音高分别新建两个文件夹dsdur、dspitch按照官方的导入
/wiki/NmPdwuMxei03i1kQHHhcJWBJnce
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。
下一篇:最后一页