ONNX模型导出与模型打包

哔哩哔哩 2023-08-18 06:02:16

这是是之前的训练colab里导出ONNX模型

#创建虚拟环境

!conda create -n ONNX python= -y


(资料图片)

前面数据集制作有condacolab安转方法

#激活虚拟环境(!空格activate ONNX )

! activate ONNX

#安装pytorch==只适用colab没更新的情况

!conda install pytorch== torchvision== torchaudio== pytorch-cuda= -c pytorch

#安装依赖

%cd /content/drive/MyDrive/DiffSinger

!pip install -r -i /simple

#diffsingerdatsaet歌手

#diffsingerdatsaet_acoustic训练模型目录名

#diffsingerdatsaet_acoustic_ONNX生成目录.默认在DiffSinger目录产生

#--expose_gender --expose_velocity根据自己模型添加,如果和我之前config_一样就可以这样导出支持Gen参数支持VEL参数

#导出声音模型

%cd /content/drive/MyDrive/DiffSinger

!python scripts/ acoustic --exp diffsingerdatsaet --expose_gender --expose_velocity --out diffsingerdatsaet_acoustic_ONNX

#自动音高导出

导出后可以构建OpenUTAU音源包

官方有详细介绍

我的打包仅供参考

diffsingerdatsaet            #文件夹可任意命名

    #diffsingerdatsaet_

     #diffsingerdatsaet_acoustic.phonemes音素列表

    #Diffsinger音源信息文件自己创建

phonemes:     #音素列表

acoustic:diffsingerdatsaet_#你的onnx声学模型

vocoder: nsf_hifigan      #所使用的声码器包名

augmentation_args:

random_pitch_shifting:

range: [-5., 5.]

scale:

random_time_stretching:

domain: log

range: [, ]

scale:

use_key_shift_embed: true

use_speed_embed: true

#我的预处理和导出设置这样的

   #OpenUTAU音源信息

text_file_encoding: utf-8

portrait_opacity:

default_phonemizer:

singer_type: diffsinger

    #音源基本信息文件

name=diffsingerdatsaet_acoustic

image=           #图

voice=            #作者

web=              #网址

这样就声音就可以了,如果没有音高模型就可以直接使用导入OpenUTAU

如果加入音高分别新建两个文件夹dsdur、dspitch按照官方的导入

/wiki/NmPdwuMxei03i1kQHHhcJWBJnce

关键词:

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

最新推荐