Merge pull request #16 from Googlefan256/main

better README
This commit is contained in:
コマリン親衛隊
2024-09-11 14:07:53 +09:00
committed by GitHub

View File

@@ -1,19 +1,18 @@
# sbv2-api
このプロジェクトはStyle-Bert-ViTS2をONNX化したものをRustで実行するのを目的としています。つまり推論しか行いません。
このプロジェクトはStyle-Bert-ViTS2をONNX化したものをRustで実行するのを目的としています。
学習したいのであれば、Style-Bert-ViT2で調べてやってください
学習したい場合は、Style-Bert-ViTS2 学習方法 などで調べるとよいかもしれません
注意:JP-Extraしか対応していません。
JP-Extraしか対応していません。(基本的に対応する予定もありません)
## ONNX化する方法
dabertaとstbv2本体をonnx化する必要があります。
あくまで推奨ですが、onnxsimを使うことをお勧めします。
onnxsim使うことでモデルのサイズを軽くすることができます。
## onnxモデルの配置方法
- `models/daberta.onnx` - DaBertaのonnxモデル
- `models/sbv2.onnx` - `Style-Bert-ViT2`の本体
```sh
cd convert
# (何かしらの方法でvenv作成(推奨))
pip install -r requirements.txt
python convert_deberta.py
python convert_model.py --style_file ../../style-bert-vits2/model_assets/something/style_vectors.npy --config_file ../../style-bert-vits2/model_assets/something/config.json --model_file ../../style-bert-vits2/model_assets/something/something_eXXX_sXXXX.safetensors
```
## Todo
- [x] WebAPIの実装
@@ -22,28 +21,30 @@ onnxsim使うことでモデルのサイズを軽くすることができます
- [x] GPU対応(優先的にCUDA)
- [ ] WASM変換(ortがサポートやめたので、中止)
## ディレクトリー説明
- `sbv2_api` - Style-Bert-VITS2の推論Web API
- `sbv2_core` - Style-Bert-VITS2の推論コア部分
## 構造説明
- `sbv2_api` - 推論用 REST API
- `sbv2_core` - 推論コア部分
- `docker` - dockerビルドスクリプト
## APIの起動方法
```bash
```sh
cargo run -p sbv2_api -r
```
### CUDAでの起動
```bash
```sh
cargo run -p sbv2_api -r -F cuda,cuda_tf32
```
### Dynamicサポート
```bash
### Dynamic Linkサポート
```sh
ORT_DYLIB_PATH=./libonnxruntime.dll cargo run -p sbv2_api -r -F dynamic
```
### テストコマンド
```bash
curl -XPOST -H "Content-type: application/json" -d '{"text": "こんにちは"}' 'http://localhost:3000/synthesize'
```sh
curl -XPOST -H "Content-type: application/json" -d '{"text": "こんにちは","ident": "something"}' 'http://localhost:3000/synthesize'
curl http://localhost:3000/models
```
## 謝辞