mirror of
https://github.com/neodyland/sbv2-api.git
synced 2026-05-14 12:50:40 +00:00
修正完了
This commit is contained in:
39
content.txt
Normal file
39
content.txt
Normal file
@@ -0,0 +1,39 @@
|
||||
日本語を母国語としない人々にとって、「日本語は非常に難しい言語である」と言われています。
|
||||
その理由として、
|
||||
・漢字、ひらがな、カタカナ、と表記が何種類もある。
|
||||
・同一の漢字でも音読みと訓読みがある
|
||||
・地名の読みが難しい
|
||||
・主語、述語が省略される
|
||||
などが挙げられます。
|
||||
そして、やっと基本的な日本語を習得してもさらなる壁が立ちはだかっているのです。
|
||||
例えば、「はやくいって」、この言葉がすべて平仮名で書かれていたり会話の中で出てきた場合です。
|
||||
外国人のA君が大学の講義を終えてアルバイト先に向かっているとき、校門で日本人の友達B君に出会い進路相談をされ、1時間が経過してしまいます。さすがにもうアルバイトの開始時間に間に合わない!!そこでA君はB君に急いでいることを伝えると…B君から「はやくいって!」と言われました。
|
||||
A君はその言葉の意味を理解しかねてしばし立ち尽くしてしまいます。
|
||||
|
||||
「はやくいって」は、「早く言って」と「早く行って」の両方の解釈が出来てしまうのです。
|
||||
|
||||
1,アルバイトがあって急いでいるのなら、その旨をB君に「早く言って」ほしかった。
|
||||
2,アルバイトがあって急いでいるのなら、アルバイト先に「早く行って」
|
||||
|
||||
上記のように、複数の解釈ができる日本語が多く存在しており、「習得に時間がかかる言語である」といわれる理由の一つです。
|
||||
{'input_ids': tensor([[ 2, 106, 1645, ..., 106, 2516, 108]], device='cuda:0'), 'attention_mask': tensor([1.], device='cuda:0')}
|
||||
日本語には、「助数詞」と言って「数量を表現するのに用いる接尾語」があります。
|
||||
この助数詞は、「種類の多さ」と「音の変化=変音現象」が特徴です。
|
||||
|
||||
紙→枚(まい)、車→台(だい)、列車→輌(りょう)、箸→膳(ぜん)、エンジン→基(き)
|
||||
|
||||
種類の多さもさることながら、もう一つの難しさが変音現象です。
|
||||
例えば、カエルを数えるときに「1匹=いっぴき」と読むのに対して「2匹≠にぴき」で2匹を「にぴき」とは読まずに「2匹=にひき」となります。
|
||||
どうしてこうなるのか。
|
||||
ここには、漢語の半濁音のルール、というものが発生します。
|
||||
まず、半濁音はハ行にだけしか付きません。(はひふへほ→ぱぴぷぺぽ)
|
||||
そして、連濁といって語と語が合体するときに後ろに来る語の頭の部分が清音から濁音に変化します。
|
||||
ハ行音の連濁のうち、前の語の最後に「つ」がくると、後ろの語の頭が半濁音に変わります。
|
||||
|
||||
例)切(せつ) + 腹(ふく) = 切腹(せっぷく)
|
||||
|
||||
助数詞も、数字の「一・六・八・十・百」が「ハ行音の助数詞」と結びつく時、促音便「っ(小さい”っ”)」を起こし、後ろの助数詞が半濁音となります。
|
||||
1杯(いち + はい → いっぱい)、6泊(ろく + はく → ろっぱく)、8袋(はち + ふくろ → はっぷくろ)、
|
||||
10編(じゅう + へん → じっぺん)、100本(ひゃく + ほん →ひゃっぽん)
|
||||
|
||||
こういった理由から、「2匹→2ぴき」とはなりません。
|
||||
@@ -54,10 +54,10 @@ impl JTalk {
|
||||
Ok(Self { jpreprocess })
|
||||
}
|
||||
|
||||
pub fn g2p(&self, text: &str) -> Result<(Vec<String>, Vec<i32>, Vec<i32>)> {
|
||||
pub fn process_text(&self, text: &str) -> Result<JTalkProcess> {
|
||||
let parsed = self.jpreprocess.run_frontend(text)?;
|
||||
let jtalk_process = JTalkProcess::new(Arc::clone(&self.jpreprocess), parsed);
|
||||
jtalk_process.g2p()
|
||||
Ok(jtalk_process)
|
||||
}
|
||||
}
|
||||
|
||||
@@ -69,7 +69,7 @@ static MORA_PATTERN: Lazy<Vec<String>> = Lazy::new(|| {
|
||||
});
|
||||
static LONG_PATTERN: Lazy<Regex> = Lazy::new(|| Regex::new(r"(\w)(ー*)").unwrap());
|
||||
|
||||
struct JTalkProcess {
|
||||
pub struct JTalkProcess {
|
||||
jpreprocess: Arc<JPreprocessType>,
|
||||
parsed: Vec<String>,
|
||||
}
|
||||
@@ -268,7 +268,7 @@ impl JTalkProcess {
|
||||
Ok(data)
|
||||
}
|
||||
|
||||
fn text_to_seq_kata(&self) -> Result<(Vec<String>, Vec<String>)> {
|
||||
pub fn text_to_seq_kata(&self) -> Result<(Vec<String>, Vec<String>)> {
|
||||
let mut seq_kata = vec![];
|
||||
let mut seq_text = vec![];
|
||||
|
||||
|
||||
@@ -6,7 +6,7 @@ use std::env;
|
||||
fn main() -> anyhow::Result<()> {
|
||||
dotenvy::dotenv_override().ok();
|
||||
env_logger::init();
|
||||
let text = "眠たい。";
|
||||
let text = fs::read_to_string("content.txt")?;
|
||||
let ident = "aaa";
|
||||
let mut tts_holder = tts::TTSModelHolder::new(
|
||||
&fs::read(env::var("BERT_MODEL_PATH")?)?,
|
||||
|
||||
@@ -125,7 +125,8 @@ impl TTSModelHolder {
|
||||
) -> Result<(Array2<f32>, Array1<i64>, Array1<i64>, Array1<i64>)> {
|
||||
let normalized_text = norm::normalize_text(text);
|
||||
|
||||
let (phones, tones, mut word2ph) = self.jtalk.g2p(&normalized_text)?;
|
||||
let process = self.jtalk.process_text(&normalized_text)?;
|
||||
let (phones, tones, mut word2ph) = process.g2p()?;
|
||||
let (phones, tones, lang_ids) = nlp::cleaned_text_to_sequence(phones, tones);
|
||||
|
||||
let phones = utils::intersperse(&phones, 0);
|
||||
@@ -135,12 +136,17 @@ impl TTSModelHolder {
|
||||
*item *= 2;
|
||||
}
|
||||
word2ph[0] += 1;
|
||||
let (token_ids, attention_masks) = tokenizer::tokenize(&normalized_text, &self.tokenizer)?;
|
||||
|
||||
let text = {
|
||||
let (seq_text, _) = process.text_to_seq_kata()?;
|
||||
seq_text.join("")
|
||||
};
|
||||
let (token_ids, attention_masks) = tokenizer::tokenize(&text, &self.tokenizer)?;
|
||||
|
||||
let bert_content = bert::predict(&self.bert, token_ids, attention_masks)?;
|
||||
|
||||
assert!(
|
||||
word2ph.len() == normalized_text.chars().count() + 2,
|
||||
word2ph.len() == text.chars().count() + 2,
|
||||
"{} {}",
|
||||
word2ph.len(),
|
||||
normalized_text.chars().count()
|
||||
|
||||
Reference in New Issue
Block a user