Datasets:
Upload reazon-speech-analyze-speechMOS.py
Browse files
reazon-speech-analyze-speechMOS.py
ADDED
@@ -0,0 +1,83 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import torch
|
2 |
+
import librosa
|
3 |
+
import json
|
4 |
+
import numpy as np
|
5 |
+
from datasets import load_dataset
|
6 |
+
|
7 |
+
# データセットをロード
|
8 |
+
ds = load_dataset("reazon-research/reazonspeech", "all")
|
9 |
+
|
10 |
+
# GPUが利用可能な場合はGPUを使用し、そうでない場合はエラーメッセージを表示して終了
|
11 |
+
if torch.cuda.is_available():
|
12 |
+
device = torch.device('cuda')
|
13 |
+
else:
|
14 |
+
print("エラー: GPUが利用可能ではありません。GPUを使用して実行してください。")
|
15 |
+
exit(1)
|
16 |
+
|
17 |
+
# speech-mosの予測器を初期化
|
18 |
+
predictor = torch.hub.load("tarepan/SpeechMOS:v1.2.0", "utmos22_strong", trust_repo=True)
|
19 |
+
|
20 |
+
# predictorをGPUに移動
|
21 |
+
predictor = predictor.to(device)
|
22 |
+
|
23 |
+
# データを前処理するための関数
|
24 |
+
def preprocess_audio(data):
|
25 |
+
# データが整数型の場合、浮動小数点型に変換
|
26 |
+
if data.dtype == np.int16:
|
27 |
+
data = data.astype(np.float32) / np.iinfo(np.int16).max
|
28 |
+
elif data.dtype == np.int32:
|
29 |
+
data = data.astype(np.float32) / np.iinfo(np.int32).max
|
30 |
+
|
31 |
+
# ステレオをモノラルに変換(必要があれば)
|
32 |
+
if len(data.shape) == 2:
|
33 |
+
data = data.mean(axis=1)
|
34 |
+
|
35 |
+
return data
|
36 |
+
|
37 |
+
def process_audio_data(data):
|
38 |
+
# 音声データを読み込む
|
39 |
+
audio_data = data['audio']['array']
|
40 |
+
sr = data['audio']['sampling_rate']
|
41 |
+
|
42 |
+
# データを前処理
|
43 |
+
audio_data = preprocess_audio(audio_data)
|
44 |
+
|
45 |
+
# speech-mosを使用して数値を取得
|
46 |
+
audio_data_tensor = torch.from_numpy(audio_data).unsqueeze(0).to(torch.float32).to(device) # GPUに移動
|
47 |
+
score = predictor(audio_data_tensor.to(torch.float32), sr) # 入力データをfloat32に変換
|
48 |
+
|
49 |
+
# 結果を辞書に格納
|
50 |
+
result = {
|
51 |
+
"ファイル名": data['name'],
|
52 |
+
"MOS値": float(score),
|
53 |
+
"トランスクリプション": data['transcription']
|
54 |
+
}
|
55 |
+
|
56 |
+
# 不要な変数を削除してメモリを解放
|
57 |
+
del audio_data, audio_data_tensor
|
58 |
+
|
59 |
+
return result
|
60 |
+
|
61 |
+
def process_and_save_results(ds):
|
62 |
+
total_data = len(ds['train'])
|
63 |
+
for i, data in enumerate(ds['train']):
|
64 |
+
result = process_audio_data(data)
|
65 |
+
print(f"処理中: {i+1}/{total_data} ({(i+1)/total_data*100:.2f}%)")
|
66 |
+
yield result
|
67 |
+
|
68 |
+
# 結果を保存するジェネレータ関数
|
69 |
+
def save_results_to_json(ds):
|
70 |
+
with open('audio_analysis_results_speechMOS.json', 'w', encoding='utf-8') as f:
|
71 |
+
f.write('[\n')
|
72 |
+
for i, result in enumerate(process_and_save_results(ds)):
|
73 |
+
print("ファイル名:" + result["ファイル名"] + ", MOS値:" + str(result["MOS値"]))
|
74 |
+
print("トランスクリプション: ", result["トランスクリプション"])
|
75 |
+
json.dump(result, f, ensure_ascii=False, indent=4)
|
76 |
+
if i < len(ds['train']) - 1:
|
77 |
+
f.write(',\n')
|
78 |
+
f.write('\n]')
|
79 |
+
|
80 |
+
print("JSONファイルが保存されました。")
|
81 |
+
|
82 |
+
# 結果を保存
|
83 |
+
save_results_to_json(ds)
|