ayousanz commited on
Commit
85f603a
1 Parent(s): c695024

Upload reazon-speech-analyze-speechMOS.py

Browse files
Files changed (1) hide show
  1. reazon-speech-analyze-speechMOS.py +83 -0
reazon-speech-analyze-speechMOS.py ADDED
@@ -0,0 +1,83 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import torch
2
+ import librosa
3
+ import json
4
+ import numpy as np
5
+ from datasets import load_dataset
6
+
7
+ # データセットをロード
8
+ ds = load_dataset("reazon-research/reazonspeech", "all")
9
+
10
+ # GPUが利用可能な場合はGPUを使用し、そうでない場合はエラーメッセージを表示して終了
11
+ if torch.cuda.is_available():
12
+ device = torch.device('cuda')
13
+ else:
14
+ print("エラー: GPUが利用可能ではありません。GPUを使用して実行してください。")
15
+ exit(1)
16
+
17
+ # speech-mosの予測器を初期化
18
+ predictor = torch.hub.load("tarepan/SpeechMOS:v1.2.0", "utmos22_strong", trust_repo=True)
19
+
20
+ # predictorをGPUに移動
21
+ predictor = predictor.to(device)
22
+
23
+ # データを前処理するための関数
24
+ def preprocess_audio(data):
25
+ # データが整数型の場合、浮動小数点型に変換
26
+ if data.dtype == np.int16:
27
+ data = data.astype(np.float32) / np.iinfo(np.int16).max
28
+ elif data.dtype == np.int32:
29
+ data = data.astype(np.float32) / np.iinfo(np.int32).max
30
+
31
+ # ステレオをモノラルに変換(必要があれば)
32
+ if len(data.shape) == 2:
33
+ data = data.mean(axis=1)
34
+
35
+ return data
36
+
37
+ def process_audio_data(data):
38
+ # 音声データを読み込む
39
+ audio_data = data['audio']['array']
40
+ sr = data['audio']['sampling_rate']
41
+
42
+ # データを前処理
43
+ audio_data = preprocess_audio(audio_data)
44
+
45
+ # speech-mosを使用して数値を取得
46
+ audio_data_tensor = torch.from_numpy(audio_data).unsqueeze(0).to(torch.float32).to(device) # GPUに移動
47
+ score = predictor(audio_data_tensor.to(torch.float32), sr) # 入力データをfloat32に変換
48
+
49
+ # 結果を辞書に格納
50
+ result = {
51
+ "ファイル名": data['name'],
52
+ "MOS値": float(score),
53
+ "トランスクリプション": data['transcription']
54
+ }
55
+
56
+ # 不要な変数を削除してメモリを解放
57
+ del audio_data, audio_data_tensor
58
+
59
+ return result
60
+
61
+ def process_and_save_results(ds):
62
+ total_data = len(ds['train'])
63
+ for i, data in enumerate(ds['train']):
64
+ result = process_audio_data(data)
65
+ print(f"処理中: {i+1}/{total_data} ({(i+1)/total_data*100:.2f}%)")
66
+ yield result
67
+
68
+ # 結果を保存するジェネレータ関数
69
+ def save_results_to_json(ds):
70
+ with open('audio_analysis_results_speechMOS.json', 'w', encoding='utf-8') as f:
71
+ f.write('[\n')
72
+ for i, result in enumerate(process_and_save_results(ds)):
73
+ print("ファイル名:" + result["ファイル名"] + ", MOS値:" + str(result["MOS値"]))
74
+ print("トランスクリプション: ", result["トランスクリプション"])
75
+ json.dump(result, f, ensure_ascii=False, indent=4)
76
+ if i < len(ds['train']) - 1:
77
+ f.write(',\n')
78
+ f.write('\n]')
79
+
80
+ print("JSONファイルが保存されました。")
81
+
82
+ # 結果を保存
83
+ save_results_to_json(ds)