import torch import librosa import json import numpy as np from datasets import load_dataset # データセットをロード ds = load_dataset("reazon-research/reazonspeech", "all") # GPUが利用可能な場合はGPUを使用し、そうでない場合はエラーメッセージを表示して終了 if torch.cuda.is_available(): device = torch.device('cuda') else: print("エラー: GPUが利用可能ではありません。GPUを使用して実行してください。") exit(1) # speech-mosの予測器を初期化 predictor = torch.hub.load("tarepan/SpeechMOS:v1.2.0", "utmos22_strong", trust_repo=True) # predictorをGPUに移動 predictor = predictor.to(device) # データを前処理するための関数 def preprocess_audio(data): # データが整数型の場合、浮動小数点型に変換 if data.dtype == np.int16: data = data.astype(np.float32) / np.iinfo(np.int16).max elif data.dtype == np.int32: data = data.astype(np.float32) / np.iinfo(np.int32).max # ステレオをモノラルに変換(必要があれば) if len(data.shape) == 2: data = data.mean(axis=1) return data def process_audio_data(data): # 音声データを読み込む audio_data = data['audio']['array'] sr = data['audio']['sampling_rate'] # データを前処理 audio_data = preprocess_audio(audio_data) # speech-mosを使用して数値を取得 audio_data_tensor = torch.from_numpy(audio_data).unsqueeze(0).to(torch.float32).to(device) # GPUに移動 score = predictor(audio_data_tensor.to(torch.float32), sr) # 入力データをfloat32に変換 # 結果を辞書に格納 result = { "ファイル名": data['name'], "MOS値": float(score), "トランスクリプション": data['transcription'] } # 不要な変数を削除してメモリを解放 del audio_data, audio_data_tensor return result def process_and_save_results(ds): total_data = len(ds['train']) for i, data in enumerate(ds['train']): result = process_audio_data(data) print(f"処理中: {i+1}/{total_data} ({(i+1)/total_data*100:.2f}%)") yield result # 結果を保存するジェネレータ関数 def save_results_to_json(ds): with open('audio_analysis_results_speechMOS.json', 'w', encoding='utf-8') as f: f.write('[\n') for i, result in enumerate(process_and_save_results(ds)): print("ファイル名:" + result["ファイル名"] + ", MOS値:" + str(result["MOS値"])) print("トランスクリプション: ", result["トランスクリプション"]) json.dump(result, f, ensure_ascii=False, indent=4) if i < len(ds['train']) - 1: f.write(',\n') f.write('\n]') print("JSONファイルが保存されました。") # 結果を保存 save_results_to_json(ds)