maxseats commited on
Commit
ab04ee2
·
verified ·
1 Parent(s): 21d5ed0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +270 -0
README.md CHANGED
@@ -34,3 +34,273 @@ configs:
34
  - split: valid
35
  path: data/valid-*
36
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
34
  - split: valid
35
  path: data/valid-*
36
  ---
37
+
38
+ ### 컬럼 제거가 필요해요
39
+ - 추후에 제거 예정이에요.
40
+ - 다음 코드를 통해 만들었어요.
41
+ ```
42
+ import os
43
+ import json
44
+ from pydub import AudioSegment
45
+ from tqdm import tqdm
46
+ import re
47
+ from datasets import Audio, Dataset, DatasetDict, load_from_disk, concatenate_datasets
48
+ from transformers import WhisperFeatureExtractor, WhisperTokenizer
49
+ import pandas as pd
50
+ import shutil
51
+
52
+ # 사용자 지정 변수를 설정해요.
53
+
54
+ # DATA_DIR = '/mnt/a/maxseats/(주의-원본-680GB)주요 영역별 회의 음성인식 데이터' # 데이터셋이 저장된 폴더
55
+ DATA_DIR = '/mnt/a/maxseats/(주의-원본)split_files/set_2' # 10GB 단위 데이터
56
+
57
+ # 원천, 라벨링 데이터 폴더 지정
58
+ json_base_dir = DATA_DIR
59
+ audio_base_dir = DATA_DIR
60
+ output_dir = '/mnt/a/maxseats/(주의-원본)clips_set_2' # 가공된 데이터셋이 저장될 폴더
61
+ token = "hf_" # 허깅페이스 토큰
62
+ CACHE_DIR = '/mnt/a/maxseats/.cache' # 허깅페이스 캐시 저장소 지정
63
+ dataset_name = "maxseats/aihub-464-preprocessed-680GB-set-2" # 허깅페이스에 올라갈 데이터셋 이름
64
+ model_name = "SungBeom/whisper-small-ko" # 대상 모델 / "openai/whisper-base"
65
+
66
+
67
+ batch_size = 2000 # 배치사이즈 지정, 8000이면 에러 발생
68
+ os.environ['HF_DATASETS_CACHE'] = CACHE_DIR
69
+ '''
70
+ 데이터셋 경로를 지정해서
71
+ 하나의 폴더에 mp3, txt 파일로 추출해요. (clips_set_i 폴더)
72
+ 추출 과정에서 원본 파일은 자동으로 삭제돼요. (저장공간 절약을 위해)
73
+ '''
74
+
75
+ # 캐시 디렉토리가 없으면 생성
76
+ os.makedirs(CACHE_DIR, exist_ok=True)
77
+
78
+ def bracket_preprocess(text):
79
+
80
+ # 정규 표현식을 사용하여 패턴 제거
81
+ text = re.sub(r'/\([^\)]+\)', '', text) # /( *) 패턴 제거, /(...) 형식 제거
82
+ text = re.sub(r'[()]', '', text) # 개별적으로 등장하는 ( 및 ) 제거
83
+
84
+ return text.strip()
85
+
86
+ def process_audio_and_subtitle(json_path, audio_base_dir, output_dir):
87
+ # JSON 파일 읽기
88
+ with open(json_path, 'r', encoding='utf-8') as f:
89
+ data = json.load(f)
90
+
91
+ # 메타데이터에서 오디오 파일 이름 추출
92
+ title = data['metadata']['title']
93
+
94
+ # 각 TS, VS 폴더에서 해당 오디오 파일을 찾기
95
+ audio_file = None
96
+ for root, _, files in os.walk(audio_base_dir):
97
+ for file in files:
98
+ if file == title + '.wav':
99
+ audio_file = os.path.join(root, file)
100
+ break
101
+ if audio_file:
102
+ break
103
+
104
+ # 오디오 파일 로드
105
+ if not audio_file or not os.path.exists(audio_file):
106
+ print(f"Audio file {audio_file} does not exist.")
107
+ return
108
+
109
+ audio = AudioSegment.from_mp3(audio_file)
110
+ audio_length_ms = len(audio)
111
+
112
+ # 발화 데이터 처리
113
+ for utterance in data['utterance']:
114
+ start_time = int(float(utterance['start']) * 1000.0)# 밀리초로 변환
115
+ end_time = int(float(utterance['end']) * 1000.0) # 밀리초로 변환
116
+ text = bracket_preprocess(utterance['form']) # 괄호 전처리
117
+
118
+ if not text: # 비어 있으면 수행 x
119
+ continue
120
+
121
+ # 비정상적인 start_time 및 end_time 감지
122
+ if start_time < 0 or end_time > audio_length_ms or start_time >= end_time:
123
+ continue
124
+
125
+
126
+ # 오디오 클립 추출
127
+ audio_clip = audio[start_time:end_time]
128
+
129
+ # 파일 이름 설정
130
+ clip_id = utterance['id']
131
+ audio_output_path = os.path.join(output_dir, clip_id + '.mp3')
132
+ text_output_path = os.path.join(output_dir, clip_id + '.txt')
133
+
134
+ # 오디오 클립 저장
135
+ audio_clip.export(audio_output_path, format='mp3')
136
+
137
+ # 괄호 전처리 텍스트 파일 저장
138
+ with open(text_output_path, 'w', encoding='utf-8') as f:
139
+ f.write(text)
140
+
141
+ # 오디오 파일 삭제
142
+ os.remove(audio_file)
143
+ os.remove(audio_file.replace('.wav', '.txt'))
144
+ print(f"Deleted audio file: {audio_file}")
145
+
146
+ def process_all_files(json_base_dir, audio_base_dir, output_dir):
147
+ json_files = []
148
+
149
+ # JSON 파일 목록 생성
150
+ for root, dirs, files in os.walk(json_base_dir):
151
+ for file in files:
152
+ if file.endswith('.json'):
153
+ json_files.append(os.path.join(root, file))
154
+
155
+ # JSON 파일 처리
156
+ for json_file in tqdm(json_files, desc="Processing JSON files"):
157
+ process_audio_and_subtitle(json_file, audio_base_dir, output_dir)
158
+
159
+ # 완료 후 JSON 파일 삭제
160
+ os.remove(json_file)
161
+ print(f"Deleted JSON file: {json_file}")
162
+
163
+ # 디렉토리 생성
164
+ os.makedirs(output_dir, exist_ok=True)
165
+
166
+ # 프로세스 실행
167
+ process_all_files(json_base_dir, audio_base_dir, output_dir)
168
+
169
+
170
+
171
+ '''
172
+ 가공된 mp3, txt 데이터를 학습 가능한 허깅페이스 데이터셋 형태로 변환해요.
173
+ '''
174
+
175
+ # 캐시 디렉토리 설정
176
+ os.environ['HF_HOME'] = CACHE_DIR
177
+ os.environ["HF_DATASETS_CACHE"] = CACHE_DIR
178
+ feature_extractor = WhisperFeatureExtractor.from_pretrained(model_name, cache_dir=CACHE_DIR)
179
+ tokenizer = WhisperTokenizer.from_pretrained(model_name, language="Korean", task="transcribe", cache_dir=CACHE_DIR)
180
+
181
+ def exclude_json_files(file_names: list) -> list:
182
+ # .json으로 끝나는 원소 제거
183
+ return [file_name for file_name in file_names if not file_name.endswith('.json')]
184
+
185
+
186
+ def get_label_list(directory):
187
+ # 빈 리스트 생성
188
+ label_files = []
189
+
190
+ # 디렉토리 내 파일 목록 불러오기
191
+ for filename in os.listdir(directory):
192
+ # 파일 이름이 '.txt'로 끝나는지 확인
193
+ if filename.endswith('.txt'):
194
+ label_files.append(os.path.join(directory, filename))
195
+
196
+ return label_files
197
+
198
+
199
+ def get_audio_list(directory):
200
+ # 빈 리스트 생성
201
+ audio_files = []
202
+
203
+ # 디렉토리 내 파일 목록 불러오기
204
+ for filename in os.listdir(directory):
205
+ # 파일 이름이 '.wav'나 '.mp3'로 끝나는지 확인
206
+ if filename.endswith('.wav') or filename.endswith('mp3'):
207
+ audio_files.append(os.path.join(directory, filename))
208
+
209
+ return audio_files
210
+
211
+ def prepare_dataset(batch):
212
+ # 오디오 파일을 16kHz로 로드
213
+ audio = batch["audio"]
214
+
215
+ # input audio array로부터 log-Mel spectrogram 변환
216
+ batch["input_features"] = feature_extractor(audio["array"], sampling_rate=audio["sampling_rate"]).input_features[0]
217
+
218
+
219
+ # target text를 label ids로 변환
220
+ batch["labels"] = tokenizer(batch["transcripts"]).input_ids
221
+
222
+ # 'audio'와 'transcripts' 컬럼 제거
223
+ # del batch["audio"]
224
+ # del batch["transcripts"]
225
+
226
+ # 'input_features'와 'labels'만 포함한 새로운 딕셔너리 생성
227
+ return {"input_features": batch["input_features"], "labels": batch["labels"]}
228
+
229
+
230
+ label_data = get_label_list(output_dir)
231
+ audio_data = get_audio_list(output_dir)
232
+
233
+ transcript_list = []
234
+ for label in tqdm(label_data):
235
+ with open(label, 'r', encoding='UTF8') as f:
236
+ line = f.readline()
237
+ transcript_list.append(line)
238
+
239
+ df = pd.DataFrame(data=transcript_list, columns = ["transcript"]) # 정답 label
240
+ df['audio_data'] = audio_data # 오디오 파일 경로
241
+
242
+ # 오디오 파일 경로를 dict의 "audio" 키의 value로 넣고 이를 데이터셋으로 변환
243
+ # 이때, Whisper가 요구하는 사양대로 Sampling rate는 16,000으로 설정한다.
244
+ # 데이터셋 배치 처리
245
+ batches = []
246
+ print("len(df) : ", len(df))
247
+ for i in tqdm(range(0, len(df), batch_size), desc="Processing batches"):
248
+ batch_df = df.iloc[i:i+batch_size]
249
+ ds = Dataset.from_dict(
250
+ {"audio": [path for path in batch_df["audio_data"]],
251
+ "transcripts": [transcript for transcript in batch_df["transcript"]]}
252
+ ).cast_column("audio", Audio(sampling_rate=16000))
253
+
254
+ batch_datasets = DatasetDict({"batch": ds})
255
+ batch_datasets = batch_datasets.map(prepare_dataset, num_proc=1)
256
+ batch_datasets.save_to_disk(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
257
+ batches.append(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
258
+ print(f"Processed and saved batch {i//batch_size}")
259
+
260
+ # 모든 배치 데이터셋 로드
261
+ loaded_batches = [load_from_disk(path) for path in batches]
262
+
263
+ # 배치 데이터셋을 하나로 병합
264
+ full_dataset = concatenate_datasets([batch['batch'] for batch in loaded_batches])
265
+
266
+ # 데이터셋을 훈련 데이터와 테스트 데이터, 밸리데이션 데이터로 분할
267
+ train_testvalid = full_dataset.train_test_split(test_size=0.2)
268
+ test_valid = train_testvalid["test"].train_test_split(test_size=0.5)
269
+ datasets = DatasetDict(
270
+ {"train": train_testvalid["train"],
271
+ "test": test_valid["test"],
272
+ "valid": test_valid["train"]}
273
+ )
274
+
275
+ # # 열 제거 전 데이터셋 크기 확인
276
+ # print(f"Dataset sizes before column removal: Train: {len(datasets['train'])}, Test: {len(datasets['test'])}, Valid: {len(datasets['valid'])}")
277
+
278
+ # datasets = datasets.remove_columns(['audio', 'transcripts']) # 불필요한 부분 제거
279
+
280
+ # # 열 제거 후 데이터셋 크기 확인
281
+ # print(f"Dataset sizes after column removal: Train: {len(datasets['train'])}, Test: {len(datasets['test'])}, Valid: {len(datasets['valid'])}")
282
+
283
+ # #datasets = datasets.remove_columns(['audio', 'transcripts']) # 불필요한 부분 제거
284
+
285
+
286
+ '''
287
+ 허깅페이스 로그인 후, 최종 데이터셋을 업로드해요.
288
+ '''
289
+
290
+ while True:
291
+
292
+ if token =="exit":
293
+ break
294
+
295
+ try:
296
+ datasets.push_to_hub(dataset_name, token=token)
297
+ print(f"Dataset {dataset_name} pushed to hub successfully. 넘나 축하.")
298
+ break
299
+ except Exception as e:
300
+ print(f"Failed to push dataset: {e}")
301
+ token = input("Please enter your Hugging Face API token: ")
302
+
303
+ # 캐시 디렉토리 삭제
304
+ shutil.rmtree(CACHE_DIR)
305
+ print(f"Deleted cache directory: {CACHE_DIR}")
306
+ ```