Edit model card

ko-42maru-wav2vec2-conformer-del-1s

Table of Contents

Model Details

  • Model Description: 해당 모델은 wav2vec2-conformer base architecture에 scratch pre-training 되었습니다.
    Wav2Vec2ConformerForCTC를 이용하여 KsponSpeech에 대한 Fine-Tuning 모델입니다.

  • Dataset use AIHub KsponSpeech
    Datasets는 해당 Data를 전처리하여 임의로 만들어 사용하였습니다.
    del-1s의 의미는 1초 이하의 데이터 필터링을 의미합니다.
    해당 모델은 음성전사를 자체 커스텀한 42maru 기준의 데이터로 학습된 모델입니다. (숫자와 영어는 한글 표기법을 따름)

  • Developed by: TADev (@lIlBrother, @ddobokki, @jp42maru)

  • Language(s): Korean

  • License: apache-2.0

  • Parent Model: See the wav2vec2-conformer for more information about the pre-trained base model. (해당 모델은 wav2vec2-conformer base architecture에 scratch pre-training 되었습니다.)

Evaluation

Just using load_metric("wer") and load_metric("wer") in huggingface datasets library

How to Get Started With the Model

KenLM과 혼용된 Wav2Vec2ProcessorWithLM 예제를 보시려면 42maru-kenlm 예제를 참고하세요

import librosa
from pyctcdecode import build_ctcdecoder
from transformers import (
    AutoConfig,
    AutoFeatureExtractor,
    AutoModelForCTC,
    AutoTokenizer,
    Wav2Vec2ProcessorWithLM,
)
from transformers.pipelines import AutomaticSpeechRecognitionPipeline

audio_path = ""

# 모델과 토크나이저, 예측을 위한 각 모듈들을 불러옵니다.
model = AutoModelForCTC.from_pretrained("42MARU/ko-42maru-wav2vec2-conformer-del-1s")
feature_extractor = AutoFeatureExtractor.from_pretrained("42MARU/ko-42maru-wav2vec2-conformer-del-1s")
tokenizer = AutoTokenizer.from_pretrained("42MARU/ko-42maru-wav2vec2-conformer-del-1s")
beamsearch_decoder = build_ctcdecoder(
    labels=list(tokenizer.encoder.keys()),
    kenlm_model_path=None,
)
processor = Wav2Vec2ProcessorWithLM(
    feature_extractor=feature_extractor, tokenizer=tokenizer, decoder=beamsearch_decoder
)

# 실제 예측을 위한 파이프라인에 정의된 모듈들을 삽입.
asr_pipeline = AutomaticSpeechRecognitionPipeline(
    model=model,
    tokenizer=processor.tokenizer,
    feature_extractor=processor.feature_extractor,
    decoder=processor.decoder,
    device=-1,
)

# 음성파일을 불러오고 beamsearch 파라미터를 특정하여 예측을 수행합니다.
raw_data, _ = librosa.load(audio_path, sr=16000)
kwargs = {"decoder_kwargs": {"beam_width": 100}}
pred = asr_pipeline(inputs=raw_data, **kwargs)["text"]
# 모델이 자소 분리 유니코드 텍스트로 나오므로, 일반 String으로 변환해줄 필요가 있습니다.
result = unicodedata.normalize("NFC", pred)
print(result)
# 안녕하세요 하나둘셋 테스트입니다.

Beam-100 Result (WER):

"clean" "other"
21.52 25.72
Downloads last month
6
Hosted inference API
or or
This model can be loaded on the Inference API on-demand.