PreTrainedTokenizerFast
λ π€ Tokenizers λΌμ΄λΈλ¬λ¦¬μ κΈ°λ°ν©λλ€. π€ Tokenizers λΌμ΄λΈλ¬λ¦¬μ ν ν¬λμ΄μ λ
π€ Transformersλ‘ λ§€μ° κ°λ¨νκ² λΆλ¬μ¬ μ μμ΅λλ€.
ꡬ체μ μΈ λ΄μ©μ λ€μ΄κ°κΈ° μ μ, λͺ μ€μ μ½λλ‘ λλ―Έ ν ν¬λμ΄μ λ₯Ό λ§λ€μ΄ λ³΄κ² μ΅λλ€:
>>> from tokenizers import Tokenizer
>>> from tokenizers.models import BPE
>>> from tokenizers.trainers import BpeTrainer
>>> from tokenizers.pre_tokenizers import Whitespace
>>> tokenizer = Tokenizer(BPE(unk_token="[UNK]"))
>>> trainer = BpeTrainer(special_tokens=["[UNK]", "[CLS]", "[SEP]", "[PAD]", "[MASK]"])
>>> tokenizer.pre_tokenizer = Whitespace()
>>> files = [...]
>>> tokenizer.train(files, trainer)
μ°λ¦¬κ° μ μν νμΌμ ν΅ν΄ μ΄μ νμ΅λ ν ν¬λμ΄μ λ₯Ό κ°κ² λμμ΅λλ€. μ΄ λ°νμμμ κ³μ μ¬μ©νκ±°λ JSON νμΌλ‘ μ μ₯νμ¬ λμ€μ μ¬μ©ν μ μμ΅λλ€.
π€ Transformers λΌμ΄λΈλ¬λ¦¬μμ μ΄ ν ν¬λμ΄μ κ°μ²΄λ₯Ό νμ©νλ λ°©λ²μ μ΄ν΄λ³΄κ² μ΅λλ€.
PreTrainedTokenizerFast
ν΄λμ€λ μΈμ€ν΄μ€νλ ν ν¬λμ΄μ κ°μ²΄λ₯Ό μΈμλ‘ λ°μ μ½κ² μΈμ€ν΄μ€νν μ μμ΅λλ€:
>>> from transformers import PreTrainedTokenizerFast
>>> fast_tokenizer = PreTrainedTokenizerFast(tokenizer_object=tokenizer)
μ΄μ fast_tokenizer
κ°μ²΄λ π€ Transformers ν ν¬λμ΄μ μμ 곡μ νλ λͺ¨λ λ©μλμ ν¨κ» μ¬μ©ν μ μμ΅λλ€! μμΈν λ΄μ©μ ν ν¬λμ΄μ νμ΄μ§λ₯Ό μ°Έμ‘°νμΈμ.
JSON νμΌμμ ν ν¬λμ΄μ λ₯Ό λΆλ¬μ€κΈ° μν΄, λ¨Όμ ν ν¬λμ΄μ λ₯Ό μ μ₯ν΄ λ³΄κ² μ΅λλ€:
>>> tokenizer.save("tokenizer.json")
JSON νμΌμ μ μ₯ν κ²½λ‘λ tokenizer_file
λ§€κ°λ³μλ₯Ό μ¬μ©νμ¬ PreTrainedTokenizerFast
μ΄κΈ°ν λ©μλμ μ λ¬ν μ μμ΅λλ€:
>>> from transformers import PreTrainedTokenizerFast
>>> fast_tokenizer = PreTrainedTokenizerFast(tokenizer_file="tokenizer.json")
μ΄μ fast_tokenizer
κ°μ²΄λ π€ Transformers ν ν¬λμ΄μ μμ 곡μ νλ λͺ¨λ λ©μλμ ν¨κ» μ¬μ©ν μ μμ΅λλ€! μμΈν λ΄μ©μ ν ν¬λμ΄μ νμ΄μ§λ₯Ό μ°Έμ‘°νμΈμ.