Pytorch TensorFlow

데이터 처리 μž‘μ—…

Ask a Question Open In Colab Open In Studio Lab

2μž₯μ—μ„œ κ³΅λΆ€ν•œ 것과 같이, PyTorchμ—μ„œ 단일 배치(batch)λ₯Ό 기반으둜 μ‹œν€€μŠ€ λΆ„λ₯˜κΈ°(sequence classifier)λ₯Ό ν•™μŠ΅ν•˜λŠ” 방법은 λ‹€μŒκ³Ό κ°™μŠ΅λ‹ˆλ‹€.

import torch
from transformers import AdamW, AutoTokenizer, AutoModelForSequenceClassification

# Same as before
checkpoint = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForSequenceClassification.from_pretrained(checkpoint)
sequences = [
    "I've been waiting for a HuggingFace course my whole life.",
    "This course is amazing!",
]
batch = tokenizer(sequences, padding=True, truncation=True, return_tensors="pt")

# This is new
batch["labels"] = torch.tensor([1, 1])

optimizer = AdamW(model.parameters())
loss = model(**batch).loss
loss.backward()
optimizer.step()

λ¬Όλ‘  두 λ¬Έμž₯만으둜 λͺ¨λΈμ„ ν•™μŠ΅ν•˜λŠ” κ²ƒμœΌλ‘œλŠ” κ·Έλ‹€μ§€ 쒋은 κ²°κ³Όλ₯Ό 얻을 수 μ—†μŠ΅λ‹ˆλ‹€. 더 쒋은 κ²°κ³Όλ₯Ό μ–»μœΌλ €λ©΄, 더 큰 데이터셋을 μ€€λΉ„ν•΄μ•Ό ν•©λ‹ˆλ‹€.

이 μ„Ήμ…˜μ—μ„œλŠ” William B. Dolanκ³Ό Chris Brockett의 λ…Όλ¬Έμ—μ„œ μ†Œκ°œλœ MRPC(Microsoft Research Paraphrase Corpus) 데이터셋을 예제둜 μ‚¬μš©ν•  κ²ƒμž…λ‹ˆλ‹€. 이 데이터셋은 5,801건의 λ¬Έμž₯ 쌍으둜 κ΅¬μ„±λ˜μ–΄ 있으며 각 λ¬Έμž₯ 쌍의 관계가 μ˜μ—­(paraphrasing) 관계인지 μ—¬λΆ€λ₯Ό λ‚˜νƒ€λ‚΄λŠ” λ ˆμ΄λΈ”μ΄ μ‘΄μž¬ν•©λ‹ˆλ‹€(즉, 두 λ¬Έμž₯이 λ™μΌν•œ μ˜λ―ΈμΈμ§€ μ—¬λΆ€). λ°μ΄ν„°μ…‹μ˜ 규λͺ¨κ°€ 그리 크지 μ•ŠκΈ° λ•Œλ¬Έμ— ν•™μŠ΅ 과정을 μ‰½κ²Œ μ‹€ν—˜ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

πŸ€— Hubμ—μ„œ 데이터셋 λ‘œλ”©

πŸ€— Hubμ—λŠ” λͺ¨λΈλ§Œ μ‘΄μž¬ν•˜λŠ” 것이 μ•„λ‹™λ‹ˆλ‹€. λ‹€μ–‘ν•œ μ–Έμ–΄λ‘œ κ΅¬μΆ•λœ μ—¬λŸ¬ 데이터셋듀도 μžˆμŠ΅λ‹ˆλ‹€. μ—¬κΈ°μ—μ„œ λ‹€μ–‘ν•œ 데이터셋을 탐색할 수 있으며, 이 μ„Ήμ…˜μ„ μ™„λ£Œν•œ ν›„μ—λŠ” λ‹€λ₯Έ 데이터셋을 λ‘œλ“œν•˜κ³  μ²˜λ¦¬ν•΄ 보기λ₯Ό ꢌμž₯ν•©λ‹ˆλ‹€ (μ—¬κΈ°μ—μ„œ 일반 λ¬Έμ„œ μ°Έμ‘°). ν•˜μ§€λ§Œ μ§€κΈˆμ€ MRPC 데이터셋에 μ§‘μ€‘ν•©μ‹œλ‹€! 이 데이터셋은 10개의 λ°μ΄ν„°μ…‹μœΌλ‘œ κ΅¬μ„±λœ GLUE 벀치마크 쀑 ν•˜λ‚˜μž…λ‹ˆλ‹€. GLUE λ²€μΉ˜λ§ˆν¬λŠ” 10κ°€μ§€ ν…μŠ€νŠΈ λΆ„λ₯˜ μž‘μ—…μ„ ν†΅ν•΄μ„œ κΈ°κ³„ν•™μŠ΅ λͺ¨λΈμ˜ μ„±λŠ₯을 μΈ‘μ •ν•˜κΈ° μœ„ν•œ ν•™μˆ μ  벀치마크 데이터 μ§‘ν•©μž…λ‹ˆλ‹€.

πŸ€— Datasets λΌμ΄λΈŒλŸ¬λ¦¬λŠ” ν—ˆλΈŒ(hub)μ—μ„œ 데이터셋을 λ‹€μš΄λ‘œλ“œν•˜κ³  μΊμ‹œ(cache) κΈ°λŠ₯을 μˆ˜ν–‰ν•˜λŠ” μ‰¬μš΄ λͺ…λ Ήμ–΄λ₯Ό μ œκ³΅ν•©λ‹ˆλ‹€. λ‹€μŒκ³Ό 같이 MRPC 데이터셋을 λ‹€μš΄λ‘œλ“œν•  수 μžˆμŠ΅λ‹ˆλ‹€:

from datasets import load_dataset

raw_datasets = load_dataset("glue", "mrpc")
raw_datasets
DatasetDict({
    train: Dataset({
        features: ['sentence1', 'sentence2', 'label', 'idx'],
        num_rows: 3668
    })
    validation: Dataset({
        features: ['sentence1', 'sentence2', 'label', 'idx'],
        num_rows: 408
    })
    test: Dataset({
        features: ['sentence1', 'sentence2', 'label', 'idx'],
        num_rows: 1725
    })
})

μœ„ κ²°κ³Όμ—μ„œ 보듯이, ν•™μŠ΅(training), 검증(validation) 및 평가(test) 집합이 μ €μž₯된 DatasetDict 객체λ₯Ό 얻을 수 μžˆμŠ΅λ‹ˆλ‹€. 이듀 각각은 μ—¬λŸ¬ μ’…λ₯˜μ˜ μ—΄(columns)(sentence1, sentence2, label 및 idx)κ³Ό ν–‰(row)의 개수λ₯Ό ν¬ν•¨ν•˜λŠ”λ°, μ—¬κΈ°μ„œ ν–‰(row)의 κ°œμˆ˜λŠ” 각 μ§‘ν•©μ˜ λ¬Έμž₯쌍의 개수λ₯Ό λ‚˜νƒ€λƒ…λ‹ˆλ‹€. λ”°λΌμ„œ, ν•™μŠ΅ μ§‘ν•©(training set)μ—λŠ” 3,668개의 λ¬Έμž₯ 쌍, 검증 μ§‘ν•©(validation set)μ—λŠ” 408개, 평가 μ§‘ν•©(test set)μ—λŠ” 1,725개의 λ¬Έμž₯ 쌍이 μžˆμŠ΅λ‹ˆλ‹€.

load_dataset λͺ…령은 기본적으둜 ~/.cache/huggingface/datasets에 데이터셋을 λ‹€μš΄λ‘œλ“œν•˜κ³  μž„μ‹œμ €μž₯(μΊμ‹œ, cache)ν•©λ‹ˆλ‹€. 2μž₯μ—μ„œ λ³΄μ•˜λ“―μ΄, HF_HOME ν™˜κ²½ λ³€μˆ˜λ₯Ό μ„€μ •ν•˜μ—¬ μΊμ‹œ 폴더λ₯Ό λ³€κ²½ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

파이썬의 λ”•μ…”λ„ˆλ¦¬(dictionary)와 같이 ν‚€κ°’μœΌλ‘œ raw_datasets 개체의 κ°œλ³„ μ§‘ν•©(ν•™μŠ΅, 검증, 평가)에 μ ‘κ·Όν•  수 μžˆμŠ΅λ‹ˆλ‹€:

raw_train_dataset = raw_datasets["train"]
raw_train_dataset[0]
{'idx': 0,
 'label': 1,
 'sentence1': 'Amrozi accused his brother , whom he called " the witness " , of deliberately distorting his evidence .',
 'sentence2': 'Referring to him as only " the witness " , Amrozi accused his brother of deliberately distorting his evidence .'}

μœ„μ˜ μ˜ˆμ—μ„œ 보듯이, λ ˆμ΄λΈ”(label)이 이미 μ •μˆ˜(integers)λΌμ„œ μ „μ²˜λ¦¬(preprocessing)κ°€ ν•„μš” μ—†μŠ΅λ‹ˆλ‹€. μ–΄λ–€ μ •μˆ˜κ°€ μ–΄λ–€ λ ˆμ΄λΈ”μ— ν•΄λ‹Ήν•˜λŠ”μ§€ νŒŒμ•…ν•˜κΈ° μœ„ν•΄μ„œλŠ” raw_train_dataset의 features 속성을 μ‚΄νŽ΄λ³΄λ©΄ λ©λ‹ˆλ‹€:

raw_train_dataset.features
{'sentence1': Value(dtype='string', id=None),
 'sentence2': Value(dtype='string', id=None),
 'label': ClassLabel(num_classes=2, names=['not_equivalent', 'equivalent'], names_file=None, id=None),
 'idx': Value(dtype='int32', id=None)}

μ„ΈλΆ€μ μœΌλ‘œ, λ ˆμ΄λΈ”(label)은 ClassLabel νƒ€μž…μ΄κ³  λ ˆμ΄λΈ” 이름에 λŒ€ν•œ μ •μˆ˜ 맀핑은 names 폴더에 μ €μž₯λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€. 0은 not_equivalentλ₯Ό μ˜λ―Έν•˜κ³ , 1은 equivalentλ₯Ό λ‚˜νƒ€λƒ…λ‹ˆλ‹€.

✏️ 직접 해보기 ν•™μŠ΅ μ§‘ν•©μ˜ 15번째 μš”μ†Œμ™€ 검증 μ§‘ν•©μ˜ 87번째 μš”μ†Œλ₯Ό μ‚΄νŽ΄λ³΄μ„Έμš”. 각각의 λ ˆμ΄λΈ”μ€ λ¬΄μ—‡μΈκ°€μš”?

데이터셋 μ „μ²˜λ¦¬

데이터셋 μ „μ²˜λ¦¬λ₯Ό μœ„ν•΄μ„œλŠ” μš°μ„ μ μœΌλ‘œ ν…μŠ€νŠΈλ₯Ό λͺ¨λΈμ΄ 이해할 수 μžˆλŠ” 숫자둜 λ³€ν™˜ν•΄μ•Ό ν•©λ‹ˆλ‹€. 이전 μž₯μ—μ„œ λ³΄μ•˜λ“―μ΄ μ΄λŠ” ν† ν¬λ‚˜μ΄μ €κ°€ λ‹΄λ‹Ήν•©λ‹ˆλ‹€. ν† ν¬λ‚˜μ΄μ €μ— 단일 λ¬Έμž₯ λ˜λŠ” 닀쀑 λ¬Έμž₯ 리슀트λ₯Ό μž…λ ₯ν•  수 μžˆμœΌλ―€λ‘œ, λ‹€μŒκ³Ό 같이 각 쌍의 λͺ¨λ“  첫 번째 λ¬Έμž₯κ³Ό 두 번째 λ¬Έμž₯을 각각 직접 토큰화할 수 μžˆμŠ΅λ‹ˆλ‹€:

from transformers import AutoTokenizer

checkpoint = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
tokenized_sentences_1 = tokenizer(raw_datasets["train"]["sentence1"])
tokenized_sentences_2 = tokenizer(raw_datasets["train"]["sentence2"])

ν•˜μ§€λ§Œ 두 개의 μ‹œν€€μŠ€λ₯Ό λͺ¨λΈμ— λ°”λ‘œ 전달(각각의 λ¬Έμž₯을 λͺ¨λΈμ— λ³„λ„λ‘œ λ§€κ°œλ³€μˆ˜λ‘œ 전달)ν•˜μ—¬ 두 λ¬Έμž₯이 μ˜μ—­μΈμ§€ μ•„λ‹Œμ§€μ— λŒ€ν•œ μ˜ˆμΈ‘μ„ 얻을 μˆ˜λŠ” μ—†μŠ΅λ‹ˆλ‹€. 두 μ‹œν€€μŠ€λ₯Ό 쌍(pair)으둜 처리(단일 λ§€κ°œλ³€μˆ˜λ‘œ 처리)ν•˜κ³  μ μ ˆν•œ μ „μ²˜λ¦¬λ₯Ό μ μš©ν•΄μ•Ό ν•©λ‹ˆλ‹€. λ‹€ν–‰νžˆλ„ ν† ν¬λ‚˜μ΄μ €(tokenizer)λŠ” λ‹€μŒκ³Ό 같이 ν•œ 쌍의 μ‹œν€€μŠ€λ₯Ό 가져와 BERT λͺ¨λΈμ΄ μš”κ΅¬ν•˜λŠ” μž…λ ₯ ν˜•νƒœλ‘œ ꡬ성할 수 μžˆμŠ΅λ‹ˆλ‹€:

inputs = tokenizer("This is the first sentence.", "This is the second one.")
inputs
{ 
  'input_ids': [101, 2023, 2003, 1996, 2034, 6251, 1012, 102, 2023, 2003, 1996, 2117, 2028, 1012, 102],
  'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1],
  'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
}

2μž₯μ—μ„œ input_ids 및 attention_mask 킀값에 λŒ€ν•΄μ„œλŠ” λ…Όμ˜ν–ˆμ§€λ§Œ, token_type_ids에 λŒ€ν•œ μ΄μ•ΌκΈ°λŠ” ν•˜μ§€ μ•Šμ•˜μŠ΅λ‹ˆλ‹€. μœ„μ˜ μ˜ˆμ—μ„œ 보듯이, token_type_idsλŠ” 전체 μž…λ ₯의 μ–΄λŠ 뢀뢄이 첫 번째 λ¬Έμž₯이고 μ–΄λŠ 것이 두 번째 λ¬Έμž₯인지 λͺ¨λΈμ— μ•Œλ €μ€λ‹ˆλ‹€.

✏️ 직접 해보기 ν•™μŠ΅ μ§‘ν•© 15번째 μš”μ†Œμ˜ 두 λ¬Έμž₯을 κ°œλ³„μ μœΌλ‘œ/쌍으둜 ν† ν°ν™”ν•΄λ³΄μ„Έμš”. 두 결과의 차이가 μžˆλ‚˜μš”?

input_ids λ‚΄λΆ€μ˜ ID듀을 λ‹€μ‹œ λ‹¨μ–΄λ‘œ λ””μ½”λ”©ν•˜λ©΄:

tokenizer.convert_ids_to_tokens(inputs["input_ids"])

좜λ ₯은 λ‹€μŒκ³Ό κ°™μŠ΅λ‹ˆλ‹€:

['[CLS]', 'this', 'is', 'the', 'first', 'sentence', '.', '[SEP]', 'this', 'is', 'the', 'second', 'one', '.', '[SEP]']

λ”°λΌμ„œ λͺ¨λΈμ€ 두 개의 λ¬Έμž₯으둜 κ΅¬μ„±λ˜κ³  μž…λ ₯의 ν˜•νƒœκ°€ [CLS] λ¬Έμž₯1 [SEP] λ¬Έμž₯2 [SEP]와 같이 될 κ²ƒμœΌλ‘œ μ§μž‘ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 이λ₯Ό token_type_ids와 μ •λ ¬ν•˜λ©΄ λ‹€μŒκ³Ό κ°™μŠ΅λ‹ˆλ‹€:

['[CLS]', 'this', 'is', 'the', 'first', 'sentence', '.', '[SEP]', 'this', 'is', 'the', 'second', 'one', '.', '[SEP]']
[      0,      0,    0,     0,       0,          0,   0,       0,      1,    1,     1,        1,     1,   1,       1]

μœ„μ—μ„œ λ³΄λŠ” 바와 같이, [CLS] λ¬Έμž₯1 [SEP]에 ν•΄λ‹Ήν•˜λŠ” μž…λ ₯ 뢀뢄은 token_type_idκ°€ 0이고 λ¬Έμž₯2 [SEP]에 ν•΄λ‹Ήν•˜λŠ” λ‹€λ₯Έ 뢀뢄은 λͺ¨λ‘ 1μž…λ‹ˆλ‹€.

λ‹€λ₯Έ 체크포인트(checkpoint)λ₯Ό μ„ νƒν•œλ‹€λ©΄, ν† ν°ν™”λœ μž…λ ₯(tokenized inputs)에 token_type_idsκ°€ μ‘΄μž¬ν•˜μ§€ μ•Šμ„ μˆ˜λ„ μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, DistilBERT λͺ¨λΈμ„ μ‚¬μš©ν•˜λŠ” κ²½μš°μ—λŠ” tokenizerκ°€ token_type_idsλ₯Ό λ°˜ν™˜ν•˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€. λͺ¨λΈμ΄ μ‚¬μ „ν•™μŠ΅ κ³Όμ •μ—μ„œ μ΄λŸ¬ν•œ ν˜•νƒœμ˜ μž…λ ₯ ν˜•μ‹μœΌλ‘œ ν•™μŠ΅μ„ μ§„ν–‰ν–ˆμ„ κ²½μš°μ—λ§Œ λ°˜ν™˜λ©λ‹ˆλ‹€.

μ—¬κΈ°μ„œ, BERTλŠ” 토큰 νƒ€μž… IDsλ₯Ό μ‚¬μš©ν•˜μ—¬ 사전 ν•™μŠ΅λ˜λ©°, 1μž₯μ—μ„œ μ„€λͺ…ν•œ λ§ˆμŠ€ν‚Ήλœ μ–Έμ–΄ λͺ¨λΈλ§ λͺ©μ  외에 λ‹€μŒ λ¬Έμž₯ 예츑(next sentence prediction) μ΄λΌλŠ” μΆ”κ°€ λͺ©μ μ΄ μžˆμŠ΅λ‹ˆλ‹€. 이 μž‘μ—…μ˜ λͺ©ν‘œλŠ” λ¬Έμž₯ κ°„μ˜ 관계λ₯Ό λͺ¨λΈλ§ν•˜λŠ” κ²ƒμž…λ‹ˆλ‹€.

사전 ν•™μŠ΅ κ³Όμ •μ—μ„œ λ‹€μŒ λ¬Έμž₯ 예츑(next sentence prediction)을 μ‚¬μš©ν•˜λ©΄ λͺ¨λΈμ— λ¬΄μž‘μœ„λ‘œ λ§ˆμŠ€ν‚Ήλœ 토큰(masked tokens)이 ν¬ν•¨λœ λ¬Έμž₯ 쌍이 μž…λ ₯되고 두 번째 λ¬Έμž₯이 첫 번째 λ¬Έμž₯을 λ”°λ₯΄λŠ”μ§€ μ—¬λΆ€λ₯Ό μ˜ˆμΈ‘ν•˜λ„λ‘ μš”κ΅¬λ©λ‹ˆλ‹€. ν•™μŠ΅ κ³Όμ •μ—μ„œ 이 μž‘μ—…(next sentence prediction)의 λ‚œλ„λ₯Ό 높이기 μœ„ν•΄μ„œ, μž…λ ₯의 μ•½ 50% μ •λ„λŠ” 두 λ¬Έμž₯이 원본 λ¬Έμ„œμ—μ„œ μ—°μ†μ μœΌλ‘œ λ‚˜νƒ€λ‚˜λŠ” 쌍 집합이며, λ‚˜λ¨Έμ§€ 50%λŠ” λ¬Έμž₯ μŒμ„ μ„œλ‘œ λ‹€λ₯Έ λ¬Έμ„œμ—μ„œ μΆ”μΆœλœ λ¬Έμž₯λ“€λ‘œ κ΅¬μ„±ν•˜μ˜€μŠ΅λ‹ˆλ‹€.

일반적으둜, 토큰화 μ™„λ£Œλœ μž…λ ₯에 token_type_idsκ°€ μžˆλŠ”μ§€ 여뢀에 λŒ€ν•΄ κ±±μ •ν•  ν•„μš”κ°€ μ—†μŠ΅λ‹ˆλ‹€. ν† ν¬λ‚˜μ΄μ €μ™€ λͺ¨λΈ λͺ¨λ‘μ— λ™μΌν•œ 체크포인트(checkpoint)λ₯Ό μ‚¬μš©ν•˜λŠ” ν•œ, ν† ν¬λ‚˜μ΄μ €λŠ” λͺ¨λΈμ— 무엇을 μ œκ³΅ν•΄μ•Ό ν•˜λŠ”μ§€ μ•Œκ³  있기 λ•Œλ¬Έμ— μ•„λ¬΄λŸ° λ¬Έμ œκ°€ λ˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€.

이제 ν† ν¬λ‚˜μ΄μ €κ°€ ν•œ 쌍의 λ¬Έμž₯을 μ²˜λ¦¬ν•˜λŠ” 방법을 λ³΄μ•˜μœΌλ―€λ‘œ, 이λ₯Ό 전체 데이터셋을 토큰화(tokenize)ν•˜λŠ”λ° μ‚¬μš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 이전 μž₯μ—μ„œμ²˜λŸΌ, μš°λ¦¬λŠ” ν† ν¬λ‚˜μ΄μ €μ—κ²Œ 첫 번째 λ¬Έμž₯ 리슀트λ₯Ό μ œκ³΅ν•˜κ³  κ·Έ λ‹€μŒ 두 번째 λ¬Έμž₯ 리슀트λ₯Ό μ œκ³΅ν•¨μœΌλ‘œμ¨ λ¬Έμž₯ 쌍 리슀트λ₯Ό μž…λ ₯ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 이것은 2μž₯μ—μ„œ λ³Έ νŒ¨λ”©(padding) 및 μ ˆλ‹¨(truncation) μ˜΅μ…˜κ³Όλ„ ν˜Έν™˜λ©λ‹ˆλ‹€. λ”°λΌμ„œ ν•™μŠ΅ 데이터셋을 μ „μ²˜λ¦¬ν•˜λŠ” ν•œ κ°€μ§€ 방법은 λ‹€μŒκ³Ό κ°™μŠ΅λ‹ˆλ‹€:

tokenized_dataset = tokenizer(
    raw_datasets["train"]["sentence1"],
    raw_datasets["train"]["sentence2"],
    padding=True,
    truncation=True,
)

이 방법은 잘 μž‘λ™ν•˜μ§€λ§Œ, input_ids, attention_mask, token_type_ids 및 데이터가 담겨진 닀차원 λ¦¬μŠ€νŠΈκ°€ ν‚€λ‘œ μ§€μ •λœ tokenized_datasetμ΄λΌλŠ” λ³„λ„μ˜ 파이썬 λ”•μ…”λ„ˆλ¦¬λ₯Ό λ°˜ν™˜ν•˜λŠ” 단점이 μžˆμŠ΅λ‹ˆλ‹€. λ˜ν•œ 이 방법은 ν† ν°ν™”ν•˜λŠ” λ™μ•ˆ 전체 데이터셋을 μ €μž₯ν•  μΆ©λΆ„ν•œ κ³΅κ°„μ˜ RAM이 μžˆλŠ” κ²½μš°μ—λ§Œ μž‘λ™ν•©λ‹ˆλ‹€. 반면, πŸ€—Datasets 라이브러리의 데이터셋듀은 λ””μŠ€ν¬μ— μ €μž₯된 Apache Arrow νŒŒμΌμ΄λ―€λ‘œ, μš”μ²­ν•œ μƒ˜ν”Œλ§Œ λ©”λͺ¨λ¦¬μ— λ‘œλ“œλœ μƒνƒœλ‘œ μœ μ§€ν•©λ‹ˆλ‹€.

νŠΉμ • 데이터λ₯Ό dataset 객체둜 μœ μ§€ν•˜κΈ° μœ„ν•΄ Dataset.map() λ©”μ„œλ“œλ₯Ό μ‚¬μš©ν•©λ‹ˆλ‹€. 이 방법은 토큰화(tokenization) 외에 더 λ§Žμ€ μ „μ²˜λ¦¬κ°€ ν•„μš”ν•œ 경우 μœ μ—°μ„±μ„ λ°œνœ˜ν•©λ‹ˆλ‹€. map() λ©”μ„œλ“œλŠ” λ°μ΄ν„°μ…‹μ˜ κ°œλ³„ μš”μ†Œμ— ν•¨μˆ˜(function)λ₯Ό μ μš©ν•˜μ—¬ μž‘λ™ν•˜λ―€λ‘œ μž…λ ₯을 ν† ν°ν™”ν•˜λŠ” ν•¨μˆ˜λ₯Ό μ •μ˜ν•΄ λ³΄κ² μŠ΅λ‹ˆλ‹€:

def tokenize_function(example):
    return tokenizer(example["sentence1"], example["sentence2"], truncation=True)

이 ν•¨μˆ˜λŠ” λ°μ΄ν„°μ…‹μ˜ κ°œλ³„ ν•­λͺ©μ΄ 담겨진 λ”•μ…”λ„ˆλ¦¬λ₯Ό λ§€κ°œλ³€μˆ˜λ‘œ μž…λ ₯λ°›μ•„μ„œ input_ids, attention_mask 및 token_type_ids ν‚€κ°€ μ§€μ •λœ μƒˆλ‘œμš΄ λ”•μ…”λ„ˆλ¦¬λ₯Ό λ°˜ν™˜ν•©λ‹ˆλ‹€. 이전에 λ³Έ κ²ƒμ²˜λŸΌ tokenizerλŠ” λ¬Έμž₯ 쌍 λ¦¬μŠ€νŠΈμ—μ„œ μž‘λ™ν•˜κΈ° λ•Œλ¬Έμ— example λ”•μ…”λ„ˆλ¦¬μ— μ—¬λŸ¬ μƒ˜ν”Œ(각 ν‚€κ°€ λ¬Έμž₯ λͺ©λ‘μž„)이 ν¬ν•¨λœ κ²½μš°μ—λ„ μž‘λ™ν•©λ‹ˆλ‹€. μ΄λ ‡κ²Œ ν•˜λ©΄ map() ν˜ΈμΆœμ—μ„œ batched=True μ˜΅μ…˜μ„ μ‚¬μš©ν•  수 μžˆμ–΄ 토큰화 속도가 크게 λΉ¨λΌμ§‘λ‹ˆλ‹€. tokenizerλŠ” πŸ€— Tokenizers λΌμ΄λΈŒλŸ¬λ¦¬μ—μ„œ Rust둜 μž‘μ„±λœ 또 λ‹€λ₯Έ ν† ν¬λ‚˜μ΄μ €μ— μ˜ν•΄ μ§€μ›λ©λ‹ˆλ‹€. 이 ν† ν¬λ‚˜μ΄μ €λŠ” 맀우 λΉ λ₯Ό 수 μžˆμ§€λ§Œ, ν•œ λ²ˆμ— λ§Žμ€ μž…λ ₯을 μ œκ³΅ν•˜λŠ” κ²½μš°μ—λ§Œ κ·Έλ ‡μŠ΅λ‹ˆλ‹€.

일단 ν˜„μž¬λŠ” 토큰화 ν•¨μˆ˜μ—μ„œ padding λ§€κ°œλ³€μˆ˜λ₯Ό μƒλž΅ν–ˆμŠ΅λ‹ˆλ‹€. μ΄λŠ” λͺ¨λ“  μƒ˜ν”Œλ“€μ„ μ΅œλŒ€ 길이둜 μ±„μš°λŠ” 것(padding)이 νš¨μœ¨μ μ΄μ§€ μ•ŠκΈ° λ•Œλ¬Έμž…λ‹ˆλ‹€. 배치(batch) ν˜•νƒœλ‘œ μ‹€ν–‰ν•  λ•Œ μƒ˜ν”Œμ„ μ±„μš°λŠ” 것(padding)이 효과λ₯Ό λ°œνœ˜ν•©λ‹ˆλ‹€. 그러면 전체 λ°μ΄ν„°μ…‹μ—μ„œμ˜ μ΅œλŒ€ 길이가 μ•„λ‹ˆλΌ ν•΄λ‹Ή 배치(batch) λ‚΄μ—μ„œμ˜ μ΅œλŒ€ 길이둜 μ±„μš°κΈ°λ§Œ(padding) ν•˜λ©΄ 되기 λ•Œλ¬Έμž…λ‹ˆλ‹€. 이것은 μž…λ ₯의 길이가 맀우 가변적일 λ•Œ λ§Žμ€ μ‹œκ°„κ³Ό 처리 λŠ₯λ ₯을 μ ˆμ•½ν•  수 μžˆμŠ΅λ‹ˆλ‹€!

λ‹€μŒμ€ ν•œ λ²ˆμ— λͺ¨λ“  데이터셋에 토큰화 κΈ°λŠ₯을 μ μš©ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. map λ©”μ„œλ“œ ν˜ΈμΆœμ—μ„œ batched=Trueλ₯Ό μ‚¬μš©ν•˜λ―€λ‘œ ν•¨μˆ˜κ°€ 각 μš”μ†Œμ— κ°œλ³„μ μœΌλ‘œ μ μš©λ˜μ§€ μ•Šκ³  λ°μ΄ν„°μ…‹μ˜ ν•˜λΆ€μ§‘ν•©, 즉 각 배치(batch) 내에 μ‘΄μž¬ν•˜λŠ” λͺ¨λ“  μš”μ†Œλ“€μ— ν•œκΊΌλ²ˆμ— μ μš©λ©λ‹ˆλ‹€. 이 방법은 더 λΉ λ₯Έ μ „μ²˜λ¦¬λ₯Ό κ°€λŠ₯ν•˜κ²Œ ν•©λ‹ˆλ‹€:

tokenized_datasets = raw_datasets.map(tokenize_function, batched=True)
tokenized_datasets

πŸ€—Datasets λΌμ΄λΈŒλŸ¬λ¦¬λŠ” 데이터셋(datasets)에 μƒˆλ‘œμš΄ ν•„λ“œλ“€μ„ μΆ”κ°€ν•©λ‹ˆλ‹€. 이 ν•„λ“œλ“€μ€ μ „μ²˜λ¦¬ ν•¨μˆ˜μ—μ„œ λ°˜ν™˜λœ μ‚¬μ „μ˜ 각 ν‚€(input_ids, token_type_ids, attention_mask)에 ν•΄λ‹Ήν•©λ‹ˆλ‹€.

DatasetDict({
    train: Dataset({
        features: ['attention_mask', 'idx', 'input_ids', 'label', 'sentence1', 'sentence2', 'token_type_ids'],
        num_rows: 3668
    })
    validation: Dataset({
        features: ['attention_mask', 'idx', 'input_ids', 'label', 'sentence1', 'sentence2', 'token_type_ids'],
        num_rows: 408
    })
    test: Dataset({
        features: ['attention_mask', 'idx', 'input_ids', 'label', 'sentence1', 'sentence2', 'token_type_ids'],
        num_rows: 1725
    })
})

num_proc λ§€κ°œλ³€μˆ˜λ₯Ό μ „λ‹¬ν•˜μ—¬ map()으둜 μ „μ²˜λ¦¬ κΈ°λŠ₯을 μ μš©ν•  λ•Œ 닀쀑 처리(multi-processing)λ₯Ό μ‚¬μš©ν•  μˆ˜λ„ μžˆμŠ΅λ‹ˆλ‹€. πŸ€—Tokenizers λΌμ΄λΈŒλŸ¬λ¦¬λŠ” μƒ˜ν”Œμ„ 더 λΉ λ₯΄κ²Œ ν† ν°ν™”ν•˜κΈ° μœ„ν•΄ 이미 닀쀑 μŠ€λ ˆλ“œ(multiple threads)λ₯Ό μ‚¬μš©ν•˜μ§€λ§Œ, 이 λΌμ΄λΈŒλŸ¬λ¦¬μ—μ„œ μ§€μ›ν•˜λŠ” β€œλΉ λ₯Έ ν† ν¬λ‚˜μ΄μ €(fast tokenizer)β€œλ₯Ό μ‚¬μš©ν•˜μ§€ μ•ŠλŠ” 경우 μ „μ²˜λ¦¬ 속도가 빨라질 수 μžˆμŠ΅λ‹ˆλ‹€.

μœ„μ˜ tokenize_function은 input_ids, attention_mask 및 token_type_ids ν‚€κ°€ μ‘΄μž¬ν•˜λŠ” λ”•μ…”λ„ˆλ¦¬λ₯Ό λ°˜ν™˜ν•˜λ―€λ‘œ 이 3개의 μƒˆλ‘œμš΄ ν•„λ“œκ°€ λ°μ΄ν„°μ…‹μ˜ λͺ¨λ“  λΆ„ν• (ν•™μŠ΅, 검증, 평가)에 μΆ”κ°€λ©λ‹ˆλ‹€. μ „μ²˜λ¦¬ ν•¨μˆ˜κ°€ map()을 μ μš©ν•œ λ°μ΄ν„°μ…‹μ˜ κΈ°μ‘΄ ν‚€λ“€ 즉, idx, label 등에 λŒ€ν•œ μƒˆλ‘œμš΄ 값을 λ°˜ν™˜ν•œ 경우 κΈ°μ‘΄ ν•„λ“œ(idx, label, sentence1, sentence2 λ“±)λ₯Ό λ³€κ²½ν•  μˆ˜λ„ μžˆμŠ΅λ‹ˆλ‹€.

λ§ˆμ§€λ§‰μœΌλ‘œ ν•΄μ•Ό ν•  일은 전체 μš”μ†Œλ“€μ„ 배치(batch)둜 뢄리할 λ•Œ κ°€μž₯ κΈ΄ μš”μ†Œμ˜ 길이둜 λͺ¨λ“  예제λ₯Ό μ±„μš°λŠ”(padding) κ²ƒμž…λ‹ˆλ‹€. 이λ₯Ό 동적 νŒ¨λ”©(dynamic padding)이라고 ν•©λ‹ˆλ‹€.

동적 νŒ¨λ”©

μƒ˜ν”Œλ“€μ„ ν•¨κ»˜ λͺ¨μ•„μ„œ μ§€μ •λœ 크기의 배치(batch)둜 κ΅¬μ„±ν•˜λŠ” 역할을 ν•˜λŠ” ν•¨μˆ˜λ₯Ό 콜레이트 ν•¨μˆ˜(collate function) 라고 ν•©λ‹ˆλ‹€. 이 ν•¨μˆ˜λŠ” DataLoaderλ₯Ό λΉŒλ“œ(build)ν•  λ•Œ 전달할 수 μžˆλŠ” λ§€κ°œλ³€μˆ˜μž…λ‹ˆλ‹€. 기본값은 λ‹¨μˆœνžˆ μƒ˜ν”Œλ“€μ„ PyTorch ν…μ„œλ‘œ λ³€ν™˜ν•˜κ³  κ²°ν•©ν•˜λŠ” ν•¨μˆ˜μž…λ‹ˆλ‹€. 만일 λŒ€μƒ μƒ˜ν”Œλ“€μ΄ 리슀트, νŠœν”Œ ν˜Ήμ€ λ”•μ…”λ„ˆλ¦¬λ©΄ μž¬κ·€μ μœΌλ‘œ 이 μž‘μ—…μ΄ μˆ˜ν–‰λ©λ‹ˆλ‹€. 우리 예제의 경우, μž…λ ₯값이 λͺ¨λ‘ λ™μΌν•œ 크기(길이)κ°€ μ•„λ‹ˆκΈ° λ•Œλ¬Έμ— 이 μž‘μ—…μ΄ λΆˆκ°€λŠ₯ν•©λ‹ˆλ‹€. μ§€κΈˆκΉŒμ§€ μš°λ¦¬λŠ” μΌλΆ€λŸ¬ νŒ¨λ”©(padding) μž‘μ—…μ„ λ―Έλ€„μ™”λŠ”λ° κ·Έ μ΄μœ λŠ” 전체 데이터셋이 μ•„λ‹Œ κ°œλ³„ 배치(batch)에 λŒ€ν•΄μ„œ λ³„λ„λ‘œ νŒ¨λ”©(padding)을 μˆ˜ν–‰ν•˜μ—¬ κ³Όλ„ν•˜κ²Œ κΈ΄ μž…λ ₯으둜 μΈν•œ κ³Όλ„ν•œ νŒ¨λ”©(padding) μž‘μ—…μ„ λ°©μ§€ν•˜κΈ° μœ„ν•¨μž…λ‹ˆλ‹€. μ΄λ ‡κ²Œ ν•˜λ©΄ ν•™μŠ΅ 속도가 μƒλ‹Ήνžˆ λΉ¨λΌμ§€μ§€λ§Œ TPUμ—μ„œ ν•™μŠ΅ν•˜λŠ” 경우 λ¬Έμ œκ°€ λ°œμƒν•  수 μžˆμŠ΅λ‹ˆλ‹€. TPUλŠ” 좔가적인 νŒ¨λ”©(padding)이 ν•„μš”ν•œ κ²½μš°μ—λ„ 전체 데이터셋이 κ³ μ •λœ ν˜•νƒœλ₯Ό μ„ ν˜Έν•©λ‹ˆλ‹€.

μ‹€μ œλ‘œ 이λ₯Ό μˆ˜ν–‰ν•˜λ €λ©΄, 배치(batch)둜 λΆ„λ¦¬ν•˜λ €λŠ” λ°μ΄ν„°μ…‹μ˜ μš”μ†Œ 각각에 λŒ€ν•΄μ„œ μ •ν™•ν•œ 수의 νŒ¨λ”©(padding)을 μ μš©ν•  수 μžˆλŠ” 콜레이트 ν•¨μˆ˜(collate function)λ₯Ό μ •μ˜ν•΄μ•Ό ν•©λ‹ˆλ‹€. λ‹€ν–‰νžˆλ„, πŸ€—Transformers λΌμ΄λΈŒλŸ¬λ¦¬λŠ” DataCollatorWithPadding을 톡해 μ΄λŸ¬ν•œ κΈ°λŠ₯을 μ œκ³΅ν•©λ‹ˆλ‹€. 이 ν•¨μˆ˜λŠ” ν† ν¬λ‚˜μ΄μ €λ₯Ό μž…λ ₯으둜 λ°›μŠ΅λ‹ˆλ‹€. κ·Έ μ΄μœ λŠ” μ‚¬μš©ν•˜λ €λŠ” νŒ¨λ”© 토큰(padding token)이 무엇인지와 λͺ¨λΈμ΄ μž…λ ₯의 μ™Όμͺ½ ν˜Ήμ€ 였λ₯Έμ―• 쀑 μ–΄λŠ μͺ½μ— νŒ¨λ”©(padding)을 μˆ˜ν–‰ν• μ§€λ₯Ό νŒŒμ•…ν•˜κΈ° μœ„ν•¨μž…λ‹ˆλ‹€. 이 μž…λ ₯ ν•˜λ‚˜λ©΄ λͺ¨λ“  것이 ν•΄κ²°λ©λ‹ˆλ‹€:

from transformers import DataCollatorWithPadding

data_collator = DataCollatorWithPadding(tokenizer=tokenizer)

이 μƒˆλ‘œμš΄ ν•¨μˆ˜λ₯Ό ν…ŒμŠ€νŠΈν•˜κΈ° μœ„ν•΄ ν•™μŠ΅μ§‘ν•©μ—μ„œ 배치(batch)둜 묢을 λͺ‡κ°œμ˜ μƒ˜ν”Œλ“€μ„ κ°€μ Έμ˜€κ² μŠ΅λ‹ˆλ‹€. μ—¬κΈ°μ„œλŠ” ν•„μš”ν•˜μ§€λ„ μ•Šμ„ λΏλ”λŸ¬ 심지어 λ¬Έμžμ—΄κΉŒμ§€λ„ ν¬ν•¨ν•˜λŠ” idx, sentence1 및 sentence2 열을 μ œκ±°ν•©λ‹ˆλ‹€(λ¬Έμžμ—΄λ‘œλŠ” ν…μ„œλ₯Ό 생성할 수 μ—†μŠ΅λ‹ˆλ‹€). μ•„λž˜μ—μ„œ 배치(batch) λ‚΄μ˜ 각 μš”μ†Œλ“€μ˜ 길이λ₯Ό μ‚΄νŽ΄λ³΄μ„Έμš”:

samples = tokenized_datasets["train"][:8]
samples = {k: v for k, v in samples.items() if k not in ["idx", "sentence1", "sentence2"]}
[len(x) for x in samples["input_ids"]]
[50, 59, 47, 67, 59, 50, 62, 32]

λ‹Ήμ—°νžˆ, 32μ—μ„œ 67κΉŒμ§€ λ‹€μ–‘ν•œ 길이의 μƒ˜ν”Œμ„ 얻을 수 μžˆμŠ΅λ‹ˆλ‹€. 동적 νŒ¨λ”©(dynamic padding)은 이 배치(batch) λ‚΄μ˜ λͺ¨λ“  μƒ˜ν”Œλ“€μ΄ 배치 λ‚΄λΆ€μ—μ„œ μ΅œλŒ€ 길이인 67 길이둜 νŒ¨λ”©(padding)λ˜μ–΄μ•Ό 함을 μ˜λ―Έν•©λ‹ˆλ‹€. 동적 νŒ¨λ”©(dynamic padding)이 μ—†μœΌλ©΄ λͺ¨λ“  μƒ˜ν”Œλ“€μ€ 전체 λ°μ΄ν„°μ…‹μ˜ μ΅œλŒ€ 길이 λ˜λŠ” λͺ¨λΈμ΄ ν—ˆμš©ν•  수 μžˆλŠ” μ΅œλŒ€ 길이둜 μ±„μ›Œμ Έμ•Ό ν•©λ‹ˆλ‹€. data_collatorκ°€ λ™μ μœΌλ‘œ 배치(batch)λ₯Ό μ μ ˆν•˜κ²Œ νŒ¨λ”©(padding)ν•˜λŠ”μ§€ λ‹€μ‹œ ν™•μΈν•©μ‹œλ‹€:

batch = data_collator(samples)
{k: v.shape for k, v in batch.items()}
{'attention_mask': torch.Size([8, 67]),
 'input_ids': torch.Size([8, 67]),
 'token_type_ids': torch.Size([8, 67]),
 'labels': torch.Size([8])}

μ’‹μŠ΅λ‹ˆλ‹€! 미가곡(raw) ν…μŠ€νŠΈμ—μ„œ λͺ¨λΈμ΄ μ²˜λ¦¬ν•  수 μžˆλŠ” 배치(batch) ν˜•νƒœλ‘œ λ³€κ²½λ˜μ—ˆμœΌλ―€λ‘œ, 이제 λ―Έμ„Έ μ‘°μ •(fine-tuning)ν•  μ€€λΉ„κ°€ λ˜μ—ˆμŠ΅λ‹ˆλ‹€!

✏️ 직접 해보기 GLUE SST-2 데이터 μ„ΈνŠΈμ—μ„œ μ „μ²˜λ¦¬λ₯Ό λ³΅μ œν•©λ‹ˆλ‹€. 쌍이 μ•„λ‹Œ λ‹¨λ¬ΈμœΌλ‘œ κ΅¬μ„±λ˜μ–΄ μžˆμ–΄μ„œ 쑰금 λ‹€λ₯΄μ§€λ§Œ, λ‚˜λ¨Έμ§€λŠ” λ˜‘κ°™μ΄ 보여야 ν•΄μš”. 더 μ–΄λ €μš΄ 문제λ₯Ό μ›ν•œλ‹€λ©΄ GLUE μž‘μ—…μ— μ‚¬μš©ν•  수 μžˆλŠ” μ „μ²˜λ¦¬ ν•¨μˆ˜λ₯Ό μž‘μ„±ν•΄ λ³΄μ„Έμš”.