2μ₯μμ 곡λΆν κ²κ³Ό κ°μ΄, PyTorchμμ λ¨μΌ λ°°μΉ(batch)λ₯Ό κΈ°λ°μΌλ‘ μνμ€ λΆλ₯κΈ°(sequence classifier)λ₯Ό νμ΅νλ λ°©λ²μ λ€μκ³Ό κ°μ΅λλ€.
import torch
from transformers import AdamW, AutoTokenizer, AutoModelForSequenceClassification
# Same as before
checkpoint = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForSequenceClassification.from_pretrained(checkpoint)
sequences = [
"I've been waiting for a HuggingFace course my whole life.",
"This course is amazing!",
]
batch = tokenizer(sequences, padding=True, truncation=True, return_tensors="pt")
# This is new
batch["labels"] = torch.tensor([1, 1])
optimizer = AdamW(model.parameters())
loss = model(**batch).loss
loss.backward()
optimizer.step()
λ¬Όλ‘ λ λ¬Έμ₯λ§μΌλ‘ λͺ¨λΈμ νμ΅νλ κ²μΌλ‘λ κ·Έλ€μ§ μ’μ κ²°κ³Όλ₯Ό μ»μ μ μμ΅λλ€. λ μ’μ κ²°κ³Όλ₯Ό μ»μΌλ €λ©΄, λ ν° λ°μ΄ν°μ μ μ€λΉν΄μΌ ν©λλ€.
μ΄ μΉμ μμλ William B. Dolanκ³Ό Chris Brockettμ λ Όλ¬Έμμ μκ°λ MRPC(Microsoft Research Paraphrase Corpus) λ°μ΄ν°μ μ μμ λ‘ μ¬μ©ν κ²μ λλ€. μ΄ λ°μ΄ν°μ μ 5,801건μ λ¬Έμ₯ μμΌλ‘ ꡬμ±λμ΄ μμΌλ©° κ° λ¬Έμ₯ μμ κ΄κ³κ° μμ(paraphrasing) κ΄κ³μΈμ§ μ¬λΆλ₯Ό λνλ΄λ λ μ΄λΈμ΄ μ‘΄μ¬ν©λλ€(μ¦, λ λ¬Έμ₯μ΄ λμΌν μλ―ΈμΈμ§ μ¬λΆ). λ°μ΄ν°μ μ κ·λͺ¨κ° 그리 ν¬μ§ μκΈ° λλ¬Έμ νμ΅ κ³Όμ μ μ½κ² μ€νν μ μμ΅λλ€.
π€ Hubμλ λͺ¨λΈλ§ μ‘΄μ¬νλ κ²μ΄ μλλλ€. λ€μν μΈμ΄λ‘ ꡬμΆλ μ¬λ¬ λ°μ΄ν°μ λ€λ μμ΅λλ€. μ¬κΈ°μμ λ€μν λ°μ΄ν°μ μ νμν μ μμΌλ©°, μ΄ μΉμ μ μλ£ν νμλ λ€λ₯Έ λ°μ΄ν°μ μ λ‘λνκ³ μ²λ¦¬ν΄ 보기λ₯Ό κΆμ₯ν©λλ€ (μ¬κΈ°μμ μΌλ° λ¬Έμ μ°Έμ‘°). νμ§λ§ μ§κΈμ MRPC λ°μ΄ν°μ μ μ§μ€ν©μλ€! μ΄ λ°μ΄ν°μ μ 10κ°μ λ°μ΄ν°μ μΌλ‘ ꡬμ±λ GLUE λ²€μΉλ§ν¬ μ€ νλμ λλ€. GLUE λ²€μΉλ§ν¬λ 10κ°μ§ ν μ€νΈ λΆλ₯ μμ μ ν΅ν΄μ κΈ°κ³νμ΅ λͺ¨λΈμ μ±λ₯μ μΈ‘μ νκΈ° μν νμ μ λ²€μΉλ§ν¬ λ°μ΄ν° μ§ν©μ λλ€.
π€ Datasets λΌμ΄λΈλ¬λ¦¬λ νλΈ(hub)μμ λ°μ΄ν°μ μ λ€μ΄λ‘λνκ³ μΊμ(cache) κΈ°λ₯μ μννλ μ¬μ΄ λͺ λ Ήμ΄λ₯Ό μ 곡ν©λλ€. λ€μκ³Ό κ°μ΄ MRPC λ°μ΄ν°μ μ λ€μ΄λ‘λν μ μμ΅λλ€:
from datasets import load_dataset
raw_datasets = load_dataset("glue", "mrpc")
raw_datasets
DatasetDict({
train: Dataset({
features: ['sentence1', 'sentence2', 'label', 'idx'],
num_rows: 3668
})
validation: Dataset({
features: ['sentence1', 'sentence2', 'label', 'idx'],
num_rows: 408
})
test: Dataset({
features: ['sentence1', 'sentence2', 'label', 'idx'],
num_rows: 1725
})
})
μ κ²°κ³Όμμ 보λ―μ΄, νμ΅(training), κ²μ¦(validation) λ° νκ°(test) μ§ν©μ΄ μ μ₯λ DatasetDict
κ°μ²΄λ₯Ό μ»μ μ μμ΅λλ€. μ΄λ€ κ°κ°μ μ¬λ¬ μ’
λ₯μ μ΄(columns)(sentence1
, sentence2
, label
λ° idx
)κ³Ό ν(row)μ κ°μλ₯Ό ν¬ν¨νλλ°, μ¬κΈ°μ ν(row)μ κ°μλ κ° μ§ν©μ λ¬Έμ₯μμ κ°μλ₯Ό λνλ
λλ€. λ°λΌμ, νμ΅ μ§ν©(training set)μλ 3,668κ°μ λ¬Έμ₯ μ, κ²μ¦ μ§ν©(validation set)μλ 408κ°, νκ° μ§ν©(test set)μλ 1,725κ°μ λ¬Έμ₯ μμ΄ μμ΅λλ€.
load_dataset
λͺ
λ Ήμ κΈ°λ³Έμ μΌλ‘ ~/.cache/huggingface/datasetsμ λ°μ΄ν°μ
μ λ€μ΄λ‘λνκ³ μμμ μ₯(μΊμ, cache)ν©λλ€. 2μ₯μμ 보μλ―μ΄, HF_HOME
νκ²½ λ³μλ₯Ό μ€μ νμ¬ μΊμ ν΄λλ₯Ό λ³κ²½ν μ μμ΅λλ€.
νμ΄μ¬μ λμ
λ리(dictionary)μ κ°μ΄ ν€κ°μΌλ‘ raw_datasets
κ°μ²΄μ κ°λ³ μ§ν©(νμ΅, κ²μ¦, νκ°)μ μ κ·Όν μ μμ΅λλ€:
raw_train_dataset = raw_datasets["train"]
raw_train_dataset[0]
{'idx': 0,
'label': 1,
'sentence1': 'Amrozi accused his brother , whom he called " the witness " , of deliberately distorting his evidence .',
'sentence2': 'Referring to him as only " the witness " , Amrozi accused his brother of deliberately distorting his evidence .'}
μμ μμμ 보λ―μ΄, λ μ΄λΈ(label)μ΄ μ΄λ―Έ μ μ(integers)λΌμ μ μ²λ¦¬(preprocessing)κ° νμ μμ΅λλ€. μ΄λ€ μ μκ° μ΄λ€ λ μ΄λΈμ ν΄λΉνλμ§ νμ
νκΈ° μν΄μλ raw_train_dataset
μ features
μμ±μ μ΄ν΄λ³΄λ©΄ λ©λλ€:
raw_train_dataset.features
{'sentence1': Value(dtype='string', id=None),
'sentence2': Value(dtype='string', id=None),
'label': ClassLabel(num_classes=2, names=['not_equivalent', 'equivalent'], names_file=None, id=None),
'idx': Value(dtype='int32', id=None)}
μΈλΆμ μΌλ‘, λ μ΄λΈ(label)
μ ClassLabel
νμ
μ΄κ³ λ μ΄λΈ μ΄λ¦μ λν μ μ λ§€νμ names ν΄λμ μ μ₯λμ΄ μμ΅λλ€. 0
μ not_equivalent
λ₯Ό μλ―Ένκ³ , 1
μ equivalent
λ₯Ό λνλ
λλ€.
βοΈ μ§μ ν΄λ³΄κΈ° νμ΅ μ§ν©μ 15λ²μ§Έ μμμ κ²μ¦ μ§ν©μ 87λ²μ§Έ μμλ₯Ό μ΄ν΄λ³΄μΈμ. κ°κ°μ λ μ΄λΈμ 무μμΈκ°μ?
λ°μ΄ν°μ μ μ²λ¦¬λ₯Ό μν΄μλ μ°μ μ μΌλ‘ ν μ€νΈλ₯Ό λͺ¨λΈμ΄ μ΄ν΄ν μ μλ μ«μλ‘ λ³νν΄μΌ ν©λλ€. μ΄μ μ₯μμ 보μλ―μ΄ μ΄λ ν ν¬λμ΄μ κ° λ΄λΉν©λλ€. ν ν¬λμ΄μ μ λ¨μΌ λ¬Έμ₯ λλ λ€μ€ λ¬Έμ₯ 리μ€νΈλ₯Ό μ λ ₯ν μ μμΌλ―λ‘, λ€μκ³Ό κ°μ΄ κ° μμ λͺ¨λ 첫 λ²μ§Έ λ¬Έμ₯κ³Ό λ λ²μ§Έ λ¬Έμ₯μ κ°κ° μ§μ ν ν°νν μ μμ΅λλ€:
from transformers import AutoTokenizer
checkpoint = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
tokenized_sentences_1 = tokenizer(raw_datasets["train"]["sentence1"])
tokenized_sentences_2 = tokenizer(raw_datasets["train"]["sentence2"])
νμ§λ§ λ κ°μ μνμ€λ₯Ό λͺ¨λΈμ λ°λ‘ μ λ¬(κ°κ°μ λ¬Έμ₯μ λͺ¨λΈμ λ³λλ‘ λ§€κ°λ³μλ‘ μ λ¬)νμ¬ λ λ¬Έμ₯μ΄ μμμΈμ§ μλμ§μ λν μμΈ‘μ μ»μ μλ μμ΅λλ€. λ μνμ€λ₯Ό μ(pair)μΌλ‘ μ²λ¦¬(λ¨μΌ λ§€κ°λ³μλ‘ μ²λ¦¬)νκ³ μ μ ν μ μ²λ¦¬λ₯Ό μ μ©ν΄μΌ ν©λλ€. λ€ννλ ν ν¬λμ΄μ (tokenizer)λ λ€μκ³Ό κ°μ΄ ν μμ μνμ€λ₯Ό κ°μ Έμ BERT λͺ¨λΈμ΄ μꡬνλ μ λ ₯ ννλ‘ κ΅¬μ±ν μ μμ΅λλ€:
inputs = tokenizer("This is the first sentence.", "This is the second one.")
inputs
{
'input_ids': [101, 2023, 2003, 1996, 2034, 6251, 1012, 102, 2023, 2003, 1996, 2117, 2028, 1012, 102],
'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1],
'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
}
2μ₯μμ input_ids
λ° attention_mask
ν€κ°μ λν΄μλ λ
Όμνμ§λ§, token_type_ids
μ λν μ΄μΌκΈ°λ νμ§ μμμ΅λλ€. μμ μμμ 보λ―μ΄, token_type_ids
λ μ 체 μ
λ ₯μ μ΄λ λΆλΆμ΄ 첫 λ²μ§Έ λ¬Έμ₯μ΄κ³ μ΄λ κ²μ΄ λ λ²μ§Έ λ¬Έμ₯μΈμ§ λͺ¨λΈμ μλ €μ€λλ€.
βοΈ μ§μ ν΄λ³΄κΈ° νμ΅ μ§ν© 15λ²μ§Έ μμμ λ λ¬Έμ₯μ κ°λ³μ μΌλ‘/μμΌλ‘ ν ν°νν΄λ³΄μΈμ. λ κ²°κ³Όμ μ°¨μ΄κ° μλμ?
input_ids
λ΄λΆμ IDλ€μ λ€μ λ¨μ΄λ‘ λμ½λ©νλ©΄:
tokenizer.convert_ids_to_tokens(inputs["input_ids"])
μΆλ ₯μ λ€μκ³Ό κ°μ΅λλ€:
['[CLS]', 'this', 'is', 'the', 'first', 'sentence', '.', '[SEP]', 'this', 'is', 'the', 'second', 'one', '.', '[SEP]']
λ°λΌμ λͺ¨λΈμ λ κ°μ λ¬Έμ₯μΌλ‘ ꡬμ±λκ³ μ
λ ₯μ ννκ° [CLS] λ¬Έμ₯1 [SEP] λ¬Έμ₯2 [SEP]
μ κ°μ΄ λ κ²μΌλ‘ μ§μν μ μμ΅λλ€. μ΄λ₯Ό token_type_ids
μ μ λ ¬νλ©΄ λ€μκ³Ό κ°μ΅λλ€:
['[CLS]', 'this', 'is', 'the', 'first', 'sentence', '.', '[SEP]', 'this', 'is', 'the', 'second', 'one', '.', '[SEP]']
[ 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1]
μμμ 보λ λ°μ κ°μ΄, [CLS] λ¬Έμ₯1 [SEP]
μ ν΄λΉνλ μ
λ ₯ λΆλΆμ token_type_id
κ° 0
μ΄κ³ λ¬Έμ₯2 [SEP]
μ ν΄λΉνλ λ€λ₯Έ λΆλΆμ λͺ¨λ 1
μ
λλ€.
λ€λ₯Έ 체ν¬ν¬μΈνΈ(checkpoint)λ₯Ό μ ννλ€λ©΄, ν ν°νλ μ
λ ₯(tokenized inputs)μ token_type_ids
κ° μ‘΄μ¬νμ§ μμ μλ μμ΅λλ€. μλ₯Ό λ€μ΄, DistilBERT λͺ¨λΈμ μ¬μ©νλ κ²½μ°μλ tokenizerκ° token_type_ids
λ₯Ό λ°ννμ§ μμ΅λλ€. λͺ¨λΈμ΄ μ¬μ νμ΅ κ³Όμ μμ μ΄λ¬ν ννμ μ
λ ₯ νμμΌλ‘ νμ΅μ μ§ννμ κ²½μ°μλ§ λ°νλ©λλ€.
μ¬κΈ°μ, BERTλ ν ν° νμ IDsλ₯Ό μ¬μ©νμ¬ μ¬μ νμ΅λλ©°, 1μ₯μμ μ€λͺ ν λ§μ€νΉλ μΈμ΄ λͺ¨λΈλ§ λͺ©μ μΈμ λ€μ λ¬Έμ₯ μμΈ‘(next sentence prediction) μ΄λΌλ μΆκ° λͺ©μ μ΄ μμ΅λλ€. μ΄ μμ μ λͺ©νλ λ¬Έμ₯ κ°μ κ΄κ³λ₯Ό λͺ¨λΈλ§νλ κ²μ λλ€.
μ¬μ νμ΅ κ³Όμ μμ λ€μ λ¬Έμ₯ μμΈ‘(next sentence prediction)μ μ¬μ©νλ©΄ λͺ¨λΈμ 무μμλ‘ λ§μ€νΉλ ν ν°(masked tokens)μ΄ ν¬ν¨λ λ¬Έμ₯ μμ΄ μ λ ₯λκ³ λ λ²μ§Έ λ¬Έμ₯μ΄ μ²« λ²μ§Έ λ¬Έμ₯μ λ°λ₯΄λμ§ μ¬λΆλ₯Ό μμΈ‘νλλ‘ μꡬλ©λλ€. νμ΅ κ³Όμ μμ μ΄ μμ (next sentence prediction)μ λλλ₯Ό λμ΄κΈ° μν΄μ, μ λ ₯μ μ½ 50% μ λλ λ λ¬Έμ₯μ΄ μλ³Έ λ¬Έμμμ μ°μμ μΌλ‘ λνλλ μ μ§ν©μ΄λ©°, λλ¨Έμ§ 50%λ λ¬Έμ₯ μμ μλ‘ λ€λ₯Έ λ¬Έμμμ μΆμΆλ λ¬Έμ₯λ€λ‘ ꡬμ±νμμ΅λλ€.
μΌλ°μ μΌλ‘, ν ν°ν μλ£λ μ
λ ₯μ token_type_ids
κ° μλμ§ μ¬λΆμ λν΄ κ±±μ ν νμκ° μμ΅λλ€. ν ν¬λμ΄μ μ λͺ¨λΈ λͺ¨λμ λμΌν 체ν¬ν¬μΈνΈ(checkpoint)λ₯Ό μ¬μ©νλ ν, ν ν¬λμ΄μ λ λͺ¨λΈμ 무μμ μ 곡ν΄μΌ νλμ§ μκ³ μκΈ° λλ¬Έμ μλ¬΄λ° λ¬Έμ κ° λμ§ μμ΅λλ€.
μ΄μ ν ν¬λμ΄μ κ° ν μμ λ¬Έμ₯μ μ²λ¦¬νλ λ°©λ²μ 보μμΌλ―λ‘, μ΄λ₯Ό μ 체 λ°μ΄ν°μ μ ν ν°ν(tokenize)νλλ° μ¬μ©ν μ μμ΅λλ€. μ΄μ μ₯μμμ²λΌ, μ°λ¦¬λ ν ν¬λμ΄μ μκ² μ²« λ²μ§Έ λ¬Έμ₯ 리μ€νΈλ₯Ό μ 곡νκ³ κ·Έ λ€μ λ λ²μ§Έ λ¬Έμ₯ 리μ€νΈλ₯Ό μ 곡ν¨μΌλ‘μ¨ λ¬Έμ₯ μ 리μ€νΈλ₯Ό μ λ ₯ν μ μμ΅λλ€. μ΄κ²μ 2μ₯μμ λ³Έ ν¨λ©(padding) λ° μ λ¨(truncation) μ΅μ κ³Όλ νΈνλ©λλ€. λ°λΌμ νμ΅ λ°μ΄ν°μ μ μ μ²λ¦¬νλ ν κ°μ§ λ°©λ²μ λ€μκ³Ό κ°μ΅λλ€:
tokenized_dataset = tokenizer(
raw_datasets["train"]["sentence1"],
raw_datasets["train"]["sentence2"],
padding=True,
truncation=True,
)
μ΄ λ°©λ²μ μ μλνμ§λ§, input_ids
, attention_mask
, token_type_ids
λ° λ°μ΄ν°κ° λ΄κ²¨μ§ λ€μ°¨μ 리μ€νΈκ° ν€λ‘ μ§μ λ tokenized_dataset
μ΄λΌλ λ³λμ νμ΄μ¬ λμ
λ리λ₯Ό λ°ννλ λ¨μ μ΄ μμ΅λλ€. λν μ΄ λ°©λ²μ ν ν°ννλ λμ μ 체 λ°μ΄ν°μ
μ μ μ₯ν μΆ©λΆν 곡κ°μ RAMμ΄ μλ κ²½μ°μλ§ μλν©λλ€. λ°λ©΄, π€Datasets λΌμ΄λΈλ¬λ¦¬μ λ°μ΄ν°μ
λ€μ λμ€ν¬μ μ μ₯λ Apache Arrow νμΌμ΄λ―λ‘, μμ²ν μνλ§ λ©λͺ¨λ¦¬μ λ‘λλ μνλ‘ μ μ§ν©λλ€.
νΉμ λ°μ΄ν°λ₯Ό dataset κ°μ²΄λ‘ μ μ§νκΈ° μν΄ Dataset.map()
λ©μλλ₯Ό μ¬μ©ν©λλ€. μ΄ λ°©λ²μ ν ν°ν(tokenization) μΈμ λ λ§μ μ μ²λ¦¬κ° νμν κ²½μ° μ μ°μ±μ λ°νν©λλ€. map() λ©μλλ λ°μ΄ν°μ
μ κ°λ³ μμμ ν¨μ(function)λ₯Ό μ μ©νμ¬ μλνλ―λ‘ μ
λ ₯μ ν ν°ννλ ν¨μλ₯Ό μ μν΄ λ³΄κ² μ΅λλ€:
def tokenize_function(example):
return tokenizer(example["sentence1"], example["sentence2"], truncation=True)
μ΄ ν¨μλ λ°μ΄ν°μ
μ κ°λ³ νλͺ©μ΄ λ΄κ²¨μ§ λμ
λ리λ₯Ό λ§€κ°λ³μλ‘ μ
λ ₯λ°μμ input_ids
, attention_mask
λ° token_type_ids
ν€κ° μ§μ λ μλ‘μ΄ λμ
λ리λ₯Ό λ°νν©λλ€. μ΄μ μ λ³Έ κ²μ²λΌ tokenizer
λ λ¬Έμ₯ μ 리μ€νΈμμ μλνκΈ° λλ¬Έμ example
λμ
λ리μ μ¬λ¬ μν(κ° ν€κ° λ¬Έμ₯ λͺ©λ‘μ)μ΄ ν¬ν¨λ κ²½μ°μλ μλν©λλ€. μ΄λ κ² νλ©΄ map()
νΈμΆμμ batched=True
μ΅μ
μ μ¬μ©ν μ μμ΄ ν ν°ν μλκ° ν¬κ² λΉ¨λΌμ§λλ€. tokenizer
λ π€ Tokenizers λΌμ΄λΈλ¬λ¦¬μμ Rustλ‘ μμ±λ λ λ€λ₯Έ ν ν¬λμ΄μ μ μν΄ μ§μλ©λλ€. μ΄ ν ν¬λμ΄μ λ λ§€μ° λΉ λ₯Ό μ μμ§λ§, ν λ²μ λ§μ μ
λ ₯μ μ 곡νλ κ²½μ°μλ§ κ·Έλ μ΅λλ€.
μΌλ¨ νμ¬λ ν ν°ν ν¨μμμ padding
λ§€κ°λ³μλ₯Ό μλ΅νμ΅λλ€. μ΄λ λͺ¨λ μνλ€μ μ΅λ κΈΈμ΄λ‘ μ±μ°λ κ²(padding)μ΄ ν¨μ¨μ μ΄μ§ μκΈ° λλ¬Έμ
λλ€. λ°°μΉ(batch) ννλ‘ μ€νν λ μνμ μ±μ°λ κ²(padding)μ΄ ν¨κ³Όλ₯Ό λ°νν©λλ€. κ·Έλ¬λ©΄ μ 체 λ°μ΄ν°μ
μμμ μ΅λ κΈΈμ΄κ° μλλΌ ν΄λΉ λ°°μΉ(batch) λ΄μμμ μ΅λ κΈΈμ΄λ‘ μ±μ°κΈ°λ§(padding) νλ©΄ λκΈ° λλ¬Έμ
λλ€. μ΄κ²μ μ
λ ₯μ κΈΈμ΄κ° λ§€μ° κ°λ³μ μΌ λ λ§μ μκ°κ³Ό μ²λ¦¬ λ₯λ ₯μ μ μ½ν μ μμ΅λλ€!
λ€μμ ν λ²μ λͺ¨λ λ°μ΄ν°μ
μ ν ν°ν κΈ°λ₯μ μ μ©νλ λ°©λ²μ
λλ€. map
λ©μλ νΈμΆμμ batched=True
λ₯Ό μ¬μ©νλ―λ‘ ν¨μκ° κ° μμμ κ°λ³μ μΌλ‘ μ μ©λμ§ μκ³ λ°μ΄ν°μ
μ νλΆμ§ν©, μ¦ κ° λ°°μΉ(batch) λ΄μ μ‘΄μ¬νλ λͺ¨λ μμλ€μ νκΊΌλ²μ μ μ©λ©λλ€. μ΄ λ°©λ²μ λ λΉ λ₯Έ μ μ²λ¦¬λ₯Ό κ°λ₯νκ² ν©λλ€:
tokenized_datasets = raw_datasets.map(tokenize_function, batched=True)
tokenized_datasets
π€Datasets λΌμ΄λΈλ¬λ¦¬λ λ°μ΄ν°μ
(datasets)μ μλ‘μ΄ νλλ€μ μΆκ°ν©λλ€. μ΄ νλλ€μ μ μ²λ¦¬ ν¨μμμ λ°νλ μ¬μ μ κ° ν€(input_ids
, token_type_ids
, attention_mask
)μ ν΄λΉν©λλ€.
DatasetDict({
train: Dataset({
features: ['attention_mask', 'idx', 'input_ids', 'label', 'sentence1', 'sentence2', 'token_type_ids'],
num_rows: 3668
})
validation: Dataset({
features: ['attention_mask', 'idx', 'input_ids', 'label', 'sentence1', 'sentence2', 'token_type_ids'],
num_rows: 408
})
test: Dataset({
features: ['attention_mask', 'idx', 'input_ids', 'label', 'sentence1', 'sentence2', 'token_type_ids'],
num_rows: 1725
})
})
num_proc
λ§€κ°λ³μλ₯Ό μ λ¬νμ¬ map()
μΌλ‘ μ μ²λ¦¬ κΈ°λ₯μ μ μ©ν λ λ€μ€ μ²λ¦¬(multi-processing)λ₯Ό μ¬μ©ν μλ μμ΅λλ€. π€Tokenizers λΌμ΄λΈλ¬λ¦¬λ μνμ λ λΉ λ₯΄κ² ν ν°ννκΈ° μν΄ μ΄λ―Έ λ€μ€ μ€λ λ(multiple threads)λ₯Ό μ¬μ©νμ§λ§, μ΄ λΌμ΄λΈλ¬λ¦¬μμ μ§μνλ βλΉ λ₯Έ ν ν¬λμ΄μ (fast tokenizer)βλ₯Ό μ¬μ©νμ§ μλ κ²½μ° μ μ²λ¦¬ μλκ° λΉ¨λΌμ§ μ μμ΅λλ€.
μμ tokenize_function
μ input_ids
, attention_mask
λ° token_type_ids
ν€κ° μ‘΄μ¬νλ λμ
λ리λ₯Ό λ°ννλ―λ‘ μ΄ 3κ°μ μλ‘μ΄ νλκ° λ°μ΄ν°μ
μ λͺ¨λ λΆν (νμ΅, κ²μ¦, νκ°)μ μΆκ°λ©λλ€. μ μ²λ¦¬ ν¨μκ° map()
μ μ μ©ν λ°μ΄ν°μ
μ κΈ°μ‘΄ ν€λ€ μ¦, idx
, label
λ±μ λν μλ‘μ΄ κ°μ λ°νν κ²½μ° κΈ°μ‘΄ νλ(idx
, label
, sentence1
, sentence2
λ±)λ₯Ό λ³κ²½ν μλ μμ΅λλ€.
λ§μ§λ§μΌλ‘ ν΄μΌ ν μΌμ μ 체 μμλ€μ λ°°μΉ(batch)λ‘ λΆλ¦¬ν λ κ°μ₯ κΈ΄ μμμ κΈΈμ΄λ‘ λͺ¨λ μμ λ₯Ό μ±μ°λ(padding) κ²μ λλ€. μ΄λ₯Ό λμ ν¨λ©(dynamic padding)μ΄λΌκ³ ν©λλ€.
μνλ€μ ν¨κ» λͺ¨μμ μ§μ λ ν¬κΈ°μ λ°°μΉ(batch)λ‘ κ΅¬μ±νλ μν μ νλ ν¨μλ₯Ό μ½λ μ΄νΈ ν¨μ(collate function) λΌκ³ ν©λλ€. μ΄ ν¨μλ DataLoader
λ₯Ό λΉλ(build)ν λ μ λ¬ν μ μλ λ§€κ°λ³μμ
λλ€. κΈ°λ³Έκ°μ λ¨μν μνλ€μ PyTorch ν
μλ‘ λ³ννκ³ κ²°ν©νλ ν¨μμ
λλ€. λ§μΌ λμ μνλ€μ΄ 리μ€νΈ, νν νΉμ λμ
λ리면 μ¬κ·μ μΌλ‘ μ΄ μμ
μ΄ μνλ©λλ€. μ°λ¦¬ μμ μ κ²½μ°, μ
λ ₯κ°μ΄ λͺ¨λ λμΌν ν¬κΈ°(κΈΈμ΄)κ° μλκΈ° λλ¬Έμ μ΄ μμ
μ΄ λΆκ°λ₯ν©λλ€. μ§κΈκΉμ§ μ°λ¦¬λ μΌλΆλ¬ ν¨λ©(padding) μμ
μ λ―Έλ€μλλ° κ·Έ μ΄μ λ μ 체 λ°μ΄ν°μ
μ΄ μλ κ°λ³ λ°°μΉ(batch)μ λν΄μ λ³λλ‘ ν¨λ©(padding)μ μννμ¬ κ³Όλνκ² κΈ΄ μ
λ ₯μΌλ‘ μΈν κ³Όλν ν¨λ©(padding) μμ
μ λ°©μ§νκΈ° μν¨μ
λλ€. μ΄λ κ² νλ©΄ νμ΅ μλκ° μλΉν λΉ¨λΌμ§μ§λ§ TPUμμ νμ΅νλ κ²½μ° λ¬Έμ κ° λ°μν μ μμ΅λλ€. TPUλ μΆκ°μ μΈ ν¨λ©(padding)μ΄ νμν κ²½μ°μλ μ 체 λ°μ΄ν°μ
μ΄ κ³ μ λ ννλ₯Ό μ νΈν©λλ€.
μ€μ λ‘ μ΄λ₯Ό μννλ €λ©΄, λ°°μΉ(batch)λ‘ λΆλ¦¬νλ €λ λ°μ΄ν°μ
μ μμ κ°κ°μ λν΄μ μ νν μμ ν¨λ©(padding)μ μ μ©ν μ μλ μ½λ μ΄νΈ ν¨μ(collate function)λ₯Ό μ μν΄μΌ ν©λλ€. λ€ννλ, π€Transformers λΌμ΄λΈλ¬λ¦¬λ DataCollatorWithPadding
μ ν΅ν΄ μ΄λ¬ν κΈ°λ₯μ μ 곡ν©λλ€. μ΄ ν¨μλ ν ν¬λμ΄μ λ₯Ό μ
λ ₯μΌλ‘ λ°μ΅λλ€. κ·Έ μ΄μ λ μ¬μ©νλ €λ ν¨λ© ν ν°(padding token)μ΄ λ¬΄μμΈμ§μ λͺ¨λΈμ΄ μ
λ ₯μ μΌμͺ½ νΉμ μ€λ₯Έμ― μ€ μ΄λ μͺ½μ ν¨λ©(padding)μ μνν μ§λ₯Ό νμ
νκΈ° μν¨μ
λλ€. μ΄ μ
λ ₯ νλλ©΄ λͺ¨λ κ²μ΄ ν΄κ²°λ©λλ€:
from transformers import DataCollatorWithPadding
data_collator = DataCollatorWithPadding(tokenizer=tokenizer)
μ΄ μλ‘μ΄ ν¨μλ₯Ό ν
μ€νΈνκΈ° μν΄ νμ΅μ§ν©μμ λ°°μΉ(batch)λ‘ λ¬Άμ λͺκ°μ μνλ€μ κ°μ Έμ€κ² μ΅λλ€. μ¬κΈ°μλ νμνμ§λ μμ λΏλλ¬ μ¬μ§μ΄ λ¬Έμμ΄κΉμ§λ ν¬ν¨νλ idx
, sentence1
λ° sentence2
μ΄μ μ κ±°ν©λλ€(λ¬Έμμ΄λ‘λ ν
μλ₯Ό μμ±ν μ μμ΅λλ€). μλμμ λ°°μΉ(batch) λ΄μ κ° μμλ€μ κΈΈμ΄λ₯Ό μ΄ν΄λ³΄μΈμ:
samples = tokenized_datasets["train"][:8]
samples = {k: v for k, v in samples.items() if k not in ["idx", "sentence1", "sentence2"]}
[len(x) for x in samples["input_ids"]]
[50, 59, 47, 67, 59, 50, 62, 32]
λΉμ°ν, 32μμ 67κΉμ§ λ€μν κΈΈμ΄μ μνμ μ»μ μ μμ΅λλ€. λμ ν¨λ©(dynamic padding)μ μ΄ λ°°μΉ(batch) λ΄μ λͺ¨λ μνλ€μ΄ λ°°μΉ λ΄λΆμμ μ΅λ κΈΈμ΄μΈ 67 κΈΈμ΄λ‘ ν¨λ©(padding)λμ΄μΌ ν¨μ μλ―Έν©λλ€. λμ ν¨λ©(dynamic padding)μ΄ μμΌλ©΄ λͺ¨λ μνλ€μ μ 체 λ°μ΄ν°μ
μ μ΅λ κΈΈμ΄ λλ λͺ¨λΈμ΄ νμ©ν μ μλ μ΅λ κΈΈμ΄λ‘ μ±μμ ΈμΌ ν©λλ€. data_collator
κ° λμ μΌλ‘ λ°°μΉ(batch)λ₯Ό μ μ νκ² ν¨λ©(padding)νλμ§ λ€μ νμΈν©μλ€:
batch = data_collator(samples)
{k: v.shape for k, v in batch.items()}
{'attention_mask': torch.Size([8, 67]),
'input_ids': torch.Size([8, 67]),
'token_type_ids': torch.Size([8, 67]),
'labels': torch.Size([8])}
μ’μ΅λλ€! λ―Έκ°κ³΅(raw) ν μ€νΈμμ λͺ¨λΈμ΄ μ²λ¦¬ν μ μλ λ°°μΉ(batch) ννλ‘ λ³κ²½λμμΌλ―λ‘, μ΄μ λ―ΈμΈ μ‘°μ (fine-tuning)ν μ€λΉκ° λμμ΅λλ€!
βοΈ μ§μ ν΄λ³΄κΈ° GLUE SST-2 λ°μ΄ν° μΈνΈμμ μ μ²λ¦¬λ₯Ό 볡μ ν©λλ€. μμ΄ μλ λ¨λ¬ΈμΌλ‘ ꡬμ±λμ΄ μμ΄μ μ‘°κΈ λ€λ₯΄μ§λ§, λλ¨Έμ§λ λκ°μ΄ 보μ¬μΌ ν΄μ. λ μ΄λ €μ΄ λ¬Έμ λ₯Ό μνλ€λ©΄ GLUE μμ μ μ¬μ©ν μ μλ μ μ²λ¦¬ ν¨μλ₯Ό μμ±ν΄ 보μΈμ.