metadata
language:
- ko
license: llama3.2
base_model:
- meta-llama/Llama-3.1-8B-Instruct
datasets:
- KorQuAD/squad_kor_v1
Llama-3.2-1B-Instruct-korQuAD-v1
μ΄ λͺ¨λΈμ Llama-3.2-1B-Instructλ₯Ό κΈ°λ°μΌλ‘ νκ΅μ΄ μ§μμλ΅ νμ€ν¬μ λν΄ νμΈνλλ λͺ¨λΈμ λλ€.
λͺ¨λΈ μ€λͺ
- κΈ°λ³Έ λͺ¨λΈ: Llama-3.2-1B-Instruct
- νμ΅ λ°μ΄ν°μ : KorQuAD v1.0
- νμ΅ λ°©λ²: LoRA (Low-Rank Adaptation)
- μ£Όμ νμ€ν¬: νκ΅μ΄ μ§μμλ΅
μ¬μ© λ°©λ²
λ€μκ³Ό κ°μ΄ λͺ¨λΈμ λ‘λνκ³ μ¬μ©ν μ μμ΅λλ€:
#λͺ¨λΈ, ν ν¬λμ΄μ λ‘λ
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_path = "NakJun/Llama-3.2-1B-Instruct-ko-QuAD"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.bfloat16,
device_map="auto",
)
tokenizer = AutoTokenizer.from_pretrained(model_path)
#μ
λ ₯ νμ μ€μ
prompt = f"""
### Question:
{question}
### Context:
{context}
### Answer:
"""
#ν ν°ν λ° μΆλ‘
input_ids = tokenizer.encode(prompt, return_tensors="pt").to(model.device)
output = model.generate(
input_ids,
max_new_tokens=100,
temperature=0.1,
repetition_penalty=1.3,
do_sample=True,
eos_token_id=tokenizer.eos_token_id
)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
answer = generated_text.split("Answer:")[-1].strip().split('\n')[0].strip()
print("μμ±λ λ΅λ³:", answer)
νμ΅ μΈλΆ μ 보
- μν: 5
- λ°°μΉ ν¬κΈ°: 1
- νμ΅λ₯ : 2e-4
- μ΅ν°λ§μ΄μ : AdamW (32-bit)
- LoRA μ€μ :
- r: 16
- lora_alpha: 16
- λμ λͺ¨λ: ["q_proj", "v_proj", "k_proj", "o_proj", "gate_proj", "down_proj", "up_proj"]
- lora_dropout: 0.01
μμ μ§λ¬Έ λ° λ΅λ³
[μμ 1: μμ²ν₯λνκ΅]
Context:
μμ²ν₯λνκ΅λ μΆ©μ²λ¨λ μμ°μ μ μ°½λ©΄ μμ²ν₯λ‘μ μμΉν μ¬λ¦½ μ’
ν©λνκ΅μ
λλ€.
μμ²ν₯λνκ΅μλ 1983λ
곡과λνμ΄ μ€λ¦½λμμ΅λλ€.
Question: μμ²ν₯λνκ΅μ μμΉλ?
Answer: μΆ©μ²λ¨λ μμ°μ μ μ°½λ©΄ μμ²ν₯λ‘
[μμ 2: μμ΄λΈ(IVE)]
Context:
μμ΄λΈ(IVE)λ λνλ―Όκ΅μ μ€νμ½ μν°ν
μΈλ¨ΌνΈ μμμ 6μΈμ‘° κ±Έκ·Έλ£ΉμΌλ‘, 2021λ
12μ 1μΌμ λ°λ·νμ΅λλ€.
κ·Έλ£Ή μ΄λ¦μΈ 'IVE'λ "I HAVE"μμ μ λνμΌλ©°, "λ΄κ° κ°μ§ κ²μ λΉλΉνκ² λ³΄μ¬μ£Όκ² λ€"λ μλ―Έλ₯Ό λ΄κ³ μμ΅λλ€.
λ°λ·μ λμμ ν° μΈκΈ°λ₯Ό λλ©° λΉ λ₯΄κ² μ£Όλͺ©λ°λ κ·Έλ£Ή μ€ νλλ‘ μ리 μ‘μμ΅λλ€.
λ©€λ² κ΅¬μ±:
μμ μ§ (리λ), κ°μ, λ μ΄, μ₯μμ, 리μ¦, μ΄μ
μ£Όμ νλ λ° ννΈκ³‘:
ELEVEN (2021λ
): λ°λ·κ³‘μΌλ‘, μΈλ ¨λ νΌν¬λ¨Όμ€μ λ©λ‘λλ‘ λ§μ μ¬λμ λ°μμ΅λλ€.
LOVE DIVE (2022λ
): μ€λ
μ± μλ λ©λ‘λμ 맀νΉμ μΈ μ½μ
νΈλ‘ ν° μΈκΈ°λ₯Ό μ»μΌλ©° μμ
λ°©μ‘μμ λ€μμ 1μλ₯Ό μ°¨μ§νμ΅λλ€.
After LIKE (2022λ
): 'LOVE DIVE'μ μ΄μ΄ ννΈλ₯Ό μΉ κ³‘μΌλ‘, μμ΄λΈμ κ°μ±μ λ νκ³ ν νλ 곑μ΄μμ΅λλ€.
μμ΄λΈλ λ
νΉν μ½μ
νΈμ λ°μ΄λ 무λ νΌν¬λ¨Όμ€λ‘ κ΅λ΄μΈ ν¬λ€μκ² μ¬λλ°κ³ μμΌλ©°, κ° λ©€λ²λ€ μμ κ°λ³μ μΈ λ§€λ ₯μ λ°μ°νλ©° νλ°ν νλνκ³ μμ΅λλ€.
μ₯μμκ³Ό μμ μ§μ λ°λ· μ λΆν° μμ΄μ¦μ νλμ ν΅ν΄ μ£Όλͺ©λ°μμΌλ©°, μ΄ν μμ΄λΈλ‘μλ μ±κ³΅μ μΈ νλμ μ΄μ΄κ°κ³ μμ΅λλ€.
Question1: μμ΄λΈμ 리λλ λꡬμΌ?
Answer1: μμ μ§
Question2: μμ΄λΈ λ°λ·κ³‘ μλ €μ€.
Answer2: ELEVEN