Edit model card

Model

Dataset

Load Model

Use the following Python code to load the model:

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("youjunhyeok/Llama-3-8B-slerp-262k-sft-lora-ko-v2")
model = AutoModelForCausalLM.from_pretrained("youjunhyeok/Llama-3-8B-slerp-262k-sft-lora-ko-v2")

Chat

conversation = [ {'role': 'user', 'content': '역사상 가장 위대한 인물은 누구야?'} ] 

prompt = tokenizer.apply_chat_template(conversation, tokenize=False, add_generation_prompt=True)

inputs = tokenizer(prompt, return_tensors="pt").to(model.device) 
outputs = model.generate(**inputs, use_cache=False, max_length=1024)
output_text = tokenizer.decode(outputs[0], skip_special_tokens=True) 
print(output_text)

Output

system

You are a helpful assistant.user

system

You are a helpful assistant.user

역사상 가장 위대한 인물은 누구야?assistant

저는 인공지능으로서 개인적인 의견을 가지고 있지 않습니다.
하지만 역사상 가장 위대한 인물에 대한 다양한 의견이 존재하며, 이는 개인의 관점과 문화적 배경에 따라 달라질 수 있습니다.
어떤 사람들은 마하트마 간디, 넬슨 만델라, 마틴 루터 킹 주니어, 알버트 아인슈타인, 아리스토텔레스, 윌리엄 셰익스피어와 같은 인물들을 위대한 인물로 꼽기도 합니다.
하지만 이는 개인적인 의견일 뿐이며, 역사상 가장 위대한 인물에 대한 논쟁은 계속되고 있습니다.

BenchMark (KOR)

# alias
A = youjunhyeok/Llama-3-8B-slerp-262k-sft-lora-ko-v2
B = DavidAhn/Llama-3-8B-slerp-262k
C = meta-llama/Meta-Llama-3-8B
D = chihoonlee10/T3Q-ko-solar-dpo-v7.0 (24.05.24 ko 리더보드 1등)
Benchmark (macro_f1) A B C D
kobest_boolq (0-shot) 43.6 33.5 38.2 34.1
kobest_boolq (5-shot) 82.0 68.8 83.8 93.1
kobest_copa (0-shot) 69.2 58.5 63.1 81.0
kobest_copa (5-shot) 74.8 61.7 69.1 91.0
kobest_hellaswag (0-shot) 47.5 43.2 42.1 55.1
kobest_hellaswag (5-shot) 49.4 45.3 44.2 55.2
kobest_sentineg (0-shot) 59.9 34.8 51.5 82.7
kobest_sentineg (5-shot) 84.2 85.8 94.7 91.4

BenchMark (ENG)

openbookqa hellaswag boolq arc_easy arc_challenge
youjunhyeok/Llama-3-8B-slerp-262k-sft-lora-ko-v2 0.300 0.564 0.685 0.715 0.448
DavidAhn/Llama-3-8B-slerp-262k 0.312 0.587 0.832 0.808 0.518
meta-llama/Meta-Llama-3-8B-Instruct 0.338 0.576 0.831 0.815 0.529

Llama_factory Train Command

{data_dir}, {dataset_name}, {output_dir} is variable

CUDA_VISIBLE_DEVICES=0 llamafactory-cli train \
    --stage sft \
    --do_train True \
    --model_name_or_path DavidAhn/Llama-3-8B-slerp-262k \
    --preprocessing_num_workers 16 \
    --finetuning_type lora \
    --template default \
    --flash_attn auto \
    --dataset_dir {data_dir} \
    --dataset {dataset_name} \
    --cutoff_len 1024 \
    --learning_rate 5e-05 \
    --num_train_epochs 3.0 \
    --max_samples 99999999999 \
    --per_device_train_batch_size 16 \
    --gradient_accumulation_steps 4 \
    --lr_scheduler_type cosine \
    --max_grad_norm 1.0 \
    --logging_steps 50 \
    --save_steps 5000 \
    --warmup_steps 1000 \
    --optim adamw_torch \
    --resize_vocab True \
    --packing False \
    --report_to none \
    --output_dir {output_dir} \
    --fp16 True \
    --plot_loss True \
    --lora_rank 8 \
    --lora_alpha 16 \
    --lora_dropout 0 \
    --lora_target q_proj,v_proj
Downloads last month
112
Safetensors
Model size
8.03B params
Tensor type
F32
·