--- library_name: transformers license: apache-2.0 language: - ko - en pipeline_tag: text-generation --- # Model Card for Model ID chat-vector 논문( https://arxiv.org/abs/2310.04799v2 )에 근거하여, llama3의 pre-trained 모델의 parameter와 instruction 모델의 매개변수의 차이를 beomi님의 Llama-3-Open-Ko-8B에 적용한 모델 maywell님의 이 방법론( https://huggingface.co/blog/maywell/llm-feature-transfer )을 받아들여 가중치 업데이트 64GB의 ram 시스템 하에서 진행하다보니, 자료형을 bf16형태로 진행하였음 # Metric results/all/aeolian83/Llama-3-Open-Ko-8B-aeolian83-chatvec | | 0 | 5 | 10 | |:---------------------------------|---------:|---------:|---------:| | kobest_boolq (macro_f1) | 0.64898 | 0.603325 | 0.575417 | | kobest_copa (macro_f1) | 0.682517 | 0.706718 | 0.693293 | | kobest_hellaswag (macro_f1) | 0.42651 | 0.391038 | 0.386523 | | kobest_sentineg (macro_f1) | 0.501351 | 0.861108 | 0.876122 | | kohatespeech (macro_f1) | 0.252714 | 0.330103 | 0.305009 | | kohatespeech_apeach (macro_f1) | 0.337667 | 0.536842 | 0.526639 | | kohatespeech_gen_bias (macro_f1) | 0.124535 | 0.512855 | 0.457998 | | korunsmile (f1) | 0.358703 | 0.330155 | 0.32824 | | nsmc (acc) | 0.59726 | 0.75206 | 0.74702 | | pawsx_ko (acc) | 0.5195 | 0.513 | 0.4805 | # Used Model - Base model(weight diff를 구하기 위한 베이스 모델) : meta-llama/Meta-Llama-3-8B - Chat model(weight diff를 제공하는 instruction model) : meta-llama/Meta-Llama-3-8B-Instruct - Target model(weight diff를 적용해서 instruction 튠을 하고자 하는 모델) : beomi/Llama-3-Open-Ko-8B