--- license: cc-by-nc-sa-4.0 base_model: yanolja/EEVE-Korean-10.8B-v1.0 datasets: - maywell/kiqu_samples language: - ko --- [Built with Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) **kurugai/Kurugai-EEVE-v1.0**는 **yanolja/EEVE-Korean-10.8B-v1.0**를 베이스모델로 해서 **maywell/kiqu_samples** 데이터셋으로 학습된 모델입니다. # 학습시간 RTX 8000 GPU 1EA로 16시간 학습하였습니다. # **[Ko-LLM-Leaderboard](https://huggingface.co/spaces/upstage/open-ko-llm-leaderboard)** | Average | Ko-ARC | Ko-HellaSwag | Ko-MMLU | Ko-TruthfulQA | Ko-CommonGen V2 | | ------: | -----: | -----------: | ------: | ------------: | --------------: | | 54.72 | 49.66 | 58.91 | 52.17 | 50.87 | 61.98 | # 도움을 주신분 이 모델은 아내의 지원을 받아 제작되었습니다. 아내에게 감사의 말을 전합니다.