---
library_name: transformers
license: apache-2.0
base_model: meta-llama/Meta-Llama-3-8B-Instruct
datasets:
- Saxo/total_ko_train_set_1_without_wiki_with_orca
language:
- ko
- en
- ja
- zh
pipeline_tag: text-generation
---
# Model Card for Model ID
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가 meta-llama/Meta-Llama-3-8B를 베이스모델로 GCP상의 H100-80G 8개를 통해 SFT-DPO 훈련한 한글 기반 LLAMA3-8b 8개의 MoE(Mixture of Expert)모델.
토크나이저는 라마3랑 동일하며 한글 VOCA 확장은 하지 않은 버전 입니다.
일반질의응답(채팅)-의료-군사-한중일번역-코딩 각 특화 LLM을 통합
Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics, trained the meta-llama/Meta-Llama-3-8B base model on 8 H100-60Gs on GCP for 4 hours of instructional training (8000 Tokens).
Accelerate, Deepspeed Zero-3 libraries were used.
www.linkbricks.com, www.linkbricks.vc