--- library_name: transformers license: apache-2.0 base_model: meta-llama/Meta-Llama-3-8B-Instruct datasets: - Saxo/total_ko_train_set_1_without_wiki_with_orca language: - ko - en - ja - zh pipeline_tag: text-generation --- # Model Card for Model ID
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가 meta-llama/Meta-Llama-3-8B를 베이스모델로 GCP상의 H100-80G 8개를 통해 SFT-DPO 훈련한 한글 기반 LLAMA3-8b 8개의 MoE(Mixture of Expert)모델. 토크나이저는 라마3랑 동일하며 한글 VOCA 확장은 하지 않은 버전 입니다. 일반질의응답(채팅)-의료-군사-한중일번역-코딩 각 특화 LLM을 통합 Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics, trained the meta-llama/Meta-Llama-3-8B base model on 8 H100-60Gs on GCP for 4 hours of instructional training (8000 Tokens). Accelerate, Deepspeed Zero-3 libraries were used. www.linkbricks.com, www.linkbricks.vc