Update README.md
Browse files
README.md
CHANGED
@@ -14,8 +14,9 @@ pipeline_tag: text-generation
|
|
14 |
|
15 |
# Model Card for Model ID
|
16 |
|
17 |
-
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성 박사(Saxo)가 beomi/llama-2-koen-13b 베이스모델을 GCC상의 A100-40G 4개를 통해 4시간 SFT 훈련을 한(2048 Tokens) 모델.
|
18 |
-
Accelerate, Deepspeed Zero-3 라이브러리를 사용했다.
|
|
|
19 |
Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics, trained the beomi/llama-2-koen-13b base model on 4 A100-40Gs on GCC for 4 hours of instructional training (2048 Tokens).
|
20 |
Accelerate, Deepspeed Zero-3 libraries were used.
|
21 |
|
|
|
14 |
|
15 |
# Model Card for Model ID
|
16 |
|
17 |
+
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성 박사(Saxo)가 beomi/llama-2-koen-13b 베이스모델을 GCC상의 A100-40G 4개를 통해 4시간 SFT 훈련을 한(2048 Tokens) 인스트럭션 모델.
|
18 |
+
Accelerate, Deepspeed Zero-3 라이브러리를 사용했다.
|
19 |
+
|
20 |
Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics, trained the beomi/llama-2-koen-13b base model on 4 A100-40Gs on GCC for 4 hours of instructional training (2048 Tokens).
|
21 |
Accelerate, Deepspeed Zero-3 libraries were used.
|
22 |
|