Update README.md
Browse files
README.md
CHANGED
@@ -15,6 +15,11 @@ pipeline_tag: text-generation
|
|
15 |
|
16 |
# Model Card for Model ID
|
17 |
|
|
|
|
|
|
|
|
|
|
|
18 |
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성 박사(Saxo)가 beomi/llama-2-koen-13b 베이스모델을 GCP상의 A100-40G 4개를 통해 SFT 훈련을 한(2048 Tokens) 인스트럭션 모델.
|
19 |
Accelerate, Deepspeed Zero-3 라이브러리를 사용했으며 Flash Attention 은 Disable 로 설정
|
20 |
|
|
|
15 |
|
16 |
# Model Card for Model ID
|
17 |
|
18 |
+
<div align="center">
|
19 |
+
<img src="https://www.linkbricks.com/wp-content/uploads/2022/03/%E1%84%85%E1%85%B5%E1%86%BC%E1%84%8F%E1%85%B3%E1%84%87%E1%85%B3%E1%84%85%E1%85%B5%E1%86%A8%E1%84%89%E1%85%B3%E1%84%85%E1%85%A9%E1%84%80%E1%85%A9-2-1024x804.png" />
|
20 |
+
</div>
|
21 |
+
|
22 |
+
|
23 |
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성 박사(Saxo)가 beomi/llama-2-koen-13b 베이스모델을 GCP상의 A100-40G 4개를 통해 SFT 훈련을 한(2048 Tokens) 인스트럭션 모델.
|
24 |
Accelerate, Deepspeed Zero-3 라이브러리를 사용했으며 Flash Attention 은 Disable 로 설정
|
25 |
|