Update README.md
Browse files
README.md
CHANGED
@@ -10,7 +10,7 @@ tags:
|
|
10 |
base_model:
|
11 |
- meta-llama/Meta-Llama-3-8B
|
12 |
- jeiku/Average_Test_v1
|
13 |
-
-
|
14 |
---
|
15 |
|
16 |
|
@@ -31,7 +31,7 @@ base_model:
|
|
31 |
- ํ๊ตญ์ด ๋ฌธํ, ์ธ์ด๋ฅผ ๊ณ ๋ คํด ์ธ์ดํ์๊ฐ ์ ์ํ ๋ฐ์ดํฐ๋ฅผ ํ์ฉํ ๋ฏธ์ธ์กฐ์
|
32 |
- ๊ฐํํ์ต
|
33 |
์ด ๋ชจ๋ ๊ฒ ํ๊บผ๋ฒ์ ์ ์ฉ๋๊ณ ์์
์ ์ด์ฉ์ด ๊ฐ๋ฅํ Bllossom์ ์ด์ฉํด ์ฌ๋ฌ๋ถ ๋ง์ ๋ชจ๋ธ์ ๋ง๋ค์ด๋ณด์ธ์ฅ!
|
34 |
-
๋ณธ ๋ชจ๋ธ์
|
35 |
|
36 |
1. Bllossom-8B๋ ์์ธ๊ณผ๊ธฐ๋, ํ
๋์ธ, ์ฐ์ธ๋ ์ธ์ด์์ ์ฐ๊ตฌ์ค์ ์ธ์ดํ์์ ํ์
ํด ๋ง๋ ์ค์ฉ์ฃผ์๊ธฐ๋ฐ ์ธ์ด๋ชจ๋ธ์
๋๋ค! ์์ผ๋ก ์ง์์ ์ธ ์
๋ฐ์ดํธ๋ฅผ ํตํด ๊ด๋ฆฌํ๊ฒ ์ต๋๋ค ๋ง์ด ํ์ฉํด์ฃผ์ธ์ ๐
|
37 |
2. ์ด ๊ฐ๋ ฅํ Advanced-Bllossom 8B, 70B๋ชจ๋ธ, ์๊ฐ-์ธ์ด๋ชจ๋ธ์ ๋ณด์ ํ๊ณ ์์ต๋๋ค! (๊ถ๊ธํ์ ๋ถ์ ๊ฐ๋ณ ์ฐ๋ฝ์ฃผ์ธ์!!)
|
@@ -98,19 +98,19 @@ Invoke the llama.cpp server or the CLI.
|
|
98 |
CLI:
|
99 |
|
100 |
```bash
|
101 |
-
llama-cli --hf-repo
|
102 |
```
|
103 |
|
104 |
Server:
|
105 |
|
106 |
```bash
|
107 |
-
llama-server --hf-repo
|
108 |
```
|
109 |
|
110 |
Note: You can also use this checkpoint directly through the [usage steps](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) listed in the Llama.cpp repo as well.
|
111 |
|
112 |
```
|
113 |
-
git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make && ./main -m
|
114 |
```
|
115 |
|
116 |
|
|
|
10 |
base_model:
|
11 |
- meta-llama/Meta-Llama-3-8B
|
12 |
- jeiku/Average_Test_v1
|
13 |
+
- MLP-KTLim/llama-3-Korean-Bllossom-8B
|
14 |
---
|
15 |
|
16 |
|
|
|
31 |
- ํ๊ตญ์ด ๋ฌธํ, ์ธ์ด๋ฅผ ๊ณ ๋ คํด ์ธ์ดํ์๊ฐ ์ ์ํ ๋ฐ์ดํฐ๋ฅผ ํ์ฉํ ๋ฏธ์ธ์กฐ์
|
32 |
- ๊ฐํํ์ต
|
33 |
์ด ๋ชจ๋ ๊ฒ ํ๊บผ๋ฒ์ ์ ์ฉ๋๊ณ ์์
์ ์ด์ฉ์ด ๊ฐ๋ฅํ Bllossom์ ์ด์ฉํด ์ฌ๋ฌ๋ถ ๋ง์ ๋ชจ๋ธ์ ๋ง๋ค์ด๋ณด์ธ์ฅ!
|
34 |
+
๋ณธ ๋ชจ๋ธ์ 42GB GPU์์ ๊ตฌ๋ ๊ฐ๋ฅํ ์์ํ ๋ชจ๋ธ์
๋๋ค!
|
35 |
|
36 |
1. Bllossom-8B๋ ์์ธ๊ณผ๊ธฐ๋, ํ
๋์ธ, ์ฐ์ธ๋ ์ธ์ด์์ ์ฐ๊ตฌ์ค์ ์ธ์ดํ์์ ํ์
ํด ๋ง๋ ์ค์ฉ์ฃผ์๊ธฐ๋ฐ ์ธ์ด๋ชจ๋ธ์
๋๋ค! ์์ผ๋ก ์ง์์ ์ธ ์
๋ฐ์ดํธ๋ฅผ ํตํด ๊ด๋ฆฌํ๊ฒ ์ต๋๋ค ๋ง์ด ํ์ฉํด์ฃผ์ธ์ ๐
|
37 |
2. ์ด ๊ฐ๋ ฅํ Advanced-Bllossom 8B, 70B๋ชจ๋ธ, ์๊ฐ-์ธ์ด๋ชจ๋ธ์ ๋ณด์ ํ๊ณ ์์ต๋๋ค! (๊ถ๊ธํ์ ๋ถ์ ๊ฐ๋ณ ์ฐ๋ฝ์ฃผ์ธ์!!)
|
|
|
98 |
CLI:
|
99 |
|
100 |
```bash
|
101 |
+
llama-cli --hf-repo Bllossom/llama-3-Korean-Bllossom-70B-gguf-Q4_K_M --model bllossom_llama3_70b.Q4_K_M.gguf -p "์์ธ๊ณผํ๊ธฐ์ ๋ํ๊ต ์๊ฒฝํ ๊ต์๋ ์ด๋ค์ฐ๊ตฌ๋ฅผํ๋?"
|
102 |
```
|
103 |
|
104 |
Server:
|
105 |
|
106 |
```bash
|
107 |
+
llama-server --hf-repo Bllossom/llama-3-Korean-Bllossom-70B-gguf-Q4_K_M --model bllossom_llama3_70b.Q4_K_M.gguf -c 2048
|
108 |
```
|
109 |
|
110 |
Note: You can also use this checkpoint directly through the [usage steps](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) listed in the Llama.cpp repo as well.
|
111 |
|
112 |
```
|
113 |
+
git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make && ./main -m bllossom_llama3_70b.Q4_K_M.gguf -n 128
|
114 |
```
|
115 |
|
116 |
|