Update README.md
Browse files
README.md
CHANGED
@@ -5,4 +5,32 @@ language:
|
|
5 |
---
|
6 |
Full parameters pretrain checkpoint with Polish content from base model: openlm-research/open_llama_3b_v2
|
7 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8 |
bf16
|
|
|
5 |
---
|
6 |
Full parameters pretrain checkpoint with Polish content from base model: openlm-research/open_llama_3b_v2
|
7 |
|
8 |
+
```
|
9 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM
|
10 |
+
import torch
|
11 |
+
|
12 |
+
device = "cuda"
|
13 |
+
device_map = {
|
14 |
+
"lm_head": device,
|
15 |
+
"model": device
|
16 |
+
}
|
17 |
+
|
18 |
+
tokenizer = AutoTokenizer.from_pretrained("piotr-ai/polanka-3b-pretrain-full-v0.3")
|
19 |
+
model = AutoModelForCausalLM.from_pretrained("piotr-ai/polanka-3b-pretrain-full-v0.3", torch_dtype=torch.bfloat16, device_map=device_map)
|
20 |
+
|
21 |
+
prompt = "Kiedyś"
|
22 |
+
|
23 |
+
model_input = tokenizer(prompt, return_tensors="pt").to(device)
|
24 |
+
generated = model.generate(**model_input, do_sample=True, temperature=0.3, max_new_tokens=256)[0]
|
25 |
+
decoded = tokenizer.decode(generated, skip_special_tokens=False)
|
26 |
+
print(decoded)
|
27 |
+
```
|
28 |
+
```
|
29 |
+
<s> Kiedyś, w małym miasteczku, żył chłopiec o imieniu Tom. Tom był bardzo miły i uczciwy. Jego ulubionym hobby był czytanie książek o zwierzętach.
|
30 |
+
|
31 |
+
Jednego dnia, podczas gdy Tom czytał książkę o zwierzętach, usłyszał dźwięk, który nie należał do zwykłych dźwięków. Zaintrygowany, postanowił zbadać, co się dzieje.
|
32 |
+
|
33 |
+
Przyszedł do domu, gdzie Tom zaczął czytać książkę o zwierzętach. Wszedł do swojej książki i zaczął czytać książkę o zwierzętach.
|
34 |
+
|
35 |
+
"Czy ktoś z was, Tom, czytał ksi```
|
36 |
bf16
|