RichardErkhov commited on
Commit
9872ded
1 Parent(s): 2c97e36

uploaded readme

Browse files
Files changed (1) hide show
  1. README.md +168 -0
README.md ADDED
@@ -0,0 +1,168 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ Quantization made by Richard Erkhov.
2
+
3
+ [Github](https://github.com/RichardErkhov)
4
+
5
+ [Discord](https://discord.gg/pvy7H8DZMG)
6
+
7
+ [Request more models](https://github.com/RichardErkhov/quant_request)
8
+
9
+
10
+ Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT - GGUF
11
+ - Model creator: https://huggingface.co/Remek/
12
+ - Original model: https://huggingface.co/Remek/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT/
13
+
14
+
15
+ | Name | Quant method | Size |
16
+ | ---- | ---- | ---- |
17
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q2_K.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q2_K.gguf) | Q2_K | 2.96GB |
18
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ3_XS.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ3_XS.gguf) | IQ3_XS | 3.28GB |
19
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ3_S.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ3_S.gguf) | IQ3_S | 3.43GB |
20
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K_S.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K_S.gguf) | Q3_K_S | 3.41GB |
21
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ3_M.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ3_M.gguf) | IQ3_M | 3.52GB |
22
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K.gguf) | Q3_K | 3.74GB |
23
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K_M.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K_M.gguf) | Q3_K_M | 3.74GB |
24
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K_L.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q3_K_L.gguf) | Q3_K_L | 4.03GB |
25
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ4_XS.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ4_XS.gguf) | IQ4_XS | 4.18GB |
26
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_0.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_0.gguf) | Q4_0 | 4.34GB |
27
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ4_NL.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.IQ4_NL.gguf) | IQ4_NL | 4.38GB |
28
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_K_S.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_K_S.gguf) | Q4_K_S | 4.37GB |
29
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_K.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_K.gguf) | Q4_K | 4.58GB |
30
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_K_M.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_K_M.gguf) | Q4_K_M | 4.58GB |
31
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_1.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q4_1.gguf) | Q4_1 | 4.78GB |
32
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_0.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_0.gguf) | Q5_0 | 5.21GB |
33
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_K_S.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_K_S.gguf) | Q5_K_S | 5.21GB |
34
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_K.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_K.gguf) | Q5_K | 5.34GB |
35
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_K_M.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_K_M.gguf) | Q5_K_M | 5.34GB |
36
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_1.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q5_1.gguf) | Q5_1 | 5.65GB |
37
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q6_K.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q6_K.gguf) | Q6_K | 6.14GB |
38
+ | [Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q8_0.gguf](https://huggingface.co/RichardErkhov/Remek_-_Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT-gguf/blob/main/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT.Q8_0.gguf) | Q8_0 | 7.95GB |
39
+
40
+
41
+
42
+
43
+ Original model description:
44
+ ---
45
+ language:
46
+ - pl
47
+ - en
48
+ pipeline_tag: text-generation
49
+ license: cc-by-4.0
50
+ ---
51
+
52
+ ## Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT
53
+
54
+ Repozytorium zawiera model Meta Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT w wersji polskojęzycznej. Jest to model INSTRUCT (instrukcyjny). Model postał na podstawie finetuningu modelu bazowego Llama-3-8B. Wykorzystano do tego dataset instrukcji Omnibus-1-PL (stworzyłem go na własne potrzeby przeprowadzania eksperymenów finetuningu modeli w języku polskim). Szczegóły parametrów treningu w sekcji Trening. Celem tego eksperymentu było sprawdzenie czy można namówić Llama-3-8B do płynnego rozmawiania w języku polskim (oryginalny model instrukcyjny 8B ma z tym problem - woli zdecydowanie bardziej rozmawiać po angielsku).
55
+
56
+ <img src="Llama-3-8B-PL-small.jpg" width="420" />
57
+
58
+ Uwaga!
59
+ * Model NIE jest CENZUROWANY. To wersja do zabawy. Nie została ujarzmiona.
60
+ * Model będzie dalej rozwijany ponieważ eksperymentuję z a. kolejnymi wersjami datasetu, b. model jest świetną bazą do testowania różnych technik finetunowania (LoRA, QLoRA; DPO, ORPO itd.)
61
+ * Udostępniłem go spontanicznie by użytkownicy mogli go używać i sprawdzać jakość Llama 3 ale w kontekście języka polskiego.
62
+ * Po informacji, że baza była trenowana na 15T tokenów (tylko 5% nie angielskich) uznałem, że to świetny model do finetuningu. Być może lekkie dotrenowanie modelu za pomocą contingued-pretraining da jeszcze większy uzysk.
63
+
64
+ ### Sposób kodowania nazwy modelu
65
+ * Nazwa modelu bazowego: Llama-3-8B
66
+ * Nazwa datasetu: Omnibus-1
67
+ * Wersja językowa: PL (polska)
68
+ * Wersja modelu: v01
69
+
70
+ ### Dataset
71
+ Omnibus-1 to zbiór polskich instrukcji (100% kontekstu Polskiego - fakty, osoby, miejsca osadzone w Polsce), który został w 100% syntetycznie wygenerowany. Zawiera on instrukcje z kategorii - matematyka, umiejętność pisania, dialogi, tematy medyczne, zagadki logiczne, tłumaczenia itd. Powstał on w ramach moich prac związanych z badaniem jakości modeli w kontekście języka polskiego. Pozwala on na finetuning modelu i sprawdzenie podatności modelu do mówienia w naszym rodzimym języku. Dataset zawiera obecnie 75.000 instrukcji. Nie jest on idealny i wymaga jeszcze dużo nakładu pracy by model pracował w przewidywalnie ale będzie cały czas udoskonalony i być może w przyszłości udostępniony (jak uznam, że już jest wtstarczająco pełen i obejmuje szerokie spektrum tematyki i umiejętności). Dataset jest w 100% generowany za pomocą innych LLM.
72
+
73
+ ### Użycie Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT z biblioteką Transformers
74
+
75
+ Poniższy kod używa bibliotekę Transformers:
76
+
77
+ ```python
78
+ import transformers
79
+ import torch
80
+
81
+ model_id = "Remek/Llama-3-8B-Omnibus-1-PL-v01-INSTRUCT"
82
+
83
+ pipeline = transformers.pipeline(
84
+ "text-generation",
85
+ model=model_id,
86
+ model_kwargs={"torch_dtype": torch.bfloat16},
87
+ device="auto",
88
+ )
89
+
90
+ messages = [
91
+ {"role": "system", "content": "You are a helpful, smart, kind, and efficient AI assistant. You always fulfill the user's requests to the best of your ability."},
92
+ {"role": "user", "content": "Napisz czym jest Warszawa?"},
93
+ ]
94
+
95
+ prompt = pipeline.tokenizer.apply_chat_template(
96
+ messages,
97
+ tokenize=False,
98
+ add_generation_prompt=True
99
+ )
100
+
101
+ terminators = [
102
+ pipeline.tokenizer.eos_token_id,
103
+ pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
104
+ ]
105
+
106
+ outputs = pipeline(
107
+ prompt,
108
+ max_new_tokens=256,
109
+ eos_token_id=terminators,
110
+ do_sample=True,
111
+ temperature=0.6,
112
+ top_p=0.9,
113
+ )
114
+ print(outputs[0]["generated_text"][len(prompt):])
115
+ ```
116
+
117
+ Przykładowa odpowiedź:
118
+
119
+ > Warszawa to stolica Polski, położona na terenie Mazowsza. Jest to największe miasto w Polsce pod względem liczby mieszkańców oraz powierzchni. Warszawa jest również siedzibą rządu, parlamentu, prezydenta, sądu najwyższego oraz wielu innych instytucji państwowych i międzynarodowych. Miasto jest znane z wielu zabytków, takich jak Stare Miasto, Zamek Królewski, Pałac Kultury i Nauki, a także z nowoczesnych atrakcji, takich jak Centrum Nauki Kopernik czy Centrum Nauki i Sztuki. Warszawa jest również ważnym centrum kulturalnym, gospodarczym i naukowym. Miasto jest również siedzibą wielu firm międzynarodowych i polskich przedsiębiorstw. Warszawa jest miastem, które łączy w sobie przeszłość z nowoczesnością, oferując mieszkańcom i turystom szeroki zakres możliwości. Miasto jest również znane z wielu festiwali i wydarzeń kulturalnych, które przyciągają miliony turystów z całego świata. Warszawa to miasto pełne życia, kultury, historii i nowoczesności, które zdecydowanie zasługuje na uwagę. <|im_end|>
120
+
121
+
122
+ ### Szablon konwersacji
123
+ Szablon konwersacji to oryginalna wersja Llama3
124
+
125
+ ```
126
+ <|start_header_id|>system<|end_header_id|>
127
+ You are a helpful, smart, kind, and efficient AI assistant. You always fulfill the user's requests to the best of your ability.
128
+ <|eot_id|>
129
+ <|start_header_id|>user<|end_header_id|>
130
+ {User}
131
+ <|eot_id|><|start_header_id|>assistant<|end_header_id|>
132
+ {Assistant}
133
+ ```
134
+
135
+ ### Wersje quantized
136
+ Wersje poddane quantyzacji są dostępne w repozytorium:
137
+ * Llama-3-8B-Omnibus-1-PL-v01-instruct-GGUF - przetestowane w LM Studio (wybierz szablon - Llama3) oraz ollama
138
+
139
+ *
140
+ | Version | Model card |
141
+ | ------- | -------------------------------------------------------------------------- |
142
+ | Instruct| [🤗 HuggingFace](https://huggingface.co/Remek/Llama-3-8B-Omnibus-1-PL-v01-instruct-GGUF) |
143
+
144
+ ### Trening
145
+ Poniżej szczegóły hiperparametrów treningu:
146
+ * learning_rate: 2e-05
147
+ * train_batch_size: 8
148
+ * eval_batch_size: 8
149
+ * seed: 42
150
+ * distributed_type: single-GPU (Nvidia A6000 Ada)
151
+ * num_devices: 1
152
+ * gradient_accumulation_steps: 4
153
+ * optimizer: adamw_8bit
154
+ * lr_scheduler_type: linear
155
+ * lr_scheduler_warmup_steps: 5
156
+ * num_epochs: 1
157
+ * QLoRa - 4bit: rank 64, alpha 128
158
+
159
+ #### Unsloth
160
+
161
+ <img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/made with unsloth.png" width="200px" align="center" />
162
+
163
+ [Unsloth](https://unsloth.ai), narzędzie dzięki któremu powstał ten model.
164
+
165
+
166
+ ### Licencja
167
+ Licencja na zasadzie nie do komercyjnego użycia (ze względu na dataset - generowany syntetycznie za pomocą modeli GPT4, GPT3.5) oraz licencja Llama3 (proszę o zapoznanie się ze szczegółami licencji).
168
+