soksof commited on
Commit
255f3cd
1 Parent(s): 563ba4b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +66 -2
README.md CHANGED
@@ -3,11 +3,14 @@ license: apache-2.0
3
  language:
4
  - el
5
  - en
 
 
 
 
6
  model_creator: ilsp
 
7
  base_model: ilsp/Meltemi-7B-Instruct-v1
8
  library_name: gguf
9
- prompt_template: |
10
- [INST] {prompt} [/INST]
11
  quantized_by: ilsp
12
  ---
13
 
@@ -27,3 +30,64 @@ Based on the information
27
  | ---- | ---- | ---- | ---- | ---- | ----- |
28
  | [meltemi-instruct-v1_q3_K_M.bin](https://huggingface.co/ilsp/Meltemi-7B-Instruct-v1-GGUF/blob/main/meltemi-instruct-v1_q3_K_M.bin) | Q3_K_M | 3 | 3.67 GB| 6.45 GB | small, high quality loss |
29
  | [meltemi-instruct-v1_q5_K_M.bin](https://huggingface.co/ilsp/Meltemi-7B-Instruct-v1-GGUF/blob/main/meltemi-instruct-v1_q5_K_M.bin) | Q5_K_M | 5 | 5.31 GB| 8.1 GB | large, low quality loss - recommended |
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
  language:
4
  - el
5
  - en
6
+ tags:
7
+ - finetuned
8
+ - quantized
9
+ - GGUF
10
  model_creator: ilsp
11
+ inference: true
12
  base_model: ilsp/Meltemi-7B-Instruct-v1
13
  library_name: gguf
 
 
14
  quantized_by: ilsp
15
  ---
16
 
 
30
  | ---- | ---- | ---- | ---- | ---- | ----- |
31
  | [meltemi-instruct-v1_q3_K_M.bin](https://huggingface.co/ilsp/Meltemi-7B-Instruct-v1-GGUF/blob/main/meltemi-instruct-v1_q3_K_M.bin) | Q3_K_M | 3 | 3.67 GB| 6.45 GB | small, high quality loss |
32
  | [meltemi-instruct-v1_q5_K_M.bin](https://huggingface.co/ilsp/Meltemi-7B-Instruct-v1-GGUF/blob/main/meltemi-instruct-v1_q5_K_M.bin) | Q5_K_M | 5 | 5.31 GB| 8.1 GB | large, low quality loss - recommended |
33
+
34
+ # Instruction format
35
+ The prompt format is the same as the [Zephyr](https://huggingface.co/HuggingFaceH4/zephyr-7b-beta) format:
36
+
37
+ ```
38
+ <s><|system|>
39
+ Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη.</s>
40
+ <|user|>
41
+ Πες μου αν έχεις συνείδηση.</s>
42
+ <|assistant|>
43
+ ```
44
+
45
+ # Loading the model with llama_cpp
46
+
47
+ Install llama-cpp-python (set -DLLAMA_CUBLAS=on if you want to use your GPU for inference)
48
+
49
+ ```
50
+ $env:CMAKE_ARGS="-DLLAMA_CUBLAS=on"
51
+ pip install llama-cpp-python
52
+ ```
53
+
54
+ ```python
55
+ from llama_cpp import Llama
56
+
57
+ llm = Llama(
58
+ model_path="./meltemi-instruct-v1_q5_K_M.bin", # Download the model file first
59
+ n_ctx=8192, # The max sequence length to use - note that longer sequence lengths require much more resources
60
+ n_threads=8, # The number of CPU threads to use, tailor to your system and the resulting performance
61
+ n_gpu_layers=35 # The number of layers to offload to GPU, if you have GPU acceleration available
62
+ )
63
+ system = "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."
64
+ input_text = "Πες μου αν έχεις συνείδηση."
65
+
66
+ prompt = f"""
67
+ <|system|>
68
+ {system}
69
+ </s>
70
+ <|user|>
71
+ {input_text}
72
+ </s>
73
+ <|assistant|>
74
+ """
75
+
76
+ output = llm(
77
+ prompt,
78
+ max_tokens=1024,
79
+ stop=["</s>"],
80
+ echo=True
81
+ )
82
+
83
+ output_text = output['choices'][0]['text'][len(prompt):].strip()
84
+ ```
85
+
86
+ # Ethical Considerations
87
+
88
+ This model has not been aligned with human preferences, and therefore might generate misleading, harmful, or toxic content.
89
+
90
+
91
+ # Acknowledgements
92
+
93
+ The ILSP team utilized Amazon’s cloud computing services, which were made available via GRNET under the [OCRE Cloud framework](https://www.ocre-project.eu/), providing Amazon Web Services for the Greek Academic and Research Community.