Upload README.md
Browse files
README.md
CHANGED
@@ -10,8 +10,9 @@ model_creator: VAGO solutions
|
|
10 |
model_name: SauerkrautLM 70B v1
|
11 |
model_type: llama
|
12 |
pipeline_tag: text-generation
|
13 |
-
prompt_template: "
|
14 |
-
\ gibt hilfreiche, detaillierte und h\xF6fliche Antworten
|
|
|
15 |
quantized_by: TheBloke
|
16 |
---
|
17 |
<!-- markdownlint-disable MD041 -->
|
@@ -57,12 +58,13 @@ These files were quantised using hardware kindly provided by [Massed Compute](ht
|
|
57 |
<!-- repositories-available end -->
|
58 |
|
59 |
<!-- prompt-template start -->
|
60 |
-
## Prompt template: Sauerkraut
|
61 |
|
62 |
```
|
63 |
-
|
64 |
-
|
65 |
-
|
|
|
66 |
|
67 |
```
|
68 |
|
@@ -232,9 +234,10 @@ from huggingface_hub import InferenceClient
|
|
232 |
endpoint_url = "https://your-endpoint-url-here"
|
233 |
|
234 |
prompt = "Tell me about AI"
|
235 |
-
prompt_template=f'''
|
236 |
-
|
237 |
-
|
|
|
238 |
'''
|
239 |
|
240 |
client = InferenceClient(endpoint_url)
|
@@ -287,9 +290,10 @@ model = AutoModelForCausalLM.from_pretrained(model_name_or_path,
|
|
287 |
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
|
288 |
|
289 |
prompt = "Tell me about AI"
|
290 |
-
prompt_template=f'''
|
291 |
-
|
292 |
-
|
|
|
293 |
'''
|
294 |
|
295 |
print("\n\n*** Generate:")
|
|
|
10 |
model_name: SauerkrautLM 70B v1
|
11 |
model_type: llama
|
12 |
pipeline_tag: text-generation
|
13 |
+
prompt_template: "[INST] <<SYS>>\nEin Chat zwischen einem Benutzer und einem KI-Assistenten.\
|
14 |
+
\ Der KI-Assistent gibt hilfreiche, detaillierte und h\xF6fliche Antworten.\n<</SYS>>\n\
|
15 |
+
{prompt}[/INST]\n"
|
16 |
quantized_by: TheBloke
|
17 |
---
|
18 |
<!-- markdownlint-disable MD041 -->
|
|
|
58 |
<!-- repositories-available end -->
|
59 |
|
60 |
<!-- prompt-template start -->
|
61 |
+
## Prompt template: Sauerkraut-Llama-2-Chat
|
62 |
|
63 |
```
|
64 |
+
[INST] <<SYS>>
|
65 |
+
Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
|
66 |
+
<</SYS>>
|
67 |
+
{prompt}[/INST]
|
68 |
|
69 |
```
|
70 |
|
|
|
234 |
endpoint_url = "https://your-endpoint-url-here"
|
235 |
|
236 |
prompt = "Tell me about AI"
|
237 |
+
prompt_template=f'''[INST] <<SYS>>
|
238 |
+
Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
|
239 |
+
<</SYS>>
|
240 |
+
{prompt}[/INST]
|
241 |
'''
|
242 |
|
243 |
client = InferenceClient(endpoint_url)
|
|
|
290 |
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
|
291 |
|
292 |
prompt = "Tell me about AI"
|
293 |
+
prompt_template=f'''[INST] <<SYS>>
|
294 |
+
Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
|
295 |
+
<</SYS>>
|
296 |
+
{prompt}[/INST]
|
297 |
'''
|
298 |
|
299 |
print("\n\n*** Generate:")
|