Upload README.md
Browse files
README.md
CHANGED
@@ -10,8 +10,9 @@ model_creator: VAGO solutions
|
|
10 |
model_name: SauerkrautLM 70B v1
|
11 |
model_type: llama
|
12 |
pipeline_tag: text-generation
|
13 |
-
prompt_template: "
|
14 |
-
\ gibt hilfreiche, detaillierte und h\xF6fliche Antworten
|
|
|
15 |
quantized_by: TheBloke
|
16 |
---
|
17 |
<!-- markdownlint-disable MD041 -->
|
@@ -67,12 +68,13 @@ It is supported by:
|
|
67 |
<!-- repositories-available end -->
|
68 |
|
69 |
<!-- prompt-template start -->
|
70 |
-
## Prompt template: Sauerkraut
|
71 |
|
72 |
```
|
73 |
-
|
74 |
-
|
75 |
-
|
|
|
76 |
|
77 |
```
|
78 |
|
@@ -138,9 +140,10 @@ prompts = [
|
|
138 |
"What is 291 - 150?",
|
139 |
"How much wood would a woodchuck chuck if a woodchuck could chuck wood?",
|
140 |
]
|
141 |
-
prompt_template=f'''
|
142 |
-
|
143 |
-
|
|
|
144 |
'''
|
145 |
|
146 |
prompts = [prompt_template.format(prompt=prompt) for prompt in prompts]
|
@@ -182,9 +185,10 @@ from huggingface_hub import InferenceClient
|
|
182 |
endpoint_url = "https://your-endpoint-url-here"
|
183 |
|
184 |
prompt = "Tell me about AI"
|
185 |
-
prompt_template=f'''
|
186 |
-
|
187 |
-
|
|
|
188 |
'''
|
189 |
|
190 |
client = InferenceClient(endpoint_url)
|
@@ -235,9 +239,10 @@ model = AutoAWQForCausalLM.from_quantized(model_name_or_path, fuse_layers=True,
|
|
235 |
trust_remote_code=False, safetensors=True)
|
236 |
|
237 |
prompt = "Tell me about AI"
|
238 |
-
prompt_template=f'''
|
239 |
-
|
240 |
-
|
|
|
241 |
'''
|
242 |
|
243 |
print("*** Running model.generate:")
|
|
|
10 |
model_name: SauerkrautLM 70B v1
|
11 |
model_type: llama
|
12 |
pipeline_tag: text-generation
|
13 |
+
prompt_template: "[INST] <<SYS>>\nEin Chat zwischen einem Benutzer und einem KI-Assistenten.\
|
14 |
+
\ Der KI-Assistent gibt hilfreiche, detaillierte und h\xF6fliche Antworten.\n<</SYS>>\n\
|
15 |
+
{prompt}[/INST]\n"
|
16 |
quantized_by: TheBloke
|
17 |
---
|
18 |
<!-- markdownlint-disable MD041 -->
|
|
|
68 |
<!-- repositories-available end -->
|
69 |
|
70 |
<!-- prompt-template start -->
|
71 |
+
## Prompt template: Sauerkraut-Llama-2-Chat
|
72 |
|
73 |
```
|
74 |
+
[INST] <<SYS>>
|
75 |
+
Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
|
76 |
+
<</SYS>>
|
77 |
+
{prompt}[/INST]
|
78 |
|
79 |
```
|
80 |
|
|
|
140 |
"What is 291 - 150?",
|
141 |
"How much wood would a woodchuck chuck if a woodchuck could chuck wood?",
|
142 |
]
|
143 |
+
prompt_template=f'''[INST] <<SYS>>
|
144 |
+
Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
|
145 |
+
<</SYS>>
|
146 |
+
{prompt}[/INST]
|
147 |
'''
|
148 |
|
149 |
prompts = [prompt_template.format(prompt=prompt) for prompt in prompts]
|
|
|
185 |
endpoint_url = "https://your-endpoint-url-here"
|
186 |
|
187 |
prompt = "Tell me about AI"
|
188 |
+
prompt_template=f'''[INST] <<SYS>>
|
189 |
+
Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
|
190 |
+
<</SYS>>
|
191 |
+
{prompt}[/INST]
|
192 |
'''
|
193 |
|
194 |
client = InferenceClient(endpoint_url)
|
|
|
239 |
trust_remote_code=False, safetensors=True)
|
240 |
|
241 |
prompt = "Tell me about AI"
|
242 |
+
prompt_template=f'''[INST] <<SYS>>
|
243 |
+
Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
|
244 |
+
<</SYS>>
|
245 |
+
{prompt}[/INST]
|
246 |
'''
|
247 |
|
248 |
print("*** Running model.generate:")
|