TheBloke commited on
Commit
9b135af
·
1 Parent(s): 81f5c0a

Upload README.md

Browse files
Files changed (1) hide show
  1. README.md +16 -12
README.md CHANGED
@@ -10,8 +10,9 @@ model_creator: VAGO solutions
10
  model_name: SauerkrautLM 70B v1
11
  model_type: llama
12
  pipeline_tag: text-generation
13
- prompt_template: "Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent\
14
- \ gibt hilfreiche, detaillierte und h\xF6fliche Antworten. \nUser: {prompt} \nAssistant:\n"
 
15
  quantized_by: TheBloke
16
  ---
17
  <!-- markdownlint-disable MD041 -->
@@ -57,12 +58,13 @@ These files were quantised using hardware kindly provided by [Massed Compute](ht
57
  <!-- repositories-available end -->
58
 
59
  <!-- prompt-template start -->
60
- ## Prompt template: Sauerkraut
61
 
62
  ```
63
- Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
64
- User: {prompt}
65
- Assistant:
 
66
 
67
  ```
68
 
@@ -232,9 +234,10 @@ from huggingface_hub import InferenceClient
232
  endpoint_url = "https://your-endpoint-url-here"
233
 
234
  prompt = "Tell me about AI"
235
- prompt_template=f'''Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
236
- User: {prompt}
237
- Assistant:
 
238
  '''
239
 
240
  client = InferenceClient(endpoint_url)
@@ -287,9 +290,10 @@ model = AutoModelForCausalLM.from_pretrained(model_name_or_path,
287
  tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
288
 
289
  prompt = "Tell me about AI"
290
- prompt_template=f'''Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
291
- User: {prompt}
292
- Assistant:
 
293
  '''
294
 
295
  print("\n\n*** Generate:")
 
10
  model_name: SauerkrautLM 70B v1
11
  model_type: llama
12
  pipeline_tag: text-generation
13
+ prompt_template: "[INST] <<SYS>>\nEin Chat zwischen einem Benutzer und einem KI-Assistenten.\
14
+ \ Der KI-Assistent gibt hilfreiche, detaillierte und h\xF6fliche Antworten.\n<</SYS>>\n\
15
+ {prompt}[/INST]\n"
16
  quantized_by: TheBloke
17
  ---
18
  <!-- markdownlint-disable MD041 -->
 
58
  <!-- repositories-available end -->
59
 
60
  <!-- prompt-template start -->
61
+ ## Prompt template: Sauerkraut-Llama-2-Chat
62
 
63
  ```
64
+ [INST] <<SYS>>
65
+ Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
66
+ <</SYS>>
67
+ {prompt}[/INST]
68
 
69
  ```
70
 
 
234
  endpoint_url = "https://your-endpoint-url-here"
235
 
236
  prompt = "Tell me about AI"
237
+ prompt_template=f'''[INST] <<SYS>>
238
+ Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
239
+ <</SYS>>
240
+ {prompt}[/INST]
241
  '''
242
 
243
  client = InferenceClient(endpoint_url)
 
290
  tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
291
 
292
  prompt = "Tell me about AI"
293
+ prompt_template=f'''[INST] <<SYS>>
294
+ Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
295
+ <</SYS>>
296
+ {prompt}[/INST]
297
  '''
298
 
299
  print("\n\n*** Generate:")