Text Generation
Transformers
PyTorch
English
German
mistral
conversational
Inference Endpoints
text-generation-inference
bjoernp aari1995 commited on
Commit
1feda3d
1 Parent(s): 76d4ae5

Update READEME.md to include system prompt (#3)

Browse files

- Update READEME.md to include system prompt (77988f208a7ff7d02ad9a56ae1ab3ae1d801a18a)


Co-authored-by: Aaron Chibb <aari1995@users.noreply.huggingface.co>

Files changed (1) hide show
  1. README.md +4 -6
README.md CHANGED
@@ -69,16 +69,14 @@ Then load the model in transformers:
69
  from transformers import pipeline
70
  import torch
71
 
72
- system_prompt = """<|im_start|>system
73
- Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
74
- Der Assistent gibt ausführliche, hilfreiche und ehrliche Antworten.<|im_end|>
75
 
76
- """
77
- prompt_format = "<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant\n"
78
  prompt = "Erkläre mir wie die Fahrradwegesituation in Hamburg ist."
79
 
80
  generator = pipeline(model="LeoLM/leo-mistral-hessianai-7b-chat", device="cuda", torch_dtype=torch.float16, use_flash_attention_2=True) # True for flash-attn2 else False
81
- print(generator(prompt_format.format(prompt=prompt), do_sample=True, top_p=0.95, max_length=8192))
82
  ```
83
 
84
  "*Als KI kann ich keine persönlichen Beobachtungen teilen, aber ich kann einige allgemeine Informationen zur Fahrradwegesituation in Hamburg liefern. Im Vergleich zu vielen anderen großen Städten hat Hamburg eine hohe Anzahl von Fahrradfahrern und nimmt seine Verantwortung für nachhaltige Verkehrsmittel sehr ernst. Es gibt viele Fahrradwege und separate Fahrspuren, die Radfahrern ermöglichen, zusammen mit dem Autoverkehr zu fahren. Diese Fahrradspuren sind oft mit Markierungen gekennzeichnet und durch physische Trennungen von anderen Fahrspuren abgegrenzt. Darüber hinaus gibt es viele Fahrradstraßen, auf denen Radfahrer Vorfahrt haben und Autos langsamer fahren müssen.*
 
69
  from transformers import pipeline
70
  import torch
71
 
72
+ system_prompt = """Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
73
+ Der Assistent gibt ausführliche, hilfreiche und ehrliche Antworten."""
 
74
 
75
+ prompt_format = "<|im_start|>system\n{system_prompt}<|im_end|>\n<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant\n"
 
76
  prompt = "Erkläre mir wie die Fahrradwegesituation in Hamburg ist."
77
 
78
  generator = pipeline(model="LeoLM/leo-mistral-hessianai-7b-chat", device="cuda", torch_dtype=torch.float16, use_flash_attention_2=True) # True for flash-attn2 else False
79
+ print(generator(prompt_format.format(system_prompt=system_prompt, prompt=prompt), do_sample=True, top_p=0.95, max_length=8192))
80
  ```
81
 
82
  "*Als KI kann ich keine persönlichen Beobachtungen teilen, aber ich kann einige allgemeine Informationen zur Fahrradwegesituation in Hamburg liefern. Im Vergleich zu vielen anderen großen Städten hat Hamburg eine hohe Anzahl von Fahrradfahrern und nimmt seine Verantwortung für nachhaltige Verkehrsmittel sehr ernst. Es gibt viele Fahrradwege und separate Fahrspuren, die Radfahrern ermöglichen, zusammen mit dem Autoverkehr zu fahren. Diese Fahrradspuren sind oft mit Markierungen gekennzeichnet und durch physische Trennungen von anderen Fahrspuren abgegrenzt. Darüber hinaus gibt es viele Fahrradstraßen, auf denen Radfahrer Vorfahrt haben und Autos langsamer fahren müssen.*