bjoernp commited on
Commit
2ed5de1
1 Parent(s): dcb5dd1

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +12 -11
README.md CHANGED
@@ -52,26 +52,21 @@ pip install git+https://github.com/HazyResearch/flash-attention.git@v2.1.1#subdi
52
  ```
53
  Then load the model in transformers:
54
  ```python
55
- from transformers import AutoModelForCausalLM, AutoTokenizer
56
- import torch
57
-
58
- model = AutoModelForCausalLM.from_pretrained(
59
- "LeoLM/leo-hessianai-7b-chat",
60
- torch_dtype=torch.float16,
61
- trust_remote_code=True # True for flash-attn, else False
62
- )
63
- tokenizer = AutoTokenizer.from_pretrained("LeoLM/leo-hessianai-7b-chat")
64
 
65
  system_prompt = """<|im_start|>system
66
  Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
67
  Der Assistent gibt ausführliche, hilfreiche und ehrliche Antworten.<|im_end|>
68
 
69
  """
70
-
71
  prompt_format = "<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant\n"
72
  prompt = "Erkläre mir wie die Fahrradwegesituation in Hamburg ist."
73
 
74
- response, history = model.chat(tokenizer, prompt_format.format(prompt=prompt), history=None)
 
 
 
 
75
  ```
76
 
77
  ## Prompting / Prompt Template
@@ -110,6 +105,12 @@ perform safety testing and tuning tailored to their specific applications of the
110
 
111
  Please see Meta's [Responsible Use Guide](https://ai.meta.com/llama/responsible-use-guide/).
112
 
 
 
 
 
 
 
113
  ## Dataset Details
114
  ```
115
  ## Stats for 'Subset of OpenAssistant/OASST-DE' (3534 samples (100.0%))
 
52
  ```
53
  Then load the model in transformers:
54
  ```python
55
+ from transformers import pipeline
 
 
 
 
 
 
 
 
56
 
57
  system_prompt = """<|im_start|>system
58
  Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
59
  Der Assistent gibt ausführliche, hilfreiche und ehrliche Antworten.<|im_end|>
60
 
61
  """
 
62
  prompt_format = "<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant\n"
63
  prompt = "Erkläre mir wie die Fahrradwegesituation in Hamburg ist."
64
 
65
+ generator = pipeline(model="LeoLM/leo-hessianai-7b-chat", device="cuda", torch_dtype=torch.float16, trust_remote_code=True) # True for flash-attn2 else False
66
+ print(generator(prompt_format.format(prompt=prompt), do_sample=True, top_p=0.95, max_length=8192))
67
+ > Als KI kann ich keine persönlichen Beobachtungen teilen, aber ich kann einige allgemeine Informationen zur Fahrradwegesituation in Hamburg liefern. Im Vergleich zu vielen anderen großen Städten hat Hamburg eine hohe Anzahl von Fahrradfahrern und nimmt seine Verantwortung für nachhaltige Verkehrsmittel sehr ernst. Es gibt viele Fahrradwege und separate Fahrspuren, die Radfahrern ermöglichen, zusammen mit dem Autoverkehr zu fahren. Diese Fahrradspuren sind oft mit Markierungen gekennzeichnet und durch physische Trennungen von anderen Fahrspuren abgegrenzt. Darüber hinaus gibt es viele Fahrradstraßen, auf denen Radfahrer Vorfahrt haben und Autos langsamer fahren müssen.
68
+ >
69
+ > In einigen städtischen Gebieten können Fahrradwege jedoch eng oder überfüllt sein, besonders während der Stoßzeiten. Es gibt auch viele Kreuzungen, an denen Radfahrer anhalten und auf Grün warten müssen, ähnlich wie Autofahrer. Insgesamt ist die Fahrradinfrastruktur in Hamburg ziemlich gut, aber wie überall gibt es immer Raum für Verbesserungen.
70
  ```
71
 
72
  ## Prompting / Prompt Template
 
105
 
106
  Please see Meta's [Responsible Use Guide](https://ai.meta.com/llama/responsible-use-guide/).
107
 
108
+ ## Finetuning Details
109
+ ```
110
+ Examples per epoch131214
111
+
112
+ ```
113
+
114
  ## Dataset Details
115
  ```
116
  ## Stats for 'Subset of OpenAssistant/OASST-DE' (3534 samples (100.0%))