Update README.md
Browse files
README.md
CHANGED
@@ -52,26 +52,21 @@ pip install git+https://github.com/HazyResearch/flash-attention.git@v2.1.1#subdi
|
|
52 |
```
|
53 |
Then load the model in transformers:
|
54 |
```python
|
55 |
-
from transformers import
|
56 |
-
import torch
|
57 |
-
|
58 |
-
model = AutoModelForCausalLM.from_pretrained(
|
59 |
-
"LeoLM/leo-hessianai-7b-chat",
|
60 |
-
torch_dtype=torch.float16,
|
61 |
-
trust_remote_code=True # True for flash-attn, else False
|
62 |
-
)
|
63 |
-
tokenizer = AutoTokenizer.from_pretrained("LeoLM/leo-hessianai-7b-chat")
|
64 |
|
65 |
system_prompt = """<|im_start|>system
|
66 |
Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
|
67 |
Der Assistent gibt ausführliche, hilfreiche und ehrliche Antworten.<|im_end|>
|
68 |
|
69 |
"""
|
70 |
-
|
71 |
prompt_format = "<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant\n"
|
72 |
prompt = "Erkläre mir wie die Fahrradwegesituation in Hamburg ist."
|
73 |
|
74 |
-
|
|
|
|
|
|
|
|
|
75 |
```
|
76 |
|
77 |
## Prompting / Prompt Template
|
@@ -110,6 +105,12 @@ perform safety testing and tuning tailored to their specific applications of the
|
|
110 |
|
111 |
Please see Meta's [Responsible Use Guide](https://ai.meta.com/llama/responsible-use-guide/).
|
112 |
|
|
|
|
|
|
|
|
|
|
|
|
|
113 |
## Dataset Details
|
114 |
```
|
115 |
## Stats for 'Subset of OpenAssistant/OASST-DE' (3534 samples (100.0%))
|
|
|
52 |
```
|
53 |
Then load the model in transformers:
|
54 |
```python
|
55 |
+
from transformers import pipeline
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
56 |
|
57 |
system_prompt = """<|im_start|>system
|
58 |
Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
|
59 |
Der Assistent gibt ausführliche, hilfreiche und ehrliche Antworten.<|im_end|>
|
60 |
|
61 |
"""
|
|
|
62 |
prompt_format = "<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant\n"
|
63 |
prompt = "Erkläre mir wie die Fahrradwegesituation in Hamburg ist."
|
64 |
|
65 |
+
generator = pipeline(model="LeoLM/leo-hessianai-7b-chat", device="cuda", torch_dtype=torch.float16, trust_remote_code=True) # True for flash-attn2 else False
|
66 |
+
print(generator(prompt_format.format(prompt=prompt), do_sample=True, top_p=0.95, max_length=8192))
|
67 |
+
> Als KI kann ich keine persönlichen Beobachtungen teilen, aber ich kann einige allgemeine Informationen zur Fahrradwegesituation in Hamburg liefern. Im Vergleich zu vielen anderen großen Städten hat Hamburg eine hohe Anzahl von Fahrradfahrern und nimmt seine Verantwortung für nachhaltige Verkehrsmittel sehr ernst. Es gibt viele Fahrradwege und separate Fahrspuren, die Radfahrern ermöglichen, zusammen mit dem Autoverkehr zu fahren. Diese Fahrradspuren sind oft mit Markierungen gekennzeichnet und durch physische Trennungen von anderen Fahrspuren abgegrenzt. Darüber hinaus gibt es viele Fahrradstraßen, auf denen Radfahrer Vorfahrt haben und Autos langsamer fahren müssen.
|
68 |
+
>
|
69 |
+
> In einigen städtischen Gebieten können Fahrradwege jedoch eng oder überfüllt sein, besonders während der Stoßzeiten. Es gibt auch viele Kreuzungen, an denen Radfahrer anhalten und auf Grün warten müssen, ähnlich wie Autofahrer. Insgesamt ist die Fahrradinfrastruktur in Hamburg ziemlich gut, aber wie überall gibt es immer Raum für Verbesserungen.
|
70 |
```
|
71 |
|
72 |
## Prompting / Prompt Template
|
|
|
105 |
|
106 |
Please see Meta's [Responsible Use Guide](https://ai.meta.com/llama/responsible-use-guide/).
|
107 |
|
108 |
+
## Finetuning Details
|
109 |
+
```
|
110 |
+
Examples per epoch131214
|
111 |
+
|
112 |
+
```
|
113 |
+
|
114 |
## Dataset Details
|
115 |
```
|
116 |
## Stats for 'Subset of OpenAssistant/OASST-DE' (3534 samples (100.0%))
|