|
--- |
|
license: apache-2.0 |
|
base_model: mhenrichsen/danskgpt-tiny |
|
tags: |
|
- generated_from_trainer |
|
widget: |
|
- text: "<|im_start|>system\nDu er en hjælpsom assistent.<|im_end|>\n<|im_start|>user\nHvad er skak?<|im_end|>\n<|im_start|>assistant" |
|
example_title: "Skak" |
|
- text: "<|im_start|>system\nDu er en hjælpsom assistent.<|im_end|>\n<|im_start|>user\nHvem har lavet dig?<|im_end|>\n<|im_start|>assistant" |
|
example_title: "Skaber" |
|
|
|
--- |
|
|
|
|
|
# DanskGPT-tiny-chat |
|
<img src="danskgpt-tiny-chat.webp" width="500" height="500"> |
|
|
|
DanskGPT-tiny-chat er chat-varianten af [mhenrichsen/danskgpt-tiny](https://huggingface.co/mhenrichsen/danskgpt-tiny) trænet på private chat datasæt. |
|
|
|
|
|
## Model beskrivelse |
|
|
|
Modellen er beregnet til at være en lightweight version af DanskGPT, der kan køre på næsten alle enheder. |
|
|
|
## Prompt template |
|
|
|
Modellen er trænet med ChatML format (samme som OpenAI's modeller), og skal bruges på følgende måde: |
|
|
|
``` |
|
<|im_start|>system\nDu er en hjælpsom assistent.<|im_end|>\n<|im_start|>user\nHvad er skak?<|im_end|>\n<|im_start|>assistant |
|
|
|
``` |
|
|
|
|
|
## Inferens |
|
|
|
### Ollama |
|
Installér ollama: |
|
https://ollama.ai/download |
|
|
|
Kør: |
|
``` |
|
ollama run mhenrichsen/danskgpt-tiny-chat |
|
``` |
|
|
|
|
|
### vLLM |
|
``` |
|
pip install vllm |
|
``` |
|
|
|
|
|
```python |
|
from vllm import LLM, SamplingParams |
|
|
|
sampling_params = SamplingParams(temperature=0.8, top_p=0.95, max_tokens=1024) |
|
llm = LLM(model="mhenrichsen/danskgpt-tiny-chat") |
|
|
|
system_message = "Du er en hjælpsom assistent." |
|
conversation_history = f"<|im_start|>system\n{system_message}<|im_end|>\n<|im_start|>user\n" |
|
while True: |
|
prompt = input("Bruger: ") |
|
new_prompt = f"{conversation_history}{prompt}<|im_end|>\n<|im_start|>assistant\n" |
|
|
|
outputs = llm.generate(new_prompt, sampling_params) |
|
for output in outputs: |
|
prompt = output.prompt |
|
generated_text = output.outputs[0].text |
|
print(f"AI: {generated_text!r}") |
|
conversation_history = f"{prompt}{generated_text!r}<|im_end|>\n<|im_start|>user\n" |
|
|
|
``` |
|
|
|
### Endpoint med openai |
|
``` |
|
pip install openai |
|
``` |
|
|
|
|
|
``` |
|
python -m vllm.entrypoints.openai.api_server --model mhenrichsen/danskgpt-tiny-chat |
|
``` |
|
og brugt som erstatning for OpenAI's endpoints: |
|
|
|
```python |
|
from openai import OpenAI |
|
openai_api_key = "EMPTY" |
|
openai_api_base = "http://localhost:8000/v1" |
|
|
|
client = OpenAI( |
|
api_key=openai_api_key, |
|
base_url=openai_api_base, |
|
) |
|
|
|
chat_response = client.chat.completions.create( |
|
model="mhenrichsen/danskgpt-tiny-chat", |
|
messages=[ |
|
{"role": "system", "content": "Du er en hjælpsom assistent. Giv mig et langt svar."}, |
|
{"role": "user", "content": "Fortæl mig om Danmark."}, |
|
] |
|
) |
|
print("AI:", chat_response) |
|
``` |
|
|
|
|
|
## Training results |
|
|
|
|
|
| Training Loss | Epoch | Step | Validation Loss | |
|
|:-------------:|:-----:|:----:|:---------------:| |
|
| 1.3599 | 0.0 | 1 | 1.4118 | |
|
| 0.7896 | 0.25 | 136 | 0.7813 | |
|
| 0.7339 | 0.5 | 272 | 0.7490 | |
|
| 0.7378 | 0.75 | 408 | 0.7285 | |
|
| 0.7112 | 1.0 | 544 | 0.7146 | |
|
| 0.6377 | 1.23 | 680 | 0.7135 | |
|
| 0.6192 | 1.49 | 816 | 0.7133 | |
|
| 0.5985 | 1.74 | 952 | 0.7073 | |
|
| 0.6067 | 1.99 | 1088 | 0.7026 | |
|
| 0.5139 | 2.22 | 1224 | 0.7167 | |
|
| 0.5099 | 2.47 | 1360 | 0.7193 | |
|
| 0.5217 | 2.72 | 1496 | 0.7168 | |
|
|
|
## Brug for hjælp? |
|
Har du spørgsmål eller brug for hjælp til LLM'er eller automatisering af tekstbaserede opgaver, så kontakt mig gerne. |
|
|
|
/Mads |
|
|