--- license: apache-2.0 base_model: mhenrichsen/danskgpt-tiny tags: - generated_from_trainer widget: - example_title: Skak messages: - role: system content: Du er en hjælpsom assistent. - role: user content: Hvad er skak? - example_title: Skaber messages: - role: system content: Du er en hjælpsom assistent. - role: user content: Hvem har lavet dig? --- # DanskGPT-tiny-chat DanskGPT-tiny-chat er chat-varianten af [mhenrichsen/danskgpt-tiny](https://huggingface.co/mhenrichsen/danskgpt-tiny) trænet på private chat datasæt. ## Model beskrivelse Modellen er beregnet til at være en lightweight version af DanskGPT, der kan køre på næsten alle enheder. ## Prompt template Modellen er trænet med ChatML format (samme som OpenAI's modeller), og skal bruges på følgende måde: ``` <|im_start|>system\nDu er en hjælpsom assistent.<|im_end|>\n<|im_start|>user\nHvad er skak?<|im_end|>\n<|im_start|>assistant ``` ## Inferens ### Ollama Installér ollama: https://ollama.ai/download Kør: ``` ollama run mhenrichsen/danskgpt-tiny-chat ``` ### vLLM ``` pip install vllm ``` ```python from vllm import LLM, SamplingParams sampling_params = SamplingParams(temperature=0.8, top_p=0.95, max_tokens=1024) llm = LLM(model="mhenrichsen/danskgpt-tiny-chat") system_message = "Du er en hjælpsom assistent." conversation_history = f"<|im_start|>system\n{system_message}<|im_end|>\n<|im_start|>user\n" while True: prompt = input("Bruger: ") new_prompt = f"{conversation_history}{prompt}<|im_end|>\n<|im_start|>assistant\n" outputs = llm.generate(new_prompt, sampling_params) for output in outputs: prompt = output.prompt generated_text = output.outputs[0].text print(f"AI: {generated_text!r}") conversation_history = f"{prompt}{generated_text!r}<|im_end|>\n<|im_start|>user\n" ``` ### Endpoint med openai ``` pip install openai ``` ``` python -m vllm.entrypoints.openai.api_server --model mhenrichsen/danskgpt-tiny-chat ``` og brugt som erstatning for OpenAI's endpoints: ```python from openai import OpenAI openai_api_key = "EMPTY" openai_api_base = "http://localhost:8000/v1" client = OpenAI( api_key=openai_api_key, base_url=openai_api_base, ) chat_response = client.chat.completions.create( model="mhenrichsen/danskgpt-tiny-chat", messages=[ {"role": "system", "content": "Du er en hjælpsom assistent. Giv mig et langt svar."}, {"role": "user", "content": "Fortæl mig om Danmark."}, ] ) print("AI:", chat_response) ``` ## Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:-----:|:----:|:---------------:| | 1.3599 | 0.0 | 1 | 1.4118 | | 0.7896 | 0.25 | 136 | 0.7813 | | 0.7339 | 0.5 | 272 | 0.7490 | | 0.7378 | 0.75 | 408 | 0.7285 | | 0.7112 | 1.0 | 544 | 0.7146 | | 0.6377 | 1.23 | 680 | 0.7135 | | 0.6192 | 1.49 | 816 | 0.7133 | | 0.5985 | 1.74 | 952 | 0.7073 | | 0.6067 | 1.99 | 1088 | 0.7026 | | 0.5139 | 2.22 | 1224 | 0.7167 | | 0.5099 | 2.47 | 1360 | 0.7193 | | 0.5217 | 2.72 | 1496 | 0.7168 | ## Brug for hjælp? Har du spørgsmål eller brug for hjælp til LLM'er eller automatisering af tekstbaserede opgaver, så kontakt mig gerne. /Mads