File size: 824 Bytes
5b6ba40 4ad8065 5b6ba40 e90ac6f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 |
---
license: mit
datasets:
- DDSC/partial-danish-gigaword-no-twitter
language:
- da
---
# HestenettetLM
En dansk LLM trænet på hele hestenettet over 3 epoker.
Modellen er baseret på Mistral 7b, og har et kontekstvindue på 8k.
```python
from transformers import AutoTokenizer, TextStreamer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("mhenrichsen/hestenettetLM")
tokenizer = AutoTokenizer.from_pretrained("mhenrichsen/hestenettetLM")
streamer = TextStreamer(tokenizer, skip_special_tokens=True)
tokens = tokenizer(
"Den bedste hest er en ",
return_tensors='pt'
)['input_ids']
# Generate output
generation_output = model.generate(
tokens,
streamer=streamer,
max_length = 8194,
)
```
Eksempel:
"Den bedste hest er en "
bliver til:
"Den bedste hest er en veltrænet hest." |