Edit model card

HestenettetLM

En dansk LLM trænet på hele hestenettet over 3 epoker.

Modellen er baseret på Mistral 7b, og har et kontekstvindue på 8k.

from transformers import AutoTokenizer, TextStreamer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("mhenrichsen/hestenettetLM")
tokenizer = AutoTokenizer.from_pretrained("mhenrichsen/hestenettetLM")
streamer = TextStreamer(tokenizer, skip_special_tokens=True)


tokens = tokenizer(
    "Den bedste hest er en ", 
    return_tensors='pt'
)['input_ids']

# Generate output
generation_output = model.generate(
    tokens,
    streamer=streamer,
    max_length = 8194,
)

Eksempel: "Den bedste hest er en " bliver til: "Den bedste hest er en veltrænet hest."

Downloads last month
1,136
Safetensors
Model size
7.24B params
Tensor type
FP16
·

Dataset used to train mhenrichsen/hestenettetLM