Edit model card

HestenettetLM

En dansk LLM trænet på hele hestenettet over 3 epoker.

Modellen er baseret på Mistral 7b, og har et kontekstvindue på 8k.

from transformers import AutoTokenizer, TextStreamer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("mhenrichsen/hestenettetLM")
tokenizer = AutoTokenizer.from_pretrained("mhenrichsen/hestenettetLM")
streamer = TextStreamer(tokenizer, skip_special_tokens=True)


tokens = tokenizer(
    "Den bedste hest er en ", 
    return_tensors='pt'
)['input_ids']

# Generate output
generation_output = model.generate(
    tokens,
    streamer=streamer,
    max_length = 8194,
)

Eksempel: "Den bedste hest er en " bliver til: "Den bedste hest er en veltrænet hest."

Downloads last month
783
Safetensors
Model size
7.24B params
Tensor type
FP16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train mhenrichsen/hestenettetLM

Spaces using mhenrichsen/hestenettetLM 5