Edit model card

QuantFactory/AI-Sweden-Llama-3-8B-GGUF (checkpoint-11525)

This is quantized vresion of AI-Sweden-Models/Llama-3-8B created suing llama.cpp

Model Description

Intended usage:

This is a base model, it can be finetuned to a particular use case.

-----> instruct version here <-----

Use with transformers

See the snippet below for usage with Transformers:

import transformers
import torch

model_id = "AI-Sweden-Models/Llama-3-8B"

pipeline = transformers.pipeline(
    task="text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device_map="auto"
)

pipeline(
    text_inputs="Sommar och sol är det bästa jag vet",
    max_length=128,
    repetition_penalty=1.03
)
>>> "Sommar och sol är det bästa jag vet!
Och nu när jag har fått lite extra semester så ska jag njuta till max av allt som våren och sommaren har att erbjuda.
Jag har redan börjat med att sitta ute på min altan och ta en kopp kaffe och läsa i tidningen, det är så skönt att bara sitta där och njuta av livet.

Ikväll blir det grillat och det ser jag fram emot!"

Training information

AI-Sweden-Models/Llama-3-8B is a continuation of the pretraining process from meta-llama/Meta-Llama-3-8B. It was trained on a subset from The Nordic Pile containing Swedish, Norwegian and Danish.

The training dataset consists of 227 105 079 296 tokens.

Benchmarks

Coming soon.

Checkpoints

  • 03/6/2024 (11525)
  • 29/5/2024 (8200)
  • 26/5/2024 (6550)
  • 24/5/2024 (5325)
  • 22/5/2024 (3900)
  • 20/5/2024 (2700)
  • 13/5/2024 (1500)
Downloads last month
520
GGUF
Model size
8.03B params
Architecture
llama

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Examples
Unable to determine this model's library. Check the docs .

Model tree for QuantFactory/AI-Sweden-Llama-3-8B-GGUF

Quantized
(12)
this model