|
--- |
|
base_model: meta-llama/Meta-Llama-3-8B |
|
language: |
|
- sv |
|
- da |
|
- 'no' |
|
pipeline_tag: text-generation |
|
inference: |
|
parameters: |
|
temperature: 0.6 |
|
tags: |
|
- pytorch |
|
- llama |
|
- llama-3 |
|
- ai-sweden |
|
--- |
|
|
|
### Intended usage: |
|
This is a base model, it can be finetuned to a particular use case. |
|
|
|
### Use with transformers |
|
|
|
See the snippet below for usage with Transformers: |
|
|
|
```python |
|
>>> import transformers |
|
>>> import torch |
|
|
|
>>> model_id = "AI-Sweden-Models/Llama-3-8B" |
|
|
|
>>> pipeline = transformers.pipeline( |
|
"text-generation", |
|
model=model_id, |
|
model_kwargs={"torch_dtype": torch.bfloat16}, |
|
device_map="auto" |
|
) |
|
>>> pipeline( |
|
text_inputs="Sommar och sol är det bästa jag vet", |
|
max_length=128, |
|
repetition_penalty=1.03) |
|
) |
|
``` |
|
```python |
|
>>> "Sommar och sol är det bästa jag vet! |
|
Och nu när jag har fått lite extra semester så ska jag njuta till max av allt som våren och sommaren har att erbjuda. |
|
Jag har redan börjat med att sitta ute på min altan och ta en kopp kaffe och läsa i tidningen, det är så skönt att bara sitta där och njuta av livet. |
|
|
|
Ikväll blir det grillat och det ser jag fram emot!" |
|
``` |
|
## Training information |
|
|
|
`AI-Sweden-Models/Llama-3-8B` is a continuation of the pretraining process from `meta-llama/Meta-Llama-3-8B`. It was trained on a subset from [The Nordic Pile](https://arxiv.org/abs/2303.17183) containing Swedish, Norweigian and Danish. |
|
|
|
A total of 92 A100 gpus was used, and roughly 250GB of data. |
|
|
|
## Benchmarks |
|
|
|
Coming soon. |