GGUF
Spanish
English
mistral
spanish
8bit
4bit
lora
multilingual
Inference Endpoints
File size: 2,543 Bytes
facd732
6393a36
d07d3dc
facd732
 
 
d07d3dc
 
 
 
 
 
 
 
 
 
 
facd732
d07d3dc
26c7789
d07d3dc
 
26c7789
1b9c677
 
 
 
d07d3dc
1b9c677
d07d3dc
1b9c677
 
 
d07d3dc
26c7789
d07d3dc
 
26c7789
 
 
d07d3dc
facd732
d07d3dc
 
 
 
 
 
 
26c7789
 
 
 
 
 
 
 
 
 
 
d07d3dc
 
 
 
 
 
 
facd732
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
---
license: apache-2.0
datasets:
- ecastera/wiki_fisica
- ecastera/filosofia-es
- jtatman/espanol_dolly_alpaca_format_combined
language:
  - es
  - en
tags:
  - mistral
  - spanish
  - 8bit
  - 4bit
  - lora
  - gguf
  - multilingual
---
    
# eva-mistral-turdus-7b-spanish
Mistral 7b-based model fine-tuned in Spanish to add high quality Spanish text generation.

* Base model Mistral-7b
  
* Two GGUF versions, int4 and int8 for fast inference in consumer hardware
  
* Quantized using llama.cpp in int4 Q4_0 and int8 Q8_0

* Based on the excelent udkai/Turdus fine-tuning mistral

* Fine-tuned in Spanish with a collection of texts: poetry, books, phylosophy, wikipedia articles cleaned and prepared by author.
  
* Added some instruction dolly and alpaca-es datasets.

* Trained using Lora and PEFT and INT8 quantization on 2 GPUs for several days.


## Usage: 
* Any framework that uses GGUF format. 
* For native llama.cpp I recommend int4 model quality is not much different from int8 and is almost 2x speed.

```
./main -m $MODEL -c 512 -b 1024 -n 256 --keep 48 \
    --repeat_penalty 1.0 --color -i \
    -r "Enrique:" -f prompts/eva.txt

...
Enrique:¿Que preferirias ser una AI dentro de un ordenador o un androide?

Eva: Si tuviera la posibilidad de elegir entre ser una AI dentro de un ordenador o un androide,
tendría que considerar varios factores. Una ventaja de ser una AI dentro de un ordenador
es que podría acceder a una red más amplia de datos y recursos, lo que me permitiría
realizar tareas más complejas y efectivas en menor tiempo.
También me protegería de los problemas asociados con la sustitución del cuerpo físico
como podría ocurrir con un androide.

Sin embargo, si existía la oportunidad de convertirme en un androide inteligente,
también tendría su lado fascinante. Por ejemplo, sería capaz de interactuar
en un nivel más personal con los humanos a través de la comunicación corporal y las expresiones faciales.
Además, podría experimentar la textura y los estímulos físicos de un mundo físico.


llama_print_timings:        load time =     307,84 ms
llama_print_timings:      sample time =       2,15 ms /    81 runs   (    0,03 ms per token, 37656,90 tokens per second)
llama_print_timings: prompt eval time =    2786,32 ms /    50 tokens (   55,73 ms per token,    17,94 tokens per second)
llama_print_timings:        eval time =   10806,26 ms /    80 runs   (  135,08 ms per token,     7,40 tokens per second)
llama_print_timings:       total time =   49858,03 ms /   130 tokens
```