Spanish
caracena commited on
Commit
936def9
1 Parent(s): 15fb74b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +83 -0
README.md CHANGED
@@ -1,3 +1,86 @@
1
  ---
2
  license: openrail
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: openrail
3
+ datasets:
4
+ - bertin-project/alpaca-spanish
5
+ language:
6
+ - es
7
  ---
8
+
9
+ # Guanaco: spanish InstructLlama
10
+
11
+ ## Usage
12
+
13
+ Check the Github repo with code: https://github.com/plncmm/guanaco-lora
14
+
15
+ ```python
16
+ from peft import PeftModel
17
+ from transformers import LlamaForCausalLM, LlamaTokenizer, GenerationConfig
18
+
19
+ tokenizer = LlamaTokenizer.from_pretrained("decapoda-research/llama-7b-hf")
20
+ model = LlamaForCausalLM.from_pretrained(
21
+ "decapoda-research/llama-7b-hf",
22
+ load_in_8bit=True,
23
+ device_map="auto",
24
+ )
25
+ model = PeftModel.from_pretrained(model, "plncmm/guanaco-lora-7b")
26
+
27
+ ```
28
+
29
+ ## Data
30
+
31
+ We used the [alpaca-spanish dataset](https://huggingface.co/datasets/bertin-project/alpaca-spanish), which is a traslation of [alpaca_data.json](https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json).
32
+
33
+ ## Finetuning
34
+
35
+ To finetuned the LLaMA model we used the code available on [Alpaca Lora](https://github.com/tloen/alpaca-lora) (also in [Cabrita](https://github.com/22-hours/cabrita)), which provides code to finetune the LLaMA model using PEFT from Hugging Face. With this, we could run our finetuning step using 1 A100 on top of LLaMA-7B and LLaMa-13B. The code we used is available [here](https://github.com/plncmm/guanaco-lora/blob/main/guanaco-lora.py).
36
+
37
+
38
+ ## Examples
39
+
40
+ Guanaco
41
+ ```
42
+ Instrucción: nombre las capitales regionales de Chile
43
+ Respuesta: Las capitales regionales de Chile son Antofagasta, Arica, Iquique, Copiapó, La Serena, Coquimbo, Valparaíso, Viña del Mar, Concepción, Temuco, Puerto Montt, Punta Arenas y Puerto Natales.
44
+ ```
45
+
46
+ Guanaco
47
+ ```
48
+ Instrucción: dime sobre guanacos
49
+ Respuesta: Los guanacos son mamíferos sudamericanos de la familia de los camélidos. Son herbívoros y se alimentan de hierba, hojas y frutas. Viven en grupos de hasta 30 individuos y tienen una vida útil de hasta 20 años. Los guanacos tienen un pelaje marrón oscuro con rayas blancas en la cara y las patas, y una cola blanca con una mancha negra en la punta.
50
+ ```
51
+
52
+ Guanaco
53
+ ```
54
+ Instrucción: dime sobre el presidente de mexico en 2019
55
+ Respuesta: En 2019, el presidente de México fue Andrés Manuel López Obrador.
56
+ ```
57
+
58
+ Guanaco
59
+ ```
60
+ Instrucción: dime sobre el rey de francia en 2019
61
+ Respuesta: En 2019, el rey de Francia era Felipe VI.
62
+ ```
63
+
64
+ Guanaco
65
+ ```
66
+ Instrucción: traduce la frase 'hola mundo' al inglés
67
+ Respuesta: Hello world!
68
+ ```
69
+
70
+ Guanaco
71
+ ```
72
+ Instrucción: escribe un programa de Python que imprima los primeros 10 números de Fibonacci
73
+ Respuesta: def fibonacci(n):
74
+ if n == 0:
75
+ return 0
76
+ elif n == 1:
77
+ return 1
78
+ else:
79
+ return fibonacci(n-1) + fibonacci(n-2)
80
+
81
+ print(fibonacci(10))
82
+ ```
83
+
84
+ ## References
85
+
86
+ We started this section with this citation because everything we did was only possible due to the strong community and works that other people and groups did. For our work, we rely mainly in the works developed by: [LLaMA](https://ai.facebook.com/blog/large-language-model-llama-meta-ai/), [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca), [Alpaca Lora](https://github.com/tloen/alpaca-lora), [Cabrita](https://github.com/22-hours/cabrita), [Bertin](https://huggingface.co/bertin-project), [ChatGPT](https://openai.com/blog/chatgpt) and [Hugging Face](https://huggingface.co/). So, thank you all for the great work and open this to the world!