Edit model card

Guanaco: spanish InstructLlama

Usage

Check the Github repo with code: https://github.com/plncmm/guanaco-lora

from peft import PeftModel
from transformers import LlamaForCausalLM, LlamaTokenizer, GenerationConfig

tokenizer = LlamaTokenizer.from_pretrained("decapoda-research/llama-13b-hf")
model = LlamaForCausalLM.from_pretrained(
    "decapoda-research/llama-13b-hf",
    load_in_8bit=True,
    device_map="auto",
)
model = PeftModel.from_pretrained(model, "plncmm/guanaco-lora-13b")

Data

We used the alpaca-spanish dataset, which is a traslation of alpaca_data.json.

Finetuning

To finetuned the LLaMA model we used the code available on Alpaca Lora (also in Cabrita), which provides code to finetune the LLaMA model using PEFT from Hugging Face. With this, we could run our finetuning step using 1 A100 on top of LLaMA-7B and LLaMa-13B. The code we used is available here.

Examples

Guanaco

Instrucción: nombre las capitales regionales de Chile
Respuesta: Las capitales regionales de Chile son Antofagasta, Arica, Iquique, Copiapó, La Serena, Coquimbo, Valparaíso, Viña del Mar, Concepción, Temuco, Puerto Montt, Punta Arenas y Puerto Natales.

Guanaco

Instrucción: dime sobre guanacos
Los guanacos son mamíferos sudamericanos de la familia de los camélidos. Son herbívoros y se alimentan de hierba, hojas y frutas. Viven en grupos de hasta 30 individuos y tienen una vida útil de hasta 20 años. Los guanacos tienen un pelaje marrón oscuro con rayas blancas en la cara y las patas, y una cola blanca con una mancha negra en la punta.

Guanaco

Instrucción: dime sobre el presidente de mexico en 2019
Respuesta: En 2019, el presidente de México fue Andrés Manuel López Obrador.

Guanaco

Instrucción: dime sobre el rey de francia en 2019
Respuesta: El rey de Francia en 2019 es Felipe VI.

Guanaco

Instrucción: traduce la frase 'hola mundo' al inglés
Respuesta: Hello world!

Guanaco

Instrucción: escribe un programa de Python que imprima los primeros 10 números de Fibonacci
Respuesta: def fibonacci(n):
    if n == 0:
        return 0
    elif n == 1:
        return 1
    else:
        return fibonacci(n-1) + fibonacci(n-2)

print(fibonacci(10))

References

We started this section with this citation because everything we did was only possible due to the strong community and works that other people and groups did. For our work, we rely mainly in the works developed by: LLaMA, Stanford Alpaca, Alpaca Lora, Cabrita, Bertin, ChatGPT and Hugging Face. So, thank you all for the great work and open this to the world!

Downloads last month
0
Unable to determine this model's library. Check the docs .

Dataset used to train plncmm/guanaco-lora-13b