Text Generation
Safetensors
Spanish
Paraguay
Culture
Custom Code
Guaraní
unsloth
enpaiva commited on
Commit
104cb85
1 Parent(s): 4cc4b8e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +23 -22
README.md CHANGED
@@ -47,31 +47,34 @@ Se basa en el finetuning del modelo *Mistral* de 7B de parámetros para la gener
47
  - **Dataset Especializado**: Creamos un dataset exclusivo, corregido y centrado en la cultura guaraní, tomando como texto base el libro <ins>"Ñande Ypykuéra" de Narciso R. Colmán</ins>, asegurando respuestas precisas y culturalmente relevantes.
48
  - **Finetuning**: Se detallan los siguientes parametros de entrenamiento:
49
 
50
- LoRA
51
- r = 64,
 
52
  target_modules = ["q_proj", "k_proj", "v_proj", "o_proj","gate_proj", "up_proj", "down_proj"],
53
  lora_alpha = 128,
54
- lora_dropout = 0,
55
  bias = "none",
56
  use_gradient_checkpointing = True,
57
  random_state = 42,
58
  use_rslora = False,
59
- loftq_config = None,
60
- Trainer
61
- per_device_train_batch_size = 2,
62
- gradient_accumulation_steps = 32,
63
- warmup_steps = 10,
64
- num_train_epochs = 5,
65
- learning_rate = 2e-4,
66
- fp16 = not torch.cuda.is_bf16_supported(),
67
- bf16 = torch.cuda.is_bf16_supported(),
68
- logging_steps = 1,
69
- optim = "adamw_8bit",
70
- weight_decay = 0.01,
71
- lr_scheduler_type = "linear",
72
- save_strategy="epoch",
73
- seed = 42,
74
- report_to="tensorboard",
 
 
75
 
76
  ## Usos 🛠️
77
 
@@ -119,7 +122,7 @@ base_prompt = """Responde a preguntas de forma clara, amable, concisa y solament
119
  {}
120
 
121
  ### Respuesta:
122
- {}""
123
 
124
  model, tokenizer = FastLanguageModel.from_pretrained(
125
  model_name = "somosnlp/gua-a",
@@ -147,8 +150,6 @@ Estamos abiertos a contribuciones para mejorar aún más el modelo gua-a. =) Si
147
  Ampliar el dataset creado
148
  Continuar el finetuning
149
 
150
- Por favor, consulta nuestra guía de contribución o ponte en contacto directamente a través de los Issues en GitHub
151
-
152
 
153
  ## Licencia
154
 
 
47
  - **Dataset Especializado**: Creamos un dataset exclusivo, corregido y centrado en la cultura guaraní, tomando como texto base el libro <ins>"Ñande Ypykuéra" de Narciso R. Colmán</ins>, asegurando respuestas precisas y culturalmente relevantes.
48
  - **Finetuning**: Se detallan los siguientes parametros de entrenamiento:
49
 
50
+ - LoRA
51
+
52
+ r = 64,
53
  target_modules = ["q_proj", "k_proj", "v_proj", "o_proj","gate_proj", "up_proj", "down_proj"],
54
  lora_alpha = 128,
55
+ lora_dropout = 0,
56
  bias = "none",
57
  use_gradient_checkpointing = True,
58
  random_state = 42,
59
  use_rslora = False,
60
+ loftq_config = None
61
+
62
+ - Trainer
63
+
64
+ per_device_train_batch_size = 2,
65
+ gradient_accumulation_steps = 32,
66
+ warmup_steps = 10,
67
+ num_train_epochs = 5,
68
+ learning_rate = 2e-4,
69
+ fp16 = not torch.cuda.is_bf16_supported(),
70
+ bf16 = torch.cuda.is_bf16_supported(),
71
+ logging_steps = 1,
72
+ optim = "adamw_8bit",
73
+ weight_decay = 0.01,
74
+ lr_scheduler_type = "linear",
75
+ save_strategy="epoch",
76
+ seed = 42,
77
+ report_to="tensorboard"
78
 
79
  ## Usos 🛠️
80
 
 
122
  {}
123
 
124
  ### Respuesta:
125
+ {}"""
126
 
127
  model, tokenizer = FastLanguageModel.from_pretrained(
128
  model_name = "somosnlp/gua-a",
 
150
  Ampliar el dataset creado
151
  Continuar el finetuning
152
 
 
 
153
 
154
  ## Licencia
155