Update README.md
Browse files
README.md
CHANGED
@@ -47,31 +47,34 @@ Se basa en el finetuning del modelo *Mistral* de 7B de parámetros para la gener
|
|
47 |
- **Dataset Especializado**: Creamos un dataset exclusivo, corregido y centrado en la cultura guaraní, tomando como texto base el libro <ins>"Ñande Ypykuéra" de Narciso R. Colmán</ins>, asegurando respuestas precisas y culturalmente relevantes.
|
48 |
- **Finetuning**: Se detallan los siguientes parametros de entrenamiento:
|
49 |
|
50 |
-
|
51 |
-
|
|
|
52 |
target_modules = ["q_proj", "k_proj", "v_proj", "o_proj","gate_proj", "up_proj", "down_proj"],
|
53 |
lora_alpha = 128,
|
54 |
-
lora_dropout = 0,
|
55 |
bias = "none",
|
56 |
use_gradient_checkpointing = True,
|
57 |
random_state = 42,
|
58 |
use_rslora = False,
|
59 |
-
loftq_config = None
|
60 |
-
|
61 |
-
|
62 |
-
|
63 |
-
|
64 |
-
|
65 |
-
|
66 |
-
|
67 |
-
|
68 |
-
|
69 |
-
|
70 |
-
|
71 |
-
|
72 |
-
|
73 |
-
|
74 |
-
|
|
|
|
|
75 |
|
76 |
## Usos 🛠️
|
77 |
|
@@ -119,7 +122,7 @@ base_prompt = """Responde a preguntas de forma clara, amable, concisa y solament
|
|
119 |
{}
|
120 |
|
121 |
### Respuesta:
|
122 |
-
{}""
|
123 |
|
124 |
model, tokenizer = FastLanguageModel.from_pretrained(
|
125 |
model_name = "somosnlp/gua-a",
|
@@ -147,8 +150,6 @@ Estamos abiertos a contribuciones para mejorar aún más el modelo gua-a. =) Si
|
|
147 |
Ampliar el dataset creado
|
148 |
Continuar el finetuning
|
149 |
|
150 |
-
Por favor, consulta nuestra guía de contribución o ponte en contacto directamente a través de los Issues en GitHub
|
151 |
-
|
152 |
|
153 |
## Licencia
|
154 |
|
|
|
47 |
- **Dataset Especializado**: Creamos un dataset exclusivo, corregido y centrado en la cultura guaraní, tomando como texto base el libro <ins>"Ñande Ypykuéra" de Narciso R. Colmán</ins>, asegurando respuestas precisas y culturalmente relevantes.
|
48 |
- **Finetuning**: Se detallan los siguientes parametros de entrenamiento:
|
49 |
|
50 |
+
- LoRA
|
51 |
+
|
52 |
+
r = 64,
|
53 |
target_modules = ["q_proj", "k_proj", "v_proj", "o_proj","gate_proj", "up_proj", "down_proj"],
|
54 |
lora_alpha = 128,
|
55 |
+
lora_dropout = 0,
|
56 |
bias = "none",
|
57 |
use_gradient_checkpointing = True,
|
58 |
random_state = 42,
|
59 |
use_rslora = False,
|
60 |
+
loftq_config = None
|
61 |
+
|
62 |
+
- Trainer
|
63 |
+
|
64 |
+
per_device_train_batch_size = 2,
|
65 |
+
gradient_accumulation_steps = 32,
|
66 |
+
warmup_steps = 10,
|
67 |
+
num_train_epochs = 5,
|
68 |
+
learning_rate = 2e-4,
|
69 |
+
fp16 = not torch.cuda.is_bf16_supported(),
|
70 |
+
bf16 = torch.cuda.is_bf16_supported(),
|
71 |
+
logging_steps = 1,
|
72 |
+
optim = "adamw_8bit",
|
73 |
+
weight_decay = 0.01,
|
74 |
+
lr_scheduler_type = "linear",
|
75 |
+
save_strategy="epoch",
|
76 |
+
seed = 42,
|
77 |
+
report_to="tensorboard"
|
78 |
|
79 |
## Usos 🛠️
|
80 |
|
|
|
122 |
{}
|
123 |
|
124 |
### Respuesta:
|
125 |
+
{}"""
|
126 |
|
127 |
model, tokenizer = FastLanguageModel.from_pretrained(
|
128 |
model_name = "somosnlp/gua-a",
|
|
|
150 |
Ampliar el dataset creado
|
151 |
Continuar el finetuning
|
152 |
|
|
|
|
|
153 |
|
154 |
## Licencia
|
155 |
|