avacaondata commited on
Commit
05cc9e7
1 Parent(s): ca9c347

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -1
README.md CHANGED
@@ -35,12 +35,17 @@ El modelo ha sido entrenado exclusivamente en español, con el objetivo de maxim
35
 
36
  ## Entrenamiento
37
 
38
- El modelo se ha entrenado en tres fases distintas para asegurar un rendimiento óptimo en una amplia gama de tareas:
39
 
40
  1. **Aprendizaje multi-tarea en español**: Utilizando múltiples conjuntos de datos supervisados para un entrenamiento al estilo FLAN.
41
  2. **Entrenamiento de instrucciones de alta calidad**: Afinando el modelo para entender y generar respuestas a instrucciones complejas.
42
  3. **Entrenamiento de chat y QA abstractivo**: Optimizando el modelo para conversaciones fluidas y la generación de respuestas a preguntas abstractas.
43
 
 
 
 
 
 
44
  ## Tamaño máximo de secuencia
45
 
46
  El tamaño máximo de secuencia para este modelo es de 8192 tokens.
 
35
 
36
  ## Entrenamiento
37
 
38
+ El modelo se ha entrenado en tres fases distintas para asegurar un buen rendimiento en una amplia gama de tareas:
39
 
40
  1. **Aprendizaje multi-tarea en español**: Utilizando múltiples conjuntos de datos supervisados para un entrenamiento al estilo FLAN.
41
  2. **Entrenamiento de instrucciones de alta calidad**: Afinando el modelo para entender y generar respuestas a instrucciones complejas.
42
  3. **Entrenamiento de chat y QA abstractivo**: Optimizando el modelo para conversaciones fluidas y la generación de respuestas a preguntas abstractas.
43
 
44
+ En las 3 fases se ha llevado a cabo el entrenamiento gracias a nuestra librería [autotransformers](https://github.com/lenguajenatural-ai/autotransformers).
45
+
46
+
47
+ ![image/png](https://cdn-uploads.huggingface.co/production/uploads/61f333df8f26cc42dc587011/LbzqllY6iX7IHhqXx4qeA.png)
48
+
49
  ## Tamaño máximo de secuencia
50
 
51
  El tamaño máximo de secuencia para este modelo es de 8192 tokens.