CamiloVega commited on
Commit
55231ab
1 Parent(s): c88af59

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +56 -0
README.md CHANGED
@@ -2,4 +2,60 @@
2
  license: apache-2.0
3
  language:
4
  - es
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5
  ---
 
2
  license: apache-2.0
3
  language:
4
  - es
5
+
6
+ Aquí está la model card para Hugging Face con información relevante sobre el modelo entrenado:
7
+
8
+ ---
9
+ ## Model Card
10
+
11
+ ### Model Details
12
+ - **Model Name**: llama-fine-tune
13
+ - **Language**: Spanish
14
+ - **Training Type**: Fine-tuning
15
+ - **Base Model**: [NousResearch/Llama-2-7b-chat-hf](https://huggingface.co/NousResearch/Llama-2-7b-chat-hf)
16
+ - **Model Description**: Un modelo de Llama de 2.7 mil millones de parámetros ajustado (fine-tuned) en un conjunto de datos de preguntas y respuestas sobre consejos de carrera profesional.
17
+
18
+ ### Intended Use
19
+ - **Task(s)**: Generación de texto, respuesta a preguntas sobre consejos de carrera
20
+ - **Intended Use**: Proporcionar respuestas detalladas a preguntas relacionadas con consejos de carrera profesional.
21
+ - **Limitations**: El modelo está capacitado en un conjunto de datos específico de consejos de carrera, por lo que su conocimiento puede estar limitado a ese dominio. No se recomienda para tareas generales.
22
+
23
+ ### Training Data
24
+ - **Data Source**: Conjunto de datos sintético generado con GPT-3 a partir de un prompt de preguntas y respuestas sobre consejos de carrera.
25
+ - **Training Examples**: 100 ejemplos en formato `<s>[INST] <pregunta> [/INST] <respuesta> </s>`
26
+
27
+ ### Training Procedure
28
+ - **Fine-tuning Approach**: Entrenamiento con PEFT (Parameter-Efficient Fine-Tuning) utilizando LoRA (Low-Rank Adaptation) con un rango de 64.
29
+ - **Hiperparámetros**:
30
+ - Épocas: 1
31
+ - Tamaño de lote: 4
32
+ - Tasa de aprendizaje: 2e-4
33
+ - Dropout LoRA: 0.1
34
+ - Optimizador: Paged AdamW 32-bit
35
+ - **Hardware**: GPU
36
+
37
+ ### Evaluation
38
+ - **Evaluation Set**: 20% de los datos se reservaron para pruebas
39
+ - **Ejemplo de entrada**: `<s>[INST] ¿Cómo puedo mejorar mis habilidades de entrevista laboral? [/INST]`
40
+ - **Ejemplo de salida**: `Aquí hay algunos consejos para mejorar tus habilidades de entrevista:
41
+
42
+ 1. Prepárate estudiando la empresa y el puesto. Investiga la misión, valores y cultura corporativa. Identifica cómo tus habilidades se alinean con los requisitos del trabajo.
43
+
44
+ 2. Practica respondiendo preguntas comunes de entrevista en voz alta. Grábate y revisa tu lenguaje corporal, tono de voz y respuestas. Pide retroalimentación a amigos.
45
+
46
+ 3. Elabora buenas preguntas que muestren tu interés genuino en el puesto y la empresa. Evita preguntas sobre salario y beneficios al inicio.
47
+
48
+ 4. Vístete apropiadamente con ropa profesional y cómoda. Tu aspecto debe ser pulcro.
49
+
50
+ 5. Llega temprano y sé amable con todos. La primera impresión es clave.
51
+
52
+ 6. Durante la entrevista, mantén contacto visual, habla con claridad y confianza. Sé honesto sobre tus fortalezas y debilidades.
53
+
54
+ 7. Al final, cierra enfatizando tu interés y agradeciendo la oportunidad. Envía un correo o nota de agradecimiento después.
55
+
56
+ La preparación, práctica y una actitud positiva pueden ayudarte a destacar en las entrevistas laborales. </s>`
57
+
58
+ ### Ethics
59
+
60
+ Este modelo solo debe usarse de acuerdo con los principios éticos de Anthropic, incluyendo ser beneficioso para la humanidad y respetar los derechos humanos. No debe ser utilizado para difundir desinformación, incitación al odio u otros fines dañinos.
61
  ---