Update README.md
Browse files
README.md
CHANGED
@@ -68,11 +68,11 @@ Este modelo está basado en XLM-RoBERTa y ha sido fine-tuned para realizar anál
|
|
68 |
|
69 |
Este modelo puede ser utilizado para clasificar el sentimiento de textos en español en tres categorías: negativo, neutro y positivo.
|
70 |
|
71 |
-
|
72 |
from transformers import AutoModelForSequenceClassification, AutoTokenizer
|
73 |
import torch
|
74 |
|
75 |
-
model_name = "nmarinnn/bert-
|
76 |
model = AutoModelForSequenceClassification.from_pretrained(model_name)
|
77 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
78 |
|
@@ -88,15 +88,12 @@ def predict(text):
|
|
88 |
return class_labels[predicted_class]
|
89 |
|
90 |
# Ejemplo de uso
|
91 |
-
texto = "Vamos
|
92 |
sentimiento = predict(texto)
|
93 |
print(f"El sentimiento del texto es: {sentimiento}")
|
94 |
```
|
95 |
-
|
96 |
|
97 |
-
|
98 |
-
|
99 |
-
• El modelo muestra un rendimiento bajo en la clase "neutro", posiblemente debido a un desbalance en el dataset de entrenamiento.
|
100 |
• Se recomienda precaución al interpretar resultados para textos muy cortos o ambiguos.
|
101 |
|
102 |
## Información de Entrenamiento
|
|
|
68 |
|
69 |
Este modelo puede ser utilizado para clasificar el sentimiento de textos en español en tres categorías: negativo, neutro y positivo.
|
70 |
|
71 |
+
```python
|
72 |
from transformers import AutoModelForSequenceClassification, AutoTokenizer
|
73 |
import torch
|
74 |
|
75 |
+
model_name = "nmarinnn/bert-bullrich"
|
76 |
model = AutoModelForSequenceClassification.from_pretrained(model_name)
|
77 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
78 |
|
|
|
88 |
return class_labels[predicted_class]
|
89 |
|
90 |
# Ejemplo de uso
|
91 |
+
texto = "Vamos pato!"
|
92 |
sentimiento = predict(texto)
|
93 |
print(f"El sentimiento del texto es: {sentimiento}")
|
94 |
```
|
|
|
95 |
|
96 |
+
- muestra un rendimiento bajo en la clase "neutro", posiblemente debido a un desbalance en el dataset de entrenamiento.
|
|
|
|
|
97 |
• Se recomienda precaución al interpretar resultados para textos muy cortos o ambiguos.
|
98 |
|
99 |
## Información de Entrenamiento
|