Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -78,7 +78,7 @@ comments = df["text"].tolist()
|
|
78 |
st.header("Analyse de Texte")
|
79 |
|
80 |
# Créer une selectbox pour choisir un commentaire
|
81 |
-
selected_comment = st.selectbox("
|
82 |
|
83 |
# Afficher le commentaire sélectionné dans l'input text
|
84 |
text = st.text_area('Entrer le texte à analyser', value=selected_comment)
|
@@ -107,15 +107,37 @@ if text and candidate_labels:
|
|
107 |
predictions = classifier(inputs, candidate_labels, hypothesis_template=hypothesis_template)
|
108 |
predicted_labels = [result['labels'][0] for result in predictions]
|
109 |
|
110 |
-
#
|
111 |
-
|
112 |
-
|
113 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
114 |
|
115 |
# Afficher les métriques sous forme de tableau
|
116 |
st.header("Métriques de Performance")
|
117 |
-
metrics_df = pd.DataFrame(
|
118 |
-
"Métrique": ["Precision", "Accuracy", "Recall", "F1 Score", "ROC-AUC Score"],
|
119 |
-
"Valeur": [results["precision"], results["accuracy"], results["recall"], results["f1"], results["roc_auc"]]
|
120 |
-
})
|
121 |
st.table(metrics_df)
|
|
|
|
78 |
st.header("Analyse de Texte")
|
79 |
|
80 |
# Créer une selectbox pour choisir un commentaire
|
81 |
+
selected_comment = st.selectbox("Veuillez sélectionner un commentaire", comments)
|
82 |
|
83 |
# Afficher le commentaire sélectionné dans l'input text
|
84 |
text = st.text_area('Entrer le texte à analyser', value=selected_comment)
|
|
|
107 |
predictions = classifier(inputs, candidate_labels, hypothesis_template=hypothesis_template)
|
108 |
predicted_labels = [result['labels'][0] for result in predictions]
|
109 |
|
110 |
+
# Déclarer un tableau pour stocker les métriques
|
111 |
+
metrics_table = []
|
112 |
+
|
113 |
+
# Calculer les métriques une par une et les ajouter au tableau
|
114 |
+
precision = load_metric("precision")
|
115 |
+
precision.add_batch(predictions=predicted_labels, references=true_labels)
|
116 |
+
precision_result = precision.compute()
|
117 |
+
metrics_table.append(("Precision", precision_result))
|
118 |
+
|
119 |
+
accuracy = load_metric("accuracy")
|
120 |
+
accuracy.add_batch(predictions=predicted_labels, references=true_labels)
|
121 |
+
accuracy_result = accuracy.compute()
|
122 |
+
metrics_table.append(("Accuracy", accuracy_result))
|
123 |
+
|
124 |
+
recall = load_metric("recall")
|
125 |
+
recall.add_batch(predictions=predicted_labels, references=true_labels)
|
126 |
+
recall_result = recall.compute()
|
127 |
+
metrics_table.append(("Recall", recall_result))
|
128 |
+
|
129 |
+
f1 = load_metric("f1")
|
130 |
+
f1.add_batch(predictions=predicted_labels, references=true_labels)
|
131 |
+
f1_result = f1.compute()
|
132 |
+
metrics_table.append(("F1 Score", f1_result))
|
133 |
+
|
134 |
+
roc_auc = load_metric("roc_auc")
|
135 |
+
roc_auc.add_batch(predictions=predicted_labels, references=true_labels)
|
136 |
+
roc_auc_result = roc_auc.compute()
|
137 |
+
metrics_table.append(("ROC-AUC Score", roc_auc_result))
|
138 |
|
139 |
# Afficher les métriques sous forme de tableau
|
140 |
st.header("Métriques de Performance")
|
141 |
+
metrics_df = pd.DataFrame(metrics_table, columns=["Métrique", "Valeur"])
|
|
|
|
|
|
|
142 |
st.table(metrics_df)
|
143 |
+
|