ahmadouna commited on
Commit
e2e2e22
1 Parent(s): da46fa7

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +31 -9
app.py CHANGED
@@ -78,7 +78,7 @@ comments = df["text"].tolist()
78
  st.header("Analyse de Texte")
79
 
80
  # Créer une selectbox pour choisir un commentaire
81
- selected_comment = st.selectbox("Données pour l'evaluation du modele", comments)
82
 
83
  # Afficher le commentaire sélectionné dans l'input text
84
  text = st.text_area('Entrer le texte à analyser', value=selected_comment)
@@ -107,15 +107,37 @@ if text and candidate_labels:
107
  predictions = classifier(inputs, candidate_labels, hypothesis_template=hypothesis_template)
108
  predicted_labels = [result['labels'][0] for result in predictions]
109
 
110
- # Calculer les métriques de performance
111
- metrics = load_metric("precision", "accuracy", "recall", "f1", "roc_auc")
112
- metrics.add_batch(predictions=predicted_labels, references=true_labels)
113
- results = metrics.compute()
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
114
 
115
  # Afficher les métriques sous forme de tableau
116
  st.header("Métriques de Performance")
117
- metrics_df = pd.DataFrame({
118
- "Métrique": ["Precision", "Accuracy", "Recall", "F1 Score", "ROC-AUC Score"],
119
- "Valeur": [results["precision"], results["accuracy"], results["recall"], results["f1"], results["roc_auc"]]
120
- })
121
  st.table(metrics_df)
 
 
78
  st.header("Analyse de Texte")
79
 
80
  # Créer une selectbox pour choisir un commentaire
81
+ selected_comment = st.selectbox("Veuillez sélectionner un commentaire", comments)
82
 
83
  # Afficher le commentaire sélectionné dans l'input text
84
  text = st.text_area('Entrer le texte à analyser', value=selected_comment)
 
107
  predictions = classifier(inputs, candidate_labels, hypothesis_template=hypothesis_template)
108
  predicted_labels = [result['labels'][0] for result in predictions]
109
 
110
+ # Déclarer un tableau pour stocker les métriques
111
+ metrics_table = []
112
+
113
+ # Calculer les métriques une par une et les ajouter au tableau
114
+ precision = load_metric("precision")
115
+ precision.add_batch(predictions=predicted_labels, references=true_labels)
116
+ precision_result = precision.compute()
117
+ metrics_table.append(("Precision", precision_result))
118
+
119
+ accuracy = load_metric("accuracy")
120
+ accuracy.add_batch(predictions=predicted_labels, references=true_labels)
121
+ accuracy_result = accuracy.compute()
122
+ metrics_table.append(("Accuracy", accuracy_result))
123
+
124
+ recall = load_metric("recall")
125
+ recall.add_batch(predictions=predicted_labels, references=true_labels)
126
+ recall_result = recall.compute()
127
+ metrics_table.append(("Recall", recall_result))
128
+
129
+ f1 = load_metric("f1")
130
+ f1.add_batch(predictions=predicted_labels, references=true_labels)
131
+ f1_result = f1.compute()
132
+ metrics_table.append(("F1 Score", f1_result))
133
+
134
+ roc_auc = load_metric("roc_auc")
135
+ roc_auc.add_batch(predictions=predicted_labels, references=true_labels)
136
+ roc_auc_result = roc_auc.compute()
137
+ metrics_table.append(("ROC-AUC Score", roc_auc_result))
138
 
139
  # Afficher les métriques sous forme de tableau
140
  st.header("Métriques de Performance")
141
+ metrics_df = pd.DataFrame(metrics_table, columns=["Métrique", "Valeur"])
 
 
 
142
  st.table(metrics_df)
143
+