xlmr-large-ru-CLS-B / test_eval.txt
HHansi's picture
Upload folder using huggingface_hub
979114e verified
Default classification report:
precision recall f1-score support
F 0.7152 0.6780 0.6961 500
T 0.6939 0.7300 0.7115 500
accuracy 0.7040 1000
macro avg 0.7046 0.7040 0.7038 1000
weighted avg 0.7046 0.7040 0.7038 1000
ADJ
Accuracy = 0.7666666666666667
Weighted Recall = 0.7666666666666667
Weighted Precision = 0.7633333333333333
Weighted F1 = 0.7641025641025642
Macro Recall = 0.7392344497607655
Macro Precision = 0.75
Macro F1 = 0.7435897435897436
ADV
Accuracy = 0.5
Weighted Recall = 0.5
Weighted Precision = 0.5
Weighted F1 = 0.5
Macro Recall = 0.4666666666666667
Macro Precision = 0.4666666666666667
Macro F1 = 0.4666666666666667
NOUN
Accuracy = 0.6924398625429553
Weighted Recall = 0.6924398625429553
Weighted Precision = 0.6938830184985855
Weighted F1 = 0.692422610562394
Macro Recall = 0.6931560283687943
Macro Precision = 0.6931994183090765
Macro F1 = 0.6924389545439784
VERB
Accuracy = 0.7258064516129032
Weighted Recall = 0.7258064516129032
Weighted Precision = 0.7258989780039533
Weighted F1 = 0.7256636424731182
Macro Recall = 0.7254748894093157
Macro Precision = 0.7259452411994785
Macro F1 = 0.7255208333333332