results / results /gtr-t5-large /CQADupstackRetrieval.json
Muennighoff's picture
Update results
4951470
raw history blame
No virus
1.45 kB
{
"mteb_version": "0.0.2",
"test": {
"evaluation_time": 636.81,
"map_at_1": 0.23442749999999998,
"map_at_10": 0.3162375,
"map_at_100": 0.3281825,
"map_at_1000": 0.3293766666666667,
"map_at_3": 0.2899058333333333,
"map_at_5": 0.3046108333333334,
"mrr_at_1": 0.27598333333333336,
"mrr_at_10": 0.35537750000000007,
"mrr_at_100": 0.36426499999999995,
"mrr_at_1000": 0.36491750000000006,
"mrr_at_3": 0.33190749999999997,
"mrr_at_5": 0.3452766666666666,
"ndcg_at_1": 0.27598333333333336,
"ndcg_at_10": 0.3661991666666667,
"ndcg_at_100": 0.41837166666666664,
"ndcg_at_1000": 0.4430808333333333,
"ndcg_at_3": 0.32073250000000003,
"ndcg_at_5": 0.34212916666666665,
"precision_at_1": 0.27598333333333336,
"precision_at_10": 0.06443750000000001,
"precision_at_100": 0.010705833333333333,
"precision_at_1000": 0.0014708333333333335,
"precision_at_3": 0.14699666666666666,
"precision_at_5": 0.10531166666666666,
"recall_at_1": 0.23442749999999998,
"recall_at_10": 0.475635,
"recall_at_100": 0.7044033333333334,
"recall_at_1000": 0.876875,
"recall_at_3": 0.34919,
"recall_at_5": 0.40393
},
"mteb_dataset_name": "CQADupstackRetrieval",
"dataset_revision": "2b9f5791698b5be7bc5e10535c8690f20043c3db"
}