results / results /all-MiniLM-L12-v2 /CQADupstackRetrieval.json
Muennighoff's picture
Update results
4951470
raw history blame
No virus
1.39 kB
{
"mteb_version": "0.0.2",
"test": {
"evaluation_time": 36.4,
"map_at_1": 0.26613,
"map_at_10": 0.36747416666666666,
"map_at_100": 0.3809141666666667,
"map_at_1000": 0.382075,
"map_at_3": 0.3363083333333334,
"map_at_5": 0.3528225,
"mrr_at_1": 0.31654,
"mrr_at_10": 0.40941666666666665,
"mrr_at_100": 0.41858833333333334,
"mrr_at_1000": 0.4191066666666666,
"mrr_at_3": 0.38444583333333343,
"mrr_at_5": 0.39845250000000004,
"ndcg_at_1": 0.31654,
"ndcg_at_10": 0.42533000000000004,
"ndcg_at_100": 0.4809741666666667,
"ndcg_at_1000": 0.5017016666666667,
"ndcg_at_3": 0.3737858333333333,
"ndcg_at_5": 0.3966666666666666,
"precision_at_1": 0.31654,
"precision_at_10": 0.07649500000000001,
"precision_at_100": 0.012425,
"precision_at_1000": 0.0016175,
"precision_at_3": 0.1749625,
"precision_at_5": 0.12410333333333332,
"recall_at_1": 0.26613,
"recall_at_10": 0.5533375,
"recall_at_100": 0.7952791666666668,
"recall_at_1000": 0.9373391666666667,
"recall_at_3": 0.40861333333333333,
"recall_at_5": 0.46846750000000004
},
"mteb_dataset_name": "CQADupstackRetrieval",
"dataset_revision": "2b9f5791698b5be7bc5e10535c8690f20043c3db"
}