Muennighoff's picture
Update results
4951470
raw history blame
No virus
1.47 kB
{
"mteb_version": "0.0.2",
"test": {
"evaluation_time": 62.83,
"map_at_1": 0.17195166666666667,
"map_at_10": 0.23329083333333334,
"map_at_100": 0.2430308333333333,
"map_at_1000": 0.24422416666666666,
"map_at_3": 0.21327416666666665,
"map_at_5": 0.22419999999999998,
"mrr_at_1": 0.19999916666666667,
"mrr_at_10": 0.26390166666666665,
"mrr_at_100": 0.27231,
"mrr_at_1000": 0.27308333333333334,
"mrr_at_3": 0.244675,
"mrr_at_5": 0.25541083333333336,
"ndcg_at_1": 0.19999916666666667,
"ndcg_at_10": 0.27248666666666665,
"ndcg_at_100": 0.3200258333333334,
"ndcg_at_1000": 0.34946499999999997,
"ndcg_at_3": 0.2358566666666667,
"ndcg_at_5": 0.2526341666666666,
"precision_at_1": 0.19999916666666667,
"precision_at_10": 0.04772166666666666,
"precision_at_100": 0.00847,
"precision_at_1000": 0.0012741666666666667,
"precision_at_3": 0.10756166666666668,
"precision_at_5": 0.07725416666666667,
"recall_at_1": 0.17195166666666667,
"recall_at_10": 0.35990833333333344,
"recall_at_100": 0.57468,
"recall_at_1000": 0.7882366666666667,
"recall_at_3": 0.25898499999999997,
"recall_at_5": 0.30084333333333335
},
"mteb_dataset_name": "CQADupstackRetrieval",
"dataset_revision": "2b9f5791698b5be7bc5e10535c8690f20043c3db"
}