lodestone-base-4096-v1 / mteb_results /CQADupstackRetrieval.json
dylanAtHum's picture
Add CQADupstack Benchmarks
c25c4c3 unverified
raw
history blame
1.41 kB
{
"dataset_revision": null,
"mteb_dataset_name": "CQADupstackRetrieval",
"mteb_version": "1.1.0",
"test": {
"evaluation_time": 2368.7700000000004,
"map_at_1": 0.19726083333333333,
"map_at_10": 0.27165333333333336,
"map_at_100": 0.282925,
"map_at_1000": 0.28416333333333327,
"map_at_3": 0.24783833333333333,
"map_at_5": 0.2610175,
"mrr_at_1": 0.237215,
"mrr_at_10": 0.30853333333333327,
"mrr_at_100": 0.3174175,
"mrr_at_1000": 0.31812999999999997,
"mrr_at_3": 0.2873225,
"mrr_at_5": 0.29945166666666667,
"ndcg_at_1": 0.237215,
"ndcg_at_10": 0.3174883333333333,
"ndcg_at_100": 0.3688358333333333,
"ndcg_at_1000": 0.396145,
"ndcg_at_3": 0.27639583333333334,
"ndcg_at_5": 0.2954366666666667,
"precision_at_1": 0.237215,
"precision_at_10": 0.057090833333333334,
"precision_at_100": 0.009859166666666665,
"precision_at_1000": 0.001413333333333333,
"precision_at_3": 0.1285683333333333,
"precision_at_5": 0.09258166666666667,
"recall_at_1": 0.19726083333333333,
"recall_at_10": 0.4173583333333334,
"recall_at_100": 0.6466566666666668,
"recall_at_1000": 0.8409833333333335,
"recall_at_3": 0.3022308333333333,
"recall_at_5": 0.35153083333333335
}
}