results / results /LLM2Vec-Llama-2-supervised /CQADupstackRetrieval.json
Muennighoff's picture
LLM2Vec Meta-Llama-3 Results (#53)
2655e97 verified
{
"dataset_revision": null,
"mteb_dataset_name": "CQADupstackRetrieval",
"mteb_version": "1.0.1.dev0",
"test": {
"evaluation_time": 3071.13,
"map_at_1": 0.29636,
"map_at_10": 0.4015091666666667,
"map_at_100": 0.4147933333333333,
"map_at_1000": 0.4158425,
"map_at_3": 0.3698025,
"map_at_5": 0.3876483333333333,
"mrr_at_1": 0.353525,
"mrr_at_10": 0.4462258333333334,
"mrr_at_100": 0.45474916666666676,
"mrr_at_1000": 0.4552275,
"mrr_at_3": 0.4218574999999999,
"mrr_at_5": 0.4360833333333334,
"ndcg_at_1": 0.353525,
"ndcg_at_10": 0.4593533333333333,
"ndcg_at_100": 0.5118524999999999,
"ndcg_at_1000": 0.5307075,
"ndcg_at_3": 0.40893416666666677,
"ndcg_at_5": 0.4327291666666667,
"precision_at_1": 0.353525,
"precision_at_10": 0.08118,
"precision_at_100": 0.012704166666666667,
"precision_at_1000": 0.0016158333333333333,
"precision_at_3": 0.18987,
"precision_at_5": 0.13416083333333334,
"recall_at_1": 0.29636,
"recall_at_10": 0.5838899999999999,
"recall_at_100": 0.8108758333333334,
"recall_at_1000": 0.9393433333333333,
"recall_at_3": 0.44148499999999996,
"recall_at_5": 0.5043808333333334
}
}