results / results /LLM2Vec-Mistral-unsupervised /CQADupstackRetrieval.json
Muennighoff's picture
LLM2Vec models (#42)
6cecf23 verified
{
"dataset_revision": null,
"mteb_dataset_name": "CQADupstackRetrieval",
"mteb_version": "1.0.1.dev0",
"test": {
"evaluation_time": 2739.7400000000002,
"map_at_1": 0.20293916666666664,
"map_at_10": 0.28353666666666666,
"map_at_100": 0.29524333333333336,
"map_at_1000": 0.2965258333333333,
"map_at_3": 0.25727916666666667,
"map_at_5": 0.27170833333333333,
"mrr_at_1": 0.2521375,
"mrr_at_10": 0.3267591666666667,
"mrr_at_100": 0.3356233333333334,
"mrr_at_1000": 0.33632833333333334,
"mrr_at_3": 0.30415333333333333,
"mrr_at_5": 0.31679583333333333,
"ndcg_at_1": 0.2521375,
"ndcg_at_10": 0.33371083333333335,
"ndcg_at_100": 0.38577249999999996,
"ndcg_at_1000": 0.4124683333333333,
"ndcg_at_3": 0.2898183333333334,
"ndcg_at_5": 0.30986083333333336,
"precision_at_1": 0.2521375,
"precision_at_10": 0.06200583333333333,
"precision_at_100": 0.010527499999999999,
"precision_at_1000": 0.0014675000000000003,
"precision_at_3": 0.13808333333333334,
"precision_at_5": 0.09976416666666668,
"recall_at_1": 0.20293916666666664,
"recall_at_10": 0.4390833333333333,
"recall_at_100": 0.6726574999999999,
"recall_at_1000": 0.8618591666666665,
"recall_at_3": 0.3138741666666667,
"recall_at_5": 0.3673883333333333
}
}