Dataset Viewer
query-id
stringlengths 2
6
| corpus-id
stringlengths 2
6
| score
int64 1
1
|
|---|---|---|
q1
|
d1
| 1
|
q2
|
d2
| 1
|
q3
|
d3
| 1
|
q4
|
d4
| 1
|
q5
|
d5
| 1
|
q6
|
d6
| 1
|
q7
|
d7
| 1
|
q8
|
d8
| 1
|
q9
|
d9
| 1
|
q10
|
d10
| 1
|
q11
|
d11
| 1
|
q12
|
d12
| 1
|
q13
|
d13
| 1
|
q14
|
d14
| 1
|
q15
|
d15
| 1
|
q16
|
d16
| 1
|
q17
|
d17
| 1
|
q18
|
d18
| 1
|
q19
|
d19
| 1
|
q20
|
d20
| 1
|
q21
|
d21
| 1
|
q22
|
d22
| 1
|
q23
|
d23
| 1
|
q24
|
d24
| 1
|
q25
|
d25
| 1
|
q26
|
d26
| 1
|
q27
|
d27
| 1
|
q28
|
d28
| 1
|
q29
|
d29
| 1
|
q30
|
d30
| 1
|
q31
|
d31
| 1
|
q32
|
d32
| 1
|
q33
|
d33
| 1
|
q34
|
d34
| 1
|
q35
|
d35
| 1
|
q36
|
d36
| 1
|
q37
|
d37
| 1
|
q38
|
d38
| 1
|
q39
|
d39
| 1
|
q40
|
d40
| 1
|
q41
|
d41
| 1
|
q42
|
d42
| 1
|
q43
|
d43
| 1
|
q44
|
d44
| 1
|
q45
|
d45
| 1
|
q46
|
d46
| 1
|
q47
|
d47
| 1
|
q48
|
d48
| 1
|
q49
|
d49
| 1
|
q50
|
d50
| 1
|
q51
|
d51
| 1
|
q52
|
d52
| 1
|
q53
|
d53
| 1
|
q54
|
d54
| 1
|
q55
|
d55
| 1
|
q56
|
d56
| 1
|
q57
|
d57
| 1
|
q58
|
d58
| 1
|
q59
|
d59
| 1
|
q60
|
d60
| 1
|
q61
|
d61
| 1
|
q62
|
d62
| 1
|
q63
|
d63
| 1
|
q64
|
d64
| 1
|
q65
|
d65
| 1
|
q66
|
d66
| 1
|
q67
|
d67
| 1
|
q68
|
d68
| 1
|
q69
|
d69
| 1
|
q70
|
d70
| 1
|
q71
|
d71
| 1
|
q72
|
d72
| 1
|
q73
|
d73
| 1
|
q74
|
d74
| 1
|
q75
|
d75
| 1
|
q76
|
d76
| 1
|
q77
|
d77
| 1
|
q78
|
d78
| 1
|
q79
|
d79
| 1
|
q80
|
d80
| 1
|
q81
|
d81
| 1
|
q82
|
d82
| 1
|
q83
|
d83
| 1
|
q84
|
d84
| 1
|
q85
|
d85
| 1
|
q86
|
d86
| 1
|
q87
|
d87
| 1
|
q88
|
d88
| 1
|
q89
|
d89
| 1
|
q90
|
d90
| 1
|
q91
|
d91
| 1
|
q92
|
d92
| 1
|
q93
|
d93
| 1
|
q94
|
d94
| 1
|
q95
|
d95
| 1
|
q96
|
d96
| 1
|
q97
|
d97
| 1
|
q98
|
d98
| 1
|
q99
|
d99
| 1
|
q100
|
d100
| 1
|
End of preview. Expand
in Data Studio
Employing the MTEB evaluation framework's dataset version, utilize the code below for assessment:
import mteb
import logging
from sentence_transformers import SentenceTransformer
from mteb import MTEB
logger = logging.getLogger(__name__)
model_name = 'intfloat/e5-base-v2'
model = SentenceTransformer(model_name)
tasks = mteb.get_tasks(
tasks=[
"AppsRetrieval",
"CodeFeedbackMT",
"CodeFeedbackST",
"CodeTransOceanContest",
"CodeTransOceanDL",
"CosQA",
"SyntheticText2SQL",
"StackOverflowQA",
"COIRCodeSearchNetRetrieval",
"CodeSearchNetCCRetrieval",
]
)
evaluation = MTEB(tasks=tasks)
results = evaluation.run(
model=model,
overwrite_results=True
)
print(result)
- Downloads last month
- 1,501