config
dict | results
dict |
---|---|
{
"model_dtype": "torch.float16",
"model_name": "Commencis/Commencis-LLM"
} | {
"MMLU": {
"metric_name": 0.3582
},
"Truthful_qa": {
"metric_name": 0.4888
},
"ARC": {
"metric_name": 0.3361
},
"HellaSwag": {
"metric_name": 0.3319
},
"GSM8K": {
"metric_name": 0.0022
},
"Winogrande": {
"metric_name": 0.5165
}
} |
{
"model_dtype": "torch.float16",
"model_name": "KOCDIGITAL/Kocdigital-LLM-8b-v0.1"
} | {
"MMLU": {
"metric_name": 0.47348
},
"Truthful_qa": {
"metric_name": 0.477
},
"ARC": {
"metric_name": 0.4488
},
"HellaSwag": {
"metric_name": 0.4861
},
"GSM8K": {
"metric_name": 0.4365
},
"Winogrande": {
"metric_name": 0.556
}
} |
{
"model_dtype": "torch.float16",
"model_name": "NovusResearch/Novus-7b-tr_v1"
} | {
"MMLU": {
"metric_name": 0.4308
},
"Truthful_qa": {
"metric_name": 0.4885
},
"ARC": {
"metric_name": 0.3669
},
"HellaSwag": {
"metric_name": 0.3974
},
"GSM8K": {
"metric_name": 0.2969
},
"Winogrande": {
"metric_name": 0.5355
}
} |
{
"model_dtype": "torch.float16",
"model_name": "Orbina/Orbita-v0.1"
} | {
"MMLU": {
"metric_name": 0.4951
},
"Truthful_qa": {
"metric_name": 0.5078
},
"ARC": {
"metric_name": 0.4197
},
"HellaSwag": {
"metric_name": 0.48
},
"GSM8K": {
"metric_name": 0.5041
},
"Winogrande": {
"metric_name": 0.5616
}
} |
{
"model_dtype": "torch.float16",
"model_name": "TURKCELL/Turkcell-LLM-7b-v1"
} | {
"MMLU": {
"metric_name": 0.3903
},
"Truthful_qa": {
"metric_name": 0.4162
},
"ARC": {
"metric_name": 0.4343
},
"HellaSwag": {
"metric_name": 0.4918
},
"GSM8K": {
"metric_name": 0.2353
},
"Winogrande": {
"metric_name": 0.5687
}
} |
{
"model_dtype": "torch.float16",
"model_name": "Trendyol/Trendyol-LLM-7b-chat-dpo-v1.0"
} | {
"MMLU": {
"metric_name": 0.3961
},
"Truthful_qa": {
"metric_name": 0.4618
},
"ARC": {
"metric_name": 0.413
},
"HellaSwag": {
"metric_name": 0.4629
},
"GSM8K": {
"metric_name": 0.0714
},
"Winogrande": {
"metric_name": 0.5766
}
} |
{
"model_dtype": "torch.float16",
"model_name": "Trendyol/Trendyol-LLM-7b-chat-v0.1"
} | {
"MMLU": {
"metric_name": 0.3449
},
"Truthful_qa": {
"metric_name": 0.4219
},
"ARC": {
"metric_name": 0.3404
},
"HellaSwag": {
"metric_name": 0.4165
},
"GSM8K": {
"metric_name": 0.0167
},
"Winogrande": {
"metric_name": 0.5442
}
} |
{
"model_dtype": "torch.float16",
"model_name": "Trendyol/Trendyol-LLM-7b-chat-v1.0"
} | {
"MMLU": {
"metric_name": 0.3948
},
"Truthful_qa": {
"metric_name": 0.4312
},
"ARC": {
"metric_name": 0.3813
},
"HellaSwag": {
"metric_name": 0.4294
},
"GSM8K": {
"metric_name": 0.0523
},
"Winogrande": {
"metric_name": 0.5639
}
} |
{
"model_dtype": "torch.float16",
"model_name": "aerdincdal/CBDDO-LLM-8B-Instruct-v1"
} | {
"MMLU": {
"metric_name": 0.437
},
"Truthful_qa": {
"metric_name": 0.4656
},
"ARC": {
"metric_name": 0.4215
},
"HellaSwag": {
"metric_name": 0.4526
},
"GSM8K": {
"metric_name": 0.0091
},
"Winogrande": {
"metric_name": 0.5379
}
} |
{
"model_dtype": "torch.float16",
"model_name": "cypienai/cymist"
} | {
"MMLU": {
"metric_name": 0.3208
},
"Truthful_qa": {
"metric_name": 0.4692
},
"ARC": {
"metric_name": 0.3498
},
"HellaSwag": {
"metric_name": 0.4022
},
"GSM8K": {
"metric_name": 0.006
},
"Winogrande": {
"metric_name": 0.5371
}
} |
{
"model_dtype": "torch.float16",
"model_name": "cypienai/cymist2-v01-SFT"
} | {
"MMLU": {
"metric_name": 0.3761
},
"Truthful_qa": {
"metric_name": 0.4392
},
"ARC": {
"metric_name": 0.3651
},
"HellaSwag": {
"metric_name": 0.45
},
"GSM8K": {
"metric_name": 0.066
},
"Winogrande": {
"metric_name": 0.5205
}
} |
{
"model_dtype": "torch.float16",
"model_name": "sambanovasystems/SambaLingo-Turkish-Chat"
} | {
"MMLU": {
"metric_name": 0.3835
},
"Truthful_qa": {
"metric_name": 0.4411
},
"ARC": {
"metric_name": 0.4471
},
"HellaSwag": {
"metric_name": 0.553
},
"GSM8K": {
"metric_name": 0.0615
},
"Winogrande": {
"metric_name": 0.571
}
} |
{
"model_dtype": "torch.float16",
"model_name": "umarigan/LLama-3-8B-Instruction-tr"
} | {
"MMLU": {
"metric_name": 0.4736
},
"Truthful_qa": {
"metric_name": 0.5027
},
"ARC": {
"metric_name": 0.4274
},
"HellaSwag": {
"metric_name": 0.4888
},
"GSM8K": {
"metric_name": 0.2938
},
"Winogrande": {
"metric_name": 0.5489
}
} |
{
"model_dtype": "torch.float16",
"model_name": "umarigan/Trendyol-LLM-7b-chat-v0.1-DPO"
} | {
"MMLU": {
"metric_name": 0.3378
},
"Truthful_qa": {
"metric_name": 0.4128
},
"ARC": {
"metric_name": 0.3447
},
"HellaSwag": {
"metric_name": 0.4214
},
"GSM8K": {
"metric_name": 0.0227
},
"Winogrande": {
"metric_name": 0.5418
}
} |
No dataset card yet
New: Create and edit this dataset card directly on the website!
Contribute a Dataset Card- Downloads last month
- 8