config
dict
results
dict
{ "model_dtype": "torch.float16", "model_name": "Commencis/Commencis-LLM" }
{ "MMLU": { "metric_name": 0.3582 }, "Truthful_qa": { "metric_name": 0.4888 }, "ARC": { "metric_name": 0.3361 }, "HellaSwag": { "metric_name": 0.3319 }, "GSM8K": { "metric_name": 0.0022 }, "Winogrande": { "metric_name": 0.5165 } }
{ "model_dtype": "torch.float16", "model_name": "KOCDIGITAL/Kocdigital-LLM-8b-v0.1" }
{ "MMLU": { "metric_name": 0.47348 }, "Truthful_qa": { "metric_name": 0.477 }, "ARC": { "metric_name": 0.4488 }, "HellaSwag": { "metric_name": 0.4861 }, "GSM8K": { "metric_name": 0.4365 }, "Winogrande": { "metric_name": 0.556 } }
{ "model_dtype": "torch.float16", "model_name": "NovusResearch/Novus-7b-tr_v1" }
{ "MMLU": { "metric_name": 0.4308 }, "Truthful_qa": { "metric_name": 0.4885 }, "ARC": { "metric_name": 0.3669 }, "HellaSwag": { "metric_name": 0.3974 }, "GSM8K": { "metric_name": 0.2969 }, "Winogrande": { "metric_name": 0.5355 } }
{ "model_dtype": "torch.float16", "model_name": "Orbina/Orbita-v0.1" }
{ "MMLU": { "metric_name": 0.4951 }, "Truthful_qa": { "metric_name": 0.5078 }, "ARC": { "metric_name": 0.4197 }, "HellaSwag": { "metric_name": 0.48 }, "GSM8K": { "metric_name": 0.5041 }, "Winogrande": { "metric_name": 0.5616 } }
{ "model_dtype": "torch.float16", "model_name": "TURKCELL/Turkcell-LLM-7b-v1" }
{ "MMLU": { "metric_name": 0.3903 }, "Truthful_qa": { "metric_name": 0.4162 }, "ARC": { "metric_name": 0.4343 }, "HellaSwag": { "metric_name": 0.4918 }, "GSM8K": { "metric_name": 0.2353 }, "Winogrande": { "metric_name": 0.5687 } }
{ "model_dtype": "torch.float16", "model_name": "Trendyol/Trendyol-LLM-7b-chat-dpo-v1.0" }
{ "MMLU": { "metric_name": 0.3961 }, "Truthful_qa": { "metric_name": 0.4618 }, "ARC": { "metric_name": 0.413 }, "HellaSwag": { "metric_name": 0.4629 }, "GSM8K": { "metric_name": 0.0714 }, "Winogrande": { "metric_name": 0.5766 } }
{ "model_dtype": "torch.float16", "model_name": "Trendyol/Trendyol-LLM-7b-chat-v0.1" }
{ "MMLU": { "metric_name": 0.3449 }, "Truthful_qa": { "metric_name": 0.4219 }, "ARC": { "metric_name": 0.3404 }, "HellaSwag": { "metric_name": 0.4165 }, "GSM8K": { "metric_name": 0.0167 }, "Winogrande": { "metric_name": 0.5442 } }
{ "model_dtype": "torch.float16", "model_name": "Trendyol/Trendyol-LLM-7b-chat-v1.0" }
{ "MMLU": { "metric_name": 0.3948 }, "Truthful_qa": { "metric_name": 0.4312 }, "ARC": { "metric_name": 0.3813 }, "HellaSwag": { "metric_name": 0.4294 }, "GSM8K": { "metric_name": 0.0523 }, "Winogrande": { "metric_name": 0.5639 } }
{ "model_dtype": "torch.float16", "model_name": "aerdincdal/CBDDO-LLM-8B-Instruct-v1" }
{ "MMLU": { "metric_name": 0.437 }, "Truthful_qa": { "metric_name": 0.4656 }, "ARC": { "metric_name": 0.4215 }, "HellaSwag": { "metric_name": 0.4526 }, "GSM8K": { "metric_name": 0.0091 }, "Winogrande": { "metric_name": 0.5379 } }
{ "model_dtype": "torch.float16", "model_name": "cypienai/cymist" }
{ "MMLU": { "metric_name": 0.3208 }, "Truthful_qa": { "metric_name": 0.4692 }, "ARC": { "metric_name": 0.3498 }, "HellaSwag": { "metric_name": 0.4022 }, "GSM8K": { "metric_name": 0.006 }, "Winogrande": { "metric_name": 0.5371 } }
{ "model_dtype": "torch.float16", "model_name": "cypienai/cymist2-v01-SFT" }
{ "MMLU": { "metric_name": 0.3761 }, "Truthful_qa": { "metric_name": 0.4392 }, "ARC": { "metric_name": 0.3651 }, "HellaSwag": { "metric_name": 0.45 }, "GSM8K": { "metric_name": 0.066 }, "Winogrande": { "metric_name": 0.5205 } }
{ "model_dtype": "torch.float16", "model_name": "sambanovasystems/SambaLingo-Turkish-Chat" }
{ "MMLU": { "metric_name": 0.3835 }, "Truthful_qa": { "metric_name": 0.4411 }, "ARC": { "metric_name": 0.4471 }, "HellaSwag": { "metric_name": 0.553 }, "GSM8K": { "metric_name": 0.0615 }, "Winogrande": { "metric_name": 0.571 } }
{ "model_dtype": "torch.float16", "model_name": "umarigan/LLama-3-8B-Instruction-tr" }
{ "MMLU": { "metric_name": 0.4736 }, "Truthful_qa": { "metric_name": 0.5027 }, "ARC": { "metric_name": 0.4274 }, "HellaSwag": { "metric_name": 0.4888 }, "GSM8K": { "metric_name": 0.2938 }, "Winogrande": { "metric_name": 0.5489 } }
{ "model_dtype": "torch.float16", "model_name": "umarigan/Trendyol-LLM-7b-chat-v0.1-DPO" }
{ "MMLU": { "metric_name": 0.3378 }, "Truthful_qa": { "metric_name": 0.4128 }, "ARC": { "metric_name": 0.3447 }, "HellaSwag": { "metric_name": 0.4214 }, "GSM8K": { "metric_name": 0.0227 }, "Winogrande": { "metric_name": 0.5418 } }

No dataset card yet

New: Create and edit this dataset card directly on the website!

Contribute a Dataset Card
Downloads last month
8
Add dataset card