{ "config": { "model_dtype": "torch.float16", "model_name": "Metin/LLaMA-3-8B-Instruct-TR-DPO" }, "results": { "MMLU": { "metric_name": 0.4971 }, "Truthful_qa": { "metric_name": 0.5235 }, "ARC": { "metric_name": 0.4453 }, "HellaSwag": { "metric_name": 0.4592 }, "GSM8K": { "metric_name": 0.5322 }, "Winogrande": { "metric_name": 0.5545 } } }