File size: 545 Bytes
5012dbb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
{
    "config": {
        "model_dtype": "torch.float16", 
        "model_name": "aerdincdal/CBDDO-LLM-8B-Instruct-v1"
    },
    "results": {
        "MMLU": {
            "metric_name": 0.4370
        },
        "Truthful_qa": {
            "metric_name": 0.4656
        },
        "ARC": {
            "metric_name": 0.4215
        },
        "HellaSwag": {
            "metric_name": 0.4526
        },
        "GSM8K": {
            "metric_name": 0.0091
        },
        "Winogrande": {
            "metric_name": 0.5379
        }
    }
}