Model Name
stringlengths
4
58
arc:challenge|25
float64
0.16
0.66
hellaswag|10
float64
0.25
0.68
MMLU_average
float64
0.23
0.7
MMLU_abstract_algebra
float64
0.12
0.41
MMLU_anatomy
float64
0.14
0.66
MMLU_astronomy
float64
0.14
0.81
MMLU_business_ethics
float64
0.13
0.75
MMLU_clinical_knowledge
float64
0.2
0.76
MMLU_college_biology
float64
0.16
0.85
MMLU_college_chemistry
float64
0.14
0.54
MMLU_college_computer_science
float64
0.14
0.6
MMLU_college_mathematics
float64
0.17
0.46
MMLU_college_medicine
float64
0.16
0.65
MMLU_college_physics
float64
0.12
0.44
MMLU_computer_security
float64
0.15
0.8
MMLU_conceptual_physics
float64
0.18
0.66
MMLU_econometrics
float64
0.17
0.46
MMLU_electrical_engineering
float64
0.17
0.66
MMLU_elementary_mathematics
float64
0.2
0.44
MMLU_formal_logic
float64
0.14
0.5
MMLU_global_facts
float64
0.14
0.46
MMLU_high_school_biology
float64
0.18
0.83
MMLU_high_school_chemistry
float64
0.12
0.51
MMLU_high_school_computer_science
float64
0.14
0.79
MMLU_high_school_european_history
float64
0.18
0.84
MMLU_high_school_geography
float64
0.15
0.88
MMLU_high_school_government_and_politics
float64
0.17
0.94
MMLU_high_school_macroeconomics
float64
0.18
0.74
MMLU_high_school_mathematics
float64
0.2
0.36
MMLU_high_school_microeconomics
float64
0.17
0.81
MMLU_high_school_physics
float64
0.15
0.43
MMLU_high_school_psychology
float64
0.19
0.89
MMLU_high_school_statistics
float64
0.13
0.63
MMLU_high_school_us_history
float64
0.2
0.9
MMLU_high_school_world_history
float64
0.19
0.88
MMLU_human_aging
float64
0.1
0.8
MMLU_human_sexuality
float64
0.16
0.88
MMLU_international_law
float64
0.12
0.88
MMLU_jurisprudence
float64
0.17
0.83
MMLU_logical_fallacies
float64
0.18
0.8
MMLU_machine_learning
float64
0.14
0.54
MMLU_management
float64
0.15
0.83
MMLU_marketing
float64
0.17
0.91
MMLU_medical_genetics
float64
0.13
0.74
MMLU_miscellaneous
float64
0.2
0.86
MMLU_moral_disputes
float64
0.17
0.78
MMLU_moral_scenarios
float64
0.19
0.61
MMLU_nutrition
float64
0.19
0.78
MMLU_philosophy
float64
0.17
0.79
MMLU_prehistory
float64
0.19
0.84
MMLU_professional_accounting
float64
0.18
0.57
MMLU_professional_law
float64
0.22
0.55
MMLU_professional_medicine
float64
0.14
0.75
MMLU_professional_psychology
float64
0.2
0.76
MMLU_public_relations
float64
0.15
0.75
MMLU_security_studies
float64
0.15
0.79
MMLU_sociology
float64
0.19
0.9
MMLU_us_foreign_policy
float64
0.17
0.92
MMLU_virology
float64
0.13
0.55
MMLU_world_religions
float64
0.16
0.85
Wizard-Vicuna-13B-Uncensored-HF
0.5657
0.621888
0.479223
0.3
0.466667
0.473684
0.49
0.471698
0.486111
0.3
0.41
0.32
0.404624
0.235294
0.59
0.417021
0.298246
0.4
0.253968
0.349206
0.31
0.519355
0.320197
0.52
0.624242
0.555556
0.663212
0.423077
0.211111
0.441176
0.225166
0.623853
0.231481
0.651961
0.691983
0.569507
0.59542
0.669421
0.546296
0.546012
0.375
0.601942
0.764957
0.57
0.676884
0.508671
0.248045
0.5
0.553055
0.537037
0.361702
0.405476
0.492647
0.50817
0.527273
0.530612
0.636816
0.77
0.451807
0.690058
Wizard-Vicuna-13B-Uncensored
0.5657
0.621888
0.479223
0.3
0.466667
0.473684
0.49
0.471698
0.486111
0.3
0.41
0.32
0.404624
0.235294
0.59
0.417021
0.298246
0.4
0.253968
0.349206
0.31
0.519355
0.320197
0.52
0.624242
0.555556
0.663212
0.423077
0.211111
0.441176
0.225166
0.623853
0.231481
0.651961
0.691983
0.569507
0.59542
0.669421
0.546296
0.546012
0.375
0.601942
0.764957
0.57
0.676884
0.508671
0.248045
0.5
0.553055
0.537037
0.361702
0.405476
0.492647
0.50817
0.527273
0.530612
0.636816
0.77
0.451807
0.690058
Alpacino13b
0.550341
0.614121
0.479177
0.38
0.474074
0.434211
0.47
0.471698
0.465278
0.31
0.41
0.36
0.433526
0.205882
0.61
0.429787
0.289474
0.393103
0.246032
0.349206
0.34
0.516129
0.305419
0.49
0.612121
0.530303
0.647668
0.438462
0.274074
0.470588
0.271523
0.629358
0.273148
0.593137
0.687764
0.565022
0.564885
0.652893
0.537037
0.564417
0.339286
0.650485
0.726496
0.51
0.666667
0.514451
0.243575
0.513072
0.543408
0.533951
0.351064
0.371578
0.514706
0.485294
0.590909
0.538776
0.656716
0.76
0.439759
0.666667
Alpacino-SuperCOT-13B
0.545222
0.617706
0.478925
0.33
0.488889
0.5
0.47
0.498113
0.451389
0.33
0.44
0.3
0.456647
0.205882
0.6
0.408511
0.219298
0.4
0.275132
0.31746
0.31
0.516129
0.280788
0.52
0.606061
0.540404
0.647668
0.433333
0.248148
0.462185
0.264901
0.627523
0.291667
0.607843
0.700422
0.61435
0.557252
0.677686
0.555556
0.521472
0.357143
0.679612
0.74359
0.5
0.692209
0.511561
0.239106
0.519608
0.533762
0.527778
0.343972
0.378096
0.518382
0.488562
0.581818
0.481633
0.671642
0.75
0.409639
0.695906
instruct-13b
0.540102
0.618801
0.478921
0.31
0.481481
0.486842
0.52
0.498113
0.513889
0.42
0.42
0.3
0.416185
0.215686
0.56
0.408511
0.315789
0.489655
0.259259
0.309524
0.27
0.570968
0.310345
0.48
0.636364
0.636364
0.663212
0.420513
0.218519
0.487395
0.238411
0.677064
0.314815
0.632353
0.607595
0.524664
0.541985
0.644628
0.555556
0.601227
0.357143
0.650485
0.764957
0.46
0.673052
0.514451
0.244693
0.480392
0.5209
0.540123
0.368794
0.391786
0.474265
0.48366
0.572727
0.481633
0.572139
0.69
0.433735
0.666667
Manticore-13b-Chat-Pyg-Guanaco
0.52901
0.614917
0.478093
0.4
0.474074
0.473684
0.45
0.50566
0.506944
0.31
0.43
0.32
0.375723
0.235294
0.6
0.412766
0.350877
0.37931
0.291005
0.301587
0.36
0.512903
0.344828
0.49
0.551515
0.580808
0.683938
0.412821
0.296296
0.487395
0.258278
0.629358
0.300926
0.632353
0.637131
0.591928
0.526718
0.570248
0.601852
0.521472
0.357143
0.640777
0.722222
0.47
0.655172
0.531792
0.26257
0.470588
0.508039
0.564815
0.407801
0.387875
0.481618
0.464052
0.563636
0.522449
0.567164
0.76
0.421687
0.684211
openbuddy-openllama-13b-v7-fp16
0.446246
0.547401
0.477422
0.29
0.466667
0.513158
0.39
0.486792
0.479167
0.31
0.32
0.27
0.421965
0.235294
0.62
0.387234
0.263158
0.482759
0.275132
0.246032
0.36
0.525806
0.344828
0.46
0.606061
0.606061
0.668394
0.420513
0.281481
0.415966
0.357616
0.605505
0.305556
0.622549
0.586498
0.573991
0.610687
0.652893
0.537037
0.613497
0.392857
0.601942
0.722222
0.59
0.66539
0.5
0.241341
0.53268
0.527331
0.546296
0.333333
0.368318
0.459559
0.452614
0.618182
0.485714
0.61194
0.75
0.475904
0.725146
llama-13b
0.52901
0.607449
0.476716
0.32
0.459259
0.473684
0.46
0.460377
0.465278
0.29
0.41
0.36
0.427746
0.186275
0.63
0.387234
0.280702
0.427586
0.26455
0.325397
0.36
0.522581
0.280788
0.49
0.624242
0.550505
0.668394
0.464103
0.259259
0.478992
0.304636
0.611009
0.300926
0.563725
0.675105
0.542601
0.572519
0.644628
0.518519
0.527607
0.321429
0.660194
0.717949
0.53
0.644955
0.5
0.29162
0.503268
0.540193
0.512346
0.340426
0.372229
0.511029
0.490196
0.618182
0.526531
0.61194
0.78
0.433735
0.678363
tulu-7B-fp16
0.462457
0.574885
0.476328
0.24
0.451852
0.473684
0.56
0.490566
0.5
0.3
0.43
0.31
0.427746
0.27451
0.64
0.374468
0.289474
0.406897
0.251323
0.309524
0.31
0.480645
0.310345
0.45
0.660606
0.590909
0.673575
0.435897
0.296296
0.390756
0.271523
0.67156
0.384259
0.622549
0.662447
0.529148
0.51145
0.61157
0.564815
0.570552
0.339286
0.660194
0.75641
0.61
0.652618
0.511561
0.296089
0.503268
0.491961
0.537037
0.343972
0.354628
0.4375
0.457516
0.563636
0.489796
0.661692
0.69
0.409639
0.654971
vigogne-13b-instruct
0.549488
0.616311
0.476189
0.34
0.481481
0.486842
0.46
0.513208
0.465278
0.28
0.36
0.32
0.404624
0.254902
0.57
0.412766
0.27193
0.372414
0.275132
0.261905
0.36
0.512903
0.275862
0.53
0.6
0.580808
0.621762
0.433333
0.303704
0.470588
0.278146
0.645872
0.305556
0.588235
0.704641
0.58296
0.503817
0.677686
0.537037
0.552147
0.339286
0.679612
0.722222
0.55
0.683269
0.520231
0.241341
0.513072
0.517685
0.540123
0.361702
0.408083
0.485294
0.482026
0.572727
0.493878
0.621891
0.75
0.415663
0.649123
llama-13b
0.53157
0.607449
0.476106
0.31
0.459259
0.473684
0.46
0.464151
0.458333
0.28
0.41
0.36
0.416185
0.186275
0.63
0.391489
0.280702
0.413793
0.26455
0.325397
0.36
0.522581
0.280788
0.48
0.624242
0.550505
0.668394
0.461538
0.259259
0.478992
0.304636
0.609174
0.296296
0.568627
0.675105
0.55157
0.572519
0.644628
0.518519
0.527607
0.321429
0.660194
0.717949
0.52
0.646232
0.5
0.298324
0.503268
0.543408
0.515432
0.336879
0.372229
0.514706
0.488562
0.618182
0.526531
0.61194
0.78
0.439759
0.684211
galactica-30b
0.44198
0.456981
0.475618
0.27
0.548148
0.532895
0.48
0.554717
0.583333
0.37
0.45
0.36
0.50289
0.343137
0.66
0.47234
0.342105
0.565517
0.320106
0.277778
0.34
0.554839
0.448276
0.54
0.630303
0.535354
0.57513
0.425641
0.251852
0.44958
0.377483
0.625688
0.351852
0.426471
0.599156
0.569507
0.572519
0.669421
0.518519
0.496933
0.330357
0.621359
0.705128
0.58
0.501916
0.456647
0.240223
0.529412
0.485531
0.530864
0.358156
0.344198
0.488971
0.504902
0.5
0.4
0.572139
0.52
0.433735
0.415205
airoboros-13b-gpt4-1.4
0.575939
0.634535
0.475084
0.3
0.451852
0.453947
0.51
0.464151
0.506944
0.3
0.41
0.32
0.393064
0.245098
0.63
0.417021
0.27193
0.386207
0.256614
0.31746
0.31
0.506452
0.315271
0.52
0.654545
0.505051
0.65285
0.448718
0.237037
0.436975
0.238411
0.625688
0.240741
0.622549
0.700422
0.573991
0.59542
0.68595
0.490741
0.546012
0.339286
0.660194
0.730769
0.55
0.669221
0.5
0.251397
0.509804
0.533762
0.549383
0.351064
0.393742
0.5
0.504902
0.481818
0.489796
0.641791
0.77
0.421687
0.690058
gpt4-alpaca-lora-13B-HF
0.571672
0.623382
0.474845
0.3
0.488889
0.473684
0.46
0.471698
0.465278
0.31
0.45
0.32
0.404624
0.245098
0.61
0.434043
0.289474
0.386207
0.243386
0.325397
0.34
0.5
0.315271
0.48
0.624242
0.550505
0.637306
0.428205
0.233333
0.441176
0.264901
0.620183
0.226852
0.578431
0.687764
0.542601
0.572519
0.661157
0.481481
0.539877
0.375
0.640777
0.74359
0.52
0.662835
0.520231
0.239106
0.522876
0.540193
0.521605
0.365248
0.380704
0.522059
0.496732
0.581818
0.530612
0.656716
0.76
0.421687
0.660819
mpt-30b
0.515358
0.619498
0.473866
0.3
0.466667
0.421053
0.55
0.467925
0.486111
0.28
0.43
0.35
0.439306
0.303922
0.58
0.417021
0.315789
0.475862
0.309524
0.285714
0.34
0.53871
0.364532
0.52
0.593939
0.585859
0.632124
0.44359
0.266667
0.432773
0.284768
0.66422
0.361111
0.666667
0.683544
0.533632
0.519084
0.454545
0.462963
0.490798
0.446429
0.543689
0.696581
0.49
0.690932
0.520231
0.250279
0.493464
0.55627
0.561728
0.351064
0.377445
0.375
0.447712
0.554545
0.583673
0.562189
0.66
0.46988
0.660819
llama-13b-pretrained-sft-do2
0.564846
0.608146
0.472486
0.3
0.496296
0.447368
0.45
0.501887
0.472222
0.34
0.41
0.35
0.421965
0.294118
0.64
0.374468
0.280702
0.434483
0.309524
0.309524
0.3
0.509677
0.305419
0.5
0.606061
0.606061
0.663212
0.430769
0.259259
0.466387
0.271523
0.623853
0.375
0.637255
0.670886
0.497758
0.496183
0.603306
0.527778
0.453988
0.321429
0.660194
0.75641
0.49
0.64751
0.49422
0.329609
0.496732
0.498392
0.512346
0.319149
0.385919
0.452206
0.45098
0.581818
0.485714
0.61194
0.7
0.427711
0.672515
GPT-JT-6B-v1
0.382253
0.487453
0.471902
0.3
0.533333
0.552632
0.54
0.524528
0.5
0.42
0.35
0.46
0.485549
0.284314
0.62
0.391489
0.368421
0.475862
0.293651
0.293651
0.45
0.503226
0.399015
0.48
0.454545
0.606061
0.606218
0.438462
0.22963
0.420168
0.384106
0.543119
0.384259
0.446078
0.510549
0.515695
0.549618
0.595041
0.546296
0.503067
0.321429
0.640777
0.606838
0.66
0.494253
0.50578
0.239106
0.490196
0.475884
0.493827
0.340426
0.363103
0.400735
0.393791
0.627273
0.497959
0.631841
0.72
0.451807
0.584795
Metharme-13b-Merged
0.573379
0.612229
0.47177
0.31
0.444444
0.427632
0.45
0.471698
0.5
0.32
0.4
0.32
0.393064
0.205882
0.62
0.374468
0.289474
0.413793
0.275132
0.396825
0.33
0.493548
0.285714
0.49
0.612121
0.520202
0.668394
0.410256
0.240741
0.428571
0.231788
0.59633
0.25
0.612745
0.691983
0.556054
0.503817
0.702479
0.537037
0.576687
0.383929
0.669903
0.696581
0.52
0.673052
0.491329
0.235754
0.486928
0.514469
0.537037
0.365248
0.39309
0.481618
0.50817
0.554545
0.510204
0.671642
0.77
0.415663
0.660819
llama-13b-pretrained
0.533276
0.593209
0.470261
0.25
0.444444
0.434211
0.42
0.483019
0.458333
0.31
0.39
0.36
0.416185
0.264706
0.61
0.404255
0.298246
0.448276
0.306878
0.277778
0.35
0.519355
0.320197
0.46
0.581818
0.540404
0.65285
0.435897
0.262963
0.483193
0.291391
0.636697
0.287037
0.607843
0.683544
0.55157
0.549618
0.669421
0.527778
0.484663
0.294643
0.660194
0.722222
0.53
0.66539
0.49422
0.255866
0.509804
0.546624
0.509259
0.358156
0.38266
0.477941
0.455882
0.536364
0.493878
0.577114
0.75
0.433735
0.678363
Llama-2-7b-hf
0.492321
0.588329
0.468661
0.3
0.481481
0.407895
0.53
0.464151
0.465278
0.35
0.33
0.35
0.427746
0.235294
0.6
0.421277
0.27193
0.475862
0.272487
0.285714
0.32
0.5
0.369458
0.4
0.642424
0.484848
0.673575
0.458974
0.303704
0.441176
0.311258
0.629358
0.273148
0.534314
0.628692
0.569507
0.564885
0.652893
0.537037
0.509202
0.383929
0.553398
0.692308
0.55
0.641124
0.49422
0.239106
0.493464
0.601286
0.490741
0.361702
0.361799
0.525735
0.441176
0.527273
0.477551
0.631841
0.65
0.421687
0.701754
Luna-AI-Llama2-Uncensored
0.505973
0.597291
0.466961
0.32
0.42963
0.381579
0.52
0.479245
0.423611
0.31
0.48
0.32
0.398844
0.205882
0.52
0.395745
0.377193
0.468966
0.291005
0.309524
0.34
0.519355
0.305419
0.39
0.648485
0.540404
0.663212
0.433333
0.288889
0.407563
0.304636
0.607339
0.319444
0.563725
0.662447
0.573991
0.541985
0.595041
0.518519
0.490798
0.428571
0.495146
0.713675
0.52
0.62963
0.537572
0.259218
0.522876
0.546624
0.515432
0.393617
0.35854
0.496324
0.457516
0.563636
0.469388
0.587065
0.7
0.403614
0.672515
chatglm2-6b
0.374573
0.459669
0.466606
0.28
0.414815
0.532895
0.61
0.486792
0.388889
0.4
0.33
0.32
0.421965
0.215686
0.56
0.4
0.307018
0.468966
0.31746
0.349206
0.36
0.558065
0.453202
0.42
0.6
0.555556
0.569948
0.448718
0.262963
0.432773
0.291391
0.592661
0.337963
0.588235
0.662447
0.466368
0.480916
0.603306
0.583333
0.490798
0.4375
0.621359
0.692308
0.52
0.596424
0.528902
0.235754
0.53268
0.498392
0.493827
0.333333
0.355932
0.352941
0.444444
0.581818
0.567347
0.621891
0.73
0.415663
0.473684
CAMEL-13B-Role-Playing-Data
0.503413
0.596793
0.466084
0.3
0.437037
0.447368
0.43
0.486792
0.416667
0.32
0.32
0.32
0.375723
0.215686
0.58
0.378723
0.245614
0.4
0.251323
0.293651
0.37
0.493548
0.29064
0.5
0.612121
0.545455
0.647668
0.410256
0.251852
0.428571
0.278146
0.612844
0.273148
0.651961
0.679325
0.573991
0.557252
0.661157
0.490741
0.490798
0.455357
0.631068
0.74359
0.54
0.67433
0.49422
0.237989
0.522876
0.55627
0.521605
0.322695
0.383312
0.463235
0.465686
0.545455
0.542857
0.621891
0.73
0.409639
0.666667
llama-13b-pretrained-dropout
0.544369
0.591615
0.465884
0.26
0.481481
0.414474
0.43
0.513208
0.472222
0.33
0.41
0.38
0.387283
0.245098
0.59
0.382979
0.333333
0.406897
0.31746
0.301587
0.36
0.509677
0.280788
0.47
0.575758
0.545455
0.642487
0.412821
0.266667
0.39916
0.291391
0.616514
0.263889
0.612745
0.675105
0.556054
0.496183
0.669421
0.509259
0.496933
0.419643
0.631068
0.717949
0.53
0.66539
0.453757
0.290503
0.496732
0.514469
0.509259
0.35461
0.372881
0.474265
0.446078
0.536364
0.461224
0.572139
0.75
0.403614
0.649123
MedLLaMA_13B
0.510239
0.586238
0.463996
0.31
0.525926
0.480263
0.44
0.490566
0.479167
0.35
0.38
0.35
0.421965
0.215686
0.58
0.4
0.22807
0.37931
0.238095
0.333333
0.35
0.512903
0.280788
0.44
0.575758
0.515152
0.658031
0.438462
0.296296
0.445378
0.337748
0.587156
0.347222
0.529412
0.624473
0.529148
0.534351
0.652893
0.490741
0.429448
0.366071
0.592233
0.649573
0.52
0.62069
0.50289
0.255866
0.545752
0.495177
0.503086
0.35461
0.332464
0.525735
0.468954
0.563636
0.538776
0.631841
0.72
0.427711
0.654971
llama-2-7b-guanaco-fp16
0.504266
0.601175
0.463778
0.29
0.459259
0.434211
0.51
0.456604
0.479167
0.4
0.38
0.31
0.427746
0.186275
0.55
0.370213
0.289474
0.42069
0.280423
0.31746
0.32
0.522581
0.403941
0.41
0.624242
0.520202
0.663212
0.446154
0.274074
0.453782
0.337748
0.60367
0.277778
0.490196
0.620253
0.565022
0.610687
0.586777
0.490741
0.509202
0.410714
0.543689
0.688034
0.54
0.623244
0.5
0.248045
0.519608
0.546624
0.496914
0.326241
0.352021
0.507353
0.415033
0.545455
0.514286
0.636816
0.6
0.427711
0.701754
GPT4-x-Alpasta-13b
0.558874
0.603565
0.460277
0.33
0.466667
0.401316
0.46
0.475472
0.4375
0.31
0.46
0.39
0.381503
0.254902
0.6
0.391489
0.280702
0.37931
0.304233
0.31746
0.27
0.512903
0.275862
0.5
0.612121
0.60101
0.647668
0.425641
0.251852
0.466387
0.251656
0.607339
0.356481
0.627451
0.649789
0.511211
0.480916
0.595041
0.518519
0.447853
0.3125
0.679612
0.74359
0.47
0.639847
0.50578
0.301676
0.490196
0.508039
0.493827
0.308511
0.378096
0.455882
0.436275
0.545455
0.440816
0.572139
0.68
0.39759
0.625731
vicuna-7b-1.1
0.499147
0.584445
0.456288
0.25
0.4
0.493421
0.46
0.513208
0.444444
0.37
0.39
0.34
0.352601
0.264706
0.56
0.382979
0.245614
0.462069
0.28836
0.349206
0.27
0.46129
0.325123
0.39
0.587879
0.59596
0.668394
0.4
0.22963
0.386555
0.271523
0.6
0.388889
0.602941
0.578059
0.538117
0.564885
0.570248
0.555556
0.509202
0.303571
0.572816
0.683761
0.48
0.62963
0.50578
0.244693
0.486928
0.482315
0.518519
0.340426
0.348761
0.503676
0.439542
0.518182
0.538776
0.631841
0.63
0.421687
0.666667
vicuna_7B_vanilla_1.1
0.499147
0.584445
0.456288
0.25
0.4
0.493421
0.46
0.513208
0.444444
0.37
0.39
0.34
0.352601
0.264706
0.56
0.382979
0.245614
0.462069
0.28836
0.349206
0.27
0.46129
0.325123
0.39
0.587879
0.59596
0.668394
0.4
0.22963
0.386555
0.271523
0.6
0.388889
0.602941
0.578059
0.538117
0.564885
0.570248
0.555556
0.509202
0.303571
0.572816
0.683761
0.48
0.62963
0.50578
0.244693
0.486928
0.482315
0.518519
0.340426
0.348761
0.503676
0.439542
0.518182
0.538776
0.631841
0.63
0.421687
0.666667
llama-13b-pretrained-sft-epoch-1
0.546075
0.596395
0.455156
0.24
0.466667
0.467105
0.4
0.445283
0.451389
0.25
0.39
0.32
0.369942
0.196078
0.61
0.387234
0.254386
0.482759
0.269841
0.301587
0.37
0.490323
0.310345
0.45
0.569697
0.494949
0.642487
0.405128
0.237037
0.420168
0.245033
0.59633
0.231481
0.632353
0.658228
0.55157
0.541985
0.619835
0.527778
0.472393
0.330357
0.650485
0.700855
0.5
0.687101
0.491329
0.239106
0.46732
0.5209
0.481481
0.336879
0.382008
0.452206
0.480392
0.536364
0.432653
0.60199
0.76
0.409639
0.71345
WizardLM_13B_juniper
0.536689
0.579665
0.454574
0.32
0.414815
0.427632
0.38
0.456604
0.430556
0.38
0.36
0.33
0.358382
0.215686
0.61
0.348936
0.307018
0.358621
0.285714
0.269841
0.36
0.535484
0.35468
0.51
0.466667
0.545455
0.611399
0.448718
0.262963
0.390756
0.370861
0.649541
0.324074
0.54902
0.578059
0.502242
0.519084
0.61157
0.574074
0.466258
0.267857
0.631068
0.679487
0.5
0.65645
0.49711
0.24581
0.53268
0.466238
0.487654
0.368794
0.357888
0.463235
0.45098
0.563636
0.542857
0.631841
0.66
0.36747
0.654971
llama-13b-supercot
0.53413
0.613523
0.453605
0.36
0.481481
0.467105
0.47
0.486792
0.430556
0.32
0.4
0.27
0.404624
0.205882
0.57
0.412766
0.298246
0.358621
0.26455
0.285714
0.31
0.503226
0.285714
0.47
0.557576
0.510101
0.606218
0.423077
0.203704
0.407563
0.258278
0.612844
0.25
0.573529
0.611814
0.556054
0.519084
0.661157
0.555556
0.490798
0.3125
0.640777
0.700855
0.47
0.683269
0.462428
0.239106
0.473856
0.517685
0.537037
0.326241
0.354628
0.4375
0.468954
0.572727
0.408163
0.626866
0.7
0.403614
0.666667
koala-13B-HF
0.495734
0.576379
0.453221
0.28
0.451852
0.407895
0.43
0.467925
0.465278
0.26
0.34
0.3
0.393064
0.235294
0.55
0.33617
0.254386
0.475862
0.253968
0.333333
0.26
0.464516
0.285714
0.47
0.624242
0.580808
0.637306
0.4
0.240741
0.420168
0.271523
0.581651
0.351852
0.627451
0.649789
0.493274
0.564885
0.652893
0.527778
0.478528
0.419643
0.524272
0.67094
0.45
0.621967
0.520231
0.251397
0.535948
0.508039
0.506173
0.326241
0.378096
0.389706
0.426471
0.481818
0.57551
0.651741
0.73
0.415663
0.631579
firefly-ziya-13b
0.523891
0.597291
0.451801
0.3
0.451852
0.427632
0.49
0.45283
0.472222
0.31
0.42
0.25
0.416185
0.196078
0.57
0.391489
0.315789
0.386207
0.243386
0.444444
0.3
0.522581
0.285714
0.49
0.563636
0.540404
0.595855
0.407692
0.244444
0.420168
0.218543
0.572477
0.231481
0.588235
0.616034
0.475336
0.534351
0.636364
0.444444
0.490798
0.455357
0.601942
0.722222
0.51
0.637292
0.462428
0.185475
0.464052
0.491961
0.493827
0.322695
0.365059
0.474265
0.426471
0.554545
0.506122
0.58209
0.65
0.451807
0.678363
llama_7b_sharegpt94k_fastchat
0.493174
0.574487
0.446373
0.25
0.414815
0.447368
0.46
0.501887
0.486111
0.37
0.34
0.3
0.33526
0.254902
0.58
0.412766
0.280702
0.455172
0.285714
0.293651
0.26
0.512903
0.280788
0.39
0.563636
0.555556
0.632124
0.394872
0.218519
0.357143
0.258278
0.577982
0.328704
0.544118
0.603376
0.538117
0.496183
0.628099
0.583333
0.533742
0.3125
0.543689
0.675214
0.48
0.624521
0.511561
0.24581
0.490196
0.469453
0.521605
0.343972
0.346154
0.419118
0.416667
0.490909
0.546939
0.60199
0.66
0.385542
0.631579
MedicWizard-7B
0.507679
0.603665
0.446102
0.32
0.444444
0.394737
0.49
0.566038
0.486111
0.27
0.34
0.32
0.479769
0.254902
0.54
0.382979
0.254386
0.365517
0.248677
0.31746
0.32
0.458065
0.344828
0.45
0.539394
0.505051
0.611399
0.433333
0.248148
0.386555
0.317881
0.638532
0.259259
0.593137
0.603376
0.565022
0.48855
0.61157
0.546296
0.490798
0.303571
0.485437
0.628205
0.57
0.591315
0.491329
0.243575
0.5
0.495177
0.5
0.333333
0.342894
0.573529
0.470588
0.472727
0.4
0.522388
0.61
0.457831
0.549708
llama2_7b_chat_uncensored
0.499147
0.596395
0.444862
0.31
0.422222
0.401316
0.5
0.422642
0.4375
0.32
0.32
0.33
0.375723
0.186275
0.54
0.425532
0.333333
0.344828
0.259259
0.396825
0.31
0.474194
0.330049
0.41
0.6
0.484848
0.647668
0.4
0.266667
0.394958
0.291391
0.587156
0.189815
0.52451
0.544304
0.542601
0.541985
0.628099
0.490741
0.490798
0.366071
0.524272
0.662393
0.51
0.624521
0.508671
0.237989
0.46732
0.581994
0.512346
0.340426
0.348761
0.452206
0.452614
0.554545
0.408163
0.587065
0.69
0.39759
0.654971
WizardLM-13B-Uncensored
0.489761
0.58106
0.439563
0.3
0.4
0.348684
0.46
0.449057
0.395833
0.24
0.41
0.39
0.375723
0.205882
0.54
0.412766
0.27193
0.365517
0.269841
0.309524
0.38
0.454839
0.26601
0.48
0.533333
0.535354
0.611399
0.420513
0.281481
0.42437
0.218543
0.555963
0.25463
0.588235
0.607595
0.55157
0.435115
0.570248
0.518519
0.447853
0.401786
0.601942
0.692308
0.5
0.62069
0.445087
0.284916
0.48366
0.463023
0.481481
0.333333
0.353977
0.408088
0.45915
0.563636
0.465306
0.527363
0.66
0.391566
0.637427
galpaca-30b
0.459898
0.444633
0.437807
0.31
0.511111
0.493421
0.43
0.498113
0.493056
0.42
0.39
0.38
0.445087
0.313725
0.62
0.425532
0.368421
0.524138
0.312169
0.253968
0.33
0.551613
0.374384
0.45
0.49697
0.525253
0.518135
0.402564
0.288889
0.42437
0.311258
0.585321
0.337963
0.411765
0.531646
0.520179
0.48855
0.553719
0.481481
0.453988
0.383929
0.495146
0.602564
0.56
0.476373
0.442197
0.237989
0.506536
0.418006
0.432099
0.301418
0.321382
0.419118
0.439542
0.427273
0.383673
0.507463
0.56
0.421687
0.391813
open_llama_13b
0.452218
0.541824
0.437657
0.33
0.444444
0.467105
0.4
0.411321
0.444444
0.35
0.41
0.34
0.375723
0.254902
0.59
0.357447
0.315789
0.462069
0.253968
0.230159
0.35
0.458065
0.310345
0.32
0.509091
0.550505
0.606218
0.448718
0.240741
0.457983
0.304636
0.579817
0.263889
0.563725
0.50211
0.452915
0.534351
0.495868
0.481481
0.588957
0.357143
0.582524
0.58547
0.54
0.597701
0.482659
0.256983
0.421569
0.511254
0.537037
0.319149
0.319426
0.386029
0.385621
0.472727
0.428571
0.562189
0.69
0.433735
0.619883
open_llama_13b
0.463311
0.56423
0.437545
0.33
0.459259
0.480263
0.39
0.415094
0.430556
0.34
0.44
0.33
0.375723
0.254902
0.59
0.361702
0.307018
0.455172
0.246032
0.230159
0.35
0.458065
0.310345
0.34
0.478788
0.545455
0.601036
0.448718
0.244444
0.462185
0.298013
0.583486
0.268519
0.563725
0.493671
0.457399
0.526718
0.495868
0.490741
0.576687
0.357143
0.592233
0.598291
0.53
0.595147
0.50289
0.268156
0.418301
0.501608
0.54321
0.322695
0.317471
0.386029
0.383987
0.472727
0.428571
0.552239
0.68
0.439759
0.619883
starcoderplus
0.453072
0.581458
0.43722
0.27
0.481481
0.407895
0.49
0.483019
0.458333
0.27
0.43
0.34
0.398844
0.137255
0.59
0.361702
0.27193
0.482759
0.283069
0.325397
0.3
0.512903
0.285714
0.44
0.490909
0.484848
0.57513
0.420513
0.281481
0.390756
0.317881
0.53945
0.300926
0.480392
0.57384
0.479821
0.526718
0.561983
0.5
0.515337
0.392857
0.572816
0.666667
0.51
0.55811
0.442197
0.240223
0.5
0.440514
0.444444
0.312057
0.329857
0.371324
0.405229
0.5
0.555102
0.567164
0.64
0.433735
0.578947
Baichuan-7B
0.392491
0.519717
0.435885
0.32
0.422222
0.506579
0.5
0.441509
0.416667
0.29
0.33
0.3
0.421965
0.245098
0.63
0.32766
0.280702
0.496552
0.283069
0.285714
0.3
0.451613
0.364532
0.41
0.424242
0.550505
0.606218
0.364103
0.240741
0.394958
0.251656
0.585321
0.273148
0.495098
0.527426
0.461883
0.549618
0.603306
0.509259
0.490798
0.419643
0.572816
0.611111
0.48
0.605364
0.447977
0.249162
0.447712
0.459807
0.515432
0.361702
0.326597
0.345588
0.433007
0.527273
0.485714
0.577114
0.58
0.415663
0.631579
WizardLM-13b-OpenAssistant-Uncensored
0.47099
0.569807
0.431464
0.33
0.4
0.315789
0.47
0.45283
0.409722
0.26
0.4
0.41
0.381503
0.186275
0.55
0.378723
0.280702
0.372414
0.304233
0.269841
0.37
0.416129
0.285714
0.46
0.515152
0.520202
0.611399
0.397436
0.27037
0.415966
0.205298
0.53945
0.277778
0.578431
0.57384
0.565022
0.419847
0.53719
0.527778
0.435583
0.401786
0.572816
0.683761
0.52
0.609195
0.427746
0.267039
0.441176
0.472669
0.466049
0.347518
0.337679
0.415441
0.434641
0.518182
0.428571
0.507463
0.63
0.385542
0.631579
gogpt-7b
0.460751
0.548297
0.430331
0.26
0.444444
0.440789
0.45
0.50566
0.409722
0.38
0.39
0.31
0.364162
0.254902
0.54
0.408511
0.289474
0.331034
0.26455
0.206349
0.33
0.512903
0.315271
0.39
0.563636
0.575758
0.621762
0.420513
0.233333
0.378151
0.311258
0.559633
0.37963
0.54902
0.56962
0.475336
0.450382
0.595041
0.490741
0.441718
0.366071
0.543689
0.662393
0.45
0.598978
0.445087
0.242458
0.464052
0.446945
0.484568
0.35461
0.338331
0.459559
0.388889
0.518182
0.371429
0.432836
0.6
0.403614
0.54386
Pygmalion-13b-Merged
0.528157
0.603565
0.429301
0.37
0.488889
0.407895
0.43
0.426415
0.409722
0.24
0.36
0.32
0.352601
0.215686
0.54
0.365957
0.298246
0.4
0.259259
0.293651
0.31
0.451613
0.280788
0.39
0.545455
0.444444
0.580311
0.394872
0.203704
0.403361
0.225166
0.519266
0.236111
0.509804
0.561181
0.529148
0.51145
0.578512
0.537037
0.453988
0.383929
0.572816
0.662393
0.39
0.581098
0.476879
0.261453
0.457516
0.540193
0.466049
0.326241
0.372881
0.430147
0.439542
0.5
0.534694
0.547264
0.67
0.427711
0.584795
starchat-beta
0.498294
0.621888
0.428462
0.26
0.474074
0.440789
0.46
0.464151
0.465278
0.3
0.41
0.39
0.375723
0.186275
0.59
0.353191
0.298246
0.448276
0.261905
0.365079
0.28
0.458065
0.280788
0.4
0.478788
0.540404
0.559585
0.405128
0.27037
0.357143
0.311258
0.555963
0.296296
0.465686
0.544304
0.497758
0.503817
0.512397
0.435185
0.472393
0.321429
0.553398
0.67094
0.55
0.54917
0.433526
0.263687
0.457516
0.453376
0.450617
0.29078
0.324641
0.327206
0.388889
0.509091
0.485714
0.537313
0.62
0.481928
0.584795
open_llama_7b_v2_med_instruct
0.443686
0.578371
0.423243
0.28
0.481481
0.447368
0.4
0.490566
0.395833
0.28
0.34
0.28
0.369942
0.186275
0.6
0.382979
0.254386
0.427586
0.298942
0.261905
0.38
0.448387
0.295567
0.33
0.472727
0.5
0.57513
0.394872
0.255556
0.394958
0.304636
0.565138
0.291667
0.446078
0.544304
0.515695
0.51145
0.561983
0.490741
0.490798
0.330357
0.601942
0.65812
0.48
0.613027
0.476879
0.270391
0.437908
0.463023
0.410494
0.322695
0.323338
0.400735
0.400327
0.5
0.371429
0.552239
0.6
0.403614
0.561404
medalpaca-7b
0.489761
0.615515
0.414686
0.26
0.496296
0.289474
0.42
0.471698
0.451389
0.27
0.21
0.23
0.421965
0.27451
0.48
0.412766
0.236842
0.351724
0.248677
0.190476
0.34
0.503226
0.339901
0.38
0.606061
0.358586
0.512953
0.325641
0.233333
0.306723
0.251656
0.627523
0.212963
0.612745
0.578059
0.538117
0.541985
0.561983
0.462963
0.429448
0.339286
0.407767
0.619658
0.56
0.550447
0.430636
0.242458
0.519608
0.434084
0.444444
0.315603
0.342894
0.599265
0.5
0.509091
0.387755
0.457711
0.61
0.493976
0.432749
yayi-7b-llama2
0.517065
0.587831
0.413509
0.31
0.4
0.381579
0.47
0.377358
0.402778
0.24
0.39
0.33
0.34104
0.186275
0.55
0.408511
0.263158
0.337931
0.248677
0.365079
0.21
0.406452
0.280788
0.39
0.575758
0.439394
0.621762
0.323077
0.259259
0.369748
0.278146
0.519266
0.171296
0.5
0.552743
0.488789
0.442748
0.570248
0.462963
0.460123
0.410714
0.407767
0.662393
0.48
0.598978
0.476879
0.237989
0.421569
0.514469
0.5
0.347518
0.345502
0.386029
0.447712
0.5
0.383673
0.537313
0.61
0.39759
0.578947
open_llama_7b_v2
0.423208
0.545608
0.41294
0.24
0.437037
0.440789
0.41
0.464151
0.430556
0.3
0.34
0.33
0.398844
0.22549
0.56
0.344681
0.307018
0.434483
0.280423
0.357143
0.34
0.445161
0.26601
0.34
0.424242
0.469697
0.580311
0.405128
0.237037
0.382353
0.304636
0.52844
0.273148
0.45098
0.476793
0.41704
0.51145
0.487603
0.518519
0.380368
0.321429
0.572816
0.611111
0.53
0.568327
0.450867
0.248045
0.428105
0.401929
0.438272
0.315603
0.336375
0.444853
0.362745
0.463636
0.44898
0.577114
0.53
0.415663
0.532164
chinese-llama-plus-13b-hf
0.422355
0.537841
0.407416
0.33
0.4
0.407895
0.36
0.381132
0.486111
0.26
0.35
0.34
0.352601
0.235294
0.44
0.344681
0.289474
0.441379
0.269841
0.301587
0.36
0.464516
0.300493
0.44
0.442424
0.388889
0.455959
0.397436
0.240741
0.432773
0.278146
0.506422
0.361111
0.45098
0.523207
0.475336
0.503817
0.586777
0.5
0.460123
0.276786
0.504854
0.611111
0.4
0.519796
0.390173
0.242458
0.434641
0.463023
0.41358
0.347518
0.332464
0.430147
0.361111
0.5
0.444898
0.507463
0.56
0.385542
0.538012
baize-v2-7b
0.455631
0.569209
0.396024
0.32
0.459259
0.368421
0.48
0.475472
0.381944
0.3
0.32
0.28
0.352601
0.245098
0.46
0.378723
0.280702
0.331034
0.269841
0.293651
0.3
0.406452
0.315271
0.3
0.527273
0.429293
0.53886
0.389744
0.214815
0.306723
0.298013
0.47156
0.296296
0.5
0.510549
0.461883
0.442748
0.570248
0.425926
0.404908
0.241071
0.456311
0.568376
0.46
0.524904
0.436416
0.244693
0.424837
0.424437
0.429012
0.322695
0.331812
0.466912
0.379085
0.4
0.395918
0.402985
0.61
0.373494
0.573099
llama-2-ko-7b
0.447952
0.558853
0.395615
0.33
0.444444
0.421053
0.46
0.433962
0.409722
0.28
0.27
0.26
0.358382
0.27451
0.57
0.331915
0.315789
0.4
0.275132
0.230159
0.39
0.393548
0.275862
0.39
0.393939
0.459596
0.569948
0.374359
0.266667
0.323529
0.284768
0.517431
0.236111
0.343137
0.375527
0.403587
0.458015
0.53719
0.416667
0.380368
0.258929
0.563107
0.576923
0.45
0.565773
0.395954
0.251397
0.454248
0.517685
0.469136
0.308511
0.288136
0.308824
0.380719
0.463636
0.497959
0.507463
0.55
0.313253
0.573099
orca_mini_v2_7b
0.482082
0.570603
0.394973
0.3
0.414815
0.348684
0.44
0.471698
0.368056
0.23
0.37
0.31
0.271676
0.166667
0.55
0.365957
0.22807
0.386207
0.253968
0.253968
0.35
0.4
0.275862
0.43
0.490909
0.494949
0.585492
0.361538
0.218519
0.348739
0.251656
0.488073
0.268519
0.485294
0.493671
0.484305
0.458015
0.619835
0.481481
0.453988
0.285714
0.359223
0.58547
0.43
0.551724
0.445087
0.243575
0.375817
0.434084
0.45679
0.312057
0.309648
0.419118
0.415033
0.390909
0.342857
0.502488
0.59
0.349398
0.54386
orca_mini_v2_ger_7b
0.465017
0.563533
0.390959
0.27
0.392593
0.335526
0.44
0.467925
0.361111
0.26
0.37
0.26
0.283237
0.186275
0.61
0.365957
0.245614
0.372414
0.259259
0.261905
0.35
0.374194
0.221675
0.42
0.472727
0.429293
0.544041
0.387179
0.255556
0.340336
0.278146
0.488073
0.310185
0.460784
0.485232
0.484305
0.389313
0.553719
0.444444
0.453988
0.241071
0.398058
0.594017
0.45
0.518519
0.430636
0.227933
0.408497
0.424437
0.459877
0.326241
0.314211
0.441176
0.406863
0.4
0.395918
0.487562
0.6
0.313253
0.561404
airoboros-7b-gpt4-fp16
0.498294
0.600578
0.388755
0.29
0.422222
0.388158
0.39
0.449057
0.381944
0.3
0.34
0.27
0.32948
0.186275
0.49
0.357447
0.27193
0.406897
0.277778
0.261905
0.4
0.4
0.310345
0.37
0.236364
0.494949
0.564767
0.35641
0.22963
0.344538
0.298013
0.526606
0.328704
0.25
0.476793
0.484305
0.427481
0.619835
0.407407
0.453988
0.232143
0.417476
0.57265
0.47
0.563218
0.427746
0.242458
0.372549
0.434084
0.425926
0.308511
0.33442
0.452206
0.390523
0.463636
0.330612
0.502488
0.55
0.331325
0.54386
airoboros-7b-gpt4-1.4
0.504266
0.611432
0.386068
0.3
0.392593
0.401316
0.4
0.426415
0.375
0.35
0.31
0.28
0.317919
0.215686
0.46
0.365957
0.219298
0.365517
0.26455
0.261905
0.34
0.364516
0.300493
0.38
0.490909
0.444444
0.518135
0.353846
0.266667
0.348739
0.251656
0.491743
0.217593
0.431373
0.472574
0.434978
0.40458
0.628099
0.444444
0.429448
0.276786
0.368932
0.542735
0.41
0.538953
0.436416
0.242458
0.388889
0.398714
0.432099
0.315603
0.310952
0.477941
0.403595
0.509091
0.314286
0.462687
0.58
0.337349
0.538012
chinese-alpaca-plus-7b-hf
0.453072
0.526588
0.383871
0.28
0.392593
0.328947
0.39
0.403774
0.375
0.23
0.31
0.25
0.289017
0.254902
0.37
0.361702
0.184211
0.344828
0.26455
0.206349
0.34
0.425806
0.305419
0.41
0.472727
0.459596
0.528497
0.348718
0.259259
0.331933
0.271523
0.451376
0.453704
0.5
0.510549
0.457399
0.465649
0.586777
0.444444
0.460123
0.294643
0.417476
0.564103
0.37
0.544061
0.393064
0.242458
0.424837
0.427653
0.435185
0.308511
0.304433
0.319853
0.395425
0.427273
0.408163
0.412935
0.57
0.421687
0.479532
wizardLM-7B-HF
0.484642
0.568512
0.380724
0.35
0.437037
0.401316
0.48
0.437736
0.368056
0.24
0.29
0.23
0.352601
0.22549
0.49
0.4
0.263158
0.324138
0.306878
0.253968
0.32
0.36129
0.300493
0.34
0.454545
0.424242
0.466321
0.353846
0.244444
0.327731
0.278146
0.466055
0.217593
0.455882
0.43038
0.511211
0.389313
0.578512
0.453704
0.398773
0.3125
0.359223
0.517094
0.42
0.545338
0.384393
0.230168
0.408497
0.385852
0.398148
0.319149
0.322034
0.386029
0.400327
0.418182
0.314286
0.477612
0.55
0.391566
0.538012
mpt-7b-chat
0.431741
0.571002
0.376236
0.3
0.392593
0.368421
0.39
0.384906
0.388889
0.32
0.35
0.36
0.32948
0.176471
0.44
0.370213
0.219298
0.455172
0.243386
0.253968
0.26
0.403226
0.241379
0.41
0.321212
0.363636
0.492228
0.387179
0.218519
0.390756
0.284768
0.510092
0.351852
0.328431
0.409283
0.484305
0.465649
0.404959
0.407407
0.288344
0.330357
0.368932
0.551282
0.47
0.532567
0.410405
0.241341
0.401961
0.40836
0.367284
0.269504
0.290743
0.389706
0.320261
0.463636
0.485714
0.482587
0.57
0.427711
0.497076
RedPajama-INCITE-7B-Instruct
0.413823
0.532065
0.376184
0.25
0.451852
0.394737
0.41
0.433962
0.395833
0.29
0.32
0.3
0.346821
0.284314
0.54
0.297872
0.210526
0.262069
0.291005
0.285714
0.26
0.429032
0.285714
0.33
0.412121
0.414141
0.533679
0.382051
0.248148
0.340336
0.278146
0.46789
0.199074
0.460784
0.472574
0.506726
0.389313
0.553719
0.407407
0.404908
0.294643
0.446602
0.525641
0.42
0.533844
0.393064
0.243575
0.359477
0.392283
0.42284
0.326241
0.319426
0.301471
0.383987
0.5
0.257143
0.427861
0.52
0.319277
0.51462
RedPajama-INCITE-Instruct-7B-v0.1
0.413823
0.532065
0.376184
0.25
0.451852
0.394737
0.41
0.433962
0.395833
0.29
0.32
0.3
0.346821
0.284314
0.54
0.297872
0.210526
0.262069
0.291005
0.285714
0.26
0.429032
0.285714
0.33
0.412121
0.414141
0.533679
0.382051
0.248148
0.340336
0.278146
0.46789
0.199074
0.460784
0.472574
0.506726
0.389313
0.553719
0.407407
0.404908
0.294643
0.446602
0.525641
0.42
0.533844
0.393064
0.243575
0.359477
0.392283
0.42284
0.326241
0.319426
0.301471
0.383987
0.5
0.257143
0.427861
0.52
0.319277
0.51462
AlpacaGPT4-7B-elina
0.515358
0.592711
0.374999
0.33
0.422222
0.394737
0.46
0.422642
0.381944
0.31
0.36
0.3
0.300578
0.22549
0.46
0.361702
0.236842
0.275862
0.26455
0.222222
0.35
0.377419
0.26601
0.38
0.436364
0.39899
0.523316
0.358974
0.244444
0.331933
0.291391
0.473394
0.347222
0.401961
0.443038
0.439462
0.381679
0.53719
0.407407
0.368098
0.267857
0.398058
0.5
0.43
0.440613
0.381503
0.242458
0.411765
0.424437
0.37963
0.312057
0.29987
0.433824
0.374183
0.454545
0.363265
0.507463
0.45
0.319277
0.497076
airoboros-7b
0.505119
0.593706
0.373402
0.25
0.385185
0.355263
0.4
0.437736
0.381944
0.31
0.31
0.34
0.323699
0.22549
0.46
0.378723
0.27193
0.324138
0.272487
0.365079
0.27
0.374194
0.330049
0.31
0.436364
0.419192
0.481865
0.335897
0.22963
0.336134
0.291391
0.495413
0.314815
0.47549
0.396624
0.376682
0.389313
0.487603
0.388889
0.429448
0.294643
0.378641
0.487179
0.42
0.510856
0.384393
0.242458
0.431373
0.37299
0.388889
0.315603
0.29661
0.448529
0.343137
0.418182
0.346939
0.482587
0.49
0.361446
0.508772
Wizard-Vicuna-7B-Uncensored-HF
0.500853
0.605557
0.370889
0.28
0.377778
0.355263
0.42
0.403774
0.361111
0.28
0.28
0.27
0.271676
0.235294
0.5
0.404255
0.263158
0.317241
0.238095
0.261905
0.32
0.377419
0.236453
0.38
0.484848
0.424242
0.492228
0.333333
0.240741
0.319328
0.238411
0.47156
0.194444
0.465686
0.481013
0.466368
0.381679
0.595041
0.425926
0.368098
0.25
0.349515
0.542735
0.48
0.53129
0.413295
0.242458
0.382353
0.382637
0.41358
0.333333
0.303781
0.463235
0.387255
0.418182
0.302041
0.393035
0.49
0.319277
0.526316
Wizard-Vicuna-7B-Uncensored
0.500853
0.605557
0.370889
0.28
0.377778
0.355263
0.42
0.403774
0.361111
0.28
0.28
0.27
0.271676
0.235294
0.5
0.404255
0.263158
0.317241
0.238095
0.261905
0.32
0.377419
0.236453
0.38
0.484848
0.424242
0.492228
0.333333
0.240741
0.319328
0.238411
0.47156
0.194444
0.465686
0.481013
0.466368
0.381679
0.595041
0.425926
0.368098
0.25
0.349515
0.542735
0.48
0.53129
0.413295
0.242458
0.382353
0.382637
0.41358
0.333333
0.303781
0.463235
0.387255
0.418182
0.302041
0.393035
0.49
0.319277
0.526316
test-custom-llama
0.498294
0.581856
0.366109
0.29
0.414815
0.388158
0.41
0.373585
0.416667
0.31
0.3
0.28
0.300578
0.264706
0.4
0.382979
0.254386
0.310345
0.272487
0.222222
0.32
0.351613
0.29064
0.26
0.472727
0.368687
0.476684
0.366667
0.222222
0.340336
0.251656
0.434862
0.351852
0.387255
0.43038
0.439462
0.366412
0.553719
0.444444
0.423313
0.267857
0.38835
0.504274
0.45
0.448276
0.364162
0.242458
0.415033
0.376206
0.37963
0.315603
0.278357
0.430147
0.366013
0.472727
0.289796
0.437811
0.44
0.331325
0.526316
GPT-R
0.383106
0.498008
0.365024
0.32
0.466667
0.493421
0.33
0.388679
0.347222
0.35
0.26
0.38
0.34104
0.27451
0.47
0.323404
0.324561
0.393103
0.296296
0.222222
0.32
0.383871
0.325123
0.32
0.345455
0.429293
0.46114
0.364103
0.255556
0.365546
0.324503
0.354128
0.277778
0.362745
0.35443
0.408072
0.381679
0.504132
0.361111
0.374233
0.258929
0.359223
0.42735
0.41
0.378033
0.364162
0.244693
0.428105
0.385852
0.382716
0.276596
0.303781
0.360294
0.315359
0.436364
0.444898
0.517413
0.5
0.343373
0.415205
Pygmalion_AlpacaLora-7b
0.488908
0.579665
0.359179
0.25
0.42963
0.348684
0.37
0.377358
0.347222
0.27
0.32
0.32
0.364162
0.235294
0.45
0.357447
0.27193
0.324138
0.256614
0.238095
0.33
0.322581
0.251232
0.29
0.406061
0.39899
0.487047
0.371795
0.233333
0.348739
0.231788
0.434862
0.273148
0.392157
0.443038
0.430493
0.351145
0.504132
0.398148
0.343558
0.330357
0.407767
0.457265
0.45
0.461047
0.381503
0.242458
0.313725
0.363344
0.416667
0.29078
0.286832
0.404412
0.351307
0.481818
0.322449
0.373134
0.49
0.343373
0.532164
PandaLM-Alpaca-7B-v1
0.489761
0.586935
0.359109
0.27
0.385185
0.328947
0.45
0.396226
0.361111
0.25
0.28
0.31
0.289017
0.186275
0.44
0.32766
0.245614
0.255172
0.269841
0.246032
0.32
0.325806
0.236453
0.32
0.50303
0.383838
0.487047
0.374359
0.22963
0.319328
0.205298
0.438532
0.189815
0.485294
0.42616
0.403587
0.366412
0.595041
0.416667
0.423313
0.383929
0.398058
0.461538
0.39
0.411239
0.364162
0.242458
0.392157
0.360129
0.358025
0.336879
0.288136
0.466912
0.357843
0.409091
0.342857
0.378109
0.47
0.361446
0.555556
metharme-7b
0.50256
0.584246
0.359105
0.29
0.42963
0.322368
0.44
0.396226
0.395833
0.25
0.3
0.28
0.323699
0.205882
0.43
0.361702
0.27193
0.289655
0.28836
0.285714
0.32
0.335484
0.246305
0.28
0.484848
0.328283
0.435233
0.338462
0.262963
0.344538
0.238411
0.434862
0.263889
0.416667
0.443038
0.403587
0.343511
0.603306
0.37963
0.398773
0.303571
0.330097
0.444444
0.43
0.420179
0.381503
0.242458
0.401961
0.363344
0.364198
0.312057
0.303781
0.463235
0.367647
0.436364
0.330612
0.437811
0.45
0.343373
0.479532
llama-7b
0.476109
0.575682
0.357111
0.26
0.385185
0.348684
0.41
0.354717
0.375
0.3
0.32
0.34
0.32948
0.235294
0.45
0.370213
0.263158
0.234483
0.26455
0.261905
0.31
0.329032
0.285714
0.33
0.442424
0.333333
0.445596
0.338462
0.259259
0.331933
0.258278
0.478899
0.310185
0.362745
0.43038
0.399103
0.351145
0.520661
0.416667
0.429448
0.276786
0.339806
0.478632
0.37
0.425287
0.390173
0.242458
0.392157
0.398714
0.345679
0.27305
0.301173
0.4375
0.352941
0.4
0.338776
0.467662
0.43
0.337349
0.491228
Planner-7B-fp16
0.476109
0.575682
0.357111
0.26
0.385185
0.348684
0.41
0.354717
0.375
0.3
0.32
0.34
0.32948
0.235294
0.45
0.370213
0.263158
0.234483
0.26455
0.261905
0.31
0.329032
0.285714
0.33
0.442424
0.333333
0.445596
0.338462
0.259259
0.331933
0.258278
0.478899
0.310185
0.362745
0.43038
0.399103
0.351145
0.520661
0.416667
0.429448
0.276786
0.339806
0.478632
0.37
0.425287
0.390173
0.242458
0.392157
0.398714
0.345679
0.27305
0.301173
0.4375
0.352941
0.4
0.338776
0.467662
0.43
0.337349
0.491228
pygmalion-7b
0.479522
0.57608
0.356835
0.28
0.414815
0.315789
0.44
0.392453
0.368056
0.27
0.3
0.33
0.312139
0.215686
0.44
0.378723
0.263158
0.275862
0.251323
0.246032
0.32
0.358065
0.29064
0.3
0.448485
0.348485
0.46114
0.361538
0.237037
0.344538
0.258278
0.475229
0.287037
0.411765
0.421941
0.399103
0.335878
0.528926
0.37037
0.374233
0.267857
0.330097
0.461538
0.36
0.436782
0.395954
0.242458
0.398693
0.382637
0.358025
0.262411
0.298566
0.444853
0.356209
0.490909
0.322449
0.432836
0.43
0.349398
0.491228
lora_moe_7b_baseline
0.476962
0.575483
0.356688
0.26
0.385185
0.342105
0.41
0.362264
0.381944
0.28
0.3
0.34
0.323699
0.235294
0.45
0.374468
0.263158
0.227586
0.261905
0.253968
0.31
0.335484
0.285714
0.33
0.436364
0.333333
0.450777
0.341026
0.259259
0.327731
0.264901
0.484404
0.300926
0.357843
0.43038
0.399103
0.343511
0.520661
0.416667
0.429448
0.276786
0.339806
0.478632
0.38
0.427842
0.390173
0.242458
0.395425
0.398714
0.348765
0.27305
0.295958
0.441176
0.352941
0.418182
0.342857
0.472637
0.43
0.331325
0.48538
lora_moe_7b
0.476962
0.575483
0.356688
0.26
0.385185
0.342105
0.41
0.362264
0.381944
0.28
0.3
0.34
0.323699
0.235294
0.45
0.374468
0.263158
0.227586
0.261905
0.253968
0.31
0.335484
0.285714
0.33
0.436364
0.333333
0.450777
0.341026
0.259259
0.327731
0.264901
0.484404
0.300926
0.357843
0.43038
0.399103
0.343511
0.520661
0.416667
0.429448
0.276786
0.339806
0.478632
0.38
0.427842
0.390173
0.242458
0.395425
0.398714
0.348765
0.27305
0.295958
0.441176
0.352941
0.418182
0.342857
0.472637
0.43
0.331325
0.48538
WizardLM-7B-Uncensored
0.449659
0.554272
0.354157
0.33
0.385185
0.328947
0.49
0.388679
0.347222
0.26
0.26
0.32
0.265896
0.186275
0.42
0.370213
0.254386
0.282759
0.238095
0.269841
0.26
0.325806
0.246305
0.38
0.448485
0.393939
0.42487
0.333333
0.27037
0.298319
0.258278
0.444037
0.208333
0.460784
0.464135
0.457399
0.358779
0.495868
0.407407
0.361963
0.339286
0.339806
0.508547
0.39
0.464879
0.375723
0.249162
0.320261
0.382637
0.367284
0.301418
0.317471
0.411765
0.351307
0.445455
0.306122
0.412935
0.45
0.289157
0.467836
guanaco-7B-HF
0.492321
0.602669
0.353159
0.29
0.392593
0.315789
0.29
0.430189
0.368056
0.3
0.28
0.31
0.271676
0.215686
0.41
0.365957
0.27193
0.310345
0.269841
0.190476
0.36
0.351613
0.339901
0.33
0.436364
0.383838
0.440415
0.366667
0.237037
0.323529
0.258278
0.462385
0.231481
0.367647
0.371308
0.443946
0.343511
0.53719
0.398148
0.380368
0.232143
0.320388
0.495726
0.37
0.44189
0.375723
0.242458
0.385621
0.376206
0.382716
0.27305
0.294654
0.408088
0.354575
0.454545
0.318367
0.462687
0.43
0.385542
0.479532
open-llama-7b-v2-open-instruct
0.375427
0.527982
0.351595
0.29
0.407407
0.302632
0.51
0.328302
0.3125
0.25
0.34
0.32
0.317919
0.294118
0.49
0.323404
0.245614
0.358621
0.314815
0.206349
0.3
0.364516
0.246305
0.38
0.4
0.378788
0.455959
0.341026
0.237037
0.256303
0.284768
0.363303
0.236111
0.392157
0.510549
0.502242
0.40458
0.487603
0.333333
0.306748
0.285714
0.378641
0.452991
0.38
0.466156
0.280347
0.259218
0.362745
0.344051
0.407407
0.283688
0.283572
0.297794
0.321895
0.418182
0.289796
0.442786
0.54
0.349398
0.403509
nart-100k-7b
0.513652
0.591615
0.3498
0.24
0.22963
0.375
0.42
0.369811
0.291667
0.43
0.31
0.33
0.33526
0.264706
0.45
0.33617
0.236842
0.337931
0.256614
0.380952
0.26
0.412903
0.300493
0.27
0.442424
0.429293
0.435233
0.384615
0.255556
0.382353
0.364238
0.455046
0.407407
0.455882
0.379747
0.237668
0.358779
0.272727
0.37963
0.368098
0.205357
0.456311
0.5
0.39
0.38825
0.416185
0.234637
0.388889
0.369775
0.367284
0.248227
0.273794
0.444853
0.287582
0.318182
0.412245
0.412935
0.32
0.283133
0.374269
pygmalion-6b-vicuna-chatml
0.372014
0.496315
0.339181
0.31
0.422222
0.401316
0.31
0.324528
0.291667
0.19
0.3
0.33
0.289017
0.22549
0.52
0.357447
0.219298
0.372414
0.227513
0.18254
0.29
0.348387
0.251232
0.33
0.406061
0.363636
0.367876
0.333333
0.277778
0.306723
0.251656
0.330275
0.175926
0.382353
0.392405
0.421525
0.343511
0.487603
0.407407
0.349693
0.348214
0.378641
0.431624
0.37
0.390805
0.358382
0.235754
0.424837
0.347267
0.348765
0.336879
0.332464
0.242647
0.318627
0.336364
0.395918
0.427861
0.47
0.361446
0.385965
Alpaca-7B-v1
0.482082
0.576379
0.337625
0.31
0.42963
0.302632
0.44
0.362264
0.333333
0.27
0.33
0.33
0.300578
0.235294
0.39
0.319149
0.184211
0.275862
0.28836
0.214286
0.29
0.287097
0.246305
0.27
0.49697
0.333333
0.378238
0.333333
0.22963
0.306723
0.238411
0.379817
0.203704
0.441176
0.350211
0.403587
0.320611
0.61157
0.305556
0.386503
0.383929
0.320388
0.371795
0.39
0.385696
0.358382
0.255866
0.326797
0.334405
0.354938
0.269504
0.27575
0.466912
0.330065
0.418182
0.281633
0.353234
0.41
0.343373
0.48538
PygmalionCoT-7b
0.487201
0.570703
0.333489
0.28
0.392593
0.315789
0.41
0.350943
0.326389
0.24
0.32
0.36
0.289017
0.215686
0.45
0.32766
0.236842
0.324138
0.253968
0.253968
0.36
0.316129
0.231527
0.31
0.424242
0.318182
0.404145
0.305128
0.22963
0.348739
0.264901
0.370642
0.180556
0.401961
0.413502
0.412556
0.320611
0.53719
0.388889
0.349693
0.3125
0.31068
0.405983
0.35
0.38825
0.355491
0.237989
0.316993
0.347267
0.333333
0.262411
0.292699
0.294118
0.366013
0.4
0.306122
0.288557
0.43
0.313253
0.461988
openthaigpt-0.1.0-beta-full-model_for_open_llm_leaderboard
0.46843
0.576379
0.331849
0.23
0.348148
0.315789
0.42
0.377358
0.291667
0.27
0.31
0.33
0.306358
0.235294
0.41
0.361702
0.280702
0.227586
0.243386
0.222222
0.28
0.33871
0.280788
0.31
0.418182
0.419192
0.42487
0.312821
0.248148
0.294118
0.264901
0.357798
0.282407
0.372549
0.375527
0.367713
0.320611
0.570248
0.351852
0.343558
0.214286
0.320388
0.418803
0.34
0.412516
0.343931
0.242458
0.333333
0.337621
0.358025
0.269504
0.308996
0.330882
0.328431
0.4
0.277551
0.422886
0.4
0.361446
0.380117
chatml-pyg-v1
0.33959
0.472217
0.327747
0.25
0.355556
0.263158
0.37
0.354717
0.361111
0.22
0.3
0.26
0.289017
0.205882
0.46
0.314894
0.210526
0.310345
0.246032
0.214286
0.21
0.380645
0.26601
0.35
0.381818
0.373737
0.34715
0.328205
0.266667
0.323529
0.291391
0.32844
0.203704
0.421569
0.400844
0.408072
0.366412
0.404959
0.407407
0.423313
0.330357
0.359223
0.418803
0.39
0.374202
0.349711
0.251397
0.346405
0.302251
0.302469
0.27305
0.322034
0.261029
0.29902
0.427273
0.322449
0.363184
0.39
0.343373
0.385965
codegen-16B-nl
0.418089
0.532364
0.323543
0.3
0.325926
0.302632
0.28
0.316981
0.333333
0.26
0.28
0.3
0.277457
0.254902
0.41
0.340426
0.245614
0.427586
0.240741
0.238095
0.29
0.316129
0.226601
0.31
0.30303
0.353535
0.336788
0.230769
0.27037
0.243697
0.298013
0.284404
0.199074
0.352941
0.341772
0.376682
0.381679
0.429752
0.398148
0.288344
0.330357
0.291262
0.367521
0.43
0.374202
0.367052
0.282682
0.379085
0.334405
0.361111
0.255319
0.32399
0.297794
0.297386
0.354545
0.428571
0.378109
0.5
0.331325
0.391813
mpt-7b-instruct
0.443686
0.58106
0.323492
0.31
0.281481
0.302632
0.28
0.350943
0.319444
0.35
0.38
0.31
0.306358
0.235294
0.37
0.348936
0.254386
0.358621
0.26455
0.198413
0.36
0.380645
0.295567
0.33
0.290909
0.444444
0.378238
0.369231
0.255556
0.361345
0.357616
0.33578
0.398148
0.259804
0.257384
0.358744
0.389313
0.31405
0.37037
0.355828
0.285714
0.368932
0.324786
0.28
0.349936
0.312139
0.242458
0.313725
0.327974
0.314815
0.255319
0.278357
0.257353
0.313725
0.336364
0.416327
0.338308
0.42
0.361446
0.25731
mpt-7b-instruct
0.442833
0.579267
0.319163
0.27
0.251852
0.296053
0.27
0.335849
0.3125
0.37
0.34
0.34
0.323699
0.294118
0.36
0.32766
0.289474
0.310345
0.277778
0.190476
0.31
0.364516
0.295567
0.39
0.272727
0.338384
0.378238
0.335897
0.248148
0.365546
0.337748
0.344954
0.351852
0.259804
0.28692
0.38565
0.396947
0.297521
0.342593
0.355828
0.339286
0.31068
0.358974
0.3
0.342273
0.33237
0.235754
0.297386
0.29582
0.330247
0.276596
0.281617
0.224265
0.295752
0.372727
0.408163
0.288557
0.44
0.39759
0.245614
open_llama_13b_600bt_preview
0.430887
0.536347
0.314705
0.34
0.414815
0.309211
0.33
0.309434
0.270833
0.26
0.31
0.32
0.289017
0.176471
0.35
0.285106
0.289474
0.413793
0.216931
0.238095
0.32
0.277419
0.29064
0.28
0.339394
0.247475
0.331606
0.358974
0.259259
0.256303
0.284768
0.278899
0.458333
0.284314
0.362869
0.345291
0.320611
0.371901
0.296296
0.312883
0.267857
0.339806
0.354701
0.38
0.365262
0.309249
0.250279
0.277778
0.289389
0.358025
0.29078
0.28292
0.448529
0.320261
0.354545
0.285714
0.323383
0.37
0.289157
0.380117
Janin-R
0.372867
0.498606
0.312433
0.27
0.348148
0.335526
0.26
0.366038
0.291667
0.23
0.23
0.35
0.300578
0.215686
0.37
0.340426
0.315789
0.317241
0.272487
0.174603
0.33
0.258065
0.275862
0.19
0.321212
0.30303
0.352332
0.328205
0.244444
0.302521
0.278146
0.288073
0.222222
0.313725
0.345992
0.376682
0.274809
0.429752
0.333333
0.294479
0.294643
0.339806
0.311966
0.32
0.318008
0.323699
0.244693
0.375817
0.344051
0.324074
0.276596
0.318123
0.341912
0.297386
0.363636
0.453061
0.447761
0.38
0.337349
0.345029
Javalion-R
0.37884
0.503286
0.308112
0.28
0.348148
0.322368
0.26
0.339623
0.284722
0.23
0.22
0.33
0.300578
0.205882
0.31
0.361702
0.315789
0.317241
0.269841
0.190476
0.35
0.290323
0.300493
0.24
0.30303
0.29798
0.321244
0.310256
0.251852
0.277311
0.245033
0.280734
0.175926
0.323529
0.350211
0.399103
0.259542
0.38843
0.324074
0.251534
0.3125
0.368932
0.311966
0.32
0.351213
0.309249
0.244693
0.369281
0.321543
0.317901
0.283688
0.325293
0.3125
0.297386
0.372727
0.440816
0.402985
0.39
0.349398
0.333333
Javelin-R
0.386519
0.51195
0.306951
0.28
0.348148
0.322368
0.27
0.335849
0.270833
0.22
0.24
0.31
0.306358
0.215686
0.34
0.357447
0.307018
0.296552
0.26455
0.166667
0.35
0.283871
0.29064
0.22
0.321212
0.30303
0.310881
0.302564
0.251852
0.310924
0.251656
0.295413
0.162037
0.338235
0.367089
0.394619
0.282443
0.38843
0.351852
0.251534
0.276786
0.359223
0.299145
0.31
0.360153
0.303468
0.242458
0.369281
0.308682
0.311728
0.287234
0.325293
0.301471
0.287582
0.363636
0.428571
0.402985
0.39
0.355422
0.333333
open_llama_7b
0.428328
0.515734
0.306354
0.3
0.333333
0.25
0.35
0.392453
0.319444
0.24
0.31
0.29
0.33526
0.186275
0.39
0.314894
0.289474
0.296552
0.272487
0.246032
0.34
0.309677
0.246305
0.28
0.290909
0.343434
0.362694
0.35641
0.248148
0.294118
0.245033
0.348624
0.365741
0.338235
0.333333
0.286996
0.282443
0.338843
0.333333
0.294479
0.25
0.252427
0.363248
0.27
0.371648
0.32948
0.246927
0.316993
0.286174
0.320988
0.265957
0.26206
0.231618
0.272876
0.409091
0.240816
0.263682
0.4
0.361446
0.391813
open_llama_7b
0.428328
0.515734
0.306354
0.3
0.333333
0.25
0.35
0.392453
0.319444
0.24
0.31
0.29
0.33526
0.186275
0.39
0.314894
0.289474
0.296552
0.272487
0.246032
0.34
0.309677
0.246305
0.28
0.290909
0.343434
0.362694
0.35641
0.248148
0.294118
0.245033
0.348624
0.365741
0.338235
0.333333
0.286996
0.282443
0.338843
0.333333
0.294479
0.25
0.252427
0.363248
0.27
0.371648
0.32948
0.246927
0.316993
0.286174
0.320988
0.265957
0.26206
0.231618
0.272876
0.409091
0.240816
0.263682
0.4
0.361446
0.391813
GPT-J-Pyg_PPO-6B-Dev-V8p4
0.367747
0.493826
0.303937
0.28
0.274074
0.388158
0.26
0.316981
0.236111
0.29
0.23
0.37
0.306358
0.235294
0.35
0.310638
0.280702
0.358621
0.238095
0.238095
0.34
0.33871
0.270936
0.26
0.266667
0.313131
0.34715
0.364103
0.259259
0.298319
0.311258
0.26789
0.277778
0.269608
0.28692
0.29148
0.244275
0.471074
0.296296
0.294479
0.223214
0.300971
0.294872
0.34
0.268199
0.34104
0.272626
0.326797
0.311897
0.320988
0.283688
0.297262
0.341912
0.29085
0.354545
0.395918
0.38806
0.34
0.289157
0.309942
RedTulu-Uncensored-3B-0719
0.377133
0.476001
0.303682
0.28
0.259259
0.315789
0.37
0.275472
0.347222
0.32
0.32
0.32
0.271676
0.245098
0.31
0.212766
0.280702
0.337931
0.275132
0.357143
0.32
0.341935
0.280788
0.26
0.309091
0.373737
0.331606
0.371795
0.262963
0.344538
0.377483
0.368807
0.37963
0.27451
0.253165
0.134529
0.335878
0.38843
0.212963
0.251534
0.267857
0.38835
0.401709
0.27
0.301405
0.265896
0.272626
0.320261
0.29582
0.308642
0.280142
0.265971
0.433824
0.25
0.327273
0.297959
0.313433
0.25
0.228916
0.298246
starcoder
0.284983
0.378311
0.299957
0.29
0.311111
0.296053
0.32
0.260377
0.3125
0.24
0.3
0.33
0.248555
0.235294
0.48
0.297872
0.307018
0.427586
0.248677
0.293651
0.31
0.264516
0.20197
0.41
0.339394
0.20202
0.253886
0.238462
0.274074
0.273109
0.218543
0.223853
0.180556
0.279412
0.316456
0.358744
0.29771
0.421488
0.259259
0.239264
0.267857
0.262136
0.41453
0.34
0.321839
0.358382
0.242458
0.313725
0.360129
0.33642
0.294326
0.28292
0.202206
0.29902
0.345455
0.277551
0.368159
0.42
0.313253
0.315789
orca_mini_7b
0.408703
0.500797
0.2997
0.39
0.325926
0.309211
0.26
0.264151
0.368056
0.29
0.35
0.28
0.231214
0.215686
0.32
0.331915
0.254386
0.324138
0.214286
0.253968
0.3
0.232258
0.211823
0.26
0.272727
0.29798
0.26943
0.246154
0.233333
0.235294
0.211921
0.269725
0.226852
0.269608
0.308017
0.403587
0.343511
0.355372
0.37963
0.251534
0.285714
0.368932
0.376068
0.35
0.363985
0.315029
0.239106
0.330065
0.334405
0.299383
0.265957
0.254237
0.286765
0.29085
0.327273
0.310204
0.39801
0.42
0.319277
0.385965
GPT-NeoXT-Chat-Base-20B
0.424061
0.550986
0.299191
0.32
0.385185
0.361842
0.23
0.309434
0.319444
0.39
0.31
0.34
0.260116
0.235294
0.37
0.238298
0.22807
0.37931
0.269841
0.269841
0.35
0.325806
0.270936
0.26
0.278788
0.378788
0.357513
0.297436
0.255556
0.247899
0.324503
0.251376
0.24537
0.348039
0.274262
0.242152
0.396947
0.421488
0.203704
0.331288
0.25
0.31068
0.273504
0.28
0.323116
0.286127
0.246927
0.323529
0.324759
0.330247
0.265957
0.284876
0.176471
0.267974
0.236364
0.359184
0.258706
0.33
0.325301
0.321637