Adding Evaluation Results

#1
Files changed (1) hide show
  1. README.md +14 -0
README.md CHANGED
@@ -395,3 +395,17 @@ Output:
395
  - 模型参数量较小,且未经过人类价值观对其,可能会产生不当言论,不代表本项目观点。
396
  - 与原生中文大模型相比,我们的预训练数据量级还远远不足,且大绝大部分为新闻语料,在一些中文任务上可能表现欠佳。
397
  - 使用本项目的模型时,请遵守对应的官方模型的开源协议。
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
395
  - 模型参数量较小,且未经过人类价值观对其,可能会产生不当言论,不代表本项目观点。
396
  - 与原生中文大模型相比,我们的预训练数据量级还远远不足,且大绝大部分为新闻语料,在一些中文任务上可能表现欠佳。
397
  - 使用本项目的模型时,请遵守对应的官方模型的开源协议。
398
+
399
+ # [Open LLM Leaderboard Evaluation Results](https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard)
400
+ Detailed results can be found [here](https://huggingface.co/datasets/open-llm-leaderboard/details_YeungNLP__firefly-llama2-13b-pretrain)
401
+
402
+ | Metric | Value |
403
+ |-----------------------|---------------------------|
404
+ | Avg. | 44.41 |
405
+ | ARC (25-shot) | 53.92 |
406
+ | HellaSwag (10-shot) | 79.1 |
407
+ | MMLU (5-shot) | 51.25 |
408
+ | TruthfulQA (0-shot) | 36.24 |
409
+ | Winogrande (5-shot) | 75.53 |
410
+ | GSM8K (5-shot) | 8.57 |
411
+ | DROP (3-shot) | 6.27 |