liuyongq commited on
Commit
a1894c7
1 Parent(s): 1f2da59

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +283 -0
README.md CHANGED
@@ -2,4 +2,287 @@
2
  license: other
3
  license_name: orion
4
  license_link: LICENSE
 
5
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
  license: other
3
  license_name: orion
4
  license_link: LICENSE
5
+ pipeline_tag: text-generation
6
  ---
7
+
8
+ <!-- markdownlint-disable first-line-h1 -->
9
+ <!-- markdownlint-disable html -->
10
+ ![](./assets/imgs/orion_start.PNG)
11
+
12
+ <div align="center">
13
+ <h1>
14
+ Orion-14B
15
+ </h1>
16
+ </div>
17
+
18
+ <p align="center">
19
+ 🤗 <a href="https://huggingface.co/OrionStarAI/OrionStar-14B" target="_blank">HuggingFace 模型下载</a> | 🤖 <a href="https://modelscope.cn/models/OrionStarAI/Orion-14B/summary" target="_blank">ModelScope 模型下载</a>
20
+ </p>
21
+
22
+
23
+ <p align="center">
24
+ 🤗 <a href="https://modelscope.cn/studios/OrionStarAI/Orion-14B/summary" target="_blank">💡在线Demo</a>
25
+ </p>
26
+
27
+
28
+ <div align="center">
29
+
30
+
31
+ <h4 align="center">
32
+ <p>
33
+ <b>🇨🇳中文</b> |
34
+ <a href="http://git.ainirobot.com/llm/Orion/blob/master/README_en.MD">🌐English</a>
35
+ <p>
36
+ </h4>
37
+
38
+ </div>
39
+
40
+ # 目录
41
+
42
+ - [📖 模型介绍](#模型介绍)
43
+ - [🔗 下载路径](#下载路径)
44
+ - [🔖 评估结果](#评估结果)
45
+ - [📊 模型推理](#模型推理)
46
+ - [🥇 企业介绍](#企业介绍)
47
+ - [📜 声明协议](#声明协议)
48
+
49
+ # 模型介绍
50
+
51
+ - Orion-14B-Base是一个具有140亿参数的多语种大模型,该模型在一个包含2.5万亿token的多样化数据集上进行了训练,涵盖了中文、英语、日语、韩语等多种语言。在多语言环境下的一系列任务中展现出卓越的性能。
52
+
53
+ - 在主流的基准评测中,Orion-14B系列模型都具有超强的竞争力,显著超出同规模模型。从公开评估结果来看,Orion-14B系列模型也是首个评估超过三种语言的大语言模型,希望猎户星空全体同仁的贡献能够为多语言LLM研究领域建立一个新的基准
54
+
55
+ # 下载路径
56
+
57
+ 发布模型和下载链接见下表:
58
+
59
+ | 模型名称 | HuggingFace下载链接 | ModelScope下载链接 |
60
+ |---------------------|-----------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------|
61
+ | ⚾ 基座模型 | [Orion-14B-Base](https://huggingface.co/OrionStarAI/Orion-14B-Base) | [Orion-14B-Base](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base/summary) |
62
+ | 😛 对话模型 | [Orion-14B-Chat](https://huggingface.co/OrionStarAI/Orion-14B-Chat) | [Orion-14B-Chat](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat/summary) |
63
+ | 📃 长上下文模型 | [Orion-14B-LongChat](https://huggingface.co/OrionStarAI/Orion-14B-LongChat) | [Orion-14B-LongChat](https://modelscope.cn/models/OrionStarAI/Orion-14B-LongChat/summary) |
64
+ | 🔎 检索增强模型 | [Orion-14B-Chat-RAG](https://huggingface.co/OrionStarAI/Orion-14B-Chat-RAG) | [Orion-14B-Chat-RAG](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-RAG/summary) |
65
+ | 🔌 插件模型 | [Orion-14B-Chat-Plugin](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Plugin) | [Orion-14B-Chat-Plugin](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Plugin/summary)|
66
+ | 💼 基座Int4量化模型 | [Orion-14B-Base-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Base-Int4) | [Orion-14B-Base-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Base-Int4/summary) |
67
+ | 📦 对话Int4量化模型 | [Orion-14B-Chat-Int4](https://huggingface.co/OrionStarAI/Orion-14B-Chat-Int4) | [Orion-14B-Chat-Int4](https://modelscope.cn/models/OrionStarAI/Orion-14B-Chat-Int4/summary) |
68
+
69
+ # 评估结果
70
+
71
+ ## 专业知识与试题评估结果
72
+ | 模型名称 | C-Eval | CMMLU | MMLU | AGIEval | Gaokao | BBH |
73
+ |--------------------|----------|----------|----------|----------|----------|----------|
74
+ | LLaMA2-13B | 41.4 | 38.4 | 55.0 | 30.9 | 18.2 | 45.6 |
75
+ | Skywork-13B | 59.1 | 61.4 | 62.7 | 43.6 | 56.1 | 48.3 |
76
+ | Baichuan2-13B | 59.0 | 61.3 | 59.5 | 37.4 | 45.6 | 49.0 |
77
+ | QWEN-14B | 71.7 | 70.2 | 67.9 | 51.9 | **62.5** | 53.7 |
78
+ | InternLM-20B | 58.8 | 59.0 | 62.1 | 44.6 | 45.5 | 52.5 |
79
+ | **Orion-14B** | **72.9** | **70.6** | **69.9** | **54.7** | 62.1 | **56.5** |
80
+
81
+
82
+ ## 理解与通识评估结果
83
+ | 模型名称 |RACE-middle|RACE-high| HellaSwag| PIQA | Lambada | WSC |
84
+ |--------------------|----------|----------|----------|----------|----------|----------|
85
+ | LLaMA 2-13B | 63.0 | 58.9 | 77.5 | 79.8 | 76.5 | 66.3 |
86
+ | Skywork-13B | 87.6 | 84.1 | 73.7 | 78.3 | 71.8 | 66.3 |
87
+ | Baichuan 2-13B | 68.9 | 67.2 | 70.8 | 78.1 | 74.1 | 66.3 |
88
+ | QWEN-14B | 93.0 | 90.3 | **80.2** | 79.8 | 71.4 | 66.3 |
89
+ | InternLM-20B | 86.4 | 83.3 | 78.1 | **80.3** | 71.8 | 68.3 |
90
+ | **Orion-14B** | **93.3** | **91.3** | 78.5 | 79.5 | **78.9** | **70.2** |
91
+
92
+
93
+ ## OpenCompass评测集评估结果
94
+ | 模型名称 | Average | Examination | Language | Knowledge | Understanding | Reasoning |
95
+ |-----------------|----------|----------|----------|----------|----------|----------|
96
+ | LLaMA 2-13B | 47.3 | 45.2 | 47.0 | 58.3 | 50.9 | 43.6 |
97
+ | Skywork-13B | 53.6 | 61.1 | 51.3 | 52.7 | 64.5 | 45.2 |
98
+ | Baichuan 2-13B | 49.4 | 51.8 | 47.5 | 48.9 | 58.1 | 44.2 |
99
+ | QWEN-14B | 62.4 | 71.3 | 52.67 | 56.1 | 68.8 | 60.1 |
100
+ | InternLM-20B | 59.4 | 62.5 | 55.0 | **60.1** | 67.3 | 54.9 |
101
+ | **Orion-14B** | **64.4** | **71.4** | **55.0** | 60.0 | **71.9** | **61.6** |
102
+
103
+
104
+ ## 日语测试集评估结果
105
+ | 模型名称 |**Average**| JCQA | JNLI | MARC | JSQD | JQK | XLS | XWN | MGSM |
106
+ |--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
107
+ | PLaMo-13B | 52.3 | 56.7 | 42.8 | 95.8 | 70.6 | 71.0 | 8.70 | 70.5 | 2.40 |
108
+ | WebLab-10B | 50.7 | 66.6 | 53.7 | 82.1 | 62.9 | 56.2 | 10.0 | 72.0 | 2.40 |
109
+ | ELYZA-jp-7B | 48.8 | 71.7 | 25.3 | 86.6 | 70.8 | 64.1 | 2.50 | 62.1 | 7.20 |
110
+ | StableLM-jp-7B | 51.1 | 33.4 | 43.3 | **96.7** | 70.6 | 78.1 | 10.7 | 72.8 | 2.80 |
111
+ | LLaMA 2-13B | 46.3 | 75.0 | 47.6 | 38.8 | 76.1 | 67.7 | 18.1 | 63.2 | 10.4 |
112
+ | Baichuan 2-13B | 57.1 | 73.7 | 31.3 | 91.6 | 80.5 | 63.3 | 18.6 | 72.2 | 25.2 |
113
+ | QWEN-14B | 65.8 | 85.9 | 60.7 | 97.0 | 83.3 | 71.8 | 18.8 | 70.6 | 38.0 |
114
+ | Yi-34B | 67.1 | 83.8 | 61.2 | 95.2 | **86.1** | 78.5 | **27.2** | 69.2 | 35.2 |
115
+ | **Orion-14B** | **69.1** | **88.2** | **75.8** | 94.1 | 75.7 | **85.1** | 17.3 | **78.8** | **38.0** |
116
+
117
+
118
+ ## 韩语测试集n-shot评估结果
119
+ | 模型名称 | **Average**<br>n=0&nbsp;&nbsp;n=5 | HellaSwag<br>n=0&nbsp;&nbsp;n=5 | COPA<br> n=0&nbsp;&nbsp;n=5 | BooIQ<br>n=0&nbsp;&nbsp;n=5 | SentiNeg<br>n=0&nbsp;&nbsp;n=5|
120
+ |-----------------|------------------------------|------------------------------|------------------------------|------------------------------|------------------------------|
121
+ | KoGPT | 53.0 &nbsp;&nbsp; 70.1 | 55.9 &nbsp;&nbsp; 58.3 | 73.5 &nbsp;&nbsp; 72.9 | 45.1 &nbsp;&nbsp; 59.8 | 37.5 &nbsp;&nbsp; 89.4 |
122
+ | Polyglot-ko-13B | 69.6 &nbsp;&nbsp; 73.7 |**59.5** &nbsp;&nbsp; **63.1**|**79.4** &nbsp;&nbsp; **81.1**| 48.2 &nbsp;&nbsp; 60.4 | 91.2 &nbsp;&nbsp; 90.2 |
123
+ | LLaMA 2-13B | 46.7 &nbsp;&nbsp; 63.7 | 41.3 &nbsp;&nbsp; 44.0 | 59.3 &nbsp;&nbsp; 63.8 | 34.9 &nbsp;&nbsp; 73.8 | 51.5 &nbsp;&nbsp; 73.4 |
124
+ | Baichuan 2-13B | 52.1 &nbsp;&nbsp; 58.7 | 39.2 &nbsp;&nbsp; 39.6 | 60.6 &nbsp;&nbsp; 60.6 | 58.4 &nbsp;&nbsp; 61.5 | 50.3 &nbsp;&nbsp; 72.9 |
125
+ | QWEN-14B | 53.8 &nbsp;&nbsp; 73.7 | 45.3 &nbsp;&nbsp; 46.8 | 64.9 &nbsp;&nbsp; 68.9 | 33.4 &nbsp;&nbsp; 83.5 | 71.5 &nbsp;&nbsp; 95.7 |
126
+ | Yi-34B | 54.2 &nbsp;&nbsp; 72.1 | 44.6 &nbsp;&nbsp; 44.7 | 58.0 &nbsp;&nbsp; 60.6 | 65.9 &nbsp;&nbsp; 90.2 | 48.3 &nbsp;&nbsp; 92.9 |
127
+ | **Orion-14B** |**74.5** &nbsp;&nbsp; **79.6**| 47.0 &nbsp;&nbsp; 49.6 | 77.7 &nbsp;&nbsp; 79.4 |**81.6** &nbsp;&nbsp; **90.7**|**92.4** &nbsp;&nbsp; **98.7**|
128
+
129
+ ## 多语言评估结果
130
+ | 模型名称 | Train Lang | Japanese | Korean | Chinese | English |
131
+ |--------------------|------------|----------|----------|----------|----------|
132
+ | PLaMo-13B | En,Jp | 52.3 | * | * | * |
133
+ | Weblab-10B | En,Jp | 50.7 | * | * | * |
134
+ | ELYZA-jp-7B | En,Jp | 48.8 | * | * | * |
135
+ | StableLM-jp-7B | En,Jp | 51.1 | * | * | * |
136
+ | KoGPT-6B | En,Ko | * | 70.1 | * | * |
137
+ | Polyglot-ko-13B | En,Ko | * | 70.7 | * | * |
138
+ | Baichuan2-13B | Multi | 57.1 | 58.7 | 50.8 | 57.1 |
139
+ | Qwen-14B | Multi | 65.8 | 73.7 | 64.5 | 65.4 |
140
+ | Llama2-13B | Multi | 46.3 | 63.7 | 41.4 | 55.3 |
141
+ | Yi-34B | Multi | 67.1 | 72.2 | 58.7 | **68.8** |
142
+ | **Orion-14B** | Multi | **69.1** | **79.5** | **67.9** | 67.3 |
143
+
144
+ ## 污染与过拟合数据集评估结果
145
+ | 模型名称 | C-Eval | CMMLU | MMLU | Lambada | HellaSwag |
146
+ |------------------------|----------|----------|----------|----------|----------|
147
+ | GPT-4 | 69.9 | 71.0 | 83.0 | 65.5 | **91.4** |
148
+ | Qwen-72B | 83.3 | 61.8 | 77.3 | 76.1 | 85.4 |
149
+ | Yi-34B | 81.8 | 82.6 | 76.3 | 73.1 | 82.0 |
150
+ | Orion-14B | 72.8 | 70.6 | 69.9 | 78.8 | 78.5 |
151
+ | Orion-14B(contaminated)| **92.7** | **82.9** | **85.4** | **78.5** | 85.8 |
152
+
153
+
154
+ ## 对话模型标准评估
155
+ | 模型名称 | CMMLU | MMLU | BBH |HellaSwag | PIQA | WSC |
156
+ |----------------------|----------|----------|----------|----------|----------|----------|
157
+ | Baichuan2-13B-Chat | 58.4 | 57.0 | 49.9 | 66.9 | 77.6 | **71.2** |
158
+ | Qwen-14B-Chat | **70.0** | **66.4** | **58.0** | 65.2 | 74.0 | 66.3 |
159
+ | Llama2-13B-Chat | 38.7 | 54.6 | 40.2 | **78.2** | **78.8** | 68.3 |
160
+ | InternLM-20B-Chat | 52.2 | 52.5 | 35.3 | 69.2 | 76.7 | 61.5 |
161
+ | **Orion-14B-Chat** | 63.7 | 61.71 | 49.05 | 76.7 | 78.4 | 71.15 |
162
+
163
+ ## 对话模型MTBench主观评估
164
+ | 模型名称 | 第一轮 | 第二轮 | **平均** |
165
+ |----------------------|----------|----------|----------|
166
+ | Baichuan2-13B-Chat | 7.05 | 6.47 | 6.76 |
167
+ | Qwen-14B-Chat | 7.30 | 6.62 | 6.96 |
168
+ | Llama2-13B-Chat | 7.10 | 6.20 | 6.65 |
169
+ | InternLM-20B-Chat | 7.03 | 5.93 | 6.48 |
170
+ | **Orion-14B-Chat** | **7.68** | **7.07** | **7.37** |
171
+
172
+ ## 对话模型AlignBench主观评估
173
+ | 模型名称 | 数学能力 | 逻辑推理 | 基本能力 | 中文理解 | 综合问答 | 写作能力 | 角色扮演 | 专业知识 | **平均** |
174
+ |--------------------|----------|----------|----------|----------|----------|----------|----------|----------|----------|
175
+ | Baichuan2-13B-Chat | 3.76 | 4.07 | 6.22 | 6.05 | 7.11 | 6.97 | 6.75 | 6.43 | 5.25 |
176
+ | Qwen-14B-Chat | **4.91** | **4.71** | **6.90** | 6.36 | 6.74 | 6.64 | 6.59 | 6.56 | **5.72** |
177
+ | Llama2-13B-Chat | 3.05 | 3.79 | 5.43 | 4.40 | 6.76 | 6.63 | 6.99 | 5.65 | 4.70 |
178
+ | InternLM-20B-Chat | 3.39 | 3.92 | 5.96 | 5.50 | **7.18** | 6.19 | 6.49 | 6.22 | 4.96 |
179
+ | Orion-14B-Chat | 4.00 | 4.24 | 6.18 | **6.57** | 7.16 | **7.36** | **7.16** | **6.99** | 5.51 |
180
+
181
+
182
+ # 模型推理
183
+
184
+ 推理所需的模型权重、源码、配置已发布在 Hugging Face,下载链接见本文档最开始的表格。我们在此示范多种推理方式。程序会自动从
185
+ Hugging Face 下载所需资源。
186
+
187
+ ## Python 代码方式
188
+
189
+ ```python
190
+ import torch
191
+ from transformers import AutoModelForCausalLM, AutoTokenizer
192
+ from transformers.generation.utils import GenerationConfig
193
+
194
+ tokenizer = AutoTokenizer.from_pretrained("OrionStarAI/Orion-14B", use_fast=False, trust_remote_code=True)
195
+ model = AutoModelForCausalLM.from_pretrained("OrionStarAI/Orion-14B", device_map="auto",
196
+ torch_dtype=torch.bfloat16, trust_remote_code=True)
197
+
198
+ model.generation_config = GenerationConfig.from_pretrained("OrionStarAI/Orion-14B")
199
+ messages = [{"role": "user", "content": "你好! 你叫什么名字!"}]
200
+ response = model.chat(tokenizer, messages, streaming=Flase)
201
+ print(response)
202
+
203
+ # 你好,我的名字叫聚言,很高兴见到你。
204
+ ```
205
+
206
+ 在上述两段代码中,模型加载指定 `device_map='auto'`
207
+ ,会使用所有可用显卡。如需指定使用的设备,可以使用类似 `export CUDA_VISIBLE_DEVICES=0,1`(使用了0、1号显卡)的方式控制。
208
+
209
+ ## 命令行工具方式
210
+
211
+ ```shell
212
+ python cli_demo.py
213
+ ```
214
+
215
+ 本命令行工具是为 Chat 场景设计,因此我们不支持使用该工具调用 Base 模型。
216
+
217
+ ## 脚本直接推理
218
+
219
+ ```shell
220
+ python text_generation.py --model OrionStarAI/Orion-14B --tokenizer OrionStarAI/Orion-14B --prompt 你好,你叫什么名字
221
+ ```
222
+
223
+ ## 示例输出
224
+
225
+ ## 闲聊
226
+
227
+ `````
228
+ 用户:你好,你叫什么名字
229
+ Orion-14B:你好,我的名字叫聚言,很高兴见到你。
230
+ 用户:你有哪些功能
231
+ Orion-14B:我是一个多才多艺的AI助手,我可以回答你的问题、陪你聊天、帮你查询信息、提供生活建议等等。
232
+ 用户:讲个笑话
233
+ Orion-14B:为什么香肠总是不开心?因为它没有朋友,只能被夹在面包里。
234
+ `````
235
+
236
+ ## 数学
237
+
238
+ `````
239
+ 用户:鸡和兔在一个笼子里,共有26个头,68只脚,那么鸡有多少只,兔有多少只?
240
+ Orion-14B:设鸡的数量为x,兔的数量为y。
241
+ 根据题意,可得出以下两个方程:
242
+ x + y = 26 (共有26个头)
243
+ 2x + 4y = 68 (共有68只脚)
244
+ 将第一个方程变形,得到y = 26 - x
245
+ 将y的值代入第二个方程中,得到:
246
+ 2x + 4(26-x) = 68
247
+ 解这个方��,得到x = 18
248
+ 所以,鸡有18只,兔有26 - 18 = 8只。
249
+ `````
250
+
251
+ # 企业介绍
252
+
253
+ 猎户星空(OrionStar)是一家全球领先的服务机器人解决方案公司,成立于2016年9月。猎户星空致力于基于人工智能技术打造下一代革命性机器人,使人们能够摆脱重复的体力劳动,使人类的工作和生活更加智能和有趣,通过技术使社会和世界变得更加美好。
254
+
255
+ 猎户星空拥有完全自主开发的全链条人工智能技术,如语音交互和视觉导航。它整合了产品开发能力和技术应用能力。基于Orion机械臂平台,它推出了ORION
256
+ STAR AI Robot Greeting、AI Robot Greeting Mini、Lucki、Coffee
257
+ Master等产品,并建立了Orion机器人的开放平台OrionOS。通过为 **真正有用的机器人而生** 的理念实践,它通过AI技术为更多人赋能。
258
+
259
+ 凭借7年AI经验积累,猎户星空已推出的大模型深度应用“聚言”,并陆续面向行业客户提供定制化AI大模型咨询与服务解决方案,真正帮助客户实现企业经营效率领先同行目标。
260
+
261
+ **猎户星空具备全链条大模型应用能力的核心优势**,包括拥有从海量数据处理、大模型预训练、二次预训练、微调(Fine-tune)、Prompt
262
+ Engineering 、Agent开发的全链条能力和经验积累;拥有完整的端到端模型训练能力,包括系统化的数据处理流程和数百张GPU的并行模型训练能力,现已在大政务、云服务、出海电商、快消等多个行业场景落地。
263
+
264
+ ***欢迎有大模型应用落地需求的企业联系我们进行商务合作,咨询电话 400-898-7779 。***
265
+
266
+ 企业微信
267
+
268
+ ![](./pics/company_wechat.jpg)
269
+
270
+ # 声明、协议
271
+
272
+ ## 声明
273
+
274
+ 我们强烈呼吁所有使用者,不要利用 Orion-14B 模型进行任何危害国家社会安全或违法的活动。另外,我们也要求使用者不要将
275
+ Orion-14B 模型用于未经适当安全审查和备案的互联网服务。
276
+
277
+ 我们希望所有的使用者都能遵守这个原则,确保科技的发展能在规范和合法的环境下进行。
278
+ 我们已经尽我们所能,来确保模型训练过程中使用的数据的合规性。然而,尽管我们已经做出了巨大的努力,但由于模型和数据的复杂性,仍有可能存在一些无法预见的问题。因此,如果由于使用
279
+ Orion-14B 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。
280
+
281
+ ## 协议
282
+
283
+ 社区使用 Orion-14B
284
+ 模型需要遵循 [Apache 2.0](https://github.com/OrionStarAI/Orion-14B/blob/main/LICENSE)
285
+
286
+ # 联系我们
287
+
288
+ ![](./pics/wechat_group.jpg)