Du Chen commited on
Commit
97f2b3b
1 Parent(s): 48fb4f3

update readme

Browse files
Files changed (1) hide show
  1. README_cn.md +3 -3
README_cn.md CHANGED
@@ -47,7 +47,7 @@ pipeline_tag: text-generation
47
 
48
  # 1. 模型介绍
49
 
50
- - **Orion-14B-Chat-RAG:** 在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。使用方法请参考[demo](https://github.com/OrionStarAI/Orion/tree/master/gradio_demo/doc_qa_task)。
51
 
52
  - Orion-14B-Base是一个具有140亿参数的多语种大模型,该模型在一个包含2.5万亿token的多样化数据集上进行了训练,涵盖了中文、英语、日语、韩语等多种语言。在多语言环境下的一系列任务中展现出卓越的性能。在主流的公开基准评测中,Orion-14B系列模型表现优异,多项指标显著超越同等参数基本的其他模型。具体技术细节请参考[技术报告](https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf)。
53
 
@@ -73,8 +73,8 @@ pipeline_tag: text-generation
73
  - **Orion-14B-Base:** 基于2.5万亿tokens多样化数据集训练处的140亿参数量级的多语言基座模型。
74
  - **Orion-14B-Chat:** 基于高质量语料库微调的对话类模型,旨在为大模型社区提供更好的用户交互体验。
75
  - **Orion-14B-LongChat:** 支持长度超过200K tokens上下文的交互,在长文本评估集上性能比肩专有模型。
76
- - **Orion-14B-Chat-RAG:** 在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。
77
- - **Orion-14B-Chat-Plugin:** 专门针对插件和函数调用任务定制的聊天模型,非常适用于使用代理的相关场景,其中大语言模型充当插件和函数调用系统。
78
  - **Orion-14B-Base-Int4:** 一个使用int4进行量化的基座模型。它将模型大小显著减小了70%,同时提高了推理速度30%,仅引入了1%的最小性能损失。
79
  - **Orion-14B-Chat-Int4:** 一个使用int4进行量化的对话模型。
80
 
 
47
 
48
  # 1. 模型介绍
49
 
50
+ - **Orion-14B-Chat-RAG:** 在RAG、知识抽取、问答对生成、知识边界控制能力、回答精准度方面,接近千亿级模型效果。在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。使用方法请参考[demo](https://github.com/OrionStarAI/Orion/tree/master/gradio_demo/doc_qa_task)。
51
 
52
  - Orion-14B-Base是一个具有140亿参数的多语种大模型,该模型在一个包含2.5万亿token的多样化数据集上进行了训练,涵盖了中文、英语、日语、韩语等多种语言。在多语言环境下的一系列任务中展现出卓越的性能。在主流的公开基准评测中,Orion-14B系列模型表现优异,多项指标显著超越同等参数基本的其他模型。具体技术细节请参考[技术报告](https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf)。
53
 
 
73
  - **Orion-14B-Base:** 基于2.5万亿tokens多样化数据集训练处的140亿参数量级的多语言基座模型。
74
  - **Orion-14B-Chat:** 基于高质量语料库微调的对话类模型,旨在为大模型社区提供更好的用户交互体验。
75
  - **Orion-14B-LongChat:** 支持长度超过200K tokens上下文的交互,在长文本评估集上性能比肩专有模型。
76
+ - **Orion-14B-Chat-RAG:** 在RAG、知识抽取、问答对生成、知识边界控制能力、回答精准度方面,接近千亿级模型效果。在一个定制的检索增强生成数据集上进行微调的聊天模型,在检索增强生成任务中取得了卓越的性能。
77
+ - **Orion-14B-Chat-Plugin:** 在插件调用、Agent、ReAct Prompting能力方面,接近千亿级模型效果。专门针对插件和函数调用任务定制的聊天模型,非常适用于使用代理的相关场景,其中大语言模型充当插件和函数调用系统。
78
  - **Orion-14B-Base-Int4:** 一个使用int4进行量化的基座模型。它将模型大小显著减小了70%,同时提高了推理速度30%,仅引入了1%的最小性能损失。
79
  - **Orion-14B-Chat-Int4:** 一个使用int4进行量化的对话模型。
80