shunxing1234
commited on
Commit
•
a0fc2ca
1
Parent(s):
2458e4a
Update README.md
Browse files
README.md
CHANGED
@@ -1,5 +1,55 @@
|
|
1 |
---
|
2 |
license: other
|
3 |
-
license_name: baai-aquila-model-license-agreement
|
4 |
-
license_link: LICENSE
|
5 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
license: other
|
|
|
|
|
3 |
---
|
4 |
+
|
5 |
+
![Aquila_logo](./log.jpeg)
|
6 |
+
|
7 |
+
# 悟道·天鹰(Aquila2)
|
8 |
+
|
9 |
+
悟道·天鹰(Aquila2) 语言大模型是首个具备中英双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。
|
10 |
+
- 🌟 **支持开源商用许可**。Aquila系列模型的源代码基于 [Apache 2.0 协议](https://www.apache.org/licenses/LICENSE-2.0),模型权重基于[《智源Aquila系列模型许可协议》](https://huggingface.co/BAAI/Aquila-7B/resolve/main/BAAI%20Aquila%20Model%20License%20Agreement.pdf),使用者在满足许可限制的情况下,可用于商业目的。
|
11 |
+
- ✍️ **具备中英文知识**。Aquila系列模型在中英文高质量语料基础上从 0 开始训练,中文语料约占 40%,保证模型在预训练阶段就开始积累原生的中文世界知识,而非翻译而来的知识。
|
12 |
+
- 👮♀️**符合国内数据合规需求**。Aquila系列模型的中文语料来自智源多年积累的中文数据集,包括来自1万多个站源的中文互联网数据(其中99%以上为国内站源),以及获得国内权威机构支持的高质量中文文献数据、中文书籍数据等。我们仍在持续积累高质量、多样化的数据集,并源源不断加入Aquila基础模型后续训练中。
|
13 |
+
- 🎯**持续迭代,持续开源开放**。我们将不断完善训练数据、优化训练方法、提升模型性能,在更优秀的基础模型基座上,培育枝繁叶茂的“模型树”,持续开源开放更新的版本。
|
14 |
+
|
15 |
+
|
16 |
+
|
17 |
+
悟道 · 天鹰 Aquila 模型的更多细节将在官方技术报告中呈现。请关注官方渠道更新。
|
18 |
+
|
19 |
+
|
20 |
+
|
21 |
+
|
22 |
+
|
23 |
+
|
24 |
+
|
25 |
+
## 快速开始使用 Aquila-7B
|
26 |
+
|
27 |
+
|
28 |
+
## 使用方式/How to use
|
29 |
+
|
30 |
+
### 1. 推理/Inference
|
31 |
+
|
32 |
+
```python
|
33 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM
|
34 |
+
import torch
|
35 |
+
device = torch.device("cuda")
|
36 |
+
model_info = "BAAI/Aquila2-7B"
|
37 |
+
tokenizer = AutoTokenizer.from_pretrained(model_info, trust_remote_code=True)
|
38 |
+
model = AutoModelForCausalLM.from_pretrained(model_info, trust_remote_code=True)
|
39 |
+
model.eval()
|
40 |
+
model.to(device)
|
41 |
+
text = "请给出10个要到北京旅游的理由。"
|
42 |
+
tokens = tokenizer.encode_plus(text)['input_ids'][:-1]
|
43 |
+
tokens = torch.tensor(tokens)[None,].to(device)
|
44 |
+
stop_tokens = ["###", "[UNK]", "</s>"]
|
45 |
+
with torch.no_grad():
|
46 |
+
out = model.generate(tokens, do_sample=True, max_length=512, eos_token_id=100007, bad_words_ids=[[tokenizer.encode(token)[0] for token in stop_tokens]])[0]
|
47 |
+
out = tokenizer.decode(out.cpu().numpy().tolist())
|
48 |
+
print(out)
|
49 |
+
```
|
50 |
+
|
51 |
+
|
52 |
+
|
53 |
+
## 证书/License
|
54 |
+
|
55 |
+
`Aquila系列开源模型使用 [智源Aquila系列模型许可协议](https://huggingface.co/BAAI/Aquila-7B/resolve/main/BAAI%20Aquila%20Model%20License%20Agreement.pdf)
|