File size: 887 Bytes
238759d
 
 
 
 
 
 
 
 
 
 
 
 
5f51ebd
80f9af5
238759d
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
---
datasets:
- BelleGroup/train_3.5M_CN
- BelleGroup/train_2M_CN
language:
- zh
---

## 介绍
1. 使用了大概几万条的数据,对falcon-7b模型做了sft,这里分享出我的模型权重
2. falcon-7b是支持中文语言的。

## 效果
1. 效果其实一般,没有bloom-7b效果好。有人甚至反映,连bloom-1b都干不过。
2. 这里分享我的bloom-7b-v2模型权重[https://huggingface.co/yuanzhoulvpi/chinese_bloom_7b_chat_v2](https://huggingface.co/yuanzhoulvpi/chinese_bloom_7b_chat_v2)


## 说个冷知识
1. falcon-7b模型,在结构上是和bloom差不多的,但是添加了RotaryEmbedding、memorry_efficient_attention。
2. 因此如果想要对falcon-7b做sft的话,可以看我之前训练bloom的代码[https://github.com/yuanzhoulvpi2017/zero_nlp/tree/main/chinese_bloom](https://github.com/yuanzhoulvpi2017/zero_nlp/tree/main/chinese_bloom)