File size: 1,789 Bytes
46be0ff
e6dfaa3
75a0941
 
 
46be0ff
df1ce97
 
ba63e89
 
 
 
f4fa0aa
 
b8a5f7b
 
 
 
41b2709
55355ed
 
 
 
 
 
 
 
 
 
9c6f2f1
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
---
license: unlicense
tags:
- visual-novel
- galgame
---
本项目已经很久没更新了,需要数据可以去 https://huggingface.co/datasets/Limour/b-corpus

# ChatGalRWKV

关于项目的名字:chat就是猫(法语),gal就是娘(英语)。

本项目基于[RWKV](https://github.com/BlinkDL/RWKV-LM),它是一系列从预训练数据、训练代码、推理代码到模型权重都完全开源的大语言模型,并且与基于transformer的模型相比有诸多优势。

可以使用[Colab脚本](https://colab.research.google.com/drive/1J1gLMMMA8GbD9JuQt6OKmwCTl9mWU0bb?usp=sharing)自建服务运行最近模型。

## 加入我们

* QQ群:766121889(目前采取邀请制,加之前先跟群主私聊)
* Discord: https://discord.gg/68GtKQ3v3K

## 现有模型检查点介绍

### 纯Gal语料微调模型

* **rwkv-chatgal-v1-3B** 试验性早期模型,基于[RWKV-Novel-3B-v1-Chn](https://huggingface.co/BlinkDL/rwkv-4-novel/blob/main/RWKV-4-Novel-3B-v1-ChnEng-20230412-ctx4096.pth)
  * 共训练了21000步,训练文本长度4096,batchsize4,梯度累积4
* **rwkv-chatgal-v2-7B** 基于[RWKV-Raven-7B-v10x](https://huggingface.co/BlinkDL/rwkv-4-raven/blob/main/RWKV-4-Raven-7B-v10x-Eng49%25-Chn50%25-Other1%25-20230423-ctx4096.pth)
  * 共训练了14000步,训练文本长度4096,batchsize8,数据并行4卡。以lora的方式训练,rank为16,alpha32。
  * 仓库中放出了[融合系数调整过的合并权重”巧兹“](https://huggingface.co/Synthia/ChatGalRWKV/blob/main/rwkv-raven7bv10x-sblend-0426-v2-4096-epoch13.pth)和[纯lora权重](https://huggingface.co/Synthia/ChatGalRWKV/blob/main/rwkv-raven7bv10x-lora-0426-v2-4096-epoch13.pth)。
  * 注意,使用纯lora权重时,需要使用正确的底模自行合并。