ShareClaude计划的RWKV微调分支

项目的初心是,摆脱大公司的控制,建立所有人都能涩涩的本地大语言模型。

目前以7B 15G的全量微调模型为最佳效果,全面超过Claude-Slack版,略差于Claude2。

本项目完全依靠广大贡献者的聊天数据支持,还有不少匿名参与者提供专业卡,进行微调。

在此感谢他们的贡献。

我们目前已经基本结束了对Claude-Slack对话的收集,下一步计划主要围绕Claude2酒馆的对话收集展开。

如果你也希望参与这个项目的建设,欢迎加入ShareClaude交流群:839206500。

所有贡献者均有对模型的优先访问权,可以提前得到未发布的内测模型。

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference API
Unable to determine this model's library. Check the docs .