lintonxue00 commited on
Commit
d11b3ba
1 Parent(s): 727b414

Delete config.yaml

Browse files
Files changed (1) hide show
  1. config.yaml +0 -30
config.yaml DELETED
@@ -1,30 +0,0 @@
1
- keep: "" # 用于bug填充, 动了也没用
2
-
3
- # 普通用户配置专区(怎么改都行)
4
- APIToken: "cfe7mpr2fperuifn6id0" # 你的API token,没有的自己上WeLM官网https://docs.qq.com/form/page/DUW1YVVJNbHpzV2No#/fill-detail申请
5
- BotName: "弥豆子" # 里面填你机器人角色昵称or自设之类的?
6
- probability: 4 # 在群里触发的概率(百分比)
7
- dhreplystart: "" # 对话指令回复开头备注, 不 用与其他ai区分时可留空
8
- lxdhreplystart: "(对话ing)" # 连续对话指令 回复开头备注, 不用与其他ai区分时可留空
9
- twreplystart: "" # 问答指令回复开头备注, 不 用与其他ai区分时可留空
10
- xxreplystart: "" # 续写指令回复开头备注, 不 用与其他ai区分时可留空
11
- ydljreplystart: "(由WeLM阅读理解)" # 阅读理解指令回复开 头备注, 不用与其他ai区分时可留空
12
-
13
- # 模型参数调试专区(最好不碰,参数已由作者设定完成)
14
- model: xl # 要使用的模型名称,当前支持的模型名称有medium、 large 和 xl
15
- max_tokens: 256 # 最多生成的token个数, 默认值 256
16
- temperature: 0.85 # 默认值 0.85,更高的temperature意味着模型具备更多的可能性对于更有创造性的应用,可以尝试0.85以上,而对于有明确答案的应用,可以尝试0(argmax采样) 建议改变这个值或top_p,但不要同时改变
17
- top_p: 0.95 # 默认值 0.95,来源于nucleus sampling,采用 的是累计概率的方式
18
- top_k: 50 # 默认值50,从概率分布中依据概率最大选择k个单 词,建议不要过小导致模a型能选择的词汇少
19
- n: 2 # 默认值 2, 大于0, 小于等于12 返回的序列的个数
20
- # 下面的谁碰谁傻逼
21
- stop: "\n" # 默认值"\n",当模型当前生成的字符为stop中的 任何一个字符时,会停止生成
22
- twstop: "。" # 默认值"。",问答指令stop, 当模型当前生成 的字符为stop中的任何一个字符时,会停止生成
23
- # End
24
-
25
- # 插件调试专区(开发人员专用,更改后可能会寄)
26
- dhcmdstart: "v" # 对话指令开头
27
- lxdhcmdstart: "w" # 连续对话指令开头
28
- twcmdstart: "提问" # 问答指令开头
29
- xxcmdstart: "续写" # 续写指令开头
30
- ydlicmdstart: "阅读理解" # 阅读理解指令开