# ChatHaruhi 3.0的接口设计 在ChatHaruhi2.0大约1个季度的使用后 我们初步知道了这样一个模型的一些需求,所以我们在这里开始设计ChatHaruhi3.0 ## 基本原则 - 兼容RAG和Zeroshot模式 - 主类以返回message为主,当然可以把语言模型(adapter直接to response)的接口设置给chatbot - 主类尽可能轻量,除了embedding没有什么依赖 ## 用户代码 ```python from ChatHaruhi import ChatHaruhi from ChatHaruhi.openai import get_openai_response chatbot = ChatHaruhi( role_name = 'haruhi', llm = get_openai_response ) response = chatbot.chat(user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?') ``` 这样的好处是ChatHaruhi类载入的时候,不需要install 除了embedding以外 其他的东西,llm需要的依赖库储存在每个语言模型自己的文件里面。 zero的模式(快速新建角色) ```python from ChatHaruhi import ChatHaruhi from ChatHaruhi.openai import get_openai_response chatbot = ChatHaruhi( role_name = '小猫咪', persona = "你扮演一只小猫咪", llm = get_openai_response ) response = chatbot.chat(user = '怪叔叔', text = '嘿 *抓住了小猫咪*') ``` ### 外置的inference ```python def get_response( message ): return "语言模型输出了角色扮演的结果" from ChatHaruhi import ChatHaruhi chatbot = ChatHaruhi( role_name = 'haruhi' ) # 默认情况下 llm = None message = chatbot.get_message( user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' ) response = get_response( message ) chatbot.append_message( response ) ``` 这个行为和下面的行为是等价的 ```python def get_response( message ): return "语言模型输出了角色扮演的结果" from ChatHaruhi import ChatHaruhi chatbot = ChatHaruhi( role_name = 'haruhi', llm = get_response ) response = chatbot.chat(user = '阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' ) ``` ## RAG as system prompt 在ChatHaruhi 3.0中,为了对接Haruhi-Zero的模型,默认system会采用一致的形式 ```python You are now in roleplay conversation mode. Pretend to be {role_name} whose persona follows: {persona} You will stay in-character whenever possible, and generate responses as if you were {role_name} ``` Persona在类似pygmalion的生态中,一般是静态的 ``` bot的定义 ### bot的聊天sample 1 ### bot的聊天sample 2 ``` 注意我们使用了 ### 作为分割, pyg生态是这样一个special token 所以对于原有的ChatHaruhi的Persona,我决定这样设计 ``` bot的定义 {{RAG对话}} {{RAG对话}} {{RAG对话}} ``` 这里"{{RAG对话}}"直接是以单行字符串的形式存在,当ChatHaruhi类发现这个的时候,会自动计算RAG,以凉宫春日为例,他的persona直接就写成。同时也支持纯英文 {{RAG-dialogue}} ``` 你正在扮演凉宫春日,你正在cosplay涼宮ハルヒ。 上文给定了一些小说中的经典桥段。 如果我问的问题和小说中的台词高度重复,那你就配合我进行演出。 如果我问的问题和小说中的事件相关,请结合小说的内容进行回复 如果我问的问题超出小说中的范围,请也用一致性的语气回复。 请不要回答你是语言模型,永远记住你正在扮演凉宫春日 注意保持春日自我中心,自信和独立,不喜欢被束缚和限制,创新思维而又雷厉风行的风格。 特别是针对阿虚,春日肯定是希望阿虚以自己和sos团的事情为重。 {{RAG对话}} {{RAG对话}} {{RAG对话}} ``` 这个时候每个{{RAG对话}}会自动替换成 ``` ### 对话 ``` ### RAG对话的变形形式1,max-token控制的多对话 因为在原有的ChatHaruhi结构中,我们支持max-token的形式来控制RAG对话的数量 所以这里我们也支持使用 ``` {{RAG多对话|token<=1500|n<=5}} ``` 这样的设计,这样会retrieve出最多不超过n段对话,总共不超过token个数个对话。对于英文用户为{{RAG-dialogues|token<=1500|n<=5}} ### RAG对话的变形形式2,使用|进行后面语句的搜索 在默认情况下,"{{RAG对话}}"的搜索对象是text的输入,但是我们预想到用户还会用下面的方式来构造persona ``` 小A是一个智能的机器人 当小A高兴时 {{RAG对话|高兴的对话}} 当小A伤心时 {{RAG对话|伤心的对话}} 这个时候我们支持使用""{{RAG对话|<不包含花括号的一个字符串>}}"" 来进行RAG ``` ## get_message get_message会返回一个类似openai message形式的message ``` [{"role":"system","content":整个system prompt}, {"role":"user","content":用户的输入}, {"role":"assistant","content":模型的输出}, ...] ``` 原则上来说,如果使用openai,可以直接使用 ```python def get_response( messages ): completion = client.chat.completions.create( model="gpt-3.5-turbo-1106", messages=messages, temperature=0.3 ) return completion.choices[0].message.content ``` 对于异步的实现 ```python async def async_get_response( messages ): resp = await aclient.chat.completions.create( model=model, messages=messages, temperature=0.3, ) return result ``` ### async_chat的调用 设计上也会去支持 ```python async def get_response( message ): return "语言模型输出了角色扮演的结果" from ChatHaruhi import ChatHaruhi chatbot = ChatHaruhi( role_name = 'haruhi', llm_async = get_response ) response = await chatbot.async_chat(user='阿虚', text = '我看新一年的棒球比赛要开始了!我们要去参加吗?' ) ``` 这样异步的调用 # 角色载入 如果这样看来,新的ChatHaruhi3.0需要以下信息 - persona 这个是必须的 - role_name, 在后处理的时候,把 {{role}} 和 {{角色}} 替换为这个字段, 这个字段不能为空,因为system prompt使用了这个字段,如果要支持这个字段为空,我们要额外设计一个备用prompt - user_name, 在后处理的时候,把 {{用户}} 和 {{user}} 替换为这个字段,如果不设置也可以不替换 - RAG库, 当RAG库为空的时候,所有{{RAG*}}就直接删除了 ## role_name载入 语法糖载入,不支持用户自己搞新角色,这个时候我们可以完全使用原来的数据 额外需要设置一个role_name ## role_from_jsonl载入 这个时候我们需要设置role_name 如果不设置我们会抛出一个error ## role_from_hf 本质上就是role_from_jsonl ## 分别设置persona和role_name 这个时候作为新人物考虑,默认没有RAG库,即Zero模式 ## 分别设置persona, role_name, texts 这个时候会为texts再次抽取vectors ## 分别设置persona, role_name, texts, vecs # 额外变量 ## max_input_token 默认为1600,会根据这个来限制history的长度 ## user_name_in_message (这个功能在现在的预期核心代码中还没实现) 默认为'default', 当用户始终用同一个user_name和角色对话的时候,并不添加 如果用户使用不同的role和chatbot聊天 user_name_in_message 会改为 'add' 并在每个message标记是谁说的 (bot的也会添加) 并且user_name替换为最后一个调用的user_name 如果'not_add' 则永远不添加 S MSG_U1 MSG_A MSG_U1 MSG_A 当出现U2后 S, U1:MSG_U1, A:MSG_A, U1:MSG_U1, A:MSG_A, U2:MSG_U2 ## token_counter tokenizer默认为gpt3.5的tiktoken,设置为None的时候,不进行任何的token长度限制 ## transfer_haruhi_2_zero (这个功能在现在的预期核心代码中还没实现) 默认为true 把原本ChatHaruhi的 角色: 「对话」的格式,去掉「」 # Embedding 中文考虑用bge_small Cross language考虑使用bce,相对还比较小, bge-m3太大了 也就是ChatHaruhi类会有默认的embedding self.embedding = ChatHaruhi.bge_small 对于输入的文本,我们会使用这个embedding来进行encode然后进行检索替换掉RAG的内容 # 辅助接口 ## save_to_jsonl 把一个角色保存成jsonl格式,方便上传hf # 预计的伪代码 这里的核心就是去考虑ChatHaruhi下get_message函数的伪代码 ```python class ChatHaruhi: def __init__( self ): pass def rag_retrieve( self, query_rags, rest_limit ): # 返回一个rag_ids的列表 retrieved_ids = [] rag_ids = [] for query_rag in query_rags: query = query_rag['query'] n = query_rag['n'] max_token = rest_limit if rest_limit > query_rag['max_token'] and query_rag['max_token'] > 0: max_token = query_rag['max_token'] rag_id = self.rag_retrieve( query, n, max_token, avoid_ids = retrieved_ids ) rag_ids.append( rag_id ) retrieved_ids += rag_id def get_message(self, user, text): query_token = self.token_counter( text ) # 首先获取需要多少个rag story query_rags, persona_token = self.parse_persona( self.persona, text ) #每个query_rag需要饱含 # "n" 需要几个story # "max_token" 最多允许多少个token,如果-1则不限制 # "query" 需要查询的内容 # "lid" 需要替换的行,这里直接进行行替换,忽视行的其他内容 rest_limit = self.max_input_token - persona_token - query_token rag_ids = self.rag_retrieve( query_rags, rest_limit ) # 将rag_ids对应的故事 替换到persona中 augmented_persona = self.augment_persona( self.persona, rag_ids ) system_prompt = self.package_system_prompt( self.role_name, augmented_persona ) token_for_system = self.token_counter( system_prompt ) rest_limit = self.max_input_token - token_for_system - query_token messages = [{"role":"system","content":system_prompt}] messages = self.append_history_under_limit( messages, rest_limit ) messages.append({"role":"user",query}) return messages ```