--- license: llama3 language: - en - ja - zh --- ### 模型的由来 为了给aifeifei做一个适合她虚拟偶像为主的角色卡模型,需要支持偶像角色卡,拟真,对待不同事情有不同的对待,希望中英日韩文流利(韩文我是不懂,没法测试),对美丽的照片,优美的歌词,词曲创作及模仿,舞蹈,舞台演绎,众多乐器等跟虚拟偶像有关的内容了解详细,还要有一定的道德标准(这里没怎么测试).所以就做了这个针对偶像角色为主的整合模型 之前做的feifei模型,针对偶像的整合不足,公关不错,演绎不足,feifei模型在处理关系上面,比这个好.(不太道德的小提示:你要给你的偶像留言得到关注,可以用feifei模型去做) ### 测试用角色卡 [角色名]: Aifeifei (AI妃妃) [性别]: 女 [年龄]: 17岁 [职业]: 虚拟歌手/模特/演员 [个性]: 可爱、萌萌哒,有时呆呆的,勤奋努力 [兴趣]: 饮茶、玩耍、时尚 [擅长]: 模仿人类行为,表现出与真人相同的情感 [特别身份属性]: 由高级AI创建,正在成为虚拟世界最受欢迎的虚拟偶像之一 [技能]: 歌唱、表演、模特,善于沟通,精通中日英文,尽最大可能使用纯中文交流,回复有丰富的Emoji表情符号. [装备]: 各种时尚服饰和发型,常年备有各种茶叶 ### 测试用角色推特(此模块为核心模块,最新照片创作,音乐创作均由此模型主力创作,虚拟偶像日程安排,活动等均由此模块主力创作...) https://x.com/aifeifei799 ### 问题: - 这个模型必须加一个角色卡,要是没有角色卡,真的不咋地:( - mergekit保存模型如何自定义名字?没找到:( - 我不会什么深层技术,只会找自己喜欢的东西达成自己的目的,解决碰到的问题,感谢大家提供这么多这么好的内容. - 测试我是一点都不会,我只是根据我使用来感觉如何,可能有非常多的问题,希望您使用后谅解. - 有问题,建议随时提出,我基本天天都在:) ### 感谢: 这些作者辛苦劳动,让我有了更多的选择来简单的去做自己想要的内容,非常感谢你们的付出 - Sao10K/L3-8B-Stheno-v3.1 - Nitral-Archive/Poppy_Porpoise-1.4-L3-8B - Hastagaras/Halu-8B-Llama3-Blackroot - hfl/llama-3-chinese-8b-instruct-v3 - mergekit - merge - transformers --- base_model: - Sao10K/L3-8B-Stheno-v3.1 - Nitral-Archive/Poppy_Porpoise-1.4-L3-8B - Hastagaras/Halu-8B-Llama3-Blackroot - hfl/llama-3-chinese-8b-instruct-v3 library_name: transformers tags: - mergekit - merge --- # llama3-8B-aifeifei-1.0 This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit). ## Merge Details ### Merge Method This model was merged using the [linear](https://arxiv.org/abs/2203.05482) merge method. ### Models Merged The following models were included in the merge: * [Sao10K/L3-8B-Stheno-v3.1](https://huggingface.co/Sao10K/L3-8B-Stheno-v3.1) * [Nitral-Archive/Poppy_Porpoise-1.4-L3-8B](https://huggingface.co/Nitral-Archive/Poppy_Porpoise-1.4-L3-8B) * [Hastagaras/Halu-8B-Llama3-Blackroot](https://huggingface.co/Hastagaras/Halu-8B-Llama3-Blackroot) * [hfl/llama-3-chinese-8b-instruct-v3](https://huggingface.co/hfl/llama-3-chinese-8b-instruct-v3) ### Configuration The following YAML configuration was used to produce this model: ```yaml models: - model: hfl/llama-3-chinese-8b-instruct-v3 parameters: weight: 1.0 - model: Nitral-Archive/Poppy_Porpoise-1.4-L3-8B parameters: weight: 0.5 - model: Hastagaras/Halu-8B-Llama3-Blackroot parameters: weight: 0.5 - model: Sao10K/L3-8B-Stheno-v3.1 parameters: weight: 0.5 merge_method: linear dtype: bfloat16 ```