Sdff-Ltba commited on
Commit
9da3269
1 Parent(s): bc3a2fd

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +49 -0
README.md ADDED
@@ -0,0 +1,49 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model:
3
+ - NTQAI/chatntq-ja-7b-v1.0
4
+ - Elizezen/Antler-7B
5
+ language:
6
+ - ja
7
+ tags:
8
+ - mistral
9
+ - mixtral
10
+ - merge
11
+ - moe
12
+ - not-for-all-audiences
13
+ - nsfw
14
+ pipeline_tag: text-generation
15
+ ---
16
+
17
+ # LightChatAssistant-TypeB-2x7B
18
+
19
+ #### GGUF量子化は[こちら](https://huggingface.co/Sdff-Ltba/LightChatAssistant-TypeB-2x7B-GGUF)
20
+
21
+ [Aratakoさん](https://huggingface.co/Aratako)の
22
+ [LightChatAssistant-2x7B-optimized-experimental](https://huggingface.co/Aratako/LightChatAssistant-2x7B-optimized-experimental)
23
+ でChatVectorに適用された加算割合を参考に、
24
+ [Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)を
25
+ 製作者の好みに合うように手作業で割合を調整したモデルです。
26
+ 本モデルの製作にあたり、Aratakoさんに加算割合データの公開をお願いしたところ、快く対応してくださいました。
27
+ その時のディスカッションは[こちら](https://huggingface.co/Aratako/LightChatAssistant-2x7B-optimized-experimental/discussions/1)です。
28
+ 心から感謝いたします。ありがとうございました!
29
+
30
+ ## 本モデルについて
31
+
32
+ LightChatAssistant-2x7Bから以下の特徴を引き継いでいます。
33
+
34
+ - ContextSize 32768 まで対応
35
+ - iQ3XXS量子化ファイルを用いれば、VRAM12GBでフルロード可能
36
+
37
+ また本モデルで狙った効果は以下の通りです。
38
+
39
+ 1. 加算するInstruct割合を可能な限り落とさず、それでいて日本語をより自然にする
40
+ 1. 長文を出力させても日本語をより滑らかにできるように調整
41
+ 1. LightChatAssistantの特徴である、クリエイティブな文章力も可能な限りキープする
42
+
43
+ 製作者の環境では上記3点が実現できたため、本モデルには満足しています。
44
+ ただしプロンプト等によっては元モデルより劣るものもあるかもしれないため、バージョンアップとしてではなく別型としてリリースすることにしました。
45
+
46
+ ## 参考
47
+
48
+ - [GitHub - Aratako_Task-Vector-Merge-Optimzier](https://github.com/Aratako/Task-Vector-Merge-Optimzier)
49
+ Aratakoさん作の、ChatVectorに適用する加算割合を最適化するスクリプトです。本モデル製作のきっかけとなりました。