Edit model card

LightChatAssistant-TypeB-2x7B

GGUF量子化はこちら

AratakoさんLightChatAssistant-2x7B-optimized-experimental でChatVectorに適用された加算割合を参考に、Sdff-Ltba/LightChatAssistant-2x7Bを 製作者の好みに合うように手作業で割合を調整したモデルです。
本モデルの製作にあたりAratakoさんに加算割合データの公開をお願いしたところ、快く対応してくださいました。 その時のディスカッションはこちらです。
心から感謝いたします。ありがとうございました!

モデル特徴

LightChatAssistant-2x7Bから以下の特徴を引き継いでいます。

  • ContextSize 32768 まで対応
  • iQ3XXS量子化ファイルを用いれば、[ContextSize:32768]時でもVRAM12GBでフルロード可能

また本モデルで狙った効果は以下の通りです。

  1. 加算するInstruct割合を可能な限り落とさず、それでいて日本語をより自然にする
  2. 長文を出力させても日本語をより滑らかにできるように調整
  3. LightChatAssistantの特徴であるクリエイティブな文章力も、可能な限りキープする

製作者の環境では上記3点が実現できたため、本モデルには満足しています。
ただしプロンプト等によっては元モデルより劣るものもあるかもしれないため、バージョンアップとしてではなく別型としてリリースすることにしました。

参考

Downloads last month
48
Safetensors
Model size
12.9B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Sdff-Ltba/LightChatAssistant-TypeB-2x7B