Edit model card

Chinese Light Novel 40k

This model, listenrwt/chinese_light_novel_40k, is a fine-tuned version of the llama3-8b base model. It has been trained using 40,000 pairs of novel context data.

Model Details

  • Model name: listenrwt/chinese_light_novel_40k
  • Base model: llama3-8b
  • Fine-tuning dataset: 40,000 pairs of novel context

Demo

Input:

在一間凌亂,昏暗的房間裡,一朵暗紅的蘭花倒卧在一灘水上,被砸的稀碎的瓦片包圍著。在房間的正中心,一個少女體型的軀體被白布覆蓋,正上方掛著一圈濕麻繩。

Output:

在那一圈濕麻繩的中央,有一個裝滿水的小桶。桶裡有一團東西,這就是那名少女的臉和頭髮。

這是個什麼地方?這是在做什麼?

我不確定這是哪兒,但很明顯是一間屋子。我想,雖然我不知道那個地方叫什麼名字,也不知道它在哪裡,但我大概知道這就是那個小孩所說的「房間」。也許那個小孩就是我現在遇到的少女。

在我們走進這間屋子的前一刻,我們已經看到了這些事。也許是因為天氣轉暖了,或者是因為某種什麼原因,這裡似乎有些人活過來了。我不知道有多少人,但至少有人。

我們從那個小孩口中聽到的話,那些「房間」和「箱子」的說法,只能是我們在這裏面的一個不完整的故事。這或許是某個人死後發生的事,或者是某人的生平。我不知道哪個才是對的,但我知道那是一個非常悲傷、可怕的故事。

我們走進這個屋子之時,我們看到了兩個被砸的瓦片,一邊是倒在地毯上的一朵蘭花,那就是剛才的小孩所說的「箱子」,另一邊則是一個被白布覆蓋的少女。

我不知道這個故事,雖然有點可怕,但至少有一點很好玩。

「我們的目標就在那裡。」小孩說。

我不知道他在說什麼,卻聽見一聲輕笑響起。
「為什麼不試試看一下呢?」
我知道這是個女人的聲音。

我們看過那些瓦片,那些被覆蓋著白布的東西以及那條水。小孩和我對望了一眼,然後他說:「好吧。」

那時,我們兩人已經站在那座屋子。

Usage

To use the listenrwt/chinese_light_novel_40k model, you can follow these steps:

  1. Install the transformers library by running pip install transformers.

  2. Import the necessary libraries in your Python script:

from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
  1. Load the tokenizer and model:
tokenizer = AutoTokenizer.from_pretrained("listenrwt/chinese_light_novel_40k")
model = AutoModelForCausalLM.from_pretrained("listenrwt/chinese_light_novel_40k")
  1. Use the model to generate text:
text_generator = pipeline("text-generation", model=model, tokenizer=tokenizer)
prompt = "在一間凌亂,昏暗的房間裡,一朵暗紅的蘭花倒卧在一灘水上,被砸的稀碎的瓦片包圍著。在房間的正中心,一個少女體型的軀體被白布覆蓋,正上方掛著一圈濕麻繩。"
output = text_generator(prompt, max_length=100)

Make sure to adjust the max_length parameter according to your desired output length.

Limitations

It's important to note that the model's responses are generated based on patterns learned during training and may not always be accurate or contextually appropriate. Therefore, it's advisable to review and validate the generated output.

Acknowledgments

The listenrwt/chinese_light_novel_40k model was trained using the Hugging Face transformers library and fine-tuning techniques. We acknowledge the contributions of the original authors of the llama3-8b model and the creators of the training dataset used for fine-tuning.

License

The listenrwt/chinese_light_novel_40k model is available under the MIT license. Please refer to the Hugging Face model repository for more details.

Downloads last month
36
GGUF
Model size
8.03B params
Architecture
llama

4-bit

Inference Examples
Unable to determine this model's library. Check the docs .