l_erotic_chat_v2 / README.md
zlsl's picture
Update README.md
86c09f6 verified
---
license: cc-by-nc-sa-4.0
language:
- ru
library_name: transformers
tags:
- chat
- porn
- sex
- erotic
- roleplay
widget:
- text: "Офигеть"
- text: "Ой, что это"
- text: "Ложись"
- text: "Отвали"
- text: "Мяу!"
- text: "В душев"
- text: "Тентакли"
pipeline_tag: text-generation
---
Альтернативная модель для эротического ролеплея. Ретрейн l_erotic_kink_chat с изменённым датасетом.
Рекомендую сравнить с m_erotic_chat (https://huggingface.co/zlsl/m_erotic_chat), часто m_erotic_chat работает _лучше_ с контекстом!
Неплохо держит контекст, параметры для старта:
do_sample: true<br>
top_p: 0.9<br>
top_k: 20<br>
temperature: 0.7 # При высоких значениях также работает неплохо<br>
repetition_penalty: 1.15<br>
encoder_repetition_penalty: 1.0-1.15<br>
typical_p: 1.0<br>
Оптимизированный фронтенд для данных моделей в режиме чата под Android - https://github.com/zlsl/pocketai
Для чата желательно количество новых токенов > 350, тогда диалоги будут интереснее.
Очень хорошие результаты при следующем вводе: 1 строка - ваша реплика, 2 строка - ваши действия.
Можно в контексте и во время диалога указывать действия и мысли в скобках. Например: Привет (вхожу в комнату, закрываю дверь)
Важно! В модели добавлен токен `<char>`, он указывает начало строки диалога, прямой речи:
>Абзац ... контекста<br>
>Я: `<char>` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)<br>
>Собеседник: `<char>` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)<br>
Также хорошие результаты в другом формате диалогов:
>Абзац ... контекста<br>
>Я: `<char>` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)<br>
>Еще действия, описание окружения.<br>
>Собеседник: `<char>` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)<br>
>Еще действия, описание окружения.<br>
Новый токен желательно использовать, но не обязательно. Также указывать имена персонажей - опционально.
Модель с удовольствием может "в мультичар", количество собеседников может быть более двух.
## Для пользователей text-generation-webui
В инструменте поломана работа с GPT-2, GPTJ, GPT-NEO и аналогичными модлями, неверно загружается токенизер.
Ошибка такая:<br>
>eos_token_id = eos_token_id[0]
>IndexError: list index out of range
Исправляется легко, в файл modules/models.py в функцию load_tokenizer() надо добавить строчку<br>
<code>tokenizer.eos_token_id = 2</code><br>
перед<br>
<code>return tokenizer</code>