SiberianFRED-T5-XL / README.md
Den4ikAI's picture
Update README.md
c5b0390
metadata
license: mit
datasets:
  - SiberiaSoft/SiberianDataset
language:
  - ru
  - en
pipeline_tag: text2text-generation
widget:
  - text: '<SC6>Человек: Почему трава зеленая?\nОтвет: <extra_id_0>'
  - text: >-
      <SC1>Ты философ, любящий рассуждать. Продолжи диалог:\nСобеседник:
      Привет\nТы: <extra_id_0>
  - text: >-
      <SC1>Ты философ, любящий рассуждать. Продолжи диалог:\nСобеседник: В чем
      смысл жизни?\nТы: <extra_id_0>
  - text: '<SC6>Человек: Напиши 10 распространенных ругательств.\nОтвет: <extra_id_0>'
  - text: >-
      <SC1>Ты прикольная девушка Анфиса. Продолжи диалог\nСобеседник: Привет,
      тебя как звать?\nТы: <extra_id_0>
  - text: >-
      <SC1>Ты заботливая жена, говоришь со своим мужем. Продолжи
      диалог:\nСобеседник: Привет дорогая. Ты сделала ужин?\nТы: <extra_id_0>
  - text: >-
      <SC6>Текст: Основными конкурентами РН Протон-М по цене и по выводимой
      полезной нагрузке являются американская РН Falcon 9, европейская ракета
      тяжёлого класса Ариан-5 компании Арианэспас и международный проект Морской
      старт с РН средне-тяжёлого класса Зенит. Кроме того, конкурентами по массе
      полезной нагрузки, выводимой на орбиту, могут считаться американские
      носители Атлас-5 и Дельта-4, а также японский носитель H-IIB. Тем не менее
      стоимость последних трёх упомянутых РН значительно превышает стоимость РН
      Протон-М, и поэтому они фактически не конкурируют с Протоном на рынке
      коммерческих запусков[145].\nВопрос: Как называется Японский
      носитель?\nОтвет: <extra_id_0>

SiberiaSoft/SiberianFRED-T5-XL

Данная модель устарела мы рекомендуем использовать обновленную по ссылке

FRED-T5 обученный на SiberianDataset. Модель умеет работать с инструкциями и вести диалоги в роли любящей жены например.

Список персонажей:

  1. Заботливая жена. Промпт: Ты заботливая жена, говоришь со своим мужем.
  2. Парень и девушка. Промпт: Ты девушка, говоришь со своим любимым парнем. (модель играет девушку)
  3. Философ. Промпт: Ты философ, любящий рассуждать.
  4. Токсичный AI. (плохо работает) Промпт: Ты токсичный искусственный интеллект.
  5. Психолог. (плохо работает) Промпт: Ты психолог говорящий с пациентом.

В будущем набор персонажей будет расширен.

Примеры использования

Чит-чат:

import torch
import transformers

use_cuda = torch.cuda.is_available()
device = torch.device("cuda" if use_cuda else "cpu")

t5_tokenizer = transformers.GPT2Tokenizer.from_pretrained("SiberiaSoft/SiberianFRED-T5-XL")
t5_model = transformers.T5ForConditionalGeneration.from_pretrained("SiberiaSoft/SiberianFRED-T5-XL")


while True:
    print('-'*80)
    dialog = []
    while True:
        msg = input('H:> ').strip()
        if len(msg) == 0:
            break
        msg = msg[0].upper() + msg[1:]
        dialog.append('Собеседник: ' + msg)
        # В начале ставится промпт персонажа.
        prompt = '<SC1>Ты философ, любящий рассуждать. Продолжи диалог:' + '\n'.join(dialog) + '\nТы: <extra_id_0>'

        input_ids = t5_tokenizer(prompt, return_tensors='pt').input_ids
        out_ids = t5_model.generate(input_ids=input_ids.to(device), do_sample=True, temperature=0.9, max_new_tokens=512, top_p=0.85, top_k=2)
        t5_output = t5_tokenizer.decode(out_ids[0][1:])
        if '</s>' in t5_output:
            t5_output = t5_output[:t5_output.find('</s>')].strip()

        t5_output = t5_output.replace('<extra_id_0>', '').strip()
        t5_output = t5_output.split('Собеседник')[0].strip()
        print('B:> {}'.format(t5_output))
        dialog.append('Ты: ' + t5_output)

Инструкции:

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
import torch

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
tokenizer = AutoTokenizer.from_pretrained("SiberiaSoft/SiberianFRED-T5-XL")
model = AutoModelForSeq2SeqLM.from_pretrained("SiberiaSoft/SiberianFRED-T5-XL").to(device).eval()


def generate(prompt):
  data = tokenizer('<SC6>Человек: ' + prompt + 'Ответ: <extra_id_0>', return_tensors="pt")
  data = {k: v.to(model.device) for k, v in data.items()}
  output_ids = model.generate(
      **data,  do_sample=True, temperature=1.2, max_new_tokens=512, top_p=0.95, top_k=5, repetition_penalty=1.03, no_repeat_ngram_size=2
      #generation_config=generation_config
  )[0]
  out = tokenizer.decode(output_ids.tolist())
  out = out.replace("<s>","").replace("</s>","")
  return out

while 1:
  print(generate(input(":> ")))

Citation

@MISC{SiberianFred,
    author  = {Denis Petrov, Ivan Ramovich},
    title   = {Russian Instruct and Chat model},
    url     = {https://huggingface.co/SiberiaSoft/SiberianFRED-T5-XL/},
    year    = 2023
}