QA-Gen / README.md
PyWebSol's picture
Update README.md
a24b436 verified
|
raw
history blame
2.43 kB
metadata
license: apache-2.0

T5 для генерации пары вопрос-ответ на русском языке. Использование:

import torch
from transformers import AutoModelForSeq2SeqLM, T5Tokenizer
model_name = "t5-qagen"
tokenizer = T5Tokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)

def generate(text, **kwargs):
    inputs = tokenizer(text, return_tensors='pt')   
    with torch.no_grad():
        hypotheses = model.generate(**inputs, num_beams=1, **kwargs, max_new_tokens=512)
        print(hypotheses)
    return tokenizer.decode(hypotheses[0], skip_special_tokens=True)

qa = generate(
        "К особым префектурам можно отнести Токио, Киото, Осаку и Хоккайдо. В период Эдо (1603—1867), сёгунат установил 9 городских районов, которыми управляли чиновники из центра (奉行支配地), и 302 районных города, которыми управляли городские чиновники (郡代支配地). С наступлением эпохи Мэйдзи 9 городских центров были превращены в округа фу, а 302 районных города — в префектуры кэн. В 1871 г., после административной реформы, в Японии было установлено 3 городских префектур фу — Токио, Киото и Осака. В 1943 г. городская префектура Токио была переименована в столицу то (хотя закона о столице утверждено не было)."
).split(" <|split|> ")

question, answer = qa

print(f"Вопрос: {question}")
print(f"Ответ: {answer}")
# Вопрос: В каком период было установлено 3 городских префектур фу — Токио, Киото и Осака?
# Ответ: В 1871 году.

Модель может быть подезна для автоматизированной генерации наборов данных по тексту для обучения других NLP моделей.

Буду благодарен, если заглянете в моего телеграм бота с ChatGPT-4: https://t.me/GPT_3_V_Bot