--- license: mit language: - ru pipeline_tag: summarization --- # FRED-T5 1.7B Summarizer Dataset detail, model training and metrics in our paper: TUT_Dobavit The model was trained by [SberDevices](https://sberdevices.ru/). The model is trained on a mix of open summarisation data for the Russian language and use prefix tokenen '\' ## Usage ```python import torch from transformers import GPT2Tokenizer, T5ForConditionalGeneration tokenizer = GPT2Tokenizer.from_pretrained('RussianNLP/FRED-T5-Summarizer',eos_token='') model = T5ForConditionalGeneration.from_pretrained('RussianNLP/FRED-T5-Summarizer') device='cuda' model.to(device) input_text=' Сократи текст.\n В деревне, затерянной среди зелёных холмов, жил старик по имени Иван. Его жизнь протекала медленно и размеренно. Каждое утро Иван выходил на поля, чтобы заботиться о своём скромном участке земли. Он выращивал картофель и морковь, которые были его главным источником пищи. Вечера старик проводил у камина, читая книги и вспоминая молодость. Жизнь в деревне была тяжёлая, но Иван находил в ней простые радости.' input_ids=torch.tensor([tokenizer.encode(input_text)]).to(device) outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id, num_beams=5, min_new_tokens=17, max_new_tokens=200, do_sample=True, no_repeat_ngram_size=4, top_p=0.9) print(tokenizer.decode(outputs[0][1:])) # print result: Старик Иван живёт размеренной жизнью в деревне, выращивая овощи и находя радость в простых вещах. ``` # Authors + Sber Devices: + Albina Akhmetgareeva + Ilia Kuleshov + Vlad Leschuk + Alexander Abramov + Alena Fenogenova # Cite us ``` @misc{zmitrovich2023family, title={A Family of Pretrained Transformer Language Models for Russian}, author={Dmitry Zmitrovich and Alexander Abramov and Andrey Kalmykov and Maria Tikhonova and Ekaterina Taktasheva and Danil Astafurov and Mark Baushenko and Artem Snegirev and Tatiana Shavrina and Sergey Markov and Vladislav Mikhailov and Alena Fenogenova}, year={2023}, eprint={2309.10931}, archivePrefix={arXiv}, primaryClass={cs.CL} } ```