Dmitriy007 commited on
Commit
9ae93fa
1 Parent(s): b946476

Upload README.md.txt

Browse files
Files changed (1) hide show
  1. README.md.txt +57 -0
README.md.txt ADDED
@@ -0,0 +1,57 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language: ru
3
+ tags:
4
+ - exbert
5
+
6
+ license: mit
7
+ ---
8
+
9
+
10
+ # RuGPT2_Gen_Comments
11
+
12
+ Предварительно обученная модель на русском языке с использованием языковой модели "sberbank-ai/rugpt3small_based_on_gpt2".
13
+
14
+ Содержимое карты этой модели было создано, чтобы дополнить предоставленную информацию и привести конкретные примеры её использования.
15
+
16
+ ## Описание модели
17
+
18
+ RuGPT2_Gen_Comments — это модель преобразователей, предварительно обученная на массиве данных Lenta2 проекта CORUS на русском языке
19
+ в режиме самоконтроля. Этот означает, что он был предварительно обучен только необработанным текстам, и люди не маркировали их
20
+ каким-либо образом (поэтому он может использовать много общедоступных данных) с автоматическим процессом создания входных данных
21
+ и меток из этих текстов. Точнее, его обучали угадывать следующее слово в предложении.
22
+
23
+ Входные данные — это последовательности непрерывного текста определенной длины (block_size = 1048).
24
+
25
+
26
+ ### Проимер использования
27
+
28
+ from transformers import AutoTokenizer, AutoModelForCausalLM
29
+
30
+ tokenizer = AutoTokenizer.from_pretrained("Dmitriy007/rugpt2_gen_comments")
31
+ model = AutoModelForCausalLM.from_pretrained("Dmitriy007/rugpt2_gen_comments")
32
+
33
+ input_text = 'Ученик старшего класса лицея № 21 Иван Сидоров из города Адлер полетел в космос на планету Марс.'
34
+
35
+ inputs = tokenizer(input_text, return_tensors="pt")
36
+ model.to('cuda')
37
+ inputs.to('cuda')
38
+
39
+ input_ids = inputs["input_ids"]
40
+
41
+ output = model.generate(
42
+ input_ids,
43
+ attention_mask=inputs["attention_mask"],
44
+ pad_token_id=model.config.bos_token_id,
45
+ max_length=300,
46
+ num_beams=5,
47
+ num_return_sequences=1,
48
+ top_k=50,
49
+ top_p=0.90,
50
+ no_repeat_ngram_size=2,
51
+ temperature=0.7,
52
+ early_stopping=True
53
+ )
54
+
55
+ generated_text = list(map(tokenizer.decode, output))
56
+ print(generated_text[0])
57
+