--- language: ru widget: - text: "Мозг — это машина вывода, которая пытается ошибку в прогнозе." example_title: "brain_example" - text: "Никогда не спорьте с идиотами, опуститесь до их уровня, где они вас задавят своим опытом." example_title: "idiot_example" --- # RoBERTa-like language model trained on part of part of TAIGA corpus ## Training Details - about 60k steps ![]() ## Example pipeline ```python from transformers import pipeline from transformers import RobertaTokenizerFast tokenizer = RobertaTokenizerFast.from_pretrained('blinoff/roberta-base-russian-v0', max_len=512) fill_mask = pipeline( "fill-mask", model="blinoff/roberta-base-russian-v0", tokenizer=tokenizer ) fill_mask("Мозг — это машина , которая пытается снизить ошибку в прогнозе.") # { # 'sequence': 'Мозг — это машина города, которая пытается снизить ошибку в прогнозе.', # 'score': 0.012859329581260681, # 'token': 2144, # 'token_str': 'ĠгоÑĢода' # }, # { # 'sequence': 'Мозг — это машина человека, которая пытается снизить ошибку в прогнозе.', # 'score': 0.01185101643204689, # 'token': 1470, # 'token_str': 'ĠÑĩеловека' # }, # { # 'sequence': 'Мозг — это машина дома, которая пытается снизить ошибку в прогнозе.', # 'score': 0.009940559044480324, # 'token': 1411, # 'token_str': 'Ġдома' # }, # { # 'sequence': 'Мозг — это машина женщина, которая пытается снизить ошибку в прогнозе.', # 'score': 0.007794599514454603, # 'token': 2707, # 'token_str': 'ĠженÑīина' # }, # { # 'sequence': 'Мозг — это машина женщины, которая пытается снизить ошибку в прогнозе.', # 'score': 0.007725382689386606, # 'token': 3546, # 'token_str': 'ĠженÑīинÑĭ' # } ```