|
--- |
|
license: mit |
|
language: |
|
- ru |
|
tags: |
|
- conversational |
|
- internet-language |
|
- slang |
|
- experimental |
|
- research |
|
- education |
|
- casual |
|
- 2ch |
|
- rugpt |
|
base_model: sberbank-ai/rugpt2large |
|
--- |
|
|
|
|
|
SberGPT2 InternetLanguage-RU Model (Experimental) |
|
|
|
🇷🇺 Русскоязычная языковая модель на базе GPT-2 от Сбера, дообученная на отфильтрованных постах русскоязычного имиджборда 2ch (Двач). |
|
|
|
Внимание: модель может генерировать нежелательный или бессмысленный контент. Используйте с осторожностью. |
|
Описание |
|
|
|
Модель дообучалась на постах с Двача (2ch.hk) после базовой версии sberbank-ai/rugpt2large |
|
|
|
. |
|
Посты были фильтрованы автоматическими скриптами для удаления нецензурной лексики, токсичности и оффтопа. Тем не менее, гарантировать безопасность контента невозможно. |
|
|
|
Цель — исследование и экспериментальная генерация неформального текста, разговорного русского языка, сленга и "интернет-культуры". |
|
|
|
Эта модель распространяется под лицензией MIT, с добавленным отказом от ответственности. |
|
|
|
Модель предназначена исключительно для исследовательских и образовательных целей. Автор не несёт ответственности за возможный вред, причинённый использованием модели. Используйте на свой страх и риск. |
|
Использование |
|
|
|
--- |
|
|
|
## Использование |
|
|
|
```python |
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("MarkProMaster229/InternetLanguage") |
|
model = AutoModelForCausalLM.from_pretrained("MarkProMaster229/InternetLanguage") |
|
|
|
# Пример генерации текста |
|
input_text = "Привет! Как дела?" |
|
inputs = tokenizer(input_text, return_tensors="pt") |
|
outputs = model.generate(**inputs, max_length=50, do_sample=True, top_k=50, top_p=0.95) |
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
|
|