Привет! Это модель основанная на ruGPT3-small

Модель опубликована под лицензией MIT!

Пример кода на Python

from transformers import GPT2LMHeadModel, GPT2Tokenizer

model_name_or_path = "путь до папки с моделью"
tokenizer = GPT2Tokenizer.from_pretrained(model_name_or_path)
model = GPT2LMHeadModel.from_pretrained(model_name_or_path).cuda()

input_ids = tokenizer.encode(message.content, return_tensors="pt").cuda()
out = model.generate(input_ids.cuda(), repetition_penalty=5.0, do_sample=True, top_k=5, top_p=0.95, temperature=1)
generated_text = list(map(tokenizer.decode, out))

print(generated_text[0])

Смешные текста

Пока их нет! Но если ты хочешь добавить смешной случай открывай pull request

Downloads last month
171
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.