Edit model card

gpt2-small-cs

Small version of GPT2 model (4 layers, 8 attention heads, hid. size 512) pretrained from 115 GB of cleaned Czech text (mainly from Common Crawl project).

Usage

from transformers import pipeline, set_seed
generator = pipeline('text-generation', model='fav-kky/gpt2-small-cs')
set_seed(42)
generator("Lidstvo bude brzy", max_length=30, num_return_sequences=2)
[{'generated_text': 'Lidstvo bude brzy seskupeno do osmi skupin, které budou rozděleny do čtyř skupin. V čele budou čtyři prezidenti, mezi nimi například prezidenti'},
 {'generated_text': 'Lidstvo bude brzy potřebovat čas na budování infrastruktury, řekl na tiskové konferenci ředitel Národní síťové informační agentury Jiří Drahoš. "Napojení, které bude'}]
Downloads last month
370
Safetensors
Model size
42.9M params
Tensor type
F32
·
U8
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.