---
datasets:
- jerteh/cc100-sr-jerteh
- jerteh/SrpELTeC
- jerteh/SrpWiki
- srwac
language:
- sr
tags:
- Srpski
- Serbian
- GPT2
- generisanje
---
Mali generativni model za srpski jezik.
Generiše novi tekst, ili nastavlja započeti tekstualni unos.\
Jednaka podrška unosa i na ćirilici i na latinici!
## Upotreba
```python
>>> from transformers import pipeline, set_seed
>>> generator = pipeline('text-generation', model='jerteh/gpt2-vrabac')
>>> set_seed(23)
>>> generator("", max_length=30, num_return_sequences=5)
```
```
[{'generated_text': 'Ja, međutim, ne idem na put da idem već da se vratim na aerodrom.'},
{'generated_text': 'Domaćinstvo se nalazilo na mestu zvanom Kutuzov kod Niša.'},
{'generated_text': 'Regionalne razlike:'},
{'generated_text': 'Od tada do sada smo u veoma teškoj situaciji“, poručio je on.'},
{'generated_text': 'Iz tog razloga, na ovaj način u potpunosti bi se izbegla dodatna mogućnost da se sa istim problemima suoči i Vlada.'}]
```
Pored navedenih, model je obučavan i na ostalim korpusima [Društva za jezičke resurse i tehnologije](https://jerteh.rs),
uključujući korpuse savremenog srpskog jezika: SrpKor2013 i SrpKor2021,
kao i korpus [PDRS 1.0](https://www.clarin.si/repository/xmlui/handle/11356/1752) razvijen od strane Instituta za Srpski jezik SANU.
U slučaju potrebe za većim modelom, pogledajte
gpt2-orao — najveći generativni model za srpski jezik.
Modeli su obučavani na Nacionalnoj platformi za veštačku inteligenciju Srbije (sistem koji se bazira na nVidia DGX sistemima).