metadata
license: cc-by-sa-4.0
datasets:
- procesaur/Vikipedija
- procesaur/Vikizvornik
- procesaur/ZNANJE
- jerteh/SrpELTeC
language:
- sr
Word2Vec |
|
обучаван над корпусом српског језика - 9.5 милијарди речи међу датотекама се налазе два модела (CBOW и SkipGram варијанте) |
trained on the Serbian language corpus - 9.5 billion words There are two models among the files (CBOW and SkipGram variants) |
from gensim.models import Word2Vec
model = Word2Vec.load("TeslaW2V")
Истраживање jе спроведено уз подршку Фонда за науку Републике Србиjе, #7276, Text Embeddings – Serbian Language Applications – TESLA |
This research was supported by the Science Fund of the Republic of Serbia, #7276, Text Embeddings - Serbian Language Applications - TESLA |