Datasets:
metadata
license: cc-by-sa-3.0
task_categories:
- text-generation
language:
- sl
pretty_name: Wiki Triglav
size_categories:
- 100M<n<1B
configs:
- config_name: default
data_files:
- split: train
path:
- '*.jsonl'
- split: wikipedia
path:
- '*_wiki_*.jsonl'
- split: wikisource
path:
- '*_wikisource_*.jsonl'
- split: wikibooks
path:
- '*_wikibooks_*.jsonl'
- split: wikiquote
path:
- '*_wikiquote_*.jsonl'
Wiki korpusi v slovenščiniSveža različica, 1. maj 2026! Očiščen in filtriran nabor štirih projektov: Wikipedia, Wikivir, Wikiknjige in Wikinavedki. Več kot 146.000 kuriranih člankov z več kot 130 milijoni besed. Vsak dokument je v ločeni vrstici JSON. Novi metapodatki! Kategorije, število besed (in odstotek ciriličnega besedila) Možnost filtriranja nabora po jeziku ali projektu. |
Wiki corpora in Slovenian languageFresh version, 1. May 2026! Cleaned and filtered set of four projects: Wikipedia, Wikisource, Wikibooks and Wikiquotes. Over 146,000 curated articles, with over 130 million words. Each document is in a separate JSON line. New metadata! Categories, number of words (and percentage of Cyrillic text) Possible to filter the set by language or project. |
||||||||||||
|
|||||||||||||
|
|||||||||||||
# Nalaganje samo wikinavedki
dataset = load_dataset("procesaur/WikiTriglav", split="wikiquote")
print(dataset[1]["text"])
1 Navedki
* Pot k umetnosti ne vodi skozi udoben aleje brezkrbnosti in sanj....
# Filtriranje po metapodatkih
filtered = dataset.filter(lambda example: example["subject"] == "Pisatelji")
print(f"{filtered[0]["title"]}\n{filtered[0]["text"]} )
Ernest Hemingway
1 Navedki
* ''Vsaka zgodba se začne s prvim stavkom in s tem mislim, resničnim stavkom...''...
Cite
@misc{škorić2026wikidumpstrainingcorpora,
title={Wiki Dumps to Training Corpora: South Slavic Case},
author={Mihailo Škorić},
year={2026},
eprint={2604.25384},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2604.25384},
}