Dataset Preview
Go to dataset viewer
text (string)
"lílo àkàbà — ǹjẹ́ o máa ń ṣe àyẹ̀wò wọ̀nyí tó lè dáàbò bò ẹ́"
"paul fẹ́ pààrọ̀ gílóòbù iná tó wà lóde ilé ẹ̀"
"ó tún fẹ́ nu àwọn fèrèsé pẹ̀tẹ́ẹ̀sì lọ́wọ́ ita — ó ti pẹ́ tíyàwó ẹ̀ ti ń sọ pé wọ́n ti dọ̀tí"
"àmọ́ ṣe ni paul ń fòní dónìí tó ń fọ̀la dọ́la"
"nítorí pé ó gbọ́dọ̀ lo àkàbà"
"ó nídìí tẹ́rù fi ń bà á"
"ó mọ̀ pé téèyàn bá rébọ́ látorí àkàbà ó lè fara pa yánnayànna ó tiẹ̀ lè gbabẹ̀ kú"
"ohun tó máa ń fà á ni pé àwọn èèyàn kì í fara balẹ̀ ronú lóríi bó ti yẹ láti lo àkàbà"
"kí paul tó ṣe iṣẹ́ wọ̀nyí kí ló yẹ kó mọ̀ nípa àkàbà"
"àbá mẹ́wàá tó ràn án lọ́wọ́ láti ṣe é láìfarapa ló wà nísàlẹ̀ yìí"
"ṣé àkàbà náà ò lè ṣèèyàn léṣe"
"1 lo àkàbà tó yẹ"
"o lè bẹ̀rẹ̀ sí nàgà bí àkàbà náà bá kúrú jù"
"o lè fi ti ògiri lọ́nà tó léwu tó bá gùn jù"
"má ṣe fi àtẹ̀gùn kékeré ẹlẹ́sẹ̀ mẹ́rin gun àjà"
"ṣe àkàbà tó yẹ mọ́ ògiri tó lọ sórí àjà tàbí kóo lo àkàbà tó ṣeé gbé ti ògiri"
"2 yẹ àkàbà rẹ wò dáadáa"
"ṣé kì í ṣe ìta lẹ gbé e sí tẹ́lẹ̀"
"àkàbà onígi máa ń wú tómi bá kàn án ó sì máa ń sún kì tóòrùn bá pa á jù"
"kẹ́ẹ tó mọ̀ àwọn ìdásẹ̀lé rẹ̀ lè ti dẹ̀ tí àkàbà náà kò fi ní dúró dáadáa mọ́"
"ṣé ìkankan lára ìdásẹ̀lé onígi tó wà lára rẹ̀ kó tíì sán ṣé kò sì dà bíi pé wọ́n ti ń kẹ̀"
"wọ́n sábà máa ń fi irin gbá ìdásẹ̀lé onígi lábẹ́"
"ṣé irin yẹn ṣì wà níbẹ tó sì dúró sán ún"
"ṣé àwọn ìdè tàbí èèkàn irin tí wọ́n fi de àwọn ìdásẹ̀lé onírin mọ́ ara àkàbà ò tíì yọ tàbí kí wọ́n ti kídàǹpapa"
"àwọn àkàbà ńlá tí wọ́n ń kì bọnú ara wọn lè ní táyà ródóródó àti okùn"
"ṣé àwọn táyà náà ṣì ń yí geerege"
"ṣé kì í ṣe pé okùn náà ti fẹ́ já ṣá ṣé ó ṣì gùn tó"
"tètè tún gbogbo ohun tó bá yẹ ní títún ṣe ṣe láìfi falẹ̀ rárá"
"wọ́n sábà máa ń gbẹ́hò tẹ́ẹ́rẹ́ tẹ́ẹ́rẹ́ sára ìdásẹ̀lé tí kò ní jẹ́ kẹ́sẹ̀ ó yọ̀ lórí wọn"
"rí i dájú pé o mú ìdọ̀tí èyíkéyìí tó bá dí ojú ihò wọ̀nyẹn kúrò"
"gbogbo àkàbà ló yẹ kó ní ìtẹ́lẹ̀ tó máa jẹ́ kó dúró nílẹ̀ láìyọ̀"
"wò ó bóyá ìtẹ́lẹ̀ yìí wà níbẹ̀ tí kò sì tíì jẹ púpọ̀ jù"
"3 gbé àkàbà lọ́nà tí kò ní ṣe jàǹbá"
"tó bá jẹ́ ọkọ̀ lo fẹ́ lò gbé e kọ́ ìkọ́ àkàbà tàbí kóo so ó mọ́ ọkọ̀ akẹ́rù ó kéré tán lọ́nà méjì"
"àkàbà gígùn lè yọ gọngọ lẹ́yìn ọkọ̀ nítorí náà kí ẹni tí ń bọ̀ lẹ́yìn lè rí i dáadáa so aṣọ tẹ́ẹ́rẹ́ mọ́ ibi tó ti yọ gọngọ síta káwọn èèyàn lè rí i"
"èèyàn méjì ló dáa jù lọ kó gbé àkàbà gígùn"
"àmọ́ bó bá jẹ́ ìwọ lo fẹ́ dá a gbé tóo sì fẹ́ gbé e níbùú gbé e lé èjìká rẹ kóo sì fọwọ́ kan dì í mú dáadáa kóo wá fọwọ́ kejì kún un kó lè sinmi lé ọ léjìká láìfì sápá kan"
"jẹ́ kí iwájú rẹ̀ wà lókè níbi tí orí ò ní lè dé kí o má bàa fi gbá ẹnikẹ́ni"
"ṣùgbọ́n má gbàgbé pé bí àkàbà náà ṣe gùn síwájú bẹ́ẹ̀ náà ló gùn lọ sẹ́yìn"
"àwọn aláwàdà kẹríkẹrì máa ń jẹ́ kó dà bíi pé ọ̀ràn ẹ̀rín ni fíforígbá àkàbà"
"àmọ́ ẹni tó bá ti ríbi téèyàn ti forí gbá àkàbà rí á mọ̀ pé kì í ṣọ̀ràn eré — àgàgà tó bá jẹ́ ìwọ ló ṣe léṣe"
"tóo bá gbé àkàbà lóròó jẹ́ kí òkè rẹ̀ fì sápá ọ̀dọ̀ rẹ kóo fọwọ́ kan rá a mú kóo sì fọwọ́ kejì dì í mú lókè orí rẹ kó lè dúró dáadáa"
"máa ṣọ́ àwọn wáyà gílóòbù iná àtàwọn àmì táa gbé kọ́ sókè o"
"4 gbé àkàbà tì dáadáa"
"kí ó má bàa séwu àkàbà ò gbọ́dọ̀ fì sẹ́gbẹ̀ẹ́ kan kò sì gbọ́dọ̀ dagun ju ìwọ̀n ìdagun márùndínlọ́gọ́rin lọ"
"5 gbé nǹkan tì í lókè àti nísàlẹ̀"
"wo ibi tóo gbé orí àkàbà tì dáadáa"
"rí i dájú pé ojú ibi tí àkàbà náà fara tì lókè tẹ́ pẹrẹsẹ tí kò sì ní yọ̀ ẹ́"
"o ò gbọ́dọ̀ gbé àkàbà ti gíláàsì tàbí ike"
"tó bá ṣeé ṣe dè é mọ́ nǹkan kan kí òkè àkàbà náà fi nǹkan bí mítà kan ga ju ibi tí àkàbà náà ti fara ti ògiri"
"fẹ̀sọ̀ ṣe nígbà tóo bá kọ́kọ́ ń gun àkàbà lọ láti lọ dè é lókè"
"kò ní dúró dáadáa nígbà tóo bá kọ́kọ́ gùn ún yẹn bẹ́ẹ̀ náà ló sì máa rí nígbà tóo bá ń sọ̀ kalẹ̀ bọ̀ lẹ́yìn tóo ti tú u lókè"
"kí o má bàa já bọ́ ní ìgbà àkọ́kọ́ yẹn àtìgbà tóo bá ń sọ̀ kalẹ̀ jẹ́ kí ẹnì kan bá ẹ dì í mú nísàlẹ̀ nígbà tóo bá ń gùn ún tàbí tóo bá ń sọ̀"
"àmọ́ o èyí lè ṣiṣẹ́ kìkì bí àkàbà náà ò bá gùn ju nǹkan bí mítà márùn ún lọ"
"bí ilẹ̀ iwájú ilé bá da gẹ̀rẹ́gẹ̀rẹ́ gbé ohun kan tó wúwo sísàlẹ̀ àkàbà tàbí kí o de ìdásẹ̀lé ìsàlẹ̀ mọ́ nǹkan kan"
"bí ilẹ̀ bá rí págunpàgun ṣùgbọ́n tó le fi nǹkan há a kí àkàbà náà lè rẹ́sẹ̀ dúró nílẹ̀"
"wá pákó pẹrẹsẹ tàbí irú nǹkan bẹ́ẹ̀ tó ṣeé gbé nǹkan lé bí ilẹ̀ ibẹ̀ bá rọ̀ jù tàbí bó bá jẹ́ àwọn nǹkan bíi fùlùfúlù ló wà nílẹ̀ ibẹ̀"
"bó bá ṣe pé àkàbà ẹlẹ́sẹ̀ mẹ́rin lo fẹ́ lò rí i dájú pé gbogbo ẹsẹ̀ rẹ̀ mẹ́rẹ̀ẹ̀rin ló dúró dáadaá nílẹ̀ tí ìhà méjèèjì dúró wandi tí irin àárín wọn sì nà tán"
"6 yẹ bàtà rẹ wò"
"kóo tó gun àkàbà rí i dájú pé kò sómi nísàlẹ̀ bàtà rẹ"
"gbá àwọn nǹkan bí ẹrẹ̀ tó bá lè yọ̀ ẹ́ dà nù"
"7 máa rọra gbé nǹkan"
"kí o lè ráyè fọwọ́ rẹ méjèèjì di àkàbà mú bó bá ṣeé ṣe kó irinṣẹ́ sínú àpò kan tó ṣeé so mọ́ ìgbànú"
"wá nǹkan míì fi gbé àwọn nǹkan tó ṣòroó gbé gun àkàbà àmọ́ bó bá di dandan láti lo àkàbà má ṣe yọ ọwọ́ kan tó kù kúrò lára àkàbà ṣe ni kóo máa wọ́ ọ lára àkàbà bóo ti ń gùn ún lọ"
"máa gbẹ́sẹ̀ lọ́kọ̀ọ̀kan ní ṣísẹ̀ n tẹ̀lé láìkánjú"
"bóo bá ń lo irinṣẹ́ tó ń lo iná mànàmáná má ṣe fi ọwọ́ méjèèjì mú un dání"
"fún àpẹẹrẹ ẹ̀rọ ìdá nǹkan lu lè ṣàdédé há tàbí kí ó yọ̀ bọ̀rọ́ ìyẹn sì lè gbò ẹ́ kí o sì ṣubú"
"má ṣe yí irinṣẹ́ èyíkéyìí síbi tó ti lè máa dá ṣiṣẹ́ lọ láìdúró ó lè ṣèèṣì já bọ́ bóo ṣe ń lò ó lọ́wọ́"
"8 máa gba tàwọn ẹlòmíì rò"
"bó bá jẹ́ pé ibi tí gbogbo èèyàn ń gbà kọjá lo ti ń ṣiṣẹ́ gbé àkàbà síbi tí wọ́n á ti tètè rí i bó bá sì ṣeé ṣe to nǹkan yí i ká"
"bó bá di dandan kóo gbé àkàbà gba kọ̀rọ̀ kọjá kí o mọ̀ pé àwọn èèyàn ò ní mọ̀ pé o ń bọ̀ lọ́nà"
"fẹ̀lẹ̀ ké àgò o kí o sì rí i pé ọ̀nà là"
"tóo bá gbé irinṣẹ́ dání lórí àkàbà rántí pé irinṣẹ́ ìde nǹkan kólíẹ́ pàápàá lè ṣèèyàn léṣe tó bá já bọ́ luni látòkè"
"bóo bá fẹ́ fibẹ̀ sílẹ̀ fún ìdí kan tí o ò sì de àkàbà mọ́ nǹkan kan wá ẹni tí yóò bá ẹ dúró tì í tàbí kóo rọra gbé àkàbà náà kalẹ̀ dìgbà tóo máa padà dé"
"má kàn fi í sílẹ̀ bẹ́ẹ̀"
"9 rí i pé ara rẹ le"
"níwọ̀n bí gígun nǹkan ti jẹ́ ọ̀ràn kí ara èèyàn balẹ̀ kí ó sì máa gbésẹ̀ ní ṣísẹ̀ n tẹ̀lé má ṣe gun nǹkan kan bí ara rẹ ò bá yá tàbí bí èébì bá ń gbé ẹ tàbí bí òòyì bá ń kọ́ ẹ"
"10 má fọ̀ràn ààbò ṣeré o"
"gbogbo ìgbà ni kí ọ̀ràn ààbò máa jẹ ẹ́ lógún"
"èèyàn méjì tàbí jù bẹ́ẹ̀ lọ ò gbọ́dọ̀ wà lórí àkàbà lẹ́ẹ̀kan náà"
"o ò gbọ́dọ̀ gùn ún nígbà tí ìjì líle ń jà"
"tó bá ṣe pé àkàbà ẹlẹ́sẹ̀ mẹ́rin lo ń lò o ò gbọ́dọ̀ dúró lé ìdásẹ̀lé òkè pátápátá tó bá sì jẹ́ pé àkàbà gígùn lò ń lò o ò gbọ́dọ̀ dúró lé ìdásẹ̀lé mẹ́rin tó kẹ́yìn sókè"
"tó bá jẹ́ pé àkàbà tí wọ́n ń kì bọnú ara wọn lò ń lò o ò gbọ́dọ̀ nà án tán ó kéré tán ó gbọ́dọ̀ ṣẹ́ ku ìdásẹ̀lé mẹ́ta nínú ara wọn"
"o ò gbọ́dọ̀ nàgà jù"
"bóo bá tẹ̀ sẹ́gbẹ̀ẹ́ kan jù lórí àkàbà ẹsẹ̀ rẹ lè yẹ̀ wàá sì bára ẹ nílẹ̀"
"dípò wíwu ara rẹ léwu gbé àkàbà sún mọ́ ibẹ̀ kódà bó bá jẹ́ pé iṣẹ́ náà á wá gba àkókò púpọ̀ sí i"
"nígbà tóo bá ń gun àkàbà ọ̀ọ́kán tààrà ni kóo máa wò"
"pẹ̀lú gbogbo bóo ṣe kíyè sára tó ewu ò ní ṣàìsí nígbàkigbà tóo bá ń lo àkàbà"
"àmọ́ wàá dín irú ewu bẹ́ẹ̀ kù tóo bá lo àbá wọ̀nyí"
"àwọn ló ran paul lọ́wọ́"
"nítorí pé ó lo àbá wọ̀nyí kò fara pa nígbà tó ń pààrọ̀ gílóòbù iná tó wà lóde ilé ẹ̀"
"àwọn fèrèsé tó fẹ́ nù ńkọ́"
"tóò ìyẹn di ọjọ́ míì ọjọ́ọre"
"àwọn àwòrán tó wà ní ojú ìwé 22 23"
"1 lo àkàbà tó yẹ"
"2 yẹ àkàbà rẹ wò dáadáa"
"3 gbé àkàbà lọ́nà tí kò ní ṣe jàǹbá"
"4 gbé àkàbà tì dáadáa"
"5 gbé nǹkan tì í lókè àti nísàlẹ̀"
"6 yẹ bàtà rẹ wò"
End of preview (truncated to 100 rows)

Dataset Card for Yorùbá Text C3

Dataset Summary

Yorùbá Text C3 was collected from various sources from the web (Bible, JW300, books, news articles, wikipedia, etc) to compare pre-trained word embeddings (Fasttext and BERT) and embeddings and embeddings trained on curated Yorùbá Texts. The dataset consists of clean texts (i.e texts with proper Yorùbá diacritics) like the Bible & JW300 and noisy texts ( with incorrect or absent diacritics) from other online sources like Wikipedia, BBC Yorùbá, and VON Yorùbá

Supported Tasks and Leaderboards

For training word embeddings and language models on Yoruba texts.

Languages

The language supported is Yorùbá.

Dataset Structure

Data Instances

A data point is a sentence in each line. { 'text': 'lílo àkàbà — ǹjẹ́ o máa ń ṣe àyẹ̀wò wọ̀nyí tó lè dáàbò bò ẹ́' }

Data Fields

  • text: a string feature. a sentence text per line

Data Splits

Contains only the training split.

Dataset Creation

Curation Rationale

The data was created to help introduce resources to new language - Yorùbá.

Source Data

Initial Data Collection and Normalization

The dataset comes from various sources of the web like Bible, JW300, books, news articles, wikipedia, etc. See Table 1 in the paper for the summary of the dataset and statistics

Who are the source language producers?

Jehovah Witness (JW300) Yorùbá Bible Yorùbá Wikipedia BBC Yorùbá VON Yorùbá Global Voices Yorùbá

And other sources, see https://www.aclweb.org/anthology/2020.lrec-1.335/

Annotations

Annotation process

[More Information Needed]

Who are the annotators?

[More Information Needed]

Personal and Sensitive Information

[More Information Needed]

Considerations for Using the Data

Social Impact of Dataset

[More Information Needed]

Discussion of Biases

The dataset is biased to the religion domain (Christianity) because of the inclusion of JW300 and the Bible.

Other Known Limitations

[More Information Needed]

Additional Information

Dataset Curators

The data sets were curated by Jesujoba Alabi and David Adelani, students of Saarland University, Saarbrücken, Germany .

Licensing Information

The data is under the Creative Commons Attribution-NonCommercial 4.0

Citation Information

@inproceedings{alabi-etal-2020-massive,
    title = "Massive vs. Curated Embeddings for Low-Resourced Languages: the Case of {Y}or{\`u}b{\'a} and {T}wi",
    author = "Alabi, Jesujoba  and
      Amponsah-Kaakyire, Kwabena  and
      Adelani, David  and
      Espa{\~n}a-Bonet, Cristina",
    booktitle = "Proceedings of the 12th Language Resources and Evaluation Conference",
    month = may,
    year = "2020",
    address = "Marseille, France",
    publisher = "European Language Resources Association",
    url = "https://www.aclweb.org/anthology/2020.lrec-1.335",
    pages = "2754--2762",
    abstract = "The success of several architectures to learn semantic representations from unannotated text and the availability of these kind of texts in online multilingual resources such as Wikipedia has facilitated the massive and automatic creation of resources for multiple languages. The evaluation of such resources is usually done for the high-resourced languages, where one has a smorgasbord of tasks and test sets to evaluate on. For low-resourced languages, the evaluation is more difficult and normally ignored, with the hope that the impressive capability of deep learning architectures to learn (multilingual) representations in the high-resourced setting holds in the low-resourced setting too. In this paper we focus on two African languages, Yor{\`u}b{\'a} and Twi, and compare the word embeddings obtained in this way, with word embeddings obtained from curated corpora and a language-dependent processing. We analyse the noise in the publicly available corpora, collect high quality and noisy data for the two languages and quantify the improvements that depend not only on the amount of data but on the quality too. We also use different architectures that learn word representations both from surface forms and characters to further exploit all the available information which showed to be important for these languages. For the evaluation, we manually translate the wordsim-353 word pairs dataset from English into Yor{\`u}b{\'a} and Twi. We extend the analysis to contextual word embeddings and evaluate multilingual BERT on a named entity recognition task. For this, we annotate with named entities the Global Voices corpus for Yor{\`u}b{\'a}. As output of the work, we provide corpora, embeddings and the test suits for both languages.",
    language = "English",
    ISBN = "979-10-95546-34-4",
}

Contributions

Thanks to @dadelani for adding this dataset.

Edit dataset card
Evaluate models HF Leaderboard