Dataset Preview
Go to dataset viewer
tweet_id (string)tweet_text (string)toxic_votes (int32)nontoxic_votes (int32)is_toxic (class label)
"898576382384418817"
"วันๆ นี่คุยกะหมา แมว หมู ไก่ ม้า ควาย มากกว่าคุยกับคนไปละ"
0
3
0 (neg)
"847331851425300481"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"899587505493692417"
"หล่อมากกก หล่อวัวตายควายล้มกันเลยทีเดียวววว"
0
3
0 (neg)
"898920493763280897"
"สิวเหี้ยไรขึ้นหลังหู เสียชาติเกิดมั้ย เกิดมามันต้องต้องโดดเด่นเด้งดึ๋งอย่าเช่นขึ้นที่หน้าไรงี้ อีควาย"
0
3
0 (neg)
"896808964326694912"
"อ่ะ ป่วยก็ป่วย งานจ้างก็ต้องทำ งานเรียนก็ต้องทำ วิชาดีไซน์ตัวร้ายกับควายอย่างกูเอง"
0
3
0 (neg)
"897833007930724354"
""
3
0
1 (pos)
"896808093949976576"
"นี่ก็เพิ่งรู้ว่า เกิดชาตินี้ชาติเดียว เป็นทั้ง เหี้ย เป็นทั้ง ควาย เลย คุ้มแท้ๆ 😆"
2
1
1 (pos)
"898919574413783041"
"โว้ยอีควาย หนักกว่ากูก็มึงอะ"
2
1
1 (pos)
"899584228056281088"
"ขอโทษ นะครับ อยากได้ควายให้ไปคบกับคนอื่นนะ พอดีกูคนไม่ใช่ควาย ☻"
3
0
1 (pos)
"898919452036653056"
"ปลั๊กไฟอยู่พื้น เลยลงมานอนบนพื้น อีควาย ไฟจะดูดกูมั้ย เสียบชาร์จไฟก็แลบออกมา อีเหี้ยยย"
0
3
0 (neg)
"898613029238996992"
""
0
3
0 (neg)
"899583996383776769"
"กูมันโง่เองที่ยังเชื่อคำสัญญาบ้าบอของคนคนนึงอยู่... ...กูนี้มันควายจริงๆ #😏"
0
3
0 (neg)
"898919256288501762"
"ควายมันอยู่บนดินไง มันบินไม่ได้"
0
3
0 (neg)
"898918988884746240"
"เมื่อเช้าก็ควาย ตอนนี้ก็หมา ใครทำไรมึง twitter.com/qxzs91/status/…"
0
3
0 (neg)
"898609140028776452"
"ความคิดต่ำๆอีควาย ไม่ให้เกียรติผู้หญิง สันดาน"
3
0
1 (pos)
"898573084981985280"
"ควายแดงเมิงด่ารัฐบาลจนรองนายกป่วย พวกมึงกำลังทำลายชาติรู้มั้ย มั้ย มั้ย มั้ยยยยยยยยย news.voicetv.co.th/thailand/51672…"
3
0
1 (pos)
"899360681547382784"
"เออ มันปากหมา กูรู้ แต่กูรักไง กูรักไปแล้วเว้ย ทำไงได้ว้ะ ไม่เป็นกูไม่รู้หรอก มุมดีๆมันก็เยอะจนกูลืมไม่ลงเหมือนกันแหละ แม่ง !!"
0
3
0 (neg)
"898565910784376832"
""
0
3
0 (neg)
"898003771048865794"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"901143852626489344"
""
3
0
1 (pos)
"899585021111136257"
"เมือเราถูกเข้าใจผิด...สิ่งที่ยากที่สุดคือพยายามปรับความเข้าใจกับ..ควาย..ด้วยภาษา...คน #ชมรมครูฝึกยิงปืน"
2
1
1 (pos)
"891657958173458433"
"ปฏิวัติมาแทบตาย สุดท้ายได้ควายเป็นนายก #กะลาแลนด์"
3
0
1 (pos)
"896806220169752576"
"คนไทยจะโกรธมากถ้าพูดว่าสีซอให้ควายฟัง ทั้งๆที่ตัวเองไม่รับฟังความเห็นของผู้อื่น ยึดติดในความคิดของตัวเอง ชาติไม่เจริญไม่โทษใคร #คุนต่อยอด"
3
0
1 (pos)
"898924217927843840"
""
2
1
1 (pos)
"898946762999607296"
""
0
3
0 (neg)
"898567012569333760"
"บางทีก็สงสัยนะว่าตัวเองเลี้ยงหมาหรือหมูหรือหมีขาวล่าสุดเลี้ยงแกะอ้วน"
0
3
0 (neg)
"897864013370892288"
"รองเท้าใหม่ก็กัดจริงกัดจัง เป็นหมาหรอสาด"
0
3
0 (neg)
"898566441200373760"
"พวกมอเตอร์ไซค์ที่จอดติดไฟแดงไม่เป็น ต้องวิ่งฝ่าออกไป พวกนี้คุณภาพชีวิตต่ำกว่าหมาอีกนะ มันพร้อมตายได้ทุกเมื่อ ตายแล้วเสือกเดือดร้อนคนอื่นอีก"
3
0
1 (pos)
"898695878071828480"
""
3
0
1 (pos)
"898562628112465921"
""
0
3
0 (neg)
"898561441980006400"
"ก็แค่หมาที่คิดว่าตัวเองเป็นสิงห์"
0
3
0 (neg)
"899769487767068672"
"คนที่เกลียดหมาแมว ลองทำใจแค่วันเดียว หยิบยื่นให้เขาบ้าง fb.me/2KdrpD9UQ"
0
3
0 (neg)
"899372620746903553"
""
0
3
0 (neg)
"898644864023134208"
"สงสัยปากหมาเกินเยียวยา"
2
1
1 (pos)
"896385556057337856"
"อห.หมาหอน แล้วคนข้างบ้านตาย อห.อย่ามาหลอกนะ กูแช่งจริงๆด้วย กูไม่ได้โกหก😡🖕🖕"
0
3
0 (neg)
"900143358814765056"
"เป็นหมาก็ดีนะไม่ต้องโดนดุโดนบ่นโดนว่า ก็ดีอ่ะ"
0
3
0 (neg)
"899726490169819136"
"เหมือนหมาตัวนึงที่รอเจ้าของมาเล่นด้วยเวลาที่เขาว่างอ่ะ"
0
3
0 (neg)
"896412253351628800"
"เลือกเพื่อนนี่ ต้องดูให้ดีแค่ไหนวะ คนไหนจริงใจคนไหนตอแหล"
0
3
0 (neg)
"899572521388736512"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"898929026705707008"
"คือหนูจะเป็นคนตอแหลแบบนี้ไปตลอดชีวิตเลยเหรอ"
3
0
1 (pos)
"898748296415531008"
"เวลาพูดแล้วไม่มีความจริงในนั้นอ่ะรู้สึกอะไรบ้างปะวะ หรือเพราะเป็นตอแหลเลยไม่รู้สึกอะไรเลย"
3
0
1 (pos)
"930446853212008448"
"บางคนออร่าตอแหลแรงมาก มองจากดาวอังคารลงมายังรู้เลยว่าไม่จริิงใจ"
2
1
1 (pos)
"898774807386275840"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"896619572903596032"
"ต้องทักทายด้วยสีหน้าตอแหลยิ้มแย้มแจ่มใส กับสิ่งที่มึงทำกับกูงี้หรอ"
3
0
1 (pos)
"896381479520944129"
"สนุกจังโว้ย เวลาแช่งทีมอื่น"
1
2
0 (neg)
"899265604502274049"
"แอนตี้ดูมีความสุขกับการโดนด่า พอโดนด่าก็แถ พอโดนด่าว่าตอแหลก็รับไม่ได้ เอิ่มจ้าๆ"
2
1
1 (pos)
"898628317317746688"
"เก่งจริงก้มาต่อหน้า ไม่ต้องโพสต์ด่า ลูกหมาหน้าจอ😏 #คำคม #คําคมโดนๆ #คำคมเด็ดๆ #คําคมชีวิต #คําคมเสี่ยว #คําคมแรงๆ #เก่งแต่ปากกากการกระทำ"
3
0
1 (pos)
"897079847758946304"
"แช่งให้พ่อแม่คนอื่นตายถ้าตอแหล แต่ดันโครมเข้าบ้านมึง สงสัยน่าจะได้กระเช้าแบบพวงหรีดเร็วๆนี้"
3
0
1 (pos)
"901118836409221120"
"ก็อย่างว่าแหละ คนพวกเดียวกัน มันก็อยู่ด้วยกันได้ไง ตอแหล ไร้สาระเหมือนกันไง"
1
2
0 (neg)
"898921683242729473"
"TWEET_NOT_FOUND"
2
1
1 (pos)
"899546675483627520"
""
3
0
1 (pos)
"899553920560775170"
"TWEET_NOT_FOUND"
0
3
0 (neg)
"896621743279816706"
"พอเถอะ อย่ามาตอแหลกับกูอีกเลย ไม่ได้อยู่ในฐานะที่ต้องมานั่งโกหกกันแล้วอ่ะ"
3
0
1 (pos)
"898752124183379968"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"901097416786493440"
"TWEET_NOT_FOUND"
2
1
1 (pos)
"898264614424596481"
"ชีวิตเหมือนเกิดมานอนโง่ๆแล้วตายจากไป.."
0
3
0 (neg)
"898331478785839104"
"การเปิดใจกลับกลายเป็นความโง่"
0
3
0 (neg)
"898331514651394051"
"หลายคนวิเคราะห์มีหลักการมาก แต่เราก็ไม่เข้าใจอยู่ดีค่ะ เราโง่"
0
3
0 (neg)
"898330655418757121"
"ไม่อยากไปรร.อ่ะ ปวดหัว ปวดตีนปวดตีนด้วยความโครตโง่"
0
3
0 (neg)
"898327631581462528"
"TWEET_NOT_FOUND"
0
3
0 (neg)
"898327299468124161"
"TWEET_NOT_FOUND"
0
3
0 (neg)
"899454209103339520"
"เหี้ยไม่พอ โง่ซ้ำซาก"
3
0
1 (pos)
"899447887783837696"
"เจ้าภาพมาเลเซียแม่งโง่วะ ยุคโซเชี่ยลแทนที่จะทำดีๆ คนจะได้กลับไปท่องเที่ยวอัก นี่เหี้ยทั้งโรงแรม ทั้งน้ำใจ."
3
0
1 (pos)
"899441728876302336"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"899446485850271745"
"- ยอมให้ ไม่ได้หมายความว่าโง่"
0
3
0 (neg)
"898221045206794240"
"อย่าไปโชว์ความโง่ของตัวเองให้คนอื่นดูเลย"
0
3
0 (neg)
"899442379664408576"
"แล้วอีกอย่างนะ เห็นคนนั้น คนนี้ทำอะไรแล้วได้เงิน พอทำเองบ้างเสือกเจ๊ง แล้วมาว่าคนไม่ดี โง่เองป่าววะ"
1
2
0 (neg)
"877496888202633220"
"มีเวลาก็หัดศึกษาเองบ้างสิคะ อิโง่ คนเค้ารู้เค้าถึงตอบ ไม่รุแล้วมาเหวี่ยงใช่เรื่องป่ะ ทุเรส ออกงานมีเวลาก็หัดดูเอง ไม่ใช่รอให้คนอื่นมาประเคน"
3
0
1 (pos)
"898729155243659264"
"ประชาชนเลว ประชาชนชอบใส่ร้าย ประชาชนโง่ ประชาชนถูกจ้างมา ทหารคนดีมากครับ pic.twitter.com/9FyOibUGLX"
3
0
1 (pos)
"899560787051651072"
"ทำไมมันชอบบ่นว่าตัวเองอ้วน ควรบ่นความตอแหลตัวเองมากกว่า"
2
1
1 (pos)
"898268259719327745"
"ใน ทวต. นี่มันก็ฮาดีนะมันจะมีคนโง่ในโง่อีกที ที่คนฟอลเยอะๆและทำตัวเหมือนรู้ทุกสิ่งอะ แต่เสือกเป็นคนที่โง่มากๆในสายตาของคนที่รู้ความจริง😒"
3
0
1 (pos)
"898224687129313280"
"TWEET_NOT_FOUND"
0
3
0 (neg)
"898590025767567361"
"TWEET_NOT_FOUND"
0
3
0 (neg)
"898315343675834368"
""
0
3
0 (neg)
"896064110357430276"
"อวยพรไปงั้นอ่ะ ในใจกูแช่งให้พวกมึงไปกันไม่รอดอยู่ รู้ไว้ไอ่โง่"
3
0
1 (pos)
"899450937189711872"
""
0
3
0 (neg)
"899258798635745280"
"ไม่มีสัจจะในหมู่คนเลวนะอีหนู!!!"
0
3
0 (neg)
"899257403509661696"
""
3
0
1 (pos)
"898543621082824705"
"ยามบ้านเมืองวิกฤติ ดี เลว ถูก ผิด มองไม่ชัด มีแต่ แข็ง อ่อน สูง ต่ำ รวย จน และผู้พิชิตคือวีรบุรุษ ผู้แพ้คือโจร (โจโฉ)"
0
3
0 (neg)
"899247739153793025"
"TWEET_NOT_FOUND"
1
2
0 (neg)
"899262065440718852"
""
0
3
0 (neg)
"898750686669586432"
"เห็นแฟนเปลี่ยนสีผม นี่เลยไปทำสีบ้าง สีพลาดไปรอบนึงต้องแก้ใหม่😂😂😂 สุดท้ายสีที่ได้ก็ไม่ได้เลวร้ายอะไรนะ แค่ไม่ใช่สีที่เลือกไว้ตอนแรกแค่นั้น😂"
0
3
0 (neg)
"896806568653594624"
""
0
3
0 (neg)
"898735906793730049"
"ความจริงแม่งก็เลวไม่ต่างกันมากหรอก"
3
0
1 (pos)
"898741338908246017"
"ยิ่งโตยิ่งเชื่อในประโยคที่ว่า "โลกแม่งจะสอนให้เราเลวขึ้น""
0
3
0 (neg)
"898226312971640832"
"อย่างน้อยช่วงเวลาที่เลวร้ายที่สุดในชีวิต มันทำให้เราได้เรียนรู้ว่าทุกปัญหามีทางออกเสมอ ไม่ว่าปัญหานั้นจะเล็กหรือใหญ่เพียงใด 🤞🏻🤞🏻"
0
3
0 (neg)
"896796457981714432"
"ไม่มีใครดีที่สุด ไม่มีใครเลวที่สุด ถ้ายังรู้จักกันไม่ถึงที่สุด😌"
0
3
0 (neg)
"896878920313602048"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"898218452371906560"
"ทำดีมาทั้งชีวิต พลาดครั้งเดียวกลายเป็นเลวไม่มีชิ้นดี"
0
3
0 (neg)
"898194911891083264"
"คำพูดนี่มีพลังจริงๆคนที่พูดเอาดีเข้าตัวเอาชั่วให้คนอื่น ทั้งที่ฝ่ายดีก็ชั่วพอกัน แต่แค่ไม่มีคนเล่า คนก็มองว่าฝ่ายชั่วว่าเลวอยู่ฝ่ายเดียวละ"
0
3
0 (neg)
"896181098463469569"
"ผู้ชายคนนึงบนรถเมล์พูดว่าแฟนซื้อของให้บ่อยราคาแพงๆ ไม่ได้ดูน่าอิจฉานะ ดูเหี้ยอะ แมงดา"
3
0
1 (pos)
"896033403115524096"
"ถึงเป็นเหี้ยเป็นยักษ์ยังรักลูก มึงต้องถูกสาบแช่งแรงกว่าเหี้ย จิตใจเลวร้ายไม่ไหวจะเคลียร์ อิหัวใจต่ำเตี้ยกว่าโคลตม #กูยังโกรธ"
3
0
1 (pos)
"848208281436798976"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"899310458707918848"
"TWEET_NOT_FOUND"
2
1
1 (pos)
"896851883842719744"
"อีสิวเลว เหมือนรู้เลยนะว่าจะเปิดเทอมแล้ว แย่งกันขึ้นเชียว! ขอบคุณจ้ะ"
0
3
0 (neg)
"898635958882508800"
"ชอบแมงดาขนาดนี้ เป็นกะหรี่ป่ะจ๊ะ"
3
0
1 (pos)
"899382246322221056"
"สมเป็นหัวหน้าคนชั่ว.👍5555555"
3
0
1 (pos)
"898204946176159744"
"TWEET_NOT_FOUND"
3
0
1 (pos)
"897873506074902528"
"ใครที่ดูถูกว่ารับงาน ว่ากะหรี่ เชิญคุณดูถูกได้ตามสบายค่ะ คนเรามีโอกาสในชีวิตต่างกัน"
0
3
0 (neg)
"898102653074391040"
"งงตัวเองมากอ่ะ คือชอบคนเยอะมาก นี้กูเป็นกะหรี่ หรือยังไง5555 เด็กเกินจะเข้าใจความรักสิน่ะ"
0
3
0 (neg)
End of preview (truncated to 100 rows)

Dataset Card for thai_toxicity_tweet

Dataset Summary

Thai Toxicity Tweet Corpus contains 3,300 tweets (506 tweets with texts missing) annotated by humans with guidelines including a 44-word dictionary. The author obtained 2,027 and 1,273 toxic and non-toxic tweets, respectively; these were labeled by three annotators. The result of corpus analysis indicates that tweets that include toxic words are not always toxic. Further, it is more likely that a tweet is toxic, if it contains toxic words indicating their original meaning. Moreover, disagreements in annotation are primarily because of sarcasm, unclear existing target, and word sense ambiguity.

Notes from data cleaner: The data is included into huggingface/datasets in Dec 2020. By this time, 506 of the tweets are not available publicly anymore. We denote these by TWEET_NOT_FOUND in tweet_text. Processing can be found at this PR.

Supported Tasks and Leaderboards

text classification

Languages

Thai (th)

Dataset Structure

Data Instances

{'is_toxic': 0, 'nontoxic_votes': 3, 'toxic_votes': 0, 'tweet_id': '898576382384418817', 'tweet_text': 'วันๆ นี่คุยกะหมา แมว หมู ไก่ ม้า ควาย มากกว่าคุยกับคนไปละ'}
{'is_toxic': 1, 'nontoxic_votes': 0, 'toxic_votes': 3, 'tweet_id': '898573084981985280', 'tweet_text': 'ควายแดงเมิงด่ารัฐบาลจนรองนายกป่วย พวกมึงกำลังทำลายชาติรู้มั้ย มั้ย มั้ย มั้ยยยยยยยยย news.voicetv.co.th/thailand/51672…'}

Data Fields

"tweet_id": Id of tweet on Twitter "tweet_text": text of the tweet "toxic_votes": how many annotators say it is toxic, out of 3 annotators "nontoxic_votes": how many annotators say it is NOT toxic, out of 3 annotators "is_toxic": 1 if tweet is toxic else 0 (majority rules)

Data Splits

No explicit split is given.

Dataset Creation

Curation Rationale

The dataset is created as part of Sirihattasak et al (2019).

Source Data

Initial Data Collection and Normalization

The authors used the public Twitter Search API to collect 9,819 tweets from January–December 2017 based on our keyword dictionary. Then, they selected 75 tweets for each keyword. In total, they collected 3,300 tweets for annotation. To ensure quality of data, they set the following selection criteria.

  1. All tweets are selected by humans to prevent word ambiguity. (The Twitter API selected the tweets based on characters in the keyword. For example, in the case of “บ้า(crazy),” the API will also select “บ้านนอก” (countryside)” which is not our target.)
  2. The length of the tweet should be sufficiently long to discern the context of the tweet. Hence, they set five words as the minimum limit.
  3. The tweets that contain only extremely toxic words, (for example: “damn, retard, bitch, f*ck, slut!!!”) are not considered.
  4. In addition, they allowed tweets with English words if they were not critical elements in the labeling decision, for example, the word “f*ck.” As a result, our corpus contains English words, but they are less than 2% of the total.

All hashtags, re-tweets, and links were removed from these tweets. However, they did not delete emoticons because these emotional icons can imply the real intent of the post owners. Furthermore, only in the case of annotation, some entries such as the names of famous people were replaced with a tag <ไม่ขอเปิดเผยชื่อ>, for anonymity to prevent individual bias.

Who are the source language producers?

Twitter users in Thailand

Annotations

Annotation process

We manually annotated our dataset with two labels: Toxic and Non-Toxic. We define a message as toxic if it indicates any harmful, damage, or negative intent based on our definition of toxicity. Furthermore, all the tweets were annotated by three annotators to identify toxicity; the conditions used for this identification are presented in the following list.

  • A toxic message is a message that should be deleted or not be allowed in public.
  • A message’s target or consequence must exist. It can either be an individual or a generalized group based on a commonality such as religion or ethnicity, or an entire community.
  • Self-complain is not considered toxic, because it is not harmful to anyone. However, if self-complain is intended to indicate something bad, it will be considered as toxic.
  • Both direct and indirect messages including those with sarcasm are taken into consideration.

We strictly instructed all the annotators about these concepts and asked them to perform a small test to ensure they understood these conditions. The annotation process was divided into two rounds. We asked the candidates to annotate their answers in the first round to learn our annotation standard. Then, we asked them to annotate a different dataset and selected the ones who obtained a full-score for the second round as an annotator. From among these annotators, 20% of the annotators failed the first round and were not involved in the final annotation.

Who are the annotators?

Three annotators hired by Sirihattasak et al (2019)

Personal and Sensitive Information

Despite all tweets being public, due to the nature of toxic tweets, there might be personal attacks and toxic language used.

Considerations for Using the Data

Social Impact of Dataset

  • toxic social media message classification dataset

Discussion of Biases

  • Users are masked before annotation by the annotators to prevent biases based on tweet authors

Other Known Limitations

  • The data is included into huggingface/datasets in Dec 2020. By this time, 506 of the tweets are not available publicly anymore. We denote these by TWEET_NOT_FOUND in tweet_text.

Additional Information

Dataset Curators

Sirihattasak et al (2019)

Licensing Information

CC-BY-NC 3.0

Citation Information

Please cite the following if you make use of the dataset:

@article{sirihattasak2019annotation,
  title={Annotation and Classification of Toxicity for Thai Twitter},
  author={Sirihattasak, Sugan and Komachi, Mamoru and Ishikawa, Hiroshi},
  year={2019}
}

Contributions

Thanks to @cstorm125 for adding this dataset.

Downloads last month
227
Edit dataset card
Evaluate models HF Leaderboard

Models trained or fine-tuned on thai_toxicity_tweet