metadata
task_categories:
- text-classification
AutoTrain Dataset for project: severe-js100-sentiment
Dataset Description
This dataset has been automatically processed by AutoTrain for project severe-js100-sentiment.
Languages
The BCP-47 code for the dataset's language is unk.
Dataset Structure
Data Instances
A sample from this dataset looks as follows:
[
{
"text": "00:58 #\u0e2d\u0e38\u0e1a\u0e31\u0e15\u0e34\u0e40\u0e2b\u0e15\u0e38 #\u0e16\u0e19\u0e19\u0e1a\u0e32\u0e07\u0e1a\u0e2d\u0e193 \u0e0a\u0e48\u0e27\u0e07\u0e42\u0e23\u0e07\u0e40\u0e23\u0e35\u0e22\u0e19\u0e2a\u0e32\u0e23\u0e2a\u0e32\u0e2a\u0e19\u0e4c\u0e27\u0e34\u0e40\u0e17\u0e28\u0e1a\u0e32\u0e07\u0e1a\u0e2d\u0e19 >\u0e42\u0e23\u0e07\u0e40\u0e23\u0e35\u0e22\u0e19\u0e01\u0e23\u0e1e\u0e34\u0e17\u0e31\u0e01\u0e29\u0e4c\u0e28\u0e36\u0e01\u0e29\u0e32 \u0e1b\u0e32\u0e01\u0e0b\u0e2d\u0e22\u0e1a\u0e32\u0e07\u0e1a\u0e2d\u0e193\u0e0b\u0e2d\u0e225 \u0e23\u0e16\u0e08\u0e31\u0e01\u0e23\u0e22\u0e32\u0e19\u0e22\u0e19\u0e15\u0e4c\u0e40\u0e2a\u0e35\u0e22\u0e2b\u0e25\u0e31\u0e01\u0e25\u0e49\u0e21 \u0e02\u0e27\u0e32\u0e07\u0e0a\u0e48\u0e2d\u0e07\u0e17\u0e32\u0e07\u0e0b\u0e49\u0e32\u0e22",
"target": 2
},
{
"text": "03:22 #\u0e2d\u0e38\u0e1a\u0e31\u0e15\u0e34\u0e40\u0e2b\u0e15\u0e38 #\u0e16\u0e19\u0e19\u0e01\u0e32\u0e0d\u0e08\u0e19\u0e32\u0e20\u0e34\u0e40\u0e29\u0e01 \u0e0a\u0e48\u0e27\u0e07\u0e2a\u0e30\u0e1e\u0e32\u0e19\u0e02\u0e49\u0e32\u0e21\u0e04\u0e25\u0e2d\u0e07\u0e20\u0e32\u0e29\u0e35\u0e40\u0e08\u0e23\u0e34\u0e0d >\u0e41\u0e22\u0e01\u0e1a\u0e32\u0e07\u0e41\u0e27\u0e01 \u0e1a\u0e19\u0e15\u0e48\u0e32\u0e07\u0e23\u0e30\u0e14\u0e31\u0e1a\u0e40\u0e1e\u0e0a\u0e23\u0e40\u0e01\u0e29\u0e21 \u0e23\u0e16\u0e1b\u0e34\u0e04\u0e2d\u0e31\u0e1e\u0e40\u0e2a\u0e35\u0e22\u0e2b\u0e25\u0e31\u0e01\u0e0a\u0e19\u0e02\u0e2d\u0e1a\u0e17\u0e32\u0e07 \u0e02\u0e27\u0e32\u0e07\u0e0a\u0e48\u0e2d\u0e07\u0e17\u0e32\u0e07\u0e0b\u0e49\u0e32\u0e22",
"target": 2
}
]
Dataset Fields
The dataset has the following fields (also called "features"):
{
"text": "Value(dtype='string', id=None)",
"target": "ClassLabel(names=['\u0e23\u0e38\u0e19\u0e41\u0e23\u0e07', '\u0e23\u0e38\u0e19\u0e41\u0e23\u0e07\u0e21\u0e32\u0e01', '\u0e44\u0e21\u0e48\u0e23\u0e38\u0e19\u0e41\u0e23\u0e07'], id=None)"
}
Dataset Splits
This dataset is split into a train and validation split. The split sizes are as follow:
Split name | Num samples |
---|---|
train | 5348 |
valid | 1339 |