Edit model card

Aşağılayıcı Söylem Tespit Modelimiz

İlk olarak yorumun OFFENSİVE ya da NOT OFFENSİVE olup olmadığını tespit eder.

Yorum OFFENSİVE olarak algılanmışsa alt kategorilerine göre 'INSULT', 'RACIST', 'SEXIST', 'PROFANITY' olma durumlarına göre etiketleme yapar.

Yorum NOT OFFENSİVE olarak algılanmışsa 'OTHER' olarak etiketler.

end_to_end Model için https://huggingface.co/spaces/TeamGZG/toxic-comment-classificationn/tree/main/end_to_end_model

tr-stop-words için https://huggingface.co/spaces/TeamGZG/toxic-comment-classificationn/blob/main/tr-stop-words.txt

Eğitim Verileri için https://huggingface.co/spaces/TeamGZG/toxic-comment-classificationn/blob/main/teknofest_train_final%20(1).csv

Test Edilebilir Space Alanı https://huggingface.co/spaces/TeamGZG/toxic-comment-classificationn

Downloads last month
0
Inference Examples
Inference API (serverless) does not yet support keras models for this pipeline type.