Push model using huggingface_hub.
Browse files- 1_Pooling/config.json +10 -0
- README.md +328 -3
- config.json +25 -0
- config_sentence_transformers.json +10 -0
- config_setfit.json +8 -0
- model.safetensors +3 -0
- model_head.pkl +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +37 -0
- tokenizer.json +0 -0
- tokenizer_config.json +93 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
CHANGED
@@ -1,3 +1,328 @@
|
|
1 |
-
---
|
2 |
-
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- setfit
|
4 |
+
- sentence-transformers
|
5 |
+
- text-classification
|
6 |
+
- generated_from_setfit_trainer
|
7 |
+
widget:
|
8 |
+
- text: من طالب بي في الظباء العين والثأر بين سوالف وعيون وسموا بنعمان الأسنة والقنا
|
9 |
+
لشقاي باسم كواعب وغصون واهتز كل مرنح في رأسه لحظ تسيل عليه نفس طعين ضمن الفتور
|
10 |
+
لضعفه فوفت له أحشاء كل ممسد ممنون بعنا صلاح قلوبنا بفسادها يوم النقا برضا من المغبون
|
11 |
+
وعلى الحمول أهلة شفافة عن جوهر من حسنها المكنون شقوا الظلام بكل أبلج واضح يزع
|
12 |
+
الظلام بعارض وجبين حر الأديم يعيد لون بياضه صبغ الدموع كثيرة التلوين جعلوا صدور
|
13 |
+
العيس قبلة لعلع وحنينهن لدى الأراك حنيني وتحرفوا ذات اليمين بحاجر فصفقت يأسا بالشمال
|
14 |
+
يميني واستخلفوني والجوى بي شاخص حيران أسأل منه غير مبين يبلى بلاي ولو إليه لسانه
|
15 |
+
لشكا اشتكاي وأن مثل أنيني عبقت به أرواحهم فكأنه بالأمس فورق والفراق لحين فوقفت
|
16 |
+
أستسقي لموقد غلتي فيه وأستشفي بما يدويني ومسفه حلمي أن استسعدته في الدار وهو بنهيه
|
17 |
+
يغريني خفض فمالك إن أطعتك حازما عقلي الغداة ولا عليك جنوني هل مبلغ بالروضتين سلامنا
|
18 |
+
ظبيا على ما بيننا من بين ومع التحية أن سر هواكم في الصدر خلف ممنع مخزون لم تدر
|
19 |
+
من ستري له كبدي بمن ذابت ولا لمن البكاء جفوني أفذكرة ترضي الوفاء على النوى إذ
|
20 |
+
لا رجاء لنظرة ترضيني أم حبل كل مودة في راحة نكاثة بالغدر كل قرين كم أستغر فأستجير
|
21 |
+
بآكل لحمي فأعرق وهو غير سمين ويقودني قود الجنيب مدامج بريائه عن دائي المكنون ولقد
|
22 |
+
تحدث لو فطنت بقلبه ال معلول لي في لفظه المشفون اشدد على النكباء كفك كلما قلت اعتلقت
|
23 |
+
بصاحب مأمون وتمش من أخويك يوم أمانة ما بين ذئب غضا وليث عرين والناس عندك راتع
|
24 |
+
فيما ادعى غصبا ودافع حقك المضمون ذم الحفاظ فذو الصرامة عندهم معطي الخلاب ومانع
|
25 |
+
الماعون وسرى النفاق كأنه سلسالة في الماء أو صلصالة في الطين أفأنت في سوء الظنون
|
26 |
+
تلومني عني فما عدت اليقين ظنوني كلني إلى الرزق العزيز قليله والذل تحت كثيره الممنون
|
27 |
+
فإذا الذي فوقي بفضلة ماله لغناي عنه كأنه من دوني حسبي وجدت من الكرام نشيدتي متورعا
|
28 |
+
وأصبت ما يكفيني نسخت شريعة كل فضل فانطوت فأعاد دين المجد مجد الدين وأرادني لنزاهتي
|
29 |
+
وأردته صبا من العلياء ما يصبيني يقظان أبصر والعيون عشية فضلي فأبصر نقص ما يعدوني
|
30 |
+
وأرته أولى نظرة من رأيه بالظن كيف حقيقتي ويقيني واقتادني بخزامة من خلقه ملكت خشونة
|
31 |
+
مقودي باللين وعلقت منه فطار بي متحلقا بقوي قادمة الجناح أمين برا وإكراما كما يحنو
|
32 |
+
أبي وكما احتبت ربعية تحبوني أعطى وقد نسي العطاء وبيضت كفاه في ظلم الخطوب الجون
|
33 |
+
فطن الزكي لغرسها فزكت له فليهنه ظلي وما يجنيني يا ابن الوصي أخي النبي عنت لي ال
|
34 |
+
دنيا وصار الحظ ملك يميني وغنيت حتى خفت سورات الغنى وخشيت جهل المال أن يطغيني في
|
35 |
+
كل يوم نعمة تعلي يدي وعطية عن أختها تلهيني وغريبة مرباعها ونشيطها من ماله ووداده
|
36 |
+
يصفيني بأبي علي يوم تستبق العلا مضر تفوز بخصلها المرهون لقضت قريش نذرها فخرا به
|
37 |
+
وتحللت من حنث كل يمين فضل القبيل فقال غير مراجع قول المطاع وكان غير مدين ووفى
|
38 |
+
بشرط سيوفها وضيوفها في مجدها المفروض والمسنون أو لم يروا بالأمس آية موقف لك بين
|
39 |
+
كف منى وسيف منون لم يعد في كوفان خصمك أن رأى فيه مقام أبيك في صفين أنتم ولاة الدين
|
40 |
+
والدنيا لكم سلطانها في واضح التبيين وإليكم رجع الحساب ومنكم قارى الغريب ومطعم
|
41 |
+
المسكين وإذا تكلم ذو الفخار مقصرا طاولتم بمكلم التنين وأبوكم المفضي إليه جدكم
|
42 |
+
ما كان من موسى إلى هارون يرقى بفضلكم ويهبط سادة ال أملاك في طه وفي ياسين محيت
|
43 |
+
خطيئة آدم بذريعة منكم وجاه في الدعاء معين ونجا بكم في فلكه المشحون نوح وفرج همه
|
44 |
+
ذو النون فلذاك من يعلق بكم وبحبكم يعلق بممتنع السنام حصين ولذاك قد صدقت إليك عيافتي
|
45 |
+
يوم استخارة طيرها الميمون وكما حمدتك موليا ما سرني فلتحمدني في الذي توليني ولتأتينك
|
46 |
+
بالثناء خوابط في الأرض تخبط أظهرا ببطون لا تستريح إلى السهول إذا رأت عز السرى
|
47 |
+
في غلظة وحزون يبعثن للأعراض كل كريمة بذلت وما بذلت لغير مصون ينظمن أبكار المعاني
|
48 |
+
شردا بيد الفصاحة في القوافي العون لو أن مهديها يوفى حقها أهدى بها فقرا إلى قارون
|
49 |
+
يبقى الذي أعطتك منها ما ذكت شمس ويفنى كل ما تعطيني تحف الكريم وللحديث شجونه من
|
50 |
+
بعد فاسمع فيك بعض شجوني حتام تنبذ بالعراء مواعدي وتموت عندك بالمطال ديوني وبأي
|
51 |
+
عدل أم بأي قضية أنت الملي وأنت لا تقضيني مخطوبة تدنو الوعود بدارها فأقول جاءت
|
52 |
+
أو غدا تأتيني حتى إذا علق الرجاء بها رمت عن قوس نازحة المزار شطون فجميل قولك عاشق
|
53 |
+
يشتاقني فيها وفعلك تائه يجفوني والناس مسلاة فليتك موسعا طمعي أمرت الناس أن تسليني
|
54 |
+
فصل الشتاء وعريت أيامه بمواعد ينظرن أن تكسوني وأرى شهور الصيف تأخذ إخذها فيما
|
55 |
+
تسوفني وما تلويني إن أعيذك أن يضيع ثقيلها وخفيفها في جودك المضمون أو أن أرى الفصلين
|
56 |
+
منك تظلما فشكا حزيران إلى كانون
|
57 |
+
- text: ما على الغادرين نسكب دمعا إن فجعنا بصدهم والفراق غرهم صبرنا عليهم فظنوا أن
|
58 |
+
هجرانهم مرير المذاق لا تعودوا ولا تمنوا علينا بالذي تمنون يوم التلاقي سوف نصحو
|
59 |
+
وكل نشوة حب سوف تودى بها الليالي البواقي
|
60 |
+
- text: فيك عذولي عذرا ولائمي قد أقصرا طيفك ما ودعني لما سرى بل أسرا كم لوعة أسعر
|
61 |
+
بي ن أضلعي وأسأرا وحسرة حاسرة في كبدي إذ حسرا وكم صباح مسفر من ثغره إذ سفرا وأسمر
|
62 |
+
اللون متى ما اهتز هز أسمرا أودع في لثامه برقا وأذكى قمرا واها له من أسمر أمسيت
|
63 |
+
فيه سمرا رجوت أن يخفرني من هجره فأخفرا حفظته أحفظني دنوت منه نفرا يا غصنا نقطف
|
64 |
+
من ه باللحاظ الثمرا يا بدويا يعتزي إلى عبيد بن مرا إرع ذمامي واتئب ما حسن أن تغدرا
|
65 |
+
إن الأعاريب الألى طابوا نثا وعنصرا واستوطنوا من العلا ء والعلى أعلى الذرا يرون
|
66 |
+
إخفار الذما م في الأنام منكرا وذاك ذنب عندهم لفضلهم لن يغفرا أبى لهم آباؤهم ضيما
|
67 |
+
فسادوا البشرا كم عسكروا لذبهم عن الذمام عسكرا وكم حموا حقيقة ولم يولوا القهقرا
|
68 |
+
وكم حسام أبيض ردوا شباه أحمرا وأسمر دقوه في كلى العدا منكسرا يدعون في الحرب نزا
|
69 |
+
ل بالقنا منأطرا أخبارهم مجملا ت في الطروس السيرا هم زحزحوا عن ملكه كسرى وأردوا
|
70 |
+
قيصرا يا حار إن جئت ضحى ذاك الكثيب الأحمرا وعاينت عيناك حو ذان الحمى والعبهرا
|
71 |
+
والشيح والقيصوم وال عرار غضا مزهرا فناد في وادي القرى هل يا عريب من قرى سوف ترى
|
72 |
+
من أسد دون الكثيب معشرا كل امرئ منصله منصلت ليعقرا وللعشار ضجة مخافة أن تنحرا
|
73 |
+
والشاء مبذعرة مزؤودة أن تعترا تلق رغاء وثغا ء ودما مثعنجرا والنار في يفاعها قد
|
74 |
+
أججت لتبصرا فقل لهم ما طلبنا يا أمراء ذا القرا خير القرى أن تزعوا أحسنكم أن يهجرا
|
75 |
+
أجفانه تدهش عن جفانكم من حضرا أسداف صدغيه حمت سديفكم أن يمترى وثغره يمنع ثغ ر
|
76 |
+
زادكم أن ��ثغرا من لكئيب قد جفا أجفانه طيب الكرى حيران ما نال من ال لذي يحب الوطرا
|
77 |
+
يلصق بالصعيد قل با صاديا منكسرا يستاف ترب حاجر عل يوافي أثرا يقتاده الهوى كما
|
78 |
+
تقاد عنس بالبرا يا سعد عد عن هوى فيه ارتكبت الخطرا وادفع براح الجد في صدرالمزاح
|
79 |
+
منكرا وحك قريضا مونقا مفوفا محبرا أندى من النسيم مط لول الحواشي سحرا أبهج من نبت
|
80 |
+
ريا ض الحزن حين نورا أذكى من المسك إذا فاح شذا وأعطرا أحسن من وعد بوص ل من حبيب
|
81 |
+
هجرا فاخلع على القاضي صفي ي الدين منه حبرا على الذي زمانه أضحى به مفتخرا كم عالم
|
82 |
+
في حفله ألقم فاه حجرا وشاعر أشعره بأنه ما شعرا قيل له أطرق كرى إن النعام في القرى
|
83 |
+
ومنشئ غادره ألكن يبدي الحصرا وهل يقاس جندب صر بباز صرصرا وليس مسك أدفر يصير مسكا
|
84 |
+
أذفرا والثعلب الرواغ لا يروع ليثا قسورا لا حبذا الدهر الذي يصغر المكبرا ويجعل
|
85 |
+
النجم الثري يا خاضعا تحت الثرى يسمعنا جعجعة من غير ما طحن يرى يا شعراء العصر لا
|
86 |
+
تأسوا لدهر غبرا دونكم نزاهة عن المقام المزدرى أموا جناب الصاحب ال قاضي توافوا
|
87 |
+
وزرا إن ابن شكر مستحق سعيه أن يشكرا بوجهه بشر يرى ال عافي به مستبشرا يبدي تواضعا
|
88 |
+
إذا ما غيره تكبرا خاطره نار ويم ناه تفيض أبحرا لو لم تكن حر ذكا ء صدره مستترا
|
89 |
+
لاحترقت ذكاء إذ يلقي إليها الشررا بحر ندى نحر عدى غيث جدا ليث شرى أثبت من رضوى
|
90 |
+
وثه لان وقدس وحرا فكل مدح غير مد حه حديث يفترى وبالمقادير على كل عدو نصرا يقذف
|
91 |
+
بحر صدره من لفظ فيه الدررا قد ألبس الملك به أنفس تاج جوهرا به غدا متوجا مختما
|
92 |
+
مسورا وهو الذي سما على كل وزير وزرا ووعده بسرعة ال إنجاز يأتي مثمرا عليه أضحى
|
93 |
+
الملك ال عادل يثني الخنصرا في نصحه له وصد ق وده لا يمترى عبد الإله يا أبا محمد
|
94 |
+
سدت الورى يا ابن علي من أبي بكر رأينا عمرا برأيه لما يزل مؤيدا مظفرا لا برحا في
|
95 |
+
النصر ما واصل طرف نظرا
|
96 |
+
- text: أوجع القلب قولها حين راحوا لي تقدم إلى المبيت هديتا هل يضرنك المسير لئن سر
|
97 |
+
ت قريبا وإن بلغت المبيتا قلت إني أخشى عليك عيونا من عداة وذا شذاة مقيتا ثم قالت
|
98 |
+
قد كنت آذنت أهلي قبل هذا على الذي قد هويتا ما سليمنا إليك منذ اصطحبنا في الذي
|
99 |
+
تشتهي وما إن عصيتا
|
100 |
+
- text: نبت الأفاح بأرض مر جان بحوض الكوثر أم قبلت زهر الريا ض شقائق ابن المنذر أم
|
101 |
+
رابطت ثغر العقي ق عساكر من جوهر
|
102 |
+
metrics:
|
103 |
+
- accuracy
|
104 |
+
pipeline_tag: text-classification
|
105 |
+
library_name: setfit
|
106 |
+
inference: true
|
107 |
+
base_model: akhooli/sbert_ar_nli_500k_norm
|
108 |
+
model-index:
|
109 |
+
- name: SetFit with akhooli/sbert_ar_nli_500k_norm
|
110 |
+
results:
|
111 |
+
- task:
|
112 |
+
type: text-classification
|
113 |
+
name: Text Classification
|
114 |
+
dataset:
|
115 |
+
name: Unknown
|
116 |
+
type: unknown
|
117 |
+
split: test
|
118 |
+
metrics:
|
119 |
+
- type: accuracy
|
120 |
+
value: 0.7168900804289544
|
121 |
+
name: Accuracy
|
122 |
+
---
|
123 |
+
|
124 |
+
# SetFit with akhooli/sbert_ar_nli_500k_norm
|
125 |
+
|
126 |
+
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [akhooli/sbert_ar_nli_500k_norm](https://huggingface.co/akhooli/sbert_ar_nli_500k_norm) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
|
127 |
+
|
128 |
+
The model has been trained using an efficient few-shot learning technique that involves:
|
129 |
+
|
130 |
+
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
|
131 |
+
2. Training a classification head with features from the fine-tuned Sentence Transformer.
|
132 |
+
|
133 |
+
## Model Details
|
134 |
+
|
135 |
+
### Model Description
|
136 |
+
- **Model Type:** SetFit
|
137 |
+
- **Sentence Transformer body:** [akhooli/sbert_ar_nli_500k_norm](https://huggingface.co/akhooli/sbert_ar_nli_500k_norm)
|
138 |
+
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
|
139 |
+
- **Maximum Sequence Length:** 512 tokens
|
140 |
+
- **Number of Classes:** 3 classes
|
141 |
+
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
|
142 |
+
<!-- - **Language:** Unknown -->
|
143 |
+
<!-- - **License:** Unknown -->
|
144 |
+
|
145 |
+
### Model Sources
|
146 |
+
|
147 |
+
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
|
148 |
+
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
|
149 |
+
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
|
150 |
+
|
151 |
+
### Model Labels
|
152 |
+
| Label | Examples |
|
153 |
+
|:------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
154 |
+
| sad | <ul><li>'قل لهارون إن حلل ت به قول ذي مقه أطبق الموت والنفو س على اللهو مطبقه كيف يلهو من ليس من عشر يوم على ثقه'</li><li>'كثر الإحسان أعدا ي فصبرا واحتسابا ما يعاديني إلا كل من عادى الصوابا زعموا أن افتناني صار لي نقصا وعابا زادني الله من الحك مة حظا واكتسابا'</li><li>'قدما علوت على الزمان تجملا واليوم حطتني ركائب همتي لما فقدت بها الكريم سجية من كان عن حد الكمال برتبة ذو فطنة وبراعة متعرض لبلاغة قد حل أضيق حفرة'</li></ul> |
|
155 |
+
| love | <ul><li>'وليت قضاء ولم تعدل سفاها وقلت فلم تفعل هجرت فأشمت بي الحاسدي ن وأشفقت من عذل العدل لئن لم أباكر غدا قهوة تصفق بالبارد السلسل مداما إذا جار بي حكمها ركبت على السنن الأعدل إذا ما انتشى الحر من كأسها دعته إلى الخلق الأفضل ترى آخر القوم قد ألحقت ه أيدي نداماه بالأول يراح إلى الخير معتادها فيعطي الجزيل ولم يسأل أديرا المدام ولا بد لي من السكر منها ولا عذر لي وقد آذنونا بوقت الرحيل فإن كنت تهوينني فارحلي'</li><li>'وتنكرت شيبي فقلت لها ليس المشيب بناقص عمري سيان شيبي والشباب إذا ما كنت من أجلي على قدر ما شبت من كبر ولكني امرؤ قارعت حد نواجذ الدهر'</li><li>'بداية وجدي في هواكم نهاية لأهل الوفا والصدق في حبكم بعدي وباطن ما عند المحبين فيكم من الحسن والإحسان ظاهر ما عندي وأغلى مقال قاله الناس فيكم وأخفوه خوف الناس أرخص ما أبدي'</li></ul> |
|
156 |
+
| joy | <ul><li>'اسمع جعلنا فداكا ولا عدمنا بقاكا إن الذي أنت صب بحبه قد أذاكا فأنت تحنو عليه وما يرى لك ذاكا وقد نهيناك عنه فلم تطع من نهاكا وما هوانا لعمري يا عمرو إلا هواكا فانظر لنفسك واحذر منه عليها الهلاكا وارفض لمن صار يغشى قوما ولا يخشاكا فليس نرضى بما لا يكون فيه رضاكا صاحب سواه ودعه مصاحبا لسواكا فنحن في كل يوم نرى مناك مناكا'</li><li>'من فتى أعطاه موليه المنى وكفاه ما عناه فدنا أنت أولى الخلق أن توسعه يا صلاح الدين حمدا وثنا كل يوم لك من رب السما منن لم تحص تتلو مننا يعظم الخطب ويطفي فإذا قيل يا أحمد أضحى هينا إنه التوفيق قد أعطيته أينما وجهت أدركت منا لا تخف فالله مولاك ومن يك لله وليا أمنا قمت في الله لكي تصلح من أفسد في الأرض قياما حسنا بعت لهو العيش بالجد ومن لم يبع لهوا يجد غبنا'</li><li>'شكا ما شكوت الرمح والنصل والسهم سلاحك مجموعا يؤلفه نظم أخوك الذي تحنو عليك ضلوعه وما عنده مما علمت له علم سوى أن أحسست ما بنفسك نفسه ودونكما البيداء والأجبل الشم ألا هكذا فيسعد الصنو صنوه فذا سيد ندب وذا سيد قرم ولم يشك ذا حتى شكا ذاك قبله وعاود ذا مما تطرق ذا سقم ألا انظر إلى الأشياء كيف تنازعت وكيف يدق الفهم عنهن والوهم وما افترقا حتى يقال تشابها بل امتزج التركيب والدم واللحم وما هو إلا شقة منك إن شكا شكوت على هذا جرى القدر الحتم ولا عجب من كون ذا واتفاقه فروحاكما روح وجسماكما جسم إذا شدت مجدا شاده وأتمه ومثلك بان ليس يخلفه هدم ألا بكم يسمو إلى العلو من سما وأنتم نظام الملك ما طلع النجم بكم يتأسى في العلا وإليكم يشار وعنكم يؤخذ العزم والحزم فلا برقت أيدي الحوادث بينكم ولا جاز للدنيا على حكمكم حكم'</li></ul> |
|
157 |
+
|
158 |
+
## Evaluation
|
159 |
+
|
160 |
+
### Metrics
|
161 |
+
| Label | Accuracy |
|
162 |
+
|:--------|:---------|
|
163 |
+
| **all** | 0.7169 |
|
164 |
+
|
165 |
+
## Uses
|
166 |
+
|
167 |
+
### Direct Use for Inference
|
168 |
+
|
169 |
+
First install the SetFit library:
|
170 |
+
|
171 |
+
```bash
|
172 |
+
pip install setfit
|
173 |
+
```
|
174 |
+
|
175 |
+
Then you can load this model and run inference.
|
176 |
+
|
177 |
+
```python
|
178 |
+
from setfit import SetFitModel
|
179 |
+
|
180 |
+
# Download from the 🤗 Hub
|
181 |
+
model = SetFitModel.from_pretrained("akhooli/setfit_ps")
|
182 |
+
# Run inference
|
183 |
+
preds = model("نبت الأفاح بأرض مر جان بحوض الكوثر أم قبلت زهر الريا ض شقائق ابن المنذر أم رابطت ثغر العقي ق عساكر من جوهر")
|
184 |
+
```
|
185 |
+
|
186 |
+
<!--
|
187 |
+
### Downstream Use
|
188 |
+
|
189 |
+
*List how someone could finetune this model on their own dataset.*
|
190 |
+
-->
|
191 |
+
|
192 |
+
<!--
|
193 |
+
### Out-of-Scope Use
|
194 |
+
|
195 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
196 |
+
-->
|
197 |
+
|
198 |
+
<!--
|
199 |
+
## Bias, Risks and Limitations
|
200 |
+
|
201 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
202 |
+
-->
|
203 |
+
|
204 |
+
<!--
|
205 |
+
### Recommendations
|
206 |
+
|
207 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
208 |
+
-->
|
209 |
+
|
210 |
+
## Training Details
|
211 |
+
|
212 |
+
### Training Set Metrics
|
213 |
+
| Training set | Min | Median | Max |
|
214 |
+
|:-------------|:----|:---------|:-----|
|
215 |
+
| Word count | 11 | 165.4148 | 1000 |
|
216 |
+
|
217 |
+
| Label | Training Sample Count |
|
218 |
+
|:------|:----------------------|
|
219 |
+
| sad | 3199 |
|
220 |
+
| love | 2716 |
|
221 |
+
| joy | 1544 |
|
222 |
+
|
223 |
+
### Training Hyperparameters
|
224 |
+
- batch_size: (16, 16)
|
225 |
+
- num_epochs: (1, 1)
|
226 |
+
- max_steps: 4000
|
227 |
+
- sampling_strategy: undersampling
|
228 |
+
- body_learning_rate: (2e-05, 1e-05)
|
229 |
+
- head_learning_rate: 0.01
|
230 |
+
- loss: CosineSimilarityLoss
|
231 |
+
- distance_metric: cosine_distance
|
232 |
+
- margin: 0.25
|
233 |
+
- end_to_end: False
|
234 |
+
- use_amp: False
|
235 |
+
- warmup_proportion: 0.1
|
236 |
+
- l2_weight: 0.01
|
237 |
+
- seed: 42
|
238 |
+
- run_name: setfit_psent_55k_aub_4k
|
239 |
+
- eval_max_steps: -1
|
240 |
+
- load_best_model_at_end: False
|
241 |
+
|
242 |
+
### Training Results
|
243 |
+
| Epoch | Step | Training Loss | Validation Loss |
|
244 |
+
|:------:|:----:|:-------------:|:---------------:|
|
245 |
+
| 0.0005 | 1 | 0.2552 | - |
|
246 |
+
| 0.05 | 100 | 0.2529 | - |
|
247 |
+
| 0.1 | 200 | 0.2362 | - |
|
248 |
+
| 0.15 | 300 | 0.2135 | - |
|
249 |
+
| 0.2 | 400 | 0.1908 | - |
|
250 |
+
| 0.25 | 500 | 0.1909 | - |
|
251 |
+
| 0.3 | 600 | 0.1823 | - |
|
252 |
+
| 0.35 | 700 | 0.1656 | - |
|
253 |
+
| 0.4 | 800 | 0.1518 | - |
|
254 |
+
| 0.45 | 900 | 0.1448 | - |
|
255 |
+
| 0.5 | 1000 | 0.1332 | - |
|
256 |
+
| 0.55 | 1100 | 0.1137 | - |
|
257 |
+
| 0.6 | 1200 | 0.1061 | - |
|
258 |
+
| 0.65 | 1300 | 0.0976 | - |
|
259 |
+
| 0.7 | 1400 | 0.0838 | - |
|
260 |
+
| 0.75 | 1500 | 0.0813 | - |
|
261 |
+
| 0.8 | 1600 | 0.0831 | - |
|
262 |
+
| 0.85 | 1700 | 0.0658 | - |
|
263 |
+
| 0.9 | 1800 | 0.0646 | - |
|
264 |
+
| 0.95 | 1900 | 0.0618 | - |
|
265 |
+
| 1.0 | 2000 | 0.0511 | - |
|
266 |
+
| 1.05 | 2100 | 0.0472 | - |
|
267 |
+
| 1.1 | 2200 | 0.0418 | - |
|
268 |
+
| 1.15 | 2300 | 0.0398 | - |
|
269 |
+
| 1.2 | 2400 | 0.0392 | - |
|
270 |
+
| 1.25 | 2500 | 0.0356 | - |
|
271 |
+
| 1.3 | 2600 | 0.0278 | - |
|
272 |
+
| 1.35 | 2700 | 0.0336 | - |
|
273 |
+
| 1.4 | 2800 | 0.0278 | - |
|
274 |
+
| 1.45 | 2900 | 0.0266 | - |
|
275 |
+
| 1.5 | 3000 | 0.0344 | - |
|
276 |
+
| 1.55 | 3100 | 0.0228 | - |
|
277 |
+
| 1.6 | 3200 | 0.0284 | - |
|
278 |
+
| 1.65 | 3300 | 0.0246 | - |
|
279 |
+
| 1.7 | 3400 | 0.022 | - |
|
280 |
+
| 1.75 | 3500 | 0.0256 | - |
|
281 |
+
| 1.8 | 3600 | 0.0217 | - |
|
282 |
+
| 1.85 | 3700 | 0.0197 | - |
|
283 |
+
| 1.9 | 3800 | 0.0185 | - |
|
284 |
+
| 1.95 | 3900 | 0.0198 | - |
|
285 |
+
| 2.0 | 4000 | 0.0193 | - |
|
286 |
+
|
287 |
+
### Framework Versions
|
288 |
+
- Python: 3.10.14
|
289 |
+
- SetFit: 1.2.0.dev0
|
290 |
+
- Sentence Transformers: 3.3.1
|
291 |
+
- Transformers: 4.42.2
|
292 |
+
- PyTorch: 2.4.0
|
293 |
+
- Datasets: 3.1.0
|
294 |
+
- Tokenizers: 0.19.1
|
295 |
+
|
296 |
+
## Citation
|
297 |
+
|
298 |
+
### BibTeX
|
299 |
+
```bibtex
|
300 |
+
@article{https://doi.org/10.48550/arxiv.2209.11055,
|
301 |
+
doi = {10.48550/ARXIV.2209.11055},
|
302 |
+
url = {https://arxiv.org/abs/2209.11055},
|
303 |
+
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
|
304 |
+
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
|
305 |
+
title = {Efficient Few-Shot Learning Without Prompts},
|
306 |
+
publisher = {arXiv},
|
307 |
+
year = {2022},
|
308 |
+
copyright = {Creative Commons Attribution 4.0 International}
|
309 |
+
}
|
310 |
+
```
|
311 |
+
|
312 |
+
<!--
|
313 |
+
## Glossary
|
314 |
+
|
315 |
+
*Clearly define terms in order to be accessible across audiences.*
|
316 |
+
-->
|
317 |
+
|
318 |
+
<!--
|
319 |
+
## Model Card Authors
|
320 |
+
|
321 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
322 |
+
-->
|
323 |
+
|
324 |
+
<!--
|
325 |
+
## Model Card Contact
|
326 |
+
|
327 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
328 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,25 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "akhooli/sbert_ar_nli_500k_norm",
|
3 |
+
"architectures": [
|
4 |
+
"BertModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"hidden_act": "gelu",
|
9 |
+
"hidden_dropout_prob": 0.1,
|
10 |
+
"hidden_size": 768,
|
11 |
+
"initializer_range": 0.02,
|
12 |
+
"intermediate_size": 3072,
|
13 |
+
"layer_norm_eps": 1e-12,
|
14 |
+
"max_position_embeddings": 512,
|
15 |
+
"model_type": "bert",
|
16 |
+
"num_attention_heads": 12,
|
17 |
+
"num_hidden_layers": 12,
|
18 |
+
"pad_token_id": 0,
|
19 |
+
"position_embedding_type": "absolute",
|
20 |
+
"torch_dtype": "float32",
|
21 |
+
"transformers_version": "4.42.2",
|
22 |
+
"type_vocab_size": 2,
|
23 |
+
"use_cache": true,
|
24 |
+
"vocab_size": 64000
|
25 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.3.1",
|
4 |
+
"transformers": "4.42.2",
|
5 |
+
"pytorch": "2.4.0"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
config_setfit.json
ADDED
@@ -0,0 +1,8 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"normalize_embeddings": false,
|
3 |
+
"labels": [
|
4 |
+
"sad",
|
5 |
+
"love",
|
6 |
+
"joy"
|
7 |
+
]
|
8 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:1e2eb2c64fbea97ffbfc2f11b5673b86df895c06633382697b23de4cf423b4b0
|
3 |
+
size 540795752
|
model_head.pkl
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:fedd3157e177450b8831ed957b11b70a37a281c1b5a6de2cec9da64c6a0ef700
|
3 |
+
size 19327
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,37 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"cls_token": {
|
3 |
+
"content": "[CLS]",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"mask_token": {
|
10 |
+
"content": "[MASK]",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"pad_token": {
|
17 |
+
"content": "[PAD]",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"sep_token": {
|
24 |
+
"content": "[SEP]",
|
25 |
+
"lstrip": false,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"unk_token": {
|
31 |
+
"content": "[UNK]",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
}
|
37 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,93 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "[PAD]",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "[UNK]",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "[CLS]",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "[SEP]",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"4": {
|
36 |
+
"content": "[MASK]",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
},
|
43 |
+
"5": {
|
44 |
+
"content": "[رابط]",
|
45 |
+
"lstrip": false,
|
46 |
+
"normalized": true,
|
47 |
+
"rstrip": false,
|
48 |
+
"single_word": true,
|
49 |
+
"special": true
|
50 |
+
},
|
51 |
+
"6": {
|
52 |
+
"content": "[بريد]",
|
53 |
+
"lstrip": false,
|
54 |
+
"normalized": true,
|
55 |
+
"rstrip": false,
|
56 |
+
"single_word": true,
|
57 |
+
"special": true
|
58 |
+
},
|
59 |
+
"7": {
|
60 |
+
"content": "[مستخدم]",
|
61 |
+
"lstrip": false,
|
62 |
+
"normalized": true,
|
63 |
+
"rstrip": false,
|
64 |
+
"single_word": true,
|
65 |
+
"special": true
|
66 |
+
}
|
67 |
+
},
|
68 |
+
"clean_up_tokenization_spaces": true,
|
69 |
+
"cls_token": "[CLS]",
|
70 |
+
"do_basic_tokenize": true,
|
71 |
+
"do_lower_case": false,
|
72 |
+
"mask_token": "[MASK]",
|
73 |
+
"max_len": 512,
|
74 |
+
"max_length": 512,
|
75 |
+
"model_max_length": 512,
|
76 |
+
"never_split": [
|
77 |
+
"[بريد]",
|
78 |
+
"[مستخدم]",
|
79 |
+
"[رابط]"
|
80 |
+
],
|
81 |
+
"pad_to_multiple_of": null,
|
82 |
+
"pad_token": "[PAD]",
|
83 |
+
"pad_token_type_id": 0,
|
84 |
+
"padding_side": "right",
|
85 |
+
"sep_token": "[SEP]",
|
86 |
+
"stride": 0,
|
87 |
+
"strip_accents": null,
|
88 |
+
"tokenize_chinese_chars": true,
|
89 |
+
"tokenizer_class": "BertTokenizer",
|
90 |
+
"truncation_side": "right",
|
91 |
+
"truncation_strategy": "longest_first",
|
92 |
+
"unk_token": "[UNK]"
|
93 |
+
}
|
vocab.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|