File size: 51,236 Bytes
7de20de
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
---
library_name: setfit
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
metrics:
- accuracy_score
- classification_report
widget:
- text: 'Adil Hussain

    Adil Hussain est reconnaissant d''avoir reçu l''enseignement de l''acteur Naseeruddin
    Shah à l''époque où il fréquentait l''École nationale d''art dramatique'
- text: 'Bien que leurs opinions sur la question de savoir si les migrants sont un
    avantage ou un fardeau soient plus mitigées, de nettes majorités d''électeurs
    de toute la ville de New York, de la banlieue et du nord de l''État ont déclaré
    que l''État devrait essayer de ralentir l''afflux de migrants, plutôt que d''en
    accepter davantage et de s''efforcer d''assimiler les nouveaux arrivants Les démocrates
    aspirent à renverser six circonscriptions détenues par les républicains que M.
    Biden a remportées en 2020, notamment celle de M Les républicains se sont emparés
    de la crise des migrants, donnant un avant-goût des campagnes de l''année prochaine
    Les républicains ont surenchéri : Elise Stefanik, la New-Yorkaise qui dirige la
    conférence du parti démocrate à la Chambre des représentants,

    Suite à la page suivante

    a déclaré à Politico la semaine dernière que le parti allait consacrer 100 millions
    de dollars aux campagnes dans les circonscriptions de New York Des problèmes à
    venir pour les démocrates de New York en 2024 ?

    Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
    de l''hébergement des dizaines de milliers de migrants qui ont été transportés
    par bus jusqu''à New York et laissés à sa charge Des problèmes à venir pour les
    démocrates de New York en 2024 ?

    Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
    de l''hébergement des dizaines de milliers de migrants qui ont été transportés
    par bus jusqu''à New York et laissés à sa charge.

    Mais une autre préoccupation se profile alors que la crise se poursuit sans qu''aucune
    issue ne soit en vue : les retombées potentielles pour leur parti lors des élections
    de l''année prochaine Les républicains ont tendance à se sentir en sécurité lorsqu''ils
    parlent d''immigration - comme les démocrates le font pour l''avortement - et
    sont clairement à l''attaque sur la question des migrants à New York, tandis que
    les démocrates sont sur la défensive, a déclaré Kyle Kondik, directeur de la communication
    pour le Centre de politique de l''Université de Virginie, au réseau USA Today
    Plus de 100 000 migrants ont été transportés à New York depuis la frontière sud
    depuis le printemps 2022. Environ 60 000 d''entre eux sont hébergés dans la ville,
    et plus de 2 100 ont été transportés dans des hôtels situés dans sept comtés au
    nord de la ville, de Yonkers à la périphérie de Buffalo, où ils sont logés aux
    frais de la ville Les démocrates doivent y remporter des victoires pour gagner
    cinq sièges à la Chambre et faire du député Hakeem Jeffries, de Brooklyn, le prochain
    président de la Chambre des représentants Les publicités d''attaque des républicains
    s''écrivent pratiquement d''elles-mêmes à partir d''un flot de titres et d''images
    télévisées, alors que le gouverneur Kathy Hochul, le maire de New York Eric Adams
    et le président Joe Biden - tous démocrates - se rejettent mutuellement la faute
    et s''échangent des coups de feu pour savoir qui devrait en faire le plus Isaac
    Goldberg, un stratège démocrate qui a travaillé sur plusieurs campagnes électorales
    à New York, a affirmé qu''il était beaucoup trop tôt pour prédire l''impact politique
    de la crise des migrants, soulignant que les élections de 2024 n''auront lieu
    que dans 14 mois et que de nombreuses questions tout aussi urgentes pourraient
    se poser'
- text: 'LE CANDIDAT A LA PRESIDENCE RAMASWAMY VEUT METTRE FIN AU SYSTEME DE VISA
    H-1B AUX ETATS-UNIS

    Décrivant le programme de visas H-1B comme une forme de "servitude", Vivek Ramaswamy,
    candidat républicain indien-américain à l''élection présidentielle, a promis de
    "vider" le système basé sur la loterie et de le remplacer par un système d''admission
    méritocratique s''il remporte les élections présidentielles de 2024'
- text: 'Smith Hal Sparks Catherine Zeta-Jones son-Sampras Chris Owen Donald Glover

    ("Queer as Folk") a 54 ans Smith Hal Sparks Catherine Zeta-Jones son-Sampras Chris
    Owen Donald Glover

    ("Queer as Folk") a 54 ans. a 54 ans. Acteur

    ("Je sais ce que vous avez fait l''été dernier") a 50 ans'
- text: 'Trump profiter de sa célébrité jusqu''à la Maison-Blanche.

    "Cela a tué Howard parce qu''il était le roi de tous les médias Il a poursuivi
    en disant que Trump ne laisserait pas ses partisans s''approcher de l''une de
    ses propriétés. "Les gens qui votent pour Trump, pour la plupart, ne les laisseraient
    même pas entrer dans un putain d''hôtel [ "Si être réveillé signifie que je ne
    peux pas soutenir Trump, ce que je pense que cela signifie, ou que je soutiens
    les personnes qui veulent être transgenres ou que je suis pour le vaccin, appelez-moi
    réveillé comme vous le voulez" "Les gens qui votent pour Trump, pour la plupart,
    ne les laisseraient même pas entrer dans un putain d''hôtel [...]. Allez à Mar-a-lago,
    voyez s''il y a des gens qui vous ressemblent" Stern a également abordé les affirmations
    de Trump et de ses partisans selon lesquelles Joe Biden a remporté l''élection
    américaine de 2020 grâce à des votes frauduleux "Et soudain, Trump a transformé
    Howard, qui était le roi de tous les médias, en prince Harry de tous les médias.
    Tout le monde s''en fout "Trump avait l''habitude de participer à l''émission
    de Stern chaque semaine. Ils étaient amis. Alors cette idée que Trump est le pire
    type qui ait jamais marché sur la surface de la terre, pourquoi traîniez-vous
    avec lui ?"

    M Mais Stern, qui par le passé a été accusé de racisme et de sexisme dans nombre
    de ses sketches à l''antenne, a été un critique virulent de Trump tout au long
    de sa présidence et, plus récemment, alors qu''il se prépare à se présenter à
    nouveau en 2024.

    En 2021, M "Combien de temps allons-nous continuer à élire des gens qui ont perdu
    l''élection ?"

    Il a poursuivi en qualifiant les partisans de Trump de "nigauds".

    "Mon Dieu, j''ai l''impression d''être dans une nation de nigauds. J''espère qu''il
    y a encore des gens brillants et dynamiques qui aiment ce pays", a-t-il déclaré
    Alors cette idée que Trump est le pire type qui ait jamais marché sur la surface
    de la terre, pourquoi traîniez-vous avec lui ?"

    M. Failla a déclaré que cela avait "tué" M Si "woke" signifie que je ne peux pas
    soutenir Trump, ce que je pense que cela signifie, ou que je soutiens les personnes
    qui veulent être transgenres ou que je suis pour le vaccin, appelez-moi "woke"
    comme vous voulez Celui qui se décrit comme le "roi de tous les médias" a critiqué
    ouvertement l''ancien président américain Donald Trump, les anti-vaxx et, plus
    récemment, Lauren Boebert, qu''il a critiquée pour son comportement obscène dans
    un théâtre de Denver au début du mois "L''omnipotence médiatique de Donald Trump
    a brisé Howard Stern. C''est très important", a déclaré Failla dans la vidéo (selon
    OK ! Magazine). "Trump avait l''habitude de participer à l''émission de Stern
    chaque semaine L''aversion d''Howard Stern pour Donald Trump, c''est "tout l''ego".

    Si "woke" signifie que je ne peux pas soutenir Trump, ce que je pense que cela
    signifie, ou que je soutiens les personnes qui veulent être transgenres ou que
    je suis pour le vaccin, appelez-moi "woke" comme vous voulez Trump l''année prochaine.

    "Je sais que je lui botterai le cul", a-t-il déclaré aux auditeurs.

    L''année suivante, Stern a déclaré qu''il envisageait de se lancer dans la course
    à la présidence "pour que le pays soit à nouveau juste" En réponse, Trump a partagé
    sur sa plateforme Truth Social un clip de Fox News dans lequel l''animateur Jimmy
    Failla critique Stern.

    "L''omnipotence médiatique de Donald Trump a brisé Howard Stern "Je vais faire
    la chose très simple qui remettra le pays sur le droit chemin : un vote, une personne",
    a expliqué Stern, affirmant que Trump a en fait perdu l''élection de 2016 contre
    Hillary Clinton qui a remporté le vote populaire - mais pas le collège électoral'
pipeline_tag: text-classification
inference: true
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
model-index:
- name: SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2
  results:
  - task:
      type: text-classification
      name: Text Classification
    dataset:
      name: Unknown
      type: unknown
      split: test
    metrics:
    - type: accuracy_score
      value: 0.9434954007884363
      name: Accuracy_Score
    - type: classification_report
      value:
        '0':
          precision: 0.9361702127659575
          recall: 0.9322033898305084
          f1-score: 0.9341825902335456
          support: 236
        '1':
          precision: 0.9333333333333333
          recall: 0.9302325581395349
          f1-score: 0.9317803660565723
          support: 301
        '2':
          precision: 0.9646017699115044
          recall: 0.9732142857142857
          f1-score: 0.9688888888888889
          support: 224
        accuracy: 0.9434954007884363
        macro avg:
          precision: 0.9447017720035985
          recall: 0.945216744561443
          f1-score: 0.9449506150596689
          support: 761
        weighted avg:
          precision: 0.9434169513880108
          recall: 0.9434954007884363
          f1-score: 0.9434482162802315
          support: 761
      name: Classification_Report
---

# SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2

This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.

## Model Details

### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 128 tokens
- **Number of Classes:** 3 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)

### Model Labels
| Label | Examples                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                |
|:------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| pos   | <ul><li>"Les PHL lèvent 1,26 milliard de dollars grâce aux obligations en dollars de détail\nLE GOUVERNEMENT PHILIPPIN a levé 1,26 milliard de dollars lors de la première émission d'obligations de détail en dollars (RDB) sous l'administration Marcos, a déclaré le ministère des Finances (DoF)"</li><li>"Atom Egoyan revient à Salomé, l'opéra qu'il a monté en 1996, avec Seven Veils\nAtom Egoyan n'a pas été surpris lorsque la Canadian Opera Company lui a demandé de remonter Salomé pour la saison 2022-23 Atom Egoyan revient à Salomé, l'opéra qu'il a monté en 1996, avec Seven Veils\nAtom Egoyan n'a pas été surpris lorsque la Canadian Opera Company lui a demandé de remonter Salomé pour la saison 2022-23. Avec ses éléments de film et de vidéo, son interprétation psychologique et sombre de l'opéra de Richard Strauss avait un solide palmarès de reprises - depuis sa création en 1996, elle avait été présentée deux fois de plus à la COC et avait été reprise par plusieurs autres compagnies"</li><li>'Paul Simon présente un documentaire sur sa carrière\nAprès un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public Paul Simon présente un documentaire sur sa carrière\nAprès un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public.\nTORONTO >> Après un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public "Il n\'y a pas de raison que vous soyez épuisés", a dit Simon à la foule après la première du documentaire d\'Alex Gibney "In Restless Dreams : The Music of Paul Simon" d\'Alex Gibney, dimanche au Festival international du film de Toronto.\nSimon, âgé de 81 ans, n\'avait pas regardé le film avant la première, et il ne l\'a pas regardé non plus dimanche TORONTO >> Après un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public.\n"Il n\'y a pas de raison que vous soyez épuisés", a dit Simon à la foule après la première du documentaire d\'Alex Gibney "In Restless Dreams : The Music of Paul Simon" d\'Alex Gibney, dimanche au Festival international du film de Toronto'</li></ul>                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                        |
| neg   | <ul><li>'Le groupe Al-Mostaqilla de l\'université du Koweït a appelé les étudiants à organiser un sit-in à l\'université du Koweït lundi pour protester contre la décision de mettre fin aux classes mixtes La décision a été prise la semaine dernière par le nouveau ministre de l\'éducation, Adel Al-Mane, et le directeur par intérim de l\'université du Koweït, Fayez Al-Dhafiri, et mise en œuvre mercredi, trois jours seulement avant le début de la nouvelle année universitaire à la faculté de droit L\'association a également demandé au gouvernement de "cesser ses interventions politiques et médiatiques injustifiées" dans les affaires de l\'université du Koweït.\nL\'association a appelé le directeur par intérim de l\'université du Koweït à ne pas céder aux pressions politiques et médiatiques et à s\'efforcer de protéger l\'indépendance de l\'université Dhafiri a déclaré que la décision avait été prise en application de la loi de 1996 qui interdisait l\'enseignement mixte à l\'université du Koweït, malgré une décision de la Cour constitutionnelle de 2015 autorisant l\'enseignement mixte lorsqu\'il était nécessaire et dans des cas exceptionnels Parallèlement, l\'association des professeurs de l\'université du Koweït a publié samedi une déclaration demandant aux députés et au gouvernement de "cesser d\'interférer dans les affaires de l\'université du Koweït" et de maintenir l\'indépendance de l\'université "L\'université du Koweït était, est et sera toujours le porte-drapeau de la connaissance et des valeurs, à l\'abri de toute influence extérieure Le député Abdulwahab Al-Essa a reproché à l\'administration de l\'université du Koweït d\'avoir succombé à la pression politique au détriment de l\'intérêt public, ajoutant que l\'université du Koweït avait appliqué correctement une décision de la cour constitutionnelle autorisant les classes mixtes chaque fois que cela était nécessaire'</li><li>"L'immigration étant l'un des défis les plus difficiles à relever pour le président Joe Biden et apparaissant comme un enjeu majeur des élections de l'année prochaine, l'administration délocalise essentiellement la question en s'appuyant sur les pays d'Amérique centrale et d'Amérique du Sud pour empêcher les migrants de se diriger vers le nord"</li><li>'Lors d\'une réunion d\'information mardi, le porte-parole de l\'armée, le lieutenant-colonel Richard Hecht, a suggéré que les Palestiniens tentent de quitter la bande de Gaza par le poste-frontière de Rafah, en Égypte.\nLa perspective d\'un exode des habitants de Gaza vers le territoire égyptien a alarmé les autorités égyptiennes La question qui se pose est de savoir si Israël lancera une offensive terrestre dans la bande de Gaza, une bande de terre de 25 miles de long coincée entre Israël, l\'Égypte et la mer Méditerranée, où vivent 2,3 millions de personnes et qui est gouvernée par le Hamas depuis 2007 Israël pilonne la bande de Gaza ; les habitants se précipitent pour se mettre à l\'abri\nJERUSALEM - Les avions de combat israéliens ont bombardé la bande de Gaza quartier par quartier mardi, réduisant les bâtiments en ruines et poussant les habitants à se précipiter pour se mettre à l\'abri dans ce minuscule territoire isolé, alors qu\'Israël promet des représailles pour l\'attaque surprise du Hamas du week-end qui "se répercuteront Les autorités égyptiennes discutent avec Israël et les États-Unis afin de mettre en place des corridors humanitaires dans la bande de Gaza pour acheminer l\'aide, a déclaré un responsable égyptien. Des négociations sont en cours avec les Israéliens pour que la zone autour du point de passage de Rafah entre l\'Égypte et Gaza soit déclarée "zone d\'interdiction de feu", a déclaré le responsable, sous couvert d\'anonymat car il n\'était pas autorisé à parler aux médias'</li></ul>                                |
| obj   | <ul><li>"L'économie pèse sur les Américains Ils sont plus nombreux à faire confiance à Trump qu'à Biden pour alléger leur fardeau\nWASHINGTON - Linda Muñoz a peur de l'économie Trump, le candidat républicain à la primaire de 2024, pour améliorer l'économie, avec une marge de 47 % à 36 %. L'écart est de 46 %-26 % en faveur de M. Trump parmi les électeurs indépendants Presque tous les républicains interrogés ont exprimé leur pessimisme à l'égard de l'économie, selon le sondage : 96 % d'entre eux estiment que la situation se dégrade au lieu de s'améliorer Le logement. L'essence. Tous ces éléments poussent les gens à s'endetter de plus en plus, disent-ils.\nSelon le sondage, près de 70 % des Américains estiment que la situation économique se dégrade, tandis que 22 % seulement estiment qu'elle s'améliore L'économie pèse sur les Américains Ils sont plus nombreux à faire confiance à Trump qu'à Biden pour alléger leur fardeau\nWASHINGTON - Linda Muñoz a peur de l'économie. Elle a puisé dans son épargne d'urgence cette année. Et elle ne croit pas que le président Joe Biden ressente sa douleur L'épicerie. Le logement. L'essence. Tous ces éléments poussent les gens à s'endetter de plus en plus, disent-ils.\nSelon le sondage, près de 70 % des Américains estiment que la situation économique se dégrade, tandis que 22 % seulement estiment qu'elle s'améliore"</li><li>'Le Pentagone va interroger d\'autres militaires sur l\'attentat suicide de l\'aéroport de Kaboul en 2021\nLe commandement central du Pentagone a ordonné l\'audition d\'une vingtaine de militaires supplémentaires qui se trouvaient à l\'aéroport de Kaboul lorsque des kamikazes ont attaqué pendant le retrait chaotique des forces américaines d\'Afghanistan, alors que les critiques persistent sur le fait que l\'attaque meurtrière aurait pu être stoppée Certaines familles des personnes tuées ou blessées se sont plaintes que le Pentagone n\'avait pas fait preuve de suffisamment de transparence au sujet de l\'attentat à la bombe qui a tué 170 Afghans\net 13 militaires américains.\nL\'enquête du commandement central américain a conclu en novembre 2021 qu\'étant donné la détérioration de la sécurité à la porte de l\'Abbaye de l\'aéroport alors que les Afghans cherchaient de plus en plus à fuir, "l\'attaque n\'aurait pas pu être évitée au niveau tactique sans dégrader la mission visant à maximiser le nombre d\'évacués" Le Pentagone a déclaré que l\'examen de l\'attentat suicide n\'avait révélé aucune identification préalable d\'un attaquant possible ni aucune demande d\'"escalade des règles d\'engagement existantes" régissant l\'utilisation de la force par les troupes américaines'</li><li>'Les retombées de la guerre se répercutent sur les lieux de travail aux États-Unis.\nNEW YORK - Les retombées de la guerre entre Israël et le Hamas se sont répandues sur les lieux de travail partout dans le monde, les dirigeants de grandes entreprises exprimant leur point de vue tandis que les travailleurs se plaignent de ne pas être entendus "À quoi me sert mon travail si je compromets ma propre morale et mon éthique ?\nL\'un des conflits les plus importants s\'est produit chez Starbucks après que Starbucks Workers United, un syndicat représentant 9 000 travailleurs dans plus de 360 magasins aux États-Unis, a tweeté "Solidarité avec la Palestine" deux jours après l\'attaque du Hamas. Le tweet a été supprimé au bout de 40 minutes, mais l\'entreprise a déclaré qu\'il avait donné lieu à plus de 1 000 plaintes, à des actes de vandalisme et à des affrontements dans ses magasins NEW YORK - Les retombées de la guerre entre Israël et le Hamas se sont répandues sur les lieux de travail partout dans le monde, les dirigeants de grandes entreprises exprimant leur point de vue tandis que les travailleurs se plaignent de ne pas être entendus'</li></ul> |

## Evaluation

### Metrics
| Label   | Accuracy_Score | Classification_Report                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                            |
|:--------|:---------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| **all** | 0.9435         | {'0': {'precision': 0.9361702127659575, 'recall': 0.9322033898305084, 'f1-score': 0.9341825902335456, 'support': 236}, '1': {'precision': 0.9333333333333333, 'recall': 0.9302325581395349, 'f1-score': 0.9317803660565723, 'support': 301}, '2': {'precision': 0.9646017699115044, 'recall': 0.9732142857142857, 'f1-score': 0.9688888888888889, 'support': 224}, 'accuracy': 0.9434954007884363, 'macro avg': {'precision': 0.9447017720035985, 'recall': 0.945216744561443, 'f1-score': 0.9449506150596689, 'support': 761}, 'weighted avg': {'precision': 0.9434169513880108, 'recall': 0.9434954007884363, 'f1-score': 0.9434482162802315, 'support': 761}} |

## Uses

### Direct Use for Inference

First install the SetFit library:

```bash
pip install setfit
```

Then you can load this model and run inference.

```python
from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mogaio/pr_ebsa_fr_tran_merged25_e1_middle_offsets")
# Run inference
preds = model("Adil Hussain
Adil Hussain est reconnaissant d'avoir reçu l'enseignement de l'acteur Naseeruddin Shah à l'époque où il fréquentait l'École nationale d'art dramatique")
```

<!--
### Downstream Use

*List how someone could finetune this model on their own dataset.*
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Set Metrics
| Training set | Min | Median   | Max  |
|:-------------|:----|:---------|:-----|
| Word count   | 9   | 247.2638 | 2089 |

| Label | Training Sample Count |
|:------|:----------------------|
| neg   | 913                   |
| obj   | 1216                  |
| pos   | 911                   |

### Training Hyperparameters
- batch_size: (8, 8)
- num_epochs: (1, 1)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 1
- body_learning_rate: (2e-05, 2e-05)
- head_learning_rate: 2e-05
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False

### Training Results
| Epoch  | Step | Training Loss | Validation Loss |
|:------:|:----:|:-------------:|:---------------:|
| 0.0013 | 1    | 0.3703        | -               |
| 0.0658 | 50   | 0.3145        | -               |
| 0.1316 | 100  | 0.1839        | -               |
| 0.1974 | 150  | 0.2558        | -               |
| 0.2632 | 200  | 0.2683        | -               |
| 0.3289 | 250  | 0.1572        | -               |
| 0.3947 | 300  | 0.1953        | -               |
| 0.4605 | 350  | 0.171         | -               |
| 0.5263 | 400  | 0.2326        | -               |
| 0.5921 | 450  | 0.1762        | -               |
| 0.6579 | 500  | 0.2818        | -               |
| 0.7237 | 550  | 0.2733        | -               |
| 0.7895 | 600  | 0.195         | -               |
| 0.8553 | 650  | 0.2104        | -               |
| 0.9211 | 700  | 0.2124        | -               |
| 0.9868 | 750  | 0.0818        | -               |
| 1.0526 | 800  | 0.1046        | -               |
| 1.1184 | 850  | 0.1633        | -               |
| 1.1842 | 900  | 0.3207        | -               |
| 1.25   | 950  | 0.2703        | -               |
| 1.3158 | 1000 | 0.1934        | -               |
| 1.3816 | 1050 | 0.2547        | -               |
| 1.4474 | 1100 | 0.0933        | -               |
| 1.5132 | 1150 | 0.2102        | -               |
| 1.5789 | 1200 | 0.0699        | -               |
| 1.6447 | 1250 | 0.1778        | -               |
| 1.7105 | 1300 | 0.1796        | -               |
| 1.7763 | 1350 | 0.0221        | -               |
| 1.8421 | 1400 | 0.2154        | -               |
| 1.9079 | 1450 | 0.1683        | -               |
| 1.9737 | 1500 | 0.3096        | -               |
| 2.0395 | 1550 | 0.201         | -               |
| 2.1053 | 1600 | 0.1954        | -               |
| 2.1711 | 1650 | 0.2301        | -               |
| 2.2368 | 1700 | 0.1141        | -               |
| 2.3026 | 1750 | 0.1949        | -               |
| 2.3684 | 1800 | 0.164         | -               |
| 2.4342 | 1850 | 0.2307        | -               |
| 2.5    | 1900 | 0.1912        | -               |
| 2.5658 | 1950 | 0.2349        | -               |
| 2.6316 | 2000 | 0.0922        | -               |
| 2.6974 | 2050 | 0.0702        | -               |
| 2.7632 | 2100 | 0.1089        | -               |
| 2.8289 | 2150 | 0.1711        | -               |
| 2.8947 | 2200 | 0.1432        | -               |
| 2.9605 | 2250 | 0.2739        | -               |
| 3.0263 | 2300 | 0.1889        | -               |
| 3.0921 | 2350 | 0.1036        | -               |
| 3.1579 | 2400 | 0.1372        | -               |
| 3.2237 | 2450 | 0.028         | -               |
| 3.2895 | 2500 | 0.1739        | -               |
| 3.3553 | 2550 | 0.142         | -               |
| 3.4211 | 2600 | 0.0838        | -               |
| 3.4868 | 2650 | 0.0657        | -               |
| 3.5526 | 2700 | 0.0054        | -               |
| 3.6184 | 2750 | 0.0426        | -               |
| 3.6842 | 2800 | 0.1974        | -               |
| 3.75   | 2850 | 0.0279        | -               |
| 3.8158 | 2900 | 0.1326        | -               |
| 3.8816 | 2950 | 0.1614        | -               |
| 3.9474 | 3000 | 0.1251        | -               |
| 4.0132 | 3050 | 0.1174        | -               |
| 4.0789 | 3100 | 0.1948        | -               |
| 4.1447 | 3150 | 0.0555        | -               |
| 4.2105 | 3200 | 0.0064        | -               |
| 4.2763 | 3250 | 0.064         | -               |
| 4.3421 | 3300 | 0.0013        | -               |
| 4.4079 | 3350 | 0.135         | -               |
| 4.4737 | 3400 | 0.0574        | -               |
| 4.5395 | 3450 | 0.174         | -               |
| 4.6053 | 3500 | 0.2199        | -               |
| 4.6711 | 3550 | 0.387         | -               |
| 4.7368 | 3600 | 0.114         | -               |
| 4.8026 | 3650 | 0.0853        | -               |
| 4.8684 | 3700 | 0.0325        | -               |
| 4.9342 | 3750 | 0.019         | -               |
| 5.0    | 3800 | 0.0572        | -               |
| 0.0013 | 1    | 0.1435        | -               |
| 0.0658 | 50   | 0.0969        | -               |
| 0.1316 | 100  | 0.1085        | -               |
| 0.1974 | 150  | 0.0271        | -               |
| 0.2632 | 200  | 0.0138        | -               |
| 0.3289 | 250  | 0.058         | -               |
| 0.3947 | 300  | 0.1205        | -               |
| 0.4605 | 350  | 0.0788        | -               |
| 0.5263 | 400  | 0.1449        | -               |
| 0.5921 | 450  | 0.0383        | -               |
| 0.6579 | 500  | 0.0338        | -               |
| 0.7237 | 550  | 0.1253        | -               |
| 0.7895 | 600  | 0.069         | -               |
| 0.8553 | 650  | 0.104         | -               |
| 0.9211 | 700  | 0.0462        | -               |
| 0.9868 | 750  | 0.1975        | -               |
| 1.0526 | 800  | 0.0241        | -               |
| 1.1184 | 850  | 0.0426        | -               |
| 1.1842 | 900  | 0.0519        | -               |
| 1.25   | 950  | 0.0815        | -               |
| 1.3158 | 1000 | 0.1839        | -               |
| 1.3816 | 1050 | 0.0198        | -               |
| 1.4474 | 1100 | 0.0128        | -               |
| 1.5132 | 1150 | 0.1645        | -               |
| 1.5789 | 1200 | 0.0019        | -               |
| 1.6447 | 1250 | 0.0557        | -               |
| 1.7105 | 1300 | 0.0098        | -               |
| 1.7763 | 1350 | 0.001         | -               |
| 1.8421 | 1400 | 0.1557        | -               |
| 1.9079 | 1450 | 0.1286        | -               |
| 1.9737 | 1500 | 0.094         | -               |
| 2.0395 | 1550 | 0.0059        | -               |
| 2.1053 | 1600 | 0.0227        | -               |
| 2.1711 | 1650 | 0.0899        | -               |
| 2.2368 | 1700 | 0.0053        | -               |
| 2.3026 | 1750 | 0.0021        | -               |
| 2.3684 | 1800 | 0.0114        | -               |
| 2.4342 | 1850 | 0.1163        | -               |
| 2.5    | 1900 | 0.0959        | -               |
| 2.5658 | 1950 | 0.0252        | -               |
| 2.6316 | 2000 | 0.0921        | -               |
| 2.6974 | 2050 | 0.1159        | -               |
| 2.7632 | 2100 | 0.0026        | -               |
| 2.8289 | 2150 | 0.1211        | -               |
| 2.8947 | 2200 | 0.1843        | -               |
| 2.9605 | 2250 | 0.0014        | -               |
| 3.0263 | 2300 | 0.0085        | -               |
| 3.0921 | 2350 | 0.0839        | -               |
| 3.1579 | 2400 | 0.2372        | -               |
| 3.2237 | 2450 | 0.0213        | -               |
| 3.2895 | 2500 | 0.0155        | -               |
| 3.3553 | 2550 | 0.1128        | -               |
| 3.4211 | 2600 | 0.0945        | -               |
| 3.4868 | 2650 | 0.0917        | -               |
| 3.5526 | 2700 | 0.0011        | -               |
| 3.6184 | 2750 | 0.0024        | -               |
| 3.6842 | 2800 | 0.0044        | -               |
| 3.75   | 2850 | 0.121         | -               |
| 3.8158 | 2900 | 0.0056        | -               |
| 3.8816 | 2950 | 0.003         | -               |
| 3.9474 | 3000 | 0.0899        | -               |
| 4.0132 | 3050 | 0.0157        | -               |
| 4.0789 | 3100 | 0.1188        | -               |
| 4.1447 | 3150 | 0.001         | -               |
| 4.2105 | 3200 | 0.0222        | -               |
| 4.2763 | 3250 | 0.1209        | -               |
| 4.3421 | 3300 | 0.1085        | -               |
| 4.4079 | 3350 | 0.0054        | -               |
| 4.4737 | 3400 | 0.0009        | -               |
| 4.5395 | 3450 | 0.0015        | -               |
| 4.6053 | 3500 | 0.003         | -               |
| 4.6711 | 3550 | 0.0009        | -               |
| 4.7368 | 3600 | 0.0003        | -               |
| 4.8026 | 3650 | 0.0009        | -               |
| 4.8684 | 3700 | 0.03          | -               |
| 4.9342 | 3750 | 0.1206        | -               |
| 5.0    | 3800 | 0.0003        | -               |
| 0.0013 | 1    | 0.2045        | -               |
| 0.0658 | 50   | 0.0078        | -               |
| 0.1316 | 100  | 0.0087        | -               |
| 0.1974 | 150  | 0.0386        | -               |
| 0.2632 | 200  | 0.1015        | -               |
| 0.3289 | 250  | 0.0022        | -               |
| 0.3947 | 300  | 0.0291        | -               |
| 0.4605 | 350  | 0.0013        | -               |
| 0.5263 | 400  | 0.0022        | -               |
| 0.5921 | 450  | 0.1324        | -               |
| 0.6579 | 500  | 0.113         | -               |
| 0.7237 | 550  | 0.0011        | -               |
| 0.7895 | 600  | 0.1723        | -               |
| 0.8553 | 650  | 0.0049        | -               |
| 0.9211 | 700  | 0.206         | -               |
| 0.9868 | 750  | 0.1683        | -               |
| 1.0526 | 800  | 0.0954        | -               |
| 1.1184 | 850  | 0.018         | -               |
| 1.1842 | 900  | 0.1854        | -               |
| 1.25   | 950  | 0.0342        | -               |
| 1.3158 | 1000 | 0.0015        | -               |
| 1.3816 | 1050 | 0.0062        | -               |
| 1.4474 | 1100 | 0.1187        | -               |
| 1.5132 | 1150 | 0.0048        | -               |
| 1.5789 | 1200 | 0.0011        | -               |
| 1.6447 | 1250 | 0.002         | -               |
| 1.7105 | 1300 | 0.092         | -               |
| 1.7763 | 1350 | 0.1245        | -               |
| 1.8421 | 1400 | 0.0009        | -               |
| 1.9079 | 1450 | 0.1185        | -               |
| 1.9737 | 1500 | 0.0017        | -               |
| 2.0395 | 1550 | 0.008         | -               |
| 2.1053 | 1600 | 0.0049        | -               |
| 2.1711 | 1650 | 0.0083        | -               |
| 2.2368 | 1700 | 0.0026        | -               |
| 2.3026 | 1750 | 0.0081        | -               |
| 2.3684 | 1800 | 0.0036        | -               |
| 2.4342 | 1850 | 0.0016        | -               |
| 2.5    | 1900 | 0.0017        | -               |
| 2.5658 | 1950 | 0.0014        | -               |
| 2.6316 | 2000 | 0.0017        | -               |
| 2.6974 | 2050 | 0.002         | -               |
| 2.7632 | 2100 | 0.1022        | -               |
| 2.8289 | 2150 | 0.0004        | -               |
| 2.8947 | 2200 | 0.0007        | -               |
| 2.9605 | 2250 | 0.0794        | -               |
| 3.0263 | 2300 | 0.0183        | -               |
| 3.0921 | 2350 | 0.0377        | -               |
| 3.1579 | 2400 | 0.029         | -               |
| 3.2237 | 2450 | 0.0003        | -               |
| 3.2895 | 2500 | 0.0961        | -               |
| 3.3553 | 2550 | 0.0008        | -               |
| 3.4211 | 2600 | 0.0873        | -               |
| 3.4868 | 2650 | 0.0501        | -               |
| 3.5526 | 2700 | 0.0029        | -               |
| 3.6184 | 2750 | 0.0008        | -               |
| 3.6842 | 2800 | 0.0004        | -               |
| 3.75   | 2850 | 0.0011        | -               |
| 3.8158 | 2900 | 0.0518        | -               |
| 3.8816 | 2950 | 0.0002        | -               |
| 3.9474 | 3000 | 0.1115        | -               |
| 4.0132 | 3050 | 0.0129        | -               |
| 4.0789 | 3100 | 0.0005        | -               |
| 4.1447 | 3150 | 0.0012        | -               |
| 4.2105 | 3200 | 0.1086        | -               |
| 4.2763 | 3250 | 0.0199        | -               |
| 4.3421 | 3300 | 0.0004        | -               |
| 4.4079 | 3350 | 0.0001        | -               |
| 4.4737 | 3400 | 0.0832        | -               |
| 4.5395 | 3450 | 0.0003        | -               |
| 4.6053 | 3500 | 0.0041        | -               |
| 4.6711 | 3550 | 0.1146        | -               |
| 4.7368 | 3600 | 0.0027        | -               |
| 4.8026 | 3650 | 0.0002        | -               |
| 4.8684 | 3700 | 0.0544        | -               |
| 4.9342 | 3750 | 0.0002        | -               |
| 5.0    | 3800 | 0.0046        | -               |
| 0.0013 | 1    | 0.0015        | -               |
| 0.0658 | 50   | 0.1973        | -               |
| 0.1316 | 100  | 0.0106        | -               |
| 0.1974 | 150  | 0.0744        | -               |
| 0.2632 | 200  | 0.1033        | -               |
| 0.3289 | 250  | 0.0425        | -               |
| 0.3947 | 300  | 0.1125        | -               |
| 0.4605 | 350  | 0.0018        | -               |
| 0.5263 | 400  | 0.0019        | -               |
| 0.5921 | 450  | 0.0002        | -               |
| 0.6579 | 500  | 0.0007        | -               |
| 0.7237 | 550  | 0.1393        | -               |
| 0.7895 | 600  | 0.0002        | -               |
| 0.8553 | 650  | 0.0043        | -               |
| 0.9211 | 700  | 0.0339        | -               |
| 0.9868 | 750  | 0.0002        | -               |
| 0.0013 | 1    | 0.0007        | -               |
| 0.0658 | 50   | 0.0419        | -               |
| 0.1316 | 100  | 0.0068        | -               |
| 0.1974 | 150  | 0.1401        | -               |
| 0.2632 | 200  | 0.0423        | -               |
| 0.3289 | 250  | 0.1122        | -               |
| 0.3947 | 300  | 0.0037        | -               |
| 0.4605 | 350  | 0.005         | -               |
| 0.5263 | 400  | 0.0006        | -               |
| 0.5921 | 450  | 0.0006        | -               |
| 0.6579 | 500  | 0.0016        | -               |
| 0.7237 | 550  | 0.1244        | -               |
| 0.7895 | 600  | 0.0016        | -               |
| 0.8553 | 650  | 0.0028        | -               |
| 0.9211 | 700  | 0.002         | -               |
| 0.9868 | 750  | 0.057         | -               |
| 0.0013 | 1    | 0.1396        | -               |
| 0.0658 | 50   | 0.0366        | -               |
| 0.1316 | 100  | 0.0021        | -               |
| 0.1974 | 150  | 0.1088        | -               |
| 0.2632 | 200  | 0.0449        | -               |
| 0.3289 | 250  | 0.0187        | -               |
| 0.3947 | 300  | 0.0017        | -               |
| 0.4605 | 350  | 0.1262        | -               |
| 0.5263 | 400  | 0.0052        | -               |
| 0.5921 | 450  | 0.1188        | -               |
| 0.6579 | 500  | 0.0002        | -               |
| 0.7237 | 550  | 0.0006        | -               |
| 0.7895 | 600  | 0.0758        | -               |
| 0.8553 | 650  | 0.025         | -               |
| 0.9211 | 700  | 0.0052        | -               |
| 0.9868 | 750  | 0.1985        | -               |

### Framework Versions
- Python: 3.10.12
- SetFit: 1.0.1
- Sentence Transformers: 2.2.2
- Transformers: 4.35.2
- PyTorch: 2.1.0+cu121
- Datasets: 2.15.0
- Tokenizers: 0.15.0

## Citation

### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->