File size: 21,165 Bytes
bd65d2a
 
 
 
 
 
 
 
 
 
 
 
2678c3e
 
 
 
 
bd65d2a
 
 
 
 
 
 
 
 
 
 
 
 
2678c3e
bd65d2a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2678c3e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
bd65d2a
 
 
 
 
 
2678c3e
bd65d2a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2678c3e
bd65d2a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2678c3e
bd65d2a
 
2678c3e
bd65d2a
 
 
 
 
 
 
 
 
 
 
 
 
 
9cffeb6
 
2678c3e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
bd65d2a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
---
base_model: klue/roberta-base
library_name: setfit
metrics:
- accuracy
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 3CE 아이 스위치 스턱 옵션없음 오로라
- text: 데이셀 모발아 탈모 새치케어 더마 스칼프 블랙턴  프로틴 앰플 20ml×3개 옵션없음 주식회사 케이티알파
- text: 라운드랩 1025 독도 클렌징 밀크 200ml 옵션없음 혜담몰
- text: '[네이처리퍼블릭] 블랙빈 탈모증상 완화 두피 토닉 120ml 블랙빈 탈모증상 완화 두피 토닉 (주)네이처리퍼블릭'
- text: AHC  레볼루션 리얼 아이크림  페이스 12ml 1. 시즌10 아이크림 12ml (주)여인닷컴
inference: true
model-index:
- name: SetFit with klue/roberta-base
  results:
  - task:
      type: text-classification
      name: Text Classification
    dataset:
      name: Unknown
      type: unknown
      split: test
    metrics:
    - type: accuracy
      value: 0.7789760472244296
      name: Accuracy
---

# SetFit with klue/roberta-base

This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [klue/roberta-base](https://huggingface.co/klue/roberta-base) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.

## Model Details

### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [klue/roberta-base](https://huggingface.co/klue/roberta-base)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 13 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)

### Model Labels
| Label | Examples                                                                                                                                                                                                                                                                 |
|:------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 1.0   | <ul><li>'루핀 젤클리너 젤클렌저 500ml 옵션없음 주식회사 코즈랩'</li><li>'닥터+스피릿 안티F오일 12ml / 문제성 손발톱 닥터+스피릿 안티F오일 12ml 미스타'</li><li>'Coms LED 손톱깎이돋보기CW-816 조명 KW6E00D3 옵션없음 하니스토어13'</li></ul>                                                                                               |
| 7.0   | <ul><li>'파티온 기미잡티 토닝 선 패치 18g (4매입) x2개 세트 파티온'</li><li>'avk 알로에베라 태닝 오일 150ml 휴양지 썬배드 일광욕 옵션없음 누리월드'</li><li>'DARK TANS EXCLUSIVE 태닝로션 액셀러레이터 실내 및 야외용 선탠용 옵션없음 위그로우랩스'</li></ul>                                                                                       |
| 12.0  | <ul><li>'아모스 녹차실감 볼류마이징 미스트 140ml 옵션없음 주식회사 케이스코'</li><li>'[르도암 공식]르도암 카멜리아 헤어 2종 세트(샴푸+트리트먼트) LEDOAM1935'</li><li>'3+1워터리스 드라이샴푸 떡진머리 냄새제거 장기요양 재가 병원 환자 산모 야영 냄새제로 옵션없음 은혜이슬'</li></ul>                                                                                |
| 2.0   | <ul><li>'오겔리 노워터 아이패치 누드 화이트 화이트 와이에스엠무역'</li><li>'린제이 프리미엄 쿨 티트리 모델링 마스크 고무팩 820g 11203535 옵션없음 타임퍼니'</li><li>'미팩토리 1단 돼지코팩 10매입 블랙헤드제거 빠르고 강력하고 깨끗하게 미팩토리 1단 돼지코팩 10매입 일동상사'</li></ul>                                                                                 |
| 8.0   | <ul><li>'최대 45% / 달바 비건 멀티밤 10gX2개 [세트] 멀티밤10g(2개) 주식회사 달바글로벌'</li><li>'[메디비티] 뱀파이어 앰플 2개 옵션없음 (주)지에스리테일 홈쇼핑'</li><li>'김정문알로에 큐어 하이드라 수딩 에멀젼 130ml 동의합니다 아라'</li></ul>                                                                                                   |
| 6.0   | <ul><li>'릴리바이레드 SET 무드 키보드+펜라이너 세트 6 치즈(L241A)_01 매트블랙(L065A) 클래식스타일'</li><li>'[2SET] 랩노 리프티드 세라마이드 립밤 3.7g 2개 옵션없음 콜마생활건강 주식회사'</li><li>'이니스프리 스키니 꼼꼼카라 제로 2호 브라운 옵션없음 맥스베스트'</li></ul>                                                                                 |
| 0.0   | <ul><li>'참존 포 맨 스킨 에센스 100ml 참존'</li><li>'BRTC 파워 옴므 올인원 솔루션 더블 기획 200ml 옵션없음 비인네이쳐'</li><li>'후 공진향 군 자양 로션 100ml 옵션없음 주식회사다인'</li></ul>                                                                                                                                 |
| 4.0   | <ul><li>'3W 크리스탈 화이트닝 크림 SPF 50+PA+++ 옵션없음 윤사'</li><li>'르베라쥬 테이크 미 트윈케익(23호) 옵션없음 조아쓰'</li><li>'킬커버 파운웨어 컨실러 2호 란제리 (주)씨제이이엔엠'</li></ul>                                                                                                                                 |
| 9.0   | <ul><li>'리드하이제닉 눈세정제 눈꺼풀 청결제 아이클리너 마이봄샘 눈 기름샘 청소 세척 세정 폼타입 몸 리드하이제닉스 1개 + 순면패드 100매 아이디앤코'</li><li>'코스알엑스 원스텝 오리지널 클리어 패드 70매 - 토너패드 스킨팩 각질 열감 진정 오리지널 클리어 패드. 주식회사 포러스'</li><li>'바이오옵틱스 아이클린 리드클리너 눈꺼풀세정제 30p 60ml 1개 one option one option_one option 패기스토어'</li></ul> |
| 10.0  | <ul><li>'50개입 막대기 우드 섬유 디퓨저 리드스틱 옵션없음 '</li><li>'디퓨저 용기 뚜껑 스크류 29.9mm(블랙)/캡 마개 재료 옵션없음 케이지'</li><li>'디퓨저 500ml 블랙체리향 리필액 옵션없음 '</li></ul>                                                                                                                                |
| 11.0  | <ul><li>'데미 우에보 디자인 큐브 드라이 왁스 80g 옵션없음 옐로우로켓'</li><li>'달리프글램 스타일링 픽서 200ml 옵션없음 포사도'</li><li>'데미 우에보 쥬카라 캐러메이크 휩 6 115ml 멋지데이'</li></ul>                                                                                                                                 |
| 5.0   | <ul><li>'인파우치 일자 10p 눈썹칼 MW2E5B0FE 옵션없음 윤성커뮤니케이션'</li><li>'코털가위 수동제거기 콧털 제거 코털왁싱 정리기 모기 옵션없음 에이펙스M'</li><li>'브러쉬세트 눈썹 1/2/3Pcs 윤곽 브러시 각도 얇은 플랫 라이너 휴대용 전문 눈 2pcs Set 리마104'</li></ul>                                                                                    |
| 3.0   | <ul><li>'눅스 멀티 리치 오일 100ml + 10ml 옵션없음 유쾌한 형제'</li><li>'펠리칸비누 일본 사랑하는 엉덩이 가슴 케어 비누 코이스루 사랑받는 가슴비누 씨앤에이치트레이드주식회사'</li><li>'에셀라이트 멀티 5.0 셀룰라이트 패치10매 1박스 옵션없음 비티아이'</li></ul>                                                                                              |

## Evaluation

### Metrics
| Label   | Accuracy |
|:--------|:---------|
| **all** | 0.7790   |

## Uses

### Direct Use for Inference

First install the SetFit library:

```bash
pip install setfit
```

Then you can load this model and run inference.

```python
from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_item_bt_test")
# Run inference
preds = model("3CE 아이 스위치 스턱 옵션없음 오로라")
```

<!--
### Downstream Use

*List how someone could finetune this model on their own dataset.*
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:-------|:----|
| Word count   | 3   | 9.3971 | 26  |

| Label | Training Sample Count |
|:------|:----------------------|
| 0.0   | 242                   |
| 1.0   | 134                   |
| 2.0   | 161                   |
| 3.0   | 324                   |
| 4.0   | 141                   |
| 5.0   | 130                   |
| 6.0   | 267                   |
| 7.0   | 133                   |
| 8.0   | 257                   |
| 9.0   | 251                   |
| 10.0  | 63                    |
| 11.0  | 117                   |
| 12.0  | 152                   |

### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (30, 30)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 60
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- l2_weight: 0.01
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False

### Training Results
| Epoch   | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0036  | 1    | 0.4074        | -               |
| 0.1799  | 50   | 0.3948        | -               |
| 0.3597  | 100  | 0.3285        | -               |
| 0.5396  | 150  | 0.2768        | -               |
| 0.7194  | 200  | 0.2286        | -               |
| 0.8993  | 250  | 0.1882        | -               |
| 1.0791  | 300  | 0.1492        | -               |
| 1.2590  | 350  | 0.1029        | -               |
| 1.4388  | 400  | 0.067         | -               |
| 1.6187  | 450  | 0.0507        | -               |
| 1.7986  | 500  | 0.0397        | -               |
| 1.9784  | 550  | 0.0346        | -               |
| 2.1583  | 600  | 0.0314        | -               |
| 2.3381  | 650  | 0.0302        | -               |
| 2.5180  | 700  | 0.0273        | -               |
| 2.6978  | 750  | 0.0248        | -               |
| 2.8777  | 800  | 0.022         | -               |
| 3.0576  | 850  | 0.0192        | -               |
| 3.2374  | 900  | 0.0122        | -               |
| 3.4173  | 950  | 0.0077        | -               |
| 3.5971  | 1000 | 0.007         | -               |
| 3.7770  | 1050 | 0.0054        | -               |
| 3.9568  | 1100 | 0.0044        | -               |
| 4.1367  | 1150 | 0.0038        | -               |
| 4.3165  | 1200 | 0.0035        | -               |
| 4.4964  | 1250 | 0.0036        | -               |
| 4.6763  | 1300 | 0.0026        | -               |
| 4.8561  | 1350 | 0.0008        | -               |
| 5.0360  | 1400 | 0.0005        | -               |
| 5.2158  | 1450 | 0.0003        | -               |
| 5.3957  | 1500 | 0.0003        | -               |
| 5.5755  | 1550 | 0.0002        | -               |
| 5.7554  | 1600 | 0.0002        | -               |
| 5.9353  | 1650 | 0.0002        | -               |
| 6.1151  | 1700 | 0.0003        | -               |
| 6.2950  | 1750 | 0.0002        | -               |
| 6.4748  | 1800 | 0.0003        | -               |
| 6.6547  | 1850 | 0.0002        | -               |
| 6.8345  | 1900 | 0.0001        | -               |
| 7.0144  | 1950 | 0.0001        | -               |
| 7.1942  | 2000 | 0.0002        | -               |
| 7.3741  | 2050 | 0.0002        | -               |
| 7.5540  | 2100 | 0.0001        | -               |
| 7.7338  | 2150 | 0.0001        | -               |
| 7.9137  | 2200 | 0.0001        | -               |
| 8.0935  | 2250 | 0.0001        | -               |
| 8.2734  | 2300 | 0.0001        | -               |
| 8.4532  | 2350 | 0.0002        | -               |
| 8.6331  | 2400 | 0.0002        | -               |
| 8.8129  | 2450 | 0.0002        | -               |
| 8.9928  | 2500 | 0.0001        | -               |
| 9.1727  | 2550 | 0.0001        | -               |
| 9.3525  | 2600 | 0.0001        | -               |
| 9.5324  | 2650 | 0.0008        | -               |
| 9.7122  | 2700 | 0.0003        | -               |
| 9.8921  | 2750 | 0.0002        | -               |
| 10.0719 | 2800 | 0.0005        | -               |
| 10.2518 | 2850 | 0.0002        | -               |
| 10.4317 | 2900 | 0.0001        | -               |
| 10.6115 | 2950 | 0.0001        | -               |
| 10.7914 | 3000 | 0.0001        | -               |
| 10.9712 | 3050 | 0.0001        | -               |
| 11.1511 | 3100 | 0.0           | -               |
| 11.3309 | 3150 | 0.0           | -               |
| 11.5108 | 3200 | 0.0           | -               |
| 11.6906 | 3250 | 0.0           | -               |
| 11.8705 | 3300 | 0.0           | -               |
| 12.0504 | 3350 | 0.0           | -               |
| 12.2302 | 3400 | 0.0           | -               |
| 12.4101 | 3450 | 0.0           | -               |
| 12.5899 | 3500 | 0.0           | -               |
| 12.7698 | 3550 | 0.0           | -               |
| 12.9496 | 3600 | 0.0           | -               |
| 13.1295 | 3650 | 0.0           | -               |
| 13.3094 | 3700 | 0.0           | -               |
| 13.4892 | 3750 | 0.0           | -               |
| 13.6691 | 3800 | 0.0           | -               |
| 13.8489 | 3850 | 0.0           | -               |
| 14.0288 | 3900 | 0.0           | -               |
| 14.2086 | 3950 | 0.0           | -               |
| 14.3885 | 4000 | 0.0           | -               |
| 14.5683 | 4050 | 0.0           | -               |
| 14.7482 | 4100 | 0.0           | -               |
| 14.9281 | 4150 | 0.0           | -               |
| 15.1079 | 4200 | 0.0           | -               |
| 15.2878 | 4250 | 0.0           | -               |
| 15.4676 | 4300 | 0.0           | -               |
| 15.6475 | 4350 | 0.0           | -               |
| 15.8273 | 4400 | 0.0003        | -               |
| 16.0072 | 4450 | 0.0002        | -               |
| 16.1871 | 4500 | 0.0001        | -               |
| 16.3669 | 4550 | 0.0           | -               |
| 16.5468 | 4600 | 0.0           | -               |
| 16.7266 | 4650 | 0.0           | -               |
| 16.9065 | 4700 | 0.0           | -               |
| 17.0863 | 4750 | 0.0002        | -               |
| 17.2662 | 4800 | 0.0002        | -               |
| 17.4460 | 4850 | 0.0001        | -               |
| 17.6259 | 4900 | 0.0           | -               |
| 17.8058 | 4950 | 0.0           | -               |
| 17.9856 | 5000 | 0.0           | -               |
| 18.1655 | 5050 | 0.0           | -               |
| 18.3453 | 5100 | 0.0           | -               |
| 18.5252 | 5150 | 0.0           | -               |
| 18.7050 | 5200 | 0.0           | -               |
| 18.8849 | 5250 | 0.0           | -               |
| 19.0647 | 5300 | 0.0           | -               |
| 19.2446 | 5350 | 0.0           | -               |
| 19.4245 | 5400 | 0.0           | -               |
| 19.6043 | 5450 | 0.0           | -               |
| 19.7842 | 5500 | 0.0           | -               |
| 19.9640 | 5550 | 0.0           | -               |
| 20.1439 | 5600 | 0.0001        | -               |
| 20.3237 | 5650 | 0.0001        | -               |
| 20.5036 | 5700 | 0.0001        | -               |
| 20.6835 | 5750 | 0.0001        | -               |
| 20.8633 | 5800 | 0.0           | -               |
| 21.0432 | 5850 | 0.0           | -               |
| 21.2230 | 5900 | 0.0           | -               |
| 21.4029 | 5950 | 0.0001        | -               |
| 21.5827 | 6000 | 0.0001        | -               |
| 21.7626 | 6050 | 0.0001        | -               |
| 21.9424 | 6100 | 0.0           | -               |
| 22.1223 | 6150 | 0.0           | -               |
| 22.3022 | 6200 | 0.0           | -               |
| 22.4820 | 6250 | 0.0           | -               |
| 22.6619 | 6300 | 0.0           | -               |
| 22.8417 | 6350 | 0.0           | -               |
| 23.0216 | 6400 | 0.0           | -               |
| 23.2014 | 6450 | 0.0           | -               |
| 23.3813 | 6500 | 0.0           | -               |
| 23.5612 | 6550 | 0.0           | -               |
| 23.7410 | 6600 | 0.0           | -               |
| 23.9209 | 6650 | 0.0           | -               |
| 24.1007 | 6700 | 0.0           | -               |
| 24.2806 | 6750 | 0.0           | -               |
| 24.4604 | 6800 | 0.0           | -               |
| 24.6403 | 6850 | 0.0           | -               |
| 24.8201 | 6900 | 0.0           | -               |
| 25.0    | 6950 | 0.0           | -               |
| 25.1799 | 7000 | 0.0           | -               |
| 25.3597 | 7050 | 0.0           | -               |
| 25.5396 | 7100 | 0.0           | -               |
| 25.7194 | 7150 | 0.0           | -               |
| 25.8993 | 7200 | 0.0           | -               |
| 26.0791 | 7250 | 0.0           | -               |
| 26.2590 | 7300 | 0.0           | -               |
| 26.4388 | 7350 | 0.0           | -               |
| 26.6187 | 7400 | 0.0           | -               |
| 26.7986 | 7450 | 0.0           | -               |
| 26.9784 | 7500 | 0.0           | -               |
| 27.1583 | 7550 | 0.0           | -               |
| 27.3381 | 7600 | 0.0           | -               |
| 27.5180 | 7650 | 0.0           | -               |
| 27.6978 | 7700 | 0.0           | -               |
| 27.8777 | 7750 | 0.0           | -               |
| 28.0576 | 7800 | 0.0           | -               |
| 28.2374 | 7850 | 0.0           | -               |
| 28.4173 | 7900 | 0.0           | -               |
| 28.5971 | 7950 | 0.0           | -               |
| 28.7770 | 8000 | 0.0           | -               |
| 28.9568 | 8050 | 0.0           | -               |
| 29.1367 | 8100 | 0.0           | -               |
| 29.3165 | 8150 | 0.0           | -               |
| 29.4964 | 8200 | 0.0           | -               |
| 29.6763 | 8250 | 0.0           | -               |
| 29.8561 | 8300 | 0.0           | -               |

### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0
- Sentence Transformers: 3.3.1
- Transformers: 4.44.2
- PyTorch: 2.2.0a0+81ea7a4
- Datasets: 3.2.0
- Tokenizers: 0.19.1

## Citation

### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->