File size: 21,165 Bytes
bd65d2a 2678c3e bd65d2a 2678c3e bd65d2a 2678c3e bd65d2a 2678c3e bd65d2a 2678c3e bd65d2a 2678c3e bd65d2a 2678c3e bd65d2a 9cffeb6 2678c3e bd65d2a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 |
---
base_model: klue/roberta-base
library_name: setfit
metrics:
- accuracy
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 3CE 아이 스위치 스턱 옵션없음 오로라
- text: 데이셀 모발아 탈모 새치케어 더마 스칼프 블랙턴 앤 프로틴 앰플 20ml×3개 옵션없음 주식회사 케이티알파
- text: 라운드랩 1025 독도 클렌징 밀크 200ml 옵션없음 혜담몰
- text: '[네이처리퍼블릭] 블랙빈 탈모증상 완화 두피 토닉 120ml 블랙빈 탈모증상 완화 두피 토닉 (주)네이처리퍼블릭'
- text: AHC 텐 레볼루션 리얼 아이크림 포 페이스 12ml 1. 시즌10 아이크림 12ml (주)여인닷컴
inference: true
model-index:
- name: SetFit with klue/roberta-base
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: accuracy
value: 0.7789760472244296
name: Accuracy
---
# SetFit with klue/roberta-base
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [klue/roberta-base](https://huggingface.co/klue/roberta-base) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.
## Model Details
### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [klue/roberta-base](https://huggingface.co/klue/roberta-base)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 13 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
### Model Labels
| Label | Examples |
|:------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 1.0 | <ul><li>'루핀 젤클리너 젤클렌저 500ml 옵션없음 주식회사 코즈랩'</li><li>'닥터+스피릿 안티F오일 12ml / 문제성 손발톱 닥터+스피릿 안티F오일 12ml 미스타'</li><li>'Coms LED 손톱깎이돋보기CW-816 조명 KW6E00D3 옵션없음 하니스토어13'</li></ul> |
| 7.0 | <ul><li>'파티온 기미잡티 토닝 선 패치 18g (4매입) x2개 세트 파티온'</li><li>'avk 알로에베라 태닝 오일 150ml 휴양지 썬배드 일광욕 옵션없음 누리월드'</li><li>'DARK TANS EXCLUSIVE 태닝로션 액셀러레이터 실내 및 야외용 선탠용 옵션없음 위그로우랩스'</li></ul> |
| 12.0 | <ul><li>'아모스 녹차실감 볼류마이징 미스트 140ml 옵션없음 주식회사 케이스코'</li><li>'[르도암 공식]르도암 카멜리아 헤어 2종 세트(샴푸+트리트먼트) LEDOAM1935'</li><li>'3+1워터리스 드라이샴푸 떡진머리 냄새제거 장기요양 재가 병원 환자 산모 야영 냄새제로 옵션없음 은혜이슬'</li></ul> |
| 2.0 | <ul><li>'오겔리 노워터 아이패치 누드 화이트 화이트 와이에스엠무역'</li><li>'린제이 프리미엄 쿨 티트리 모델링 마스크 고무팩 820g 11203535 옵션없음 타임퍼니'</li><li>'미팩토리 1단 돼지코팩 10매입 블랙헤드제거 빠르고 강력하고 깨끗하게 미팩토리 1단 돼지코팩 10매입 일동상사'</li></ul> |
| 8.0 | <ul><li>'최대 45% / 달바 비건 멀티밤 10gX2개 [세트] 멀티밤10g(2개) 주식회사 달바글로벌'</li><li>'[메디비티] 뱀파이어 앰플 2개 옵션없음 (주)지에스리테일 홈쇼핑'</li><li>'김정문알로에 큐어 하이드라 수딩 에멀젼 130ml 동의합니다 아라'</li></ul> |
| 6.0 | <ul><li>'릴리바이레드 SET 무드 키보드+펜라이너 세트 6 치즈(L241A)_01 매트블랙(L065A) 클래식스타일'</li><li>'[2SET] 랩노 리프티드 세라마이드 립밤 3.7g 2개 옵션없음 콜마생활건강 주식회사'</li><li>'이니스프리 스키니 꼼꼼카라 제로 2호 브라운 옵션없음 맥스베스트'</li></ul> |
| 0.0 | <ul><li>'참존 포 맨 스킨 에센스 100ml 참존'</li><li>'BRTC 파워 옴므 올인원 솔루션 더블 기획 200ml 옵션없음 비인네이쳐'</li><li>'후 공진향 군 자양 로션 100ml 옵션없음 주식회사다인'</li></ul> |
| 4.0 | <ul><li>'3W 크리스탈 화이트닝 크림 SPF 50+PA+++ 옵션없음 윤사'</li><li>'르베라쥬 테이크 미 트윈케익(23호) 옵션없음 조아쓰'</li><li>'킬커버 파운웨어 컨실러 2호 란제리 (주)씨제이이엔엠'</li></ul> |
| 9.0 | <ul><li>'리드하이제닉 눈세정제 눈꺼풀 청결제 아이클리너 마이봄샘 눈 기름샘 청소 세척 세정 폼타입 몸 리드하이제닉스 1개 + 순면패드 100매 아이디앤코'</li><li>'코스알엑스 원스텝 오리지널 클리어 패드 70매 - 토너패드 스킨팩 각질 열감 진정 오리지널 클리어 패드. 주식회사 포러스'</li><li>'바이오옵틱스 아이클린 리드클리너 눈꺼풀세정제 30p 60ml 1개 one option one option_one option 패기스토어'</li></ul> |
| 10.0 | <ul><li>'50개입 막대기 우드 섬유 디퓨저 리드스틱 옵션없음 '</li><li>'디퓨저 용기 뚜껑 스크류 29.9mm(블랙)/캡 마개 재료 옵션없음 케이지'</li><li>'디퓨저 500ml 블랙체리향 리필액 옵션없음 '</li></ul> |
| 11.0 | <ul><li>'데미 우에보 디자인 큐브 드라이 왁스 80g 옵션없음 옐로우로켓'</li><li>'달리프글램 스타일링 픽서 200ml 옵션없음 포사도'</li><li>'데미 우에보 쥬카라 캐러메이크 휩 6 115ml 멋지데이'</li></ul> |
| 5.0 | <ul><li>'인파우치 일자 10p 눈썹칼 MW2E5B0FE 옵션없음 윤성커뮤니케이션'</li><li>'코털가위 수동제거기 콧털 제거 코털왁싱 정리기 모기 옵션없음 에이펙스M'</li><li>'브러쉬세트 눈썹 1/2/3Pcs 윤곽 브러시 각도 얇은 플랫 라이너 휴대용 전문 눈 2pcs Set 리마104'</li></ul> |
| 3.0 | <ul><li>'눅스 멀티 리치 오일 100ml + 10ml 옵션없음 유쾌한 형제'</li><li>'펠리칸비누 일본 사랑하는 엉덩이 가슴 케어 비누 코이스루 사랑받는 가슴비누 씨앤에이치트레이드주식회사'</li><li>'에셀라이트 멀티 5.0 셀룰라이트 패치10매 1박스 옵션없음 비티아이'</li></ul> |
## Evaluation
### Metrics
| Label | Accuracy |
|:--------|:---------|
| **all** | 0.7790 |
## Uses
### Direct Use for Inference
First install the SetFit library:
```bash
pip install setfit
```
Then you can load this model and run inference.
```python
from setfit import SetFitModel
# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_item_bt_test")
# Run inference
preds = model("3CE 아이 스위치 스턱 옵션없음 오로라")
```
<!--
### Downstream Use
*List how someone could finetune this model on their own dataset.*
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:-------|:----|
| Word count | 3 | 9.3971 | 26 |
| Label | Training Sample Count |
|:------|:----------------------|
| 0.0 | 242 |
| 1.0 | 134 |
| 2.0 | 161 |
| 3.0 | 324 |
| 4.0 | 141 |
| 5.0 | 130 |
| 6.0 | 267 |
| 7.0 | 133 |
| 8.0 | 257 |
| 9.0 | 251 |
| 10.0 | 63 |
| 11.0 | 117 |
| 12.0 | 152 |
### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (30, 30)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 60
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- l2_weight: 0.01
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False
### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0036 | 1 | 0.4074 | - |
| 0.1799 | 50 | 0.3948 | - |
| 0.3597 | 100 | 0.3285 | - |
| 0.5396 | 150 | 0.2768 | - |
| 0.7194 | 200 | 0.2286 | - |
| 0.8993 | 250 | 0.1882 | - |
| 1.0791 | 300 | 0.1492 | - |
| 1.2590 | 350 | 0.1029 | - |
| 1.4388 | 400 | 0.067 | - |
| 1.6187 | 450 | 0.0507 | - |
| 1.7986 | 500 | 0.0397 | - |
| 1.9784 | 550 | 0.0346 | - |
| 2.1583 | 600 | 0.0314 | - |
| 2.3381 | 650 | 0.0302 | - |
| 2.5180 | 700 | 0.0273 | - |
| 2.6978 | 750 | 0.0248 | - |
| 2.8777 | 800 | 0.022 | - |
| 3.0576 | 850 | 0.0192 | - |
| 3.2374 | 900 | 0.0122 | - |
| 3.4173 | 950 | 0.0077 | - |
| 3.5971 | 1000 | 0.007 | - |
| 3.7770 | 1050 | 0.0054 | - |
| 3.9568 | 1100 | 0.0044 | - |
| 4.1367 | 1150 | 0.0038 | - |
| 4.3165 | 1200 | 0.0035 | - |
| 4.4964 | 1250 | 0.0036 | - |
| 4.6763 | 1300 | 0.0026 | - |
| 4.8561 | 1350 | 0.0008 | - |
| 5.0360 | 1400 | 0.0005 | - |
| 5.2158 | 1450 | 0.0003 | - |
| 5.3957 | 1500 | 0.0003 | - |
| 5.5755 | 1550 | 0.0002 | - |
| 5.7554 | 1600 | 0.0002 | - |
| 5.9353 | 1650 | 0.0002 | - |
| 6.1151 | 1700 | 0.0003 | - |
| 6.2950 | 1750 | 0.0002 | - |
| 6.4748 | 1800 | 0.0003 | - |
| 6.6547 | 1850 | 0.0002 | - |
| 6.8345 | 1900 | 0.0001 | - |
| 7.0144 | 1950 | 0.0001 | - |
| 7.1942 | 2000 | 0.0002 | - |
| 7.3741 | 2050 | 0.0002 | - |
| 7.5540 | 2100 | 0.0001 | - |
| 7.7338 | 2150 | 0.0001 | - |
| 7.9137 | 2200 | 0.0001 | - |
| 8.0935 | 2250 | 0.0001 | - |
| 8.2734 | 2300 | 0.0001 | - |
| 8.4532 | 2350 | 0.0002 | - |
| 8.6331 | 2400 | 0.0002 | - |
| 8.8129 | 2450 | 0.0002 | - |
| 8.9928 | 2500 | 0.0001 | - |
| 9.1727 | 2550 | 0.0001 | - |
| 9.3525 | 2600 | 0.0001 | - |
| 9.5324 | 2650 | 0.0008 | - |
| 9.7122 | 2700 | 0.0003 | - |
| 9.8921 | 2750 | 0.0002 | - |
| 10.0719 | 2800 | 0.0005 | - |
| 10.2518 | 2850 | 0.0002 | - |
| 10.4317 | 2900 | 0.0001 | - |
| 10.6115 | 2950 | 0.0001 | - |
| 10.7914 | 3000 | 0.0001 | - |
| 10.9712 | 3050 | 0.0001 | - |
| 11.1511 | 3100 | 0.0 | - |
| 11.3309 | 3150 | 0.0 | - |
| 11.5108 | 3200 | 0.0 | - |
| 11.6906 | 3250 | 0.0 | - |
| 11.8705 | 3300 | 0.0 | - |
| 12.0504 | 3350 | 0.0 | - |
| 12.2302 | 3400 | 0.0 | - |
| 12.4101 | 3450 | 0.0 | - |
| 12.5899 | 3500 | 0.0 | - |
| 12.7698 | 3550 | 0.0 | - |
| 12.9496 | 3600 | 0.0 | - |
| 13.1295 | 3650 | 0.0 | - |
| 13.3094 | 3700 | 0.0 | - |
| 13.4892 | 3750 | 0.0 | - |
| 13.6691 | 3800 | 0.0 | - |
| 13.8489 | 3850 | 0.0 | - |
| 14.0288 | 3900 | 0.0 | - |
| 14.2086 | 3950 | 0.0 | - |
| 14.3885 | 4000 | 0.0 | - |
| 14.5683 | 4050 | 0.0 | - |
| 14.7482 | 4100 | 0.0 | - |
| 14.9281 | 4150 | 0.0 | - |
| 15.1079 | 4200 | 0.0 | - |
| 15.2878 | 4250 | 0.0 | - |
| 15.4676 | 4300 | 0.0 | - |
| 15.6475 | 4350 | 0.0 | - |
| 15.8273 | 4400 | 0.0003 | - |
| 16.0072 | 4450 | 0.0002 | - |
| 16.1871 | 4500 | 0.0001 | - |
| 16.3669 | 4550 | 0.0 | - |
| 16.5468 | 4600 | 0.0 | - |
| 16.7266 | 4650 | 0.0 | - |
| 16.9065 | 4700 | 0.0 | - |
| 17.0863 | 4750 | 0.0002 | - |
| 17.2662 | 4800 | 0.0002 | - |
| 17.4460 | 4850 | 0.0001 | - |
| 17.6259 | 4900 | 0.0 | - |
| 17.8058 | 4950 | 0.0 | - |
| 17.9856 | 5000 | 0.0 | - |
| 18.1655 | 5050 | 0.0 | - |
| 18.3453 | 5100 | 0.0 | - |
| 18.5252 | 5150 | 0.0 | - |
| 18.7050 | 5200 | 0.0 | - |
| 18.8849 | 5250 | 0.0 | - |
| 19.0647 | 5300 | 0.0 | - |
| 19.2446 | 5350 | 0.0 | - |
| 19.4245 | 5400 | 0.0 | - |
| 19.6043 | 5450 | 0.0 | - |
| 19.7842 | 5500 | 0.0 | - |
| 19.9640 | 5550 | 0.0 | - |
| 20.1439 | 5600 | 0.0001 | - |
| 20.3237 | 5650 | 0.0001 | - |
| 20.5036 | 5700 | 0.0001 | - |
| 20.6835 | 5750 | 0.0001 | - |
| 20.8633 | 5800 | 0.0 | - |
| 21.0432 | 5850 | 0.0 | - |
| 21.2230 | 5900 | 0.0 | - |
| 21.4029 | 5950 | 0.0001 | - |
| 21.5827 | 6000 | 0.0001 | - |
| 21.7626 | 6050 | 0.0001 | - |
| 21.9424 | 6100 | 0.0 | - |
| 22.1223 | 6150 | 0.0 | - |
| 22.3022 | 6200 | 0.0 | - |
| 22.4820 | 6250 | 0.0 | - |
| 22.6619 | 6300 | 0.0 | - |
| 22.8417 | 6350 | 0.0 | - |
| 23.0216 | 6400 | 0.0 | - |
| 23.2014 | 6450 | 0.0 | - |
| 23.3813 | 6500 | 0.0 | - |
| 23.5612 | 6550 | 0.0 | - |
| 23.7410 | 6600 | 0.0 | - |
| 23.9209 | 6650 | 0.0 | - |
| 24.1007 | 6700 | 0.0 | - |
| 24.2806 | 6750 | 0.0 | - |
| 24.4604 | 6800 | 0.0 | - |
| 24.6403 | 6850 | 0.0 | - |
| 24.8201 | 6900 | 0.0 | - |
| 25.0 | 6950 | 0.0 | - |
| 25.1799 | 7000 | 0.0 | - |
| 25.3597 | 7050 | 0.0 | - |
| 25.5396 | 7100 | 0.0 | - |
| 25.7194 | 7150 | 0.0 | - |
| 25.8993 | 7200 | 0.0 | - |
| 26.0791 | 7250 | 0.0 | - |
| 26.2590 | 7300 | 0.0 | - |
| 26.4388 | 7350 | 0.0 | - |
| 26.6187 | 7400 | 0.0 | - |
| 26.7986 | 7450 | 0.0 | - |
| 26.9784 | 7500 | 0.0 | - |
| 27.1583 | 7550 | 0.0 | - |
| 27.3381 | 7600 | 0.0 | - |
| 27.5180 | 7650 | 0.0 | - |
| 27.6978 | 7700 | 0.0 | - |
| 27.8777 | 7750 | 0.0 | - |
| 28.0576 | 7800 | 0.0 | - |
| 28.2374 | 7850 | 0.0 | - |
| 28.4173 | 7900 | 0.0 | - |
| 28.5971 | 7950 | 0.0 | - |
| 28.7770 | 8000 | 0.0 | - |
| 28.9568 | 8050 | 0.0 | - |
| 29.1367 | 8100 | 0.0 | - |
| 29.3165 | 8150 | 0.0 | - |
| 29.4964 | 8200 | 0.0 | - |
| 29.6763 | 8250 | 0.0 | - |
| 29.8561 | 8300 | 0.0 | - |
### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0
- Sentence Transformers: 3.3.1
- Transformers: 4.44.2
- PyTorch: 2.2.0a0+81ea7a4
- Datasets: 3.2.0
- Tokenizers: 0.19.1
## Citation
### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |