cbpuschmann
commited on
Commit
•
11ff7eb
1
Parent(s):
883dde5
Add SetFit model
Browse files- .gitattributes +2 -0
- 1_Pooling/config.json +10 -0
- README.md +455 -0
- config.json +26 -0
- config_sentence_transformers.json +10 -0
- config_setfit.json +8 -0
- model.safetensors +3 -0
- model_head.pkl +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +64 -0
- unigram.json +3 -0
.gitattributes
CHANGED
@@ -33,3 +33,5 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
37 |
+
unigram.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 384,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,455 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
|
3 |
+
library_name: setfit
|
4 |
+
metrics:
|
5 |
+
- accuracy
|
6 |
+
pipeline_tag: text-classification
|
7 |
+
tags:
|
8 |
+
- setfit
|
9 |
+
- sentence-transformers
|
10 |
+
- text-classification
|
11 |
+
- generated_from_setfit_trainer
|
12 |
+
widget:
|
13 |
+
- text: Bei den Koalitionsverhandlungen von SPD, Grünen und FDP war die Einführung
|
14 |
+
eines generellen Tempolimits auf deutschen Autobahnen am Widerstand der Liberalen
|
15 |
+
gescheitert. Auch bei einem vor kurzem von den Koalitionsspitzen beschlossenen
|
16 |
+
Maßnahmenpaket auch zum Energiesparen fehlte ein Tempolimit.
|
17 |
+
- text: 'Deutschland will 2045 klimaneutral sein. Bis dahin müssen die Emissionen
|
18 |
+
nach und nach sinken. Das bedeutet, dass alle Wirtschafts- und Lebensbereiche
|
19 |
+
sich von der Nutzung fossiler Energien verabschieden müssen – so auch das Heizen.
|
20 |
+
Statt mit Öl und Gas müssen die Gebäude also mit erneuerbaren Optionen aufgewärmt
|
21 |
+
werden, zum Beispiel mit Wärmepumpen, Solar- oder Geothermie. Bislang geht es
|
22 |
+
dabei aber kaum voran: Noch im ersten Quartal dieses Jahres waren laut des Bundesverbands
|
23 |
+
der Deutschen Heizungsindustrie mehr als die Hälfte der verkauften Heizungen gasbetrieben.
|
24 |
+
Ganz grundsätzlich sieht das neue Heizungsgesetz nun vor, dass neue Heizungen
|
25 |
+
ab dem kommenden Jahr mindestens zu 65 Prozent erneuerbar betrieben werden. Durch
|
26 |
+
Ausnahmen wie die bei wasserstofftauglichen Gasheizungen soll das aber nur noch
|
27 |
+
eingeschränkt gelten.'
|
28 |
+
- text: Clemens Traub bezeichnete FFF als Bewegung, in der Arzttöchter anderen die
|
29 |
+
Welt erklären. Wie wollen Sie denn die Männer von der Autobahnmeisterer oder die
|
30 |
+
Fernpendlerin erreichen?Niemand schlägt vor, dass in Deutschland alle Autobahnen
|
31 |
+
rückgebaut werden sollen. Natürlich müssen marode Straßen und Brücken saniert
|
32 |
+
werden, damit sich Menschen sicher bewegen können. Gleichzeitig sollte Mobilität
|
33 |
+
so gestaltet werden, dass wir nicht durch jeden Weg, den wir zurücklegen, Klimaschäden
|
34 |
+
produzieren, die sich nicht mehr auffangen lassen.
|
35 |
+
- text: ', die Jugendvertretung Bayern der Gewerkschaft Nahrung Genussmittel Gaststätten
|
36 |
+
NGG, die Bund-Naturschutz-Jugend, die Falken im Bezirk Südbayern, die Münchner
|
37 |
+
Mieterschutzinitiative ›Ausspekuliert›, ein bundesweites Bündnis Armutsbetroffener
|
38 |
+
ichbinarmutsbetroffen, FFF, das Bündnis Attac, der Paritätische Wohlfahrtsverband
|
39 |
+
Bayern und der Sozialverband VdK Bayern.'
|
40 |
+
- text: 'Am späten Vormittag zogen die Klima-Chaoten eine erste Zwischenbilanz:.Aimée
|
41 |
+
Vanbaalen, Sprecherin der ›DLG›, über die Störungen: ›Unsere höchsten Erwartungen
|
42 |
+
wurden deutlich übertroffen! An 27 Verkehrsknotenpunkten in Berlin kam es heute
|
43 |
+
zu Protesten, drei Mal so viele wie noch im letzten Herbst.›'
|
44 |
+
inference: true
|
45 |
+
model-index:
|
46 |
+
- name: SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
|
47 |
+
results:
|
48 |
+
- task:
|
49 |
+
type: text-classification
|
50 |
+
name: Text Classification
|
51 |
+
dataset:
|
52 |
+
name: Unknown
|
53 |
+
type: unknown
|
54 |
+
split: test
|
55 |
+
metrics:
|
56 |
+
- type: accuracy
|
57 |
+
value: 0.6916666666666667
|
58 |
+
name: Accuracy
|
59 |
+
---
|
60 |
+
|
61 |
+
# SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
|
62 |
+
|
63 |
+
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
|
64 |
+
|
65 |
+
The model has been trained using an efficient few-shot learning technique that involves:
|
66 |
+
|
67 |
+
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
|
68 |
+
2. Training a classification head with features from the fine-tuned Sentence Transformer.
|
69 |
+
|
70 |
+
## Model Details
|
71 |
+
|
72 |
+
### Model Description
|
73 |
+
- **Model Type:** SetFit
|
74 |
+
- **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2)
|
75 |
+
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
|
76 |
+
- **Maximum Sequence Length:** 128 tokens
|
77 |
+
- **Number of Classes:** 3 classes
|
78 |
+
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
|
79 |
+
<!-- - **Language:** Unknown -->
|
80 |
+
<!-- - **License:** Unknown -->
|
81 |
+
|
82 |
+
### Model Sources
|
83 |
+
|
84 |
+
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
|
85 |
+
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
|
86 |
+
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
|
87 |
+
|
88 |
+
### Model Labels
|
89 |
+
| Label | Examples |
|
90 |
+
|:-----------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
91 |
+
| OPPOSED | <ul><li>'Um weitere 1,8 Prozent soll sich der Autobahnverkehr reduzieren, weil angeblich wegen des Tempolimits Autofahrer auf den öffentlichen Nahverkehr umsteigen würden. Beide Annahmen sind nicht gerade plausibel, zumal die Autoren der Studie selbst zugeben, dass wichtige Faktoren, wie der Ticketpreis, die Dauer der Fahrt mit Bus und Bahn oder auch die Komforteinbuße nicht berücksichtigt wurden: "Hierbei wird allerdings das Verkehrsangebot (Reisezeit, Preis, Bequemlichkeit etc.) der anderen Verkehrsträger vernachlässigt", schreiben sie auf Seite 206.'</li><li>'Pop Das Heizungsgesetz ist durch die lange Debatte nicht besser geworden, Verbraucherinnen und Verbrauchern fehlt weiter die nötige Klarheit. Das Sammelsurium an Optionen überfordert sie. Und es drohen Kostenfallen, etwa durch den schnellen Kauf einer Gasheizung.'</li><li>'Buschmann kritisiert Autobahnblockaden Berlin - Justizminister Marco Buschmann FDP hat Kritik an Aktionen der Klimaschutzbewegung ›DLG› geübt. ›Wer Krankenwagen blockiert, kann sich unter Umständen der fahrlässigen Körperverletzung schuldig machen›, schrieb er auf'</li></ul> |
|
92 |
+
| NEUTRAL | <ul><li>'Die Ampelkoalition ringt um das umstrittene Heizungsgesetz. Die Grünen forderten die FDP auf, den Weg für Beratungen im Bundestag frei zu machen. „Wir gehen davon aus, dass die FDP ihre Blockade, was die erste Lesung des Gesetzes im Bundestag angeht, aufgeben wird“, sagte die stellvertretende Fraktionsvorsitzende Julia Verlinden am Freitag. Es müsse Planungssicherheit für Menschen und Unternehmen geschaffen werden, was von 2024 an gelte. FDP-Politiker entgegneten, die Liberalen ließen sich nicht unter Zeitdruck setzen. „Für uns gilt: Gründlichkeit geht vor Schnelligkeit“, sagte der FDP-Energiepolitiker Konrad Stockmeier. Die FDP will grundsätzliche Nachbesserungen an einem vom Kabinett bereits beschlossenen Gesetzentwurf. Dieser sieht vor, dass von Anfang 2024 an möglichst jede neu eingebaute Heizung zu mindestens 65 Prozent mit Ökoenergie betrieben wird.'</li><li>'Germering - Mit dem geplanten Heizungsgesetz hat die Opposition im Bundestag momentan wenig Arbeit. Die Ampelkoalition zerstreitet sich von ganz alleine über den sogenannten „Habeck-Hammer“. Wie blickt man also von außen auf das Gerangel von FDP und Grünen? Und hat das Gesetz nicht auch seine Vorzüge? Ein Gespräch mit dem Bundestagsabgeordneten Michael Kießling (Wahlkreis Starnberg-Landsberg-Germering), der in der CSU-Fraktion Berichterstatter für Energiethemen ist.'</li><li>'Die Bundesrepublik war nicht von diesem Boykott betroffen. Aber den steigenden Ölpreis bekamen auch die Westdeutschen zu spüren - binnen vier Wochen vervierfachte sich dieser. Die Verantwortlichen der sozialliberalen Koalition mussten sich etwas einfallen lassen. Die ersten Maßnahmen bestanden darin, vier autofreie Sonntage zu verordnen und ein vorübergehendes Tempolimit von 100 km/h auf den Autobahnen und 80 km/h auf Landstraßen durchzudrücken.'</li></ul> |
|
93 |
+
| SUPPORTIVE | <ul><li>'Eigentlich ist er gar nicht mehr zuständig, sondern das Parlament. Doch der grüne Bundeswirtschaftsminister Robert\u2005Habeck versucht, den Koalitionspartner FDP im Gespräch vom umstrittenen Heizungsgesetz zu überzeugen.'</li><li>'09.30 Uhr: Im Sinne des Klimaschutzes will die Bundesregierung den Abschied von Gas- und Ölheizungen einläuten. Das Bundeskabinett brachte am Mittwoch umstrittene Pläne zum Heizungstausch auf den Weg. Geplant ist auch eine neue Förderung mit „Klimaboni“, um Hauseigentümer finanziell nicht zu überfordern. Wirtschafts- und Klimaschutzminister Robert Habeck (Grüne) und Bauministerin Klara Geywitz (SPD) sprachen von einem großen Schritt.'</li><li>'Nutzen Sie auch Samples? Nicht direkt. Womit ich gearbeitet habe, waren Radio und Hörspiele: Die habe ich laufen lassen und aufgenommen. Das ist das, wo man sagen könnte, es klingt wie ein Sample. Bei dem Stück ›Cosmic Diversity› ist es zum Beispiel David Attenborough, der da spricht. Die Stimme passte so schön und was er sagt, hat auch eine Message: die ›FFF›-Message, dass man den Klimawandel global betrachten muss.'</li></ul> |
|
94 |
+
|
95 |
+
## Evaluation
|
96 |
+
|
97 |
+
### Metrics
|
98 |
+
| Label | Accuracy |
|
99 |
+
|:--------|:---------|
|
100 |
+
| **all** | 0.6917 |
|
101 |
+
|
102 |
+
## Uses
|
103 |
+
|
104 |
+
### Direct Use for Inference
|
105 |
+
|
106 |
+
First install the SetFit library:
|
107 |
+
|
108 |
+
```bash
|
109 |
+
pip install setfit
|
110 |
+
```
|
111 |
+
|
112 |
+
Then you can load this model and run inference.
|
113 |
+
|
114 |
+
```python
|
115 |
+
from setfit import SetFitModel
|
116 |
+
|
117 |
+
# Download from the 🤗 Hub
|
118 |
+
model = SetFitModel.from_pretrained("cbpuschmann/MiniLM-klimacoder_v0.1")
|
119 |
+
# Run inference
|
120 |
+
preds = model("Bei den Koalitionsverhandlungen von SPD, Grünen und FDP war die Einführung eines generellen Tempolimits auf deutschen Autobahnen am Widerstand der Liberalen gescheitert. Auch bei einem vor kurzem von den Koalitionsspitzen beschlossenen Maßnahmenpaket auch zum Energiesparen fehlte ein Tempolimit.")
|
121 |
+
```
|
122 |
+
|
123 |
+
<!--
|
124 |
+
### Downstream Use
|
125 |
+
|
126 |
+
*List how someone could finetune this model on their own dataset.*
|
127 |
+
-->
|
128 |
+
|
129 |
+
<!--
|
130 |
+
### Out-of-Scope Use
|
131 |
+
|
132 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
133 |
+
-->
|
134 |
+
|
135 |
+
<!--
|
136 |
+
## Bias, Risks and Limitations
|
137 |
+
|
138 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
139 |
+
-->
|
140 |
+
|
141 |
+
<!--
|
142 |
+
### Recommendations
|
143 |
+
|
144 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
145 |
+
-->
|
146 |
+
|
147 |
+
## Training Details
|
148 |
+
|
149 |
+
### Training Set Metrics
|
150 |
+
| Training set | Min | Median | Max |
|
151 |
+
|:-------------|:----|:--------|:----|
|
152 |
+
| Word count | 15 | 65.3896 | 237 |
|
153 |
+
|
154 |
+
| Label | Training Sample Count |
|
155 |
+
|:-----------|:----------------------|
|
156 |
+
| NEUTRAL | 219 |
|
157 |
+
| OPPOSED | 125 |
|
158 |
+
| SUPPORTIVE | 136 |
|
159 |
+
|
160 |
+
### Training Hyperparameters
|
161 |
+
- batch_size: (128, 128)
|
162 |
+
- num_epochs: (10, 10)
|
163 |
+
- max_steps: -1
|
164 |
+
- sampling_strategy: oversampling
|
165 |
+
- body_learning_rate: (2e-05, 1e-05)
|
166 |
+
- head_learning_rate: 0.01
|
167 |
+
- loss: CosineSimilarityLoss
|
168 |
+
- distance_metric: cosine_distance
|
169 |
+
- margin: 0.25
|
170 |
+
- end_to_end: False
|
171 |
+
- use_amp: False
|
172 |
+
- warmup_proportion: 0.1
|
173 |
+
- l2_weight: 0.01
|
174 |
+
- seed: 42
|
175 |
+
- eval_max_steps: -1
|
176 |
+
- load_best_model_at_end: False
|
177 |
+
|
178 |
+
### Training Results
|
179 |
+
| Epoch | Step | Training Loss | Validation Loss |
|
180 |
+
|:------:|:-----:|:-------------:|:---------------:|
|
181 |
+
| 0.0009 | 1 | 0.2764 | - |
|
182 |
+
| 0.0431 | 50 | 0.2927 | - |
|
183 |
+
| 0.0863 | 100 | 0.2729 | - |
|
184 |
+
| 0.1294 | 150 | 0.2637 | - |
|
185 |
+
| 0.1726 | 200 | 0.2562 | - |
|
186 |
+
| 0.2157 | 250 | 0.2485 | - |
|
187 |
+
| 0.2588 | 300 | 0.2386 | - |
|
188 |
+
| 0.3020 | 350 | 0.22 | - |
|
189 |
+
| 0.3451 | 400 | 0.1755 | - |
|
190 |
+
| 0.3883 | 450 | 0.1235 | - |
|
191 |
+
| 0.4314 | 500 | 0.073 | - |
|
192 |
+
| 0.4745 | 550 | 0.0301 | - |
|
193 |
+
| 0.5177 | 600 | 0.0105 | - |
|
194 |
+
| 0.5608 | 650 | 0.0058 | - |
|
195 |
+
| 0.6040 | 700 | 0.0049 | - |
|
196 |
+
| 0.6471 | 750 | 0.0035 | - |
|
197 |
+
| 0.6903 | 800 | 0.0031 | - |
|
198 |
+
| 0.7334 | 850 | 0.0027 | - |
|
199 |
+
| 0.7765 | 900 | 0.0027 | - |
|
200 |
+
| 0.8197 | 950 | 0.0021 | - |
|
201 |
+
| 0.8628 | 1000 | 0.0022 | - |
|
202 |
+
| 0.9060 | 1050 | 0.0014 | - |
|
203 |
+
| 0.9491 | 1100 | 0.0022 | - |
|
204 |
+
| 0.9922 | 1150 | 0.0018 | - |
|
205 |
+
| 1.0354 | 1200 | 0.0019 | - |
|
206 |
+
| 1.0785 | 1250 | 0.0024 | - |
|
207 |
+
| 1.1217 | 1300 | 0.0015 | - |
|
208 |
+
| 1.1648 | 1350 | 0.0021 | - |
|
209 |
+
| 1.2079 | 1400 | 0.0022 | - |
|
210 |
+
| 1.2511 | 1450 | 0.0016 | - |
|
211 |
+
| 1.2942 | 1500 | 0.0021 | - |
|
212 |
+
| 1.3374 | 1550 | 0.0023 | - |
|
213 |
+
| 1.3805 | 1600 | 0.0022 | - |
|
214 |
+
| 1.4236 | 1650 | 0.0013 | - |
|
215 |
+
| 1.4668 | 1700 | 0.0019 | - |
|
216 |
+
| 1.5099 | 1750 | 0.0023 | - |
|
217 |
+
| 1.5531 | 1800 | 0.0016 | - |
|
218 |
+
| 1.5962 | 1850 | 0.0018 | - |
|
219 |
+
| 1.6393 | 1900 | 0.0013 | - |
|
220 |
+
| 1.6825 | 1950 | 0.0014 | - |
|
221 |
+
| 1.7256 | 2000 | 0.0017 | - |
|
222 |
+
| 1.7688 | 2050 | 0.0016 | - |
|
223 |
+
| 1.8119 | 2100 | 0.0016 | - |
|
224 |
+
| 1.8550 | 2150 | 0.0016 | - |
|
225 |
+
| 1.8982 | 2200 | 0.0024 | - |
|
226 |
+
| 1.9413 | 2250 | 0.0013 | - |
|
227 |
+
| 1.9845 | 2300 | 0.0019 | - |
|
228 |
+
| 2.0276 | 2350 | 0.0014 | - |
|
229 |
+
| 2.0708 | 2400 | 0.0019 | - |
|
230 |
+
| 2.1139 | 2450 | 0.0016 | - |
|
231 |
+
| 2.1570 | 2500 | 0.002 | - |
|
232 |
+
| 2.2002 | 2550 | 0.0011 | - |
|
233 |
+
| 2.2433 | 2600 | 0.0014 | - |
|
234 |
+
| 2.2865 | 2650 | 0.0016 | - |
|
235 |
+
| 2.3296 | 2700 | 0.0013 | - |
|
236 |
+
| 2.3727 | 2750 | 0.0013 | - |
|
237 |
+
| 2.4159 | 2800 | 0.0022 | - |
|
238 |
+
| 2.4590 | 2850 | 0.0017 | - |
|
239 |
+
| 2.5022 | 2900 | 0.0016 | - |
|
240 |
+
| 2.5453 | 2950 | 0.0015 | - |
|
241 |
+
| 2.5884 | 3000 | 0.0021 | - |
|
242 |
+
| 2.6316 | 3050 | 0.0022 | - |
|
243 |
+
| 2.6747 | 3100 | 0.0019 | - |
|
244 |
+
| 2.7179 | 3150 | 0.0014 | - |
|
245 |
+
| 2.7610 | 3200 | 0.0013 | - |
|
246 |
+
| 2.8041 | 3250 | 0.0012 | - |
|
247 |
+
| 2.8473 | 3300 | 0.0014 | - |
|
248 |
+
| 2.8904 | 3350 | 0.0023 | - |
|
249 |
+
| 2.9336 | 3400 | 0.0018 | - |
|
250 |
+
| 2.9767 | 3450 | 0.0017 | - |
|
251 |
+
| 3.0198 | 3500 | 0.002 | - |
|
252 |
+
| 3.0630 | 3550 | 0.0021 | - |
|
253 |
+
| 3.1061 | 3600 | 0.0024 | - |
|
254 |
+
| 3.1493 | 3650 | 0.0021 | - |
|
255 |
+
| 3.1924 | 3700 | 0.0015 | - |
|
256 |
+
| 3.2355 | 3750 | 0.0015 | - |
|
257 |
+
| 3.2787 | 3800 | 0.0016 | - |
|
258 |
+
| 3.3218 | 3850 | 0.0012 | - |
|
259 |
+
| 3.3650 | 3900 | 0.0016 | - |
|
260 |
+
| 3.4081 | 3950 | 0.0011 | - |
|
261 |
+
| 3.4513 | 4000 | 0.0017 | - |
|
262 |
+
| 3.4944 | 4050 | 0.0018 | - |
|
263 |
+
| 3.5375 | 4100 | 0.0015 | - |
|
264 |
+
| 3.5807 | 4150 | 0.0019 | - |
|
265 |
+
| 3.6238 | 4200 | 0.0017 | - |
|
266 |
+
| 3.6670 | 4250 | 0.0019 | - |
|
267 |
+
| 3.7101 | 4300 | 0.0014 | - |
|
268 |
+
| 3.7532 | 4350 | 0.0017 | - |
|
269 |
+
| 3.7964 | 4400 | 0.0014 | - |
|
270 |
+
| 3.8395 | 4450 | 0.0013 | - |
|
271 |
+
| 3.8827 | 4500 | 0.002 | - |
|
272 |
+
| 3.9258 | 4550 | 0.0014 | - |
|
273 |
+
| 3.9689 | 4600 | 0.0021 | - |
|
274 |
+
| 4.0121 | 4650 | 0.0017 | - |
|
275 |
+
| 4.0552 | 4700 | 0.0018 | - |
|
276 |
+
| 4.0984 | 4750 | 0.0012 | - |
|
277 |
+
| 4.1415 | 4800 | 0.0017 | - |
|
278 |
+
| 4.1846 | 4850 | 0.0022 | - |
|
279 |
+
| 4.2278 | 4900 | 0.0012 | - |
|
280 |
+
| 4.2709 | 4950 | 0.0014 | - |
|
281 |
+
| 4.3141 | 5000 | 0.0016 | - |
|
282 |
+
| 4.3572 | 5050 | 0.0016 | - |
|
283 |
+
| 4.4003 | 5100 | 0.0015 | - |
|
284 |
+
| 4.4435 | 5150 | 0.0015 | - |
|
285 |
+
| 4.4866 | 5200 | 0.001 | - |
|
286 |
+
| 4.5298 | 5250 | 0.0019 | - |
|
287 |
+
| 4.5729 | 5300 | 0.0028 | - |
|
288 |
+
| 4.6160 | 5350 | 0.0016 | - |
|
289 |
+
| 4.6592 | 5400 | 0.0013 | - |
|
290 |
+
| 4.7023 | 5450 | 0.0017 | - |
|
291 |
+
| 4.7455 | 5500 | 0.0019 | - |
|
292 |
+
| 4.7886 | 5550 | 0.0015 | - |
|
293 |
+
| 4.8318 | 5600 | 0.002 | - |
|
294 |
+
| 4.8749 | 5650 | 0.002 | - |
|
295 |
+
| 4.9180 | 5700 | 0.0023 | - |
|
296 |
+
| 4.9612 | 5750 | 0.0012 | - |
|
297 |
+
| 5.0043 | 5800 | 0.0012 | - |
|
298 |
+
| 5.0475 | 5850 | 0.0016 | - |
|
299 |
+
| 5.0906 | 5900 | 0.0014 | - |
|
300 |
+
| 5.1337 | 5950 | 0.0011 | - |
|
301 |
+
| 5.1769 | 6000 | 0.0017 | - |
|
302 |
+
| 5.2200 | 6050 | 0.0015 | - |
|
303 |
+
| 5.2632 | 6100 | 0.0022 | - |
|
304 |
+
| 5.3063 | 6150 | 0.0012 | - |
|
305 |
+
| 5.3494 | 6200 | 0.0018 | - |
|
306 |
+
| 5.3926 | 6250 | 0.0015 | - |
|
307 |
+
| 5.4357 | 6300 | 0.002 | - |
|
308 |
+
| 5.4789 | 6350 | 0.0017 | - |
|
309 |
+
| 5.5220 | 6400 | 0.0016 | - |
|
310 |
+
| 5.5651 | 6450 | 0.0014 | - |
|
311 |
+
| 5.6083 | 6500 | 0.0015 | - |
|
312 |
+
| 5.6514 | 6550 | 0.0013 | - |
|
313 |
+
| 5.6946 | 6600 | 0.0016 | - |
|
314 |
+
| 5.7377 | 6650 | 0.0016 | - |
|
315 |
+
| 5.7808 | 6700 | 0.0013 | - |
|
316 |
+
| 5.8240 | 6750 | 0.0016 | - |
|
317 |
+
| 5.8671 | 6800 | 0.0019 | - |
|
318 |
+
| 5.9103 | 6850 | 0.0017 | - |
|
319 |
+
| 5.9534 | 6900 | 0.0013 | - |
|
320 |
+
| 5.9965 | 6950 | 0.0019 | - |
|
321 |
+
| 6.0397 | 7000 | 0.0011 | - |
|
322 |
+
| 6.0828 | 7050 | 0.0015 | - |
|
323 |
+
| 6.1260 | 7100 | 0.0015 | - |
|
324 |
+
| 6.1691 | 7150 | 0.0018 | - |
|
325 |
+
| 6.2123 | 7200 | 0.0014 | - |
|
326 |
+
| 6.2554 | 7250 | 0.0014 | - |
|
327 |
+
| 6.2985 | 7300 | 0.0017 | - |
|
328 |
+
| 6.3417 | 7350 | 0.0015 | - |
|
329 |
+
| 6.3848 | 7400 | 0.0017 | - |
|
330 |
+
| 6.4280 | 7450 | 0.0017 | - |
|
331 |
+
| 6.4711 | 7500 | 0.0019 | - |
|
332 |
+
| 6.5142 | 7550 | 0.0017 | - |
|
333 |
+
| 6.5574 | 7600 | 0.0012 | - |
|
334 |
+
| 6.6005 | 7650 | 0.0018 | - |
|
335 |
+
| 6.6437 | 7700 | 0.0015 | - |
|
336 |
+
| 6.6868 | 7750 | 0.002 | - |
|
337 |
+
| 6.7299 | 7800 | 0.0012 | - |
|
338 |
+
| 6.7731 | 7850 | 0.0018 | - |
|
339 |
+
| 6.8162 | 7900 | 0.0014 | - |
|
340 |
+
| 6.8594 | 7950 | 0.0013 | - |
|
341 |
+
| 6.9025 | 8000 | 0.0015 | - |
|
342 |
+
| 6.9456 | 8050 | 0.0015 | - |
|
343 |
+
| 6.9888 | 8100 | 0.0017 | - |
|
344 |
+
| 7.0319 | 8150 | 0.0013 | - |
|
345 |
+
| 7.0751 | 8200 | 0.0017 | - |
|
346 |
+
| 7.1182 | 8250 | 0.0012 | - |
|
347 |
+
| 7.1613 | 8300 | 0.0019 | - |
|
348 |
+
| 7.2045 | 8350 | 0.0013 | - |
|
349 |
+
| 7.2476 | 8400 | 0.0015 | - |
|
350 |
+
| 7.2908 | 8450 | 0.0017 | - |
|
351 |
+
| 7.3339 | 8500 | 0.0016 | - |
|
352 |
+
| 7.3770 | 8550 | 0.0021 | - |
|
353 |
+
| 7.4202 | 8600 | 0.0014 | - |
|
354 |
+
| 7.4633 | 8650 | 0.0013 | - |
|
355 |
+
| 7.5065 | 8700 | 0.0015 | - |
|
356 |
+
| 7.5496 | 8750 | 0.0015 | - |
|
357 |
+
| 7.5928 | 8800 | 0.0014 | - |
|
358 |
+
| 7.6359 | 8850 | 0.0013 | - |
|
359 |
+
| 7.6790 | 8900 | 0.0016 | - |
|
360 |
+
| 7.7222 | 8950 | 0.0016 | - |
|
361 |
+
| 7.7653 | 9000 | 0.0016 | - |
|
362 |
+
| 7.8085 | 9050 | 0.0017 | - |
|
363 |
+
| 7.8516 | 9100 | 0.0016 | - |
|
364 |
+
| 7.8947 | 9150 | 0.0018 | - |
|
365 |
+
| 7.9379 | 9200 | 0.002 | - |
|
366 |
+
| 7.9810 | 9250 | 0.0015 | - |
|
367 |
+
| 8.0242 | 9300 | 0.0015 | - |
|
368 |
+
| 8.0673 | 9350 | 0.0014 | - |
|
369 |
+
| 8.1104 | 9400 | 0.0013 | - |
|
370 |
+
| 8.1536 | 9450 | 0.0014 | - |
|
371 |
+
| 8.1967 | 9500 | 0.0017 | - |
|
372 |
+
| 8.2399 | 9550 | 0.002 | - |
|
373 |
+
| 8.2830 | 9600 | 0.0019 | - |
|
374 |
+
| 8.3261 | 9650 | 0.0012 | - |
|
375 |
+
| 8.3693 | 9700 | 0.0012 | - |
|
376 |
+
| 8.4124 | 9750 | 0.0016 | - |
|
377 |
+
| 8.4556 | 9800 | 0.0014 | - |
|
378 |
+
| 8.4987 | 9850 | 0.0016 | - |
|
379 |
+
| 8.5418 | 9900 | 0.0014 | - |
|
380 |
+
| 8.5850 | 9950 | 0.0012 | - |
|
381 |
+
| 8.6281 | 10000 | 0.0013 | - |
|
382 |
+
| 8.6713 | 10050 | 0.0023 | - |
|
383 |
+
| 8.7144 | 10100 | 0.0011 | - |
|
384 |
+
| 8.7575 | 10150 | 0.0016 | - |
|
385 |
+
| 8.8007 | 10200 | 0.0017 | - |
|
386 |
+
| 8.8438 | 10250 | 0.0017 | - |
|
387 |
+
| 8.8870 | 10300 | 0.0018 | - |
|
388 |
+
| 8.9301 | 10350 | 0.0019 | - |
|
389 |
+
| 8.9733 | 10400 | 0.0017 | - |
|
390 |
+
| 9.0164 | 10450 | 0.0014 | - |
|
391 |
+
| 9.0595 | 10500 | 0.0014 | - |
|
392 |
+
| 9.1027 | 10550 | 0.0012 | - |
|
393 |
+
| 9.1458 | 10600 | 0.0018 | - |
|
394 |
+
| 9.1890 | 10650 | 0.002 | - |
|
395 |
+
| 9.2321 | 10700 | 0.0015 | - |
|
396 |
+
| 9.2752 | 10750 | 0.0019 | - |
|
397 |
+
| 9.3184 | 10800 | 0.0018 | - |
|
398 |
+
| 9.3615 | 10850 | 0.0014 | - |
|
399 |
+
| 9.4047 | 10900 | 0.0016 | - |
|
400 |
+
| 9.4478 | 10950 | 0.0014 | - |
|
401 |
+
| 9.4909 | 11000 | 0.0011 | - |
|
402 |
+
| 9.5341 | 11050 | 0.0014 | - |
|
403 |
+
| 9.5772 | 11100 | 0.0017 | - |
|
404 |
+
| 9.6204 | 11150 | 0.0018 | - |
|
405 |
+
| 9.6635 | 11200 | 0.0012 | - |
|
406 |
+
| 9.7066 | 11250 | 0.0013 | - |
|
407 |
+
| 9.7498 | 11300 | 0.0015 | - |
|
408 |
+
| 9.7929 | 11350 | 0.0019 | - |
|
409 |
+
| 9.8361 | 11400 | 0.0015 | - |
|
410 |
+
| 9.8792 | 11450 | 0.0016 | - |
|
411 |
+
| 9.9223 | 11500 | 0.0013 | - |
|
412 |
+
| 9.9655 | 11550 | 0.0019 | - |
|
413 |
+
|
414 |
+
### Framework Versions
|
415 |
+
- Python: 3.10.12
|
416 |
+
- SetFit: 1.1.0
|
417 |
+
- Sentence Transformers: 3.2.1
|
418 |
+
- Transformers: 4.44.2
|
419 |
+
- PyTorch: 2.5.0+cu121
|
420 |
+
- Datasets: 3.0.2
|
421 |
+
- Tokenizers: 0.19.1
|
422 |
+
|
423 |
+
## Citation
|
424 |
+
|
425 |
+
### BibTeX
|
426 |
+
```bibtex
|
427 |
+
@article{https://doi.org/10.48550/arxiv.2209.11055,
|
428 |
+
doi = {10.48550/ARXIV.2209.11055},
|
429 |
+
url = {https://arxiv.org/abs/2209.11055},
|
430 |
+
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
|
431 |
+
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
|
432 |
+
title = {Efficient Few-Shot Learning Without Prompts},
|
433 |
+
publisher = {arXiv},
|
434 |
+
year = {2022},
|
435 |
+
copyright = {Creative Commons Attribution 4.0 International}
|
436 |
+
}
|
437 |
+
```
|
438 |
+
|
439 |
+
<!--
|
440 |
+
## Glossary
|
441 |
+
|
442 |
+
*Clearly define terms in order to be accessible across audiences.*
|
443 |
+
-->
|
444 |
+
|
445 |
+
<!--
|
446 |
+
## Model Card Authors
|
447 |
+
|
448 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
449 |
+
-->
|
450 |
+
|
451 |
+
<!--
|
452 |
+
## Model Card Contact
|
453 |
+
|
454 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
455 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,26 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2",
|
3 |
+
"architectures": [
|
4 |
+
"BertModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"gradient_checkpointing": false,
|
9 |
+
"hidden_act": "gelu",
|
10 |
+
"hidden_dropout_prob": 0.1,
|
11 |
+
"hidden_size": 384,
|
12 |
+
"initializer_range": 0.02,
|
13 |
+
"intermediate_size": 1536,
|
14 |
+
"layer_norm_eps": 1e-12,
|
15 |
+
"max_position_embeddings": 512,
|
16 |
+
"model_type": "bert",
|
17 |
+
"num_attention_heads": 12,
|
18 |
+
"num_hidden_layers": 12,
|
19 |
+
"pad_token_id": 0,
|
20 |
+
"position_embedding_type": "absolute",
|
21 |
+
"torch_dtype": "float32",
|
22 |
+
"transformers_version": "4.44.2",
|
23 |
+
"type_vocab_size": 2,
|
24 |
+
"use_cache": true,
|
25 |
+
"vocab_size": 250037
|
26 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.2.1",
|
4 |
+
"transformers": "4.44.2",
|
5 |
+
"pytorch": "2.5.0+cu121"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": null
|
10 |
+
}
|
config_setfit.json
ADDED
@@ -0,0 +1,8 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"normalize_embeddings": false,
|
3 |
+
"labels": [
|
4 |
+
"NEUTRAL",
|
5 |
+
"OPPOSED",
|
6 |
+
"SUPPORTIVE"
|
7 |
+
]
|
8 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:1c44fba88fc9f459ded331d5ce0e942101f04bd9a67f5c316ff77001a26c300c
|
3 |
+
size 470637416
|
model_head.pkl
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:cecdb2442b49634ce934279e93433f58c7100c7954c18240ede69d7936a650ad
|
3 |
+
size 10207
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 128,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:cad551d5600a84242d0973327029452a1e3672ba6313c2a3c3d69c4310e12719
|
3 |
+
size 17082987
|
tokenizer_config.json
ADDED
@@ -0,0 +1,64 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"do_lower_case": true,
|
48 |
+
"eos_token": "</s>",
|
49 |
+
"mask_token": "<mask>",
|
50 |
+
"max_length": 128,
|
51 |
+
"model_max_length": 128,
|
52 |
+
"pad_to_multiple_of": null,
|
53 |
+
"pad_token": "<pad>",
|
54 |
+
"pad_token_type_id": 0,
|
55 |
+
"padding_side": "right",
|
56 |
+
"sep_token": "</s>",
|
57 |
+
"stride": 0,
|
58 |
+
"strip_accents": null,
|
59 |
+
"tokenize_chinese_chars": true,
|
60 |
+
"tokenizer_class": "BertTokenizer",
|
61 |
+
"truncation_side": "right",
|
62 |
+
"truncation_strategy": "longest_first",
|
63 |
+
"unk_token": "<unk>"
|
64 |
+
}
|
unigram.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:da145b5e7700ae40f16691ec32a0b1fdc1ee3298db22a31ea55f57a966c4a65d
|
3 |
+
size 14763260
|