avemio-digital commited on
Commit
68a4256
·
verified ·
1 Parent(s): 3ddbb42

Add new SentenceTransformer model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,1211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - generated_from_trainer
10
+ - dataset_size:933246
11
+ - loss:MatryoshkaLoss
12
+ - loss:MultipleNegativesRankingLoss
13
+ base_model: answerdotai/ModernBERT-base
14
+ widget:
15
+ - source_sentence: Was sind einige bemerkenswerte Ereignisse im Leben von Andrea Sawatzki,
16
+ die in diesem Textausschnitt erwähnt werden?
17
+ sentences:
18
+ - Die "White Galloways" sind ebenfalls hornlose schottische Rinder, die zur ganzjährigen
19
+ Freilandhaltung geeignet sind und zu den extensiven, robusten Fleischrinderrassen
20
+ gehören. Der Hauptanteil ihres Fells ist nahezu weiß, es gibt aber meist schwarze,
21
+ mitunter auch blonde oder rot-braune Pigmentierung an Ohren, Maul, Füßen und um
22
+ die Augen.
23
+ - 2003 stand Sawatzki für eine erotische Fotoserie in der April-Ausgabe des "Playboy"
24
+ vor der Kamera. 2007 war sie Patin des Deutschen Kinderpreises. 2011 tanzte sie
25
+ in der 4. Staffel der RTL-Tanzshow "Let’s Dance" mit dem italienischen Profitänzer
26
+ Stefano Terrazzino und belegte den achten Platz.
27
+ - Die Elektroejakulation ist eine in der Human- und Veterinärmedizin sowie in der
28
+ Tierzucht eingesetzte Methode zur Spermiengewinnung, wenn die Gewinnung auf natürlichem
29
+ Wege aufgrund von besonderen Umständen oder Erkrankungen nicht möglich ist, und
30
+ unterscheidet sich in der Art der Durchführung sowie in der Wirkungsweise erheblich
31
+ von der erotischen Elektrostimulation.
32
+ - source_sentence: Er belegte den fünften Platz im Gesamtweltcup der Skispringer und
33
+ gewann bei der nordischen Ski-WM 1999 in Ramsau Silber im Einzelwettbewerb und
34
+ Gold beim Mannschaftsspringen von der Großschanze.
35
+ sentences:
36
+ - In der Saison 1998/99 belegte er im Gesamtweltcup der Skispringer den fünften
37
+ Platz. Bei der nordischen Ski-WM 1999 in Ramsau gewann er im Einzelwettbewerb
38
+ von der Großschanze Silber hinter Martin Schmitt sowie beim Mannschaftsspringen
39
+ von der Großschanze Gold.
40
+ - Die georgische Verfassung vom 24. August 1995 garantiert die Pressefreiheit und
41
+ verbietet Zensur. Sie verbietet zugleich, die Medien oder ihre Verbreitung zu
42
+ monopolisieren. Das am 17. Juni 2004 novellierte Pressegesetz erschwert es Klägern,
43
+ Journalisten wegen ihrer Berichterstattung zu belangen. Zuvor waren Redakteure
44
+ wegen angeblicher Ehrverletzung zu hohen Schadensersatzbeträgen verurteilt worden.
45
+ - 'Um unerwünschten Zugriff zu erschweren, werden Schrauben mit außergewöhnlichen
46
+ Antrieben am Kopf verwendet:'
47
+ - source_sentence: Warum durfte Galileo Galilei im Dezember 1633 nach fünf Monaten
48
+ in seine Villa "Gioiella" in Arcetri zurückkehren, blieb jedoch weiterhin unter
49
+ Hausarrest und durfte keine Lehrtätigkeit ausüben?
50
+ sentences:
51
+ - Mit dem Linken-Abgeordneten Lutz Heilmann saß zudem erstmals ein hauptamtlicher
52
+ Mitarbeiter des Ministeriums für Staatssicherheit im Bundestag. 2009 wurde in
53
+ Brandenburg erst nach der Landtagswahl durch Medienberichte die MfS-Tätigkeit
54
+ von drei Landtagsabgeordneten der Linken bekannt. Die Zahl der ehemaligen MfS-Mitarbeiter
55
+ in der Fraktion erhöhte sich damit auf sieben, die MfS-Tätigkeit von vier weiteren
56
+ Linke-Abgeordneten war bereits vor der Wahl bekannt. Dies führte zu Diskussionen
57
+ über die Fortführung der rot-roten Landesregierung.
58
+ - Der Grund für die verringerte Höchstgeschwindigkeit von in Doppeltraktion verkehrenden
59
+ Zügen, welche mit beiden Triebköpfen aneinander gekuppelt werden, liegt in der
60
+ Vermeidung von mechanischen Überlastungen der Oberleitung. Um die Oberleitungen
61
+ zu schonen, muss ein Mindestabstand von 200 Metern zwischen aktiven Stromabnehmern
62
+ eingehalten werden. Außerdem soll ein durch starkes Aufschaukeln der Oberleitung
63
+ erzeugter Kontaktabriss mit Lichtbogenbildung verhindert werden.
64
+ - Nach fünf Monaten, im Dezember 1633, durfte er in seine Villa "Gioiella" in Arcetri
65
+ zurückkehren, blieb jedoch unter Hausarrest, verbunden mit dem Verbot jeglicher
66
+ Lehrtätigkeit. Als er wegen eines schmerzhaften Leistenbruchs um Erlaubnis bat,
67
+ Ärzte in Florenz aufsuchen zu dürfen, wurde sein Gesuch abgelehnt mit der Warnung,
68
+ weitere solche Anfragen würden zu Aufhebung des Hausarrestes und Einkerkerung
69
+ führen.
70
+ - source_sentence: Lina Przyballa stammt aus Polen und unterstützt Biberkopf in seinem
71
+ neuen Geschäft, indem sie ihm hilft Zeitungen zu verkaufen.
72
+ sentences:
73
+ - Die Seitenstrangangina (Angina lateralis) ist eine akute Form der Rachenentzündung
74
+ durch bakterielle Infektion, welche jene Lymphbahnen im Rachenraum befällt, die
75
+ von der oberen hinteren Rachenwand abwärts verlaufen. Häufige Begleiterscheinungen
76
+ der Seitenstrangangina sind Ohrenschmerzen (wegen der Nähe zur Eustachischen Röhre),
77
+ Schluckbeschwerden und Kopfschmerzen. Die Seitenstrangangina tritt vor allem bei
78
+ tonsillektomierten Patienten auf.
79
+ - Zu Beginn des Kapitels wird aus vielen kleinen Teilen ein Bild Berlins gezeichnet.
80
+ Biberkopf treibt sich auf dem Rosenthaler Platz herum („Der Rosenthaler Platz
81
+ unterhält sich“). In einer Versammlung werden ihm von einem aufgebrachten Redner
82
+ Papiere angedreht, die ihn als ambulanten Gewerbetreibender für Textilwaren ausweisen.
83
+ Er beginnt mit dem Verkauf von Schlipshaltern. Später entscheidet er sich für
84
+ den Verkauf von Zeitungen (zuerst Zeitschriften für sexuelle Aufklärung), worin
85
+ er auch durch seine neue Freundin, die Polin Lina Przyballa, unterstützt wird.
86
+ In einer Kneipe trifft er auf einen betrunkenen Invaliden und beginnt dessen Einstellung
87
+ zu teilen. Biberkopf, der eigentlich nichts gegen Juden hat und lediglich für
88
+ Ordnung ist, beginnt völkische Zeitungen zu vertreiben. Als er eines Mittags in
89
+ seine Stammkneipe eintreten will, wird er von einigen Linken beobachtet. Im Lokal
90
+ ziehen sie seine Hakenkreuz-Armbinde hervor und machen sich über Franz lustig.
91
+ Der ehemalige Häftling, offenbar von der gescheiterten Novemberrevolution in den
92
+ Jahren 1918/1919 enttäuscht und jetzt anscheinend zum feindlichen Lager übergewechselt,
93
+ erinnert die aufgebrachten Gäste vergeblich an den Stellungskrieg bei Arras. Am
94
+ Abend sitzt Biberkopf wieder in seiner Kneipe und wird diesmal von einigen Linken
95
+ angegriffen. Wegen der drohenden Schlägerei fordert der Wirt Henschke Biberkopf
96
+ zum Verlassen seines Lokals auf. Biberkopf tobt und brüllt seine Gegner nieder.
97
+ Er geht mit Lina weg, die auf eine richtige Verlobung hofft.
98
+ - Am 25. August 1933 trat das Ha’avara-Abkommen („Transfer“) zwischen der Jewish
99
+ Agency, der Zionistischen Vereinigung für Deutschland und dem deutschen Reichsministerium
100
+ für Wirtschaft in Kraft, um die Emigration deutscher Juden nach Palästina zu erleichtern
101
+ und zugleich den deutschen Export zu fördern. Bis zum Jahresende emigrierten etwa
102
+ 37.000 der 525.000 in Deutschland lebenden Juden, die meisten (ca. 73 %) zogen
103
+ zunächst in die europäischen Nachbarstaaten, 19 % nach Palästina, 8 % entschieden
104
+ sich für ein Land in Übersee. In den Folgejahren bis 1937 blieb die jährliche
105
+ Zahl der Auswanderer weit unter dem Wert im Jahr der Machtergreifung (1934 waren
106
+ es 23.000, 1935 21.000, 1936 25.000 und 1937 23.000). Die zionistischen Vereine
107
+ wuchsen bis 1934 auf 43.000 Mitglieder.
108
+ - source_sentence: Das Rebhuhn erreicht normalerweise gegen Ende des ersten Lebensjahres
109
+ die Geschlechtsreife und hat in der Regel zu diesem Zeitpunkt auch die erste Verpaarung.
110
+ sentences:
111
+ - 'Traditionell ist Schmallenberg seit dem 19. Jahrhundert Zentrum der Sauerländer
112
+ Textilindustrie (größtes Unternehmen: Falke-Gruppe). Da die Entwicklung der Textilindustrie
113
+ jedoch rückläufig ist, dominieren mittelständische Unternehmen. Diese sind vor
114
+ allem in Industrie und Handwerk angesiedelt. Zu den bedeutenden Schmallenberger
115
+ Unternehmen gehören die Firmen Audiotec Fischer GmbH (Car-Hifi: Brax / Helix),
116
+ die Burgbad AG (Badmöbelhersteller mit Sitz in Bad Fredeburg) und Transfluid Maschinenbau
117
+ GmbH (Weltmarktführer bei Rohrbearbeitungsmaschinen der gesteuerten Roll-Umformtechnik
118
+ (inkrementell)) sowie die Firma Feldhaus (Bau- und Bergbauunternehmen). Auf Grund
119
+ der waldreichen Lage kommt der Holzwirtschaft eine wichtige Bedeutung zu. In Bad
120
+ Fredeburg existiert etwa ein Holzgewerbepark, der kleinen und mittleren Unternehmen
121
+ Gewerbefläche bietet. Einen großen Anteil am Dienstleistungssektor haben aufgrund
122
+ der landschaftlich reizvollen Lage und der Wintersportmöglichkeiten Gastronomie
123
+ und Fremdenverkehr.'
124
+ - Am 10. März 2022 wurde durch Recherchen des Politikmagazins Kontraste und der
125
+ Zeitung Die Zeit bekannt, dass Deripaska von den ebenfalls erlassenen EU-Sanktionen
126
+ wieder ausgenommen und von der Liste gestrichen wurde. Die Hintergründe dieser
127
+ Entscheidung waren unklar.
128
+ - Das Rebhuhn erreicht die Geschlechtsreife gegen Ende des ersten Lebensjahres.
129
+ Zu diesem Zeitpunkt erfolgt in der Regel auch die erste Verpaarung. Das Rebhuhn
130
+ führt eine monogame Brutehe. Diese beschränkt sich in der Regel auf eine Jahresbrut,
131
+ bei frühem Gelegeverlust ist jedoch ein Nachgelege möglich. Die Legezeit liegt
132
+ in den meisten Verbreitungsgebieten zwischen Mitte/Ende April und Anfang/Mitte
133
+ Mai.
134
+ pipeline_tag: sentence-similarity
135
+ library_name: sentence-transformers
136
+ ---
137
+
138
+ # BGE base Financial Matryoshka
139
+
140
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [answerdotai/ModernBERT-base](https://huggingface.co/answerdotai/ModernBERT-base) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
141
+
142
+ ## Model Details
143
+
144
+ ### Model Description
145
+ - **Model Type:** Sentence Transformer
146
+ - **Base model:** [answerdotai/ModernBERT-base](https://huggingface.co/answerdotai/ModernBERT-base) <!-- at revision 8949b909ec900327062f0ebf497f51aef5e6f0c8 -->
147
+ - **Maximum Sequence Length:** 8192 tokens
148
+ - **Output Dimensionality:** 768 dimensions
149
+ - **Similarity Function:** Cosine Similarity
150
+ - **Training Dataset:**
151
+ - json
152
+ - **Language:** en
153
+ - **License:** apache-2.0
154
+
155
+ ### Model Sources
156
+
157
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
158
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
159
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
160
+
161
+ ### Full Model Architecture
162
+
163
+ ```
164
+ SentenceTransformer(
165
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: ModernBertModel
166
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
167
+ )
168
+ ```
169
+
170
+ ## Usage
171
+
172
+ ### Direct Usage (Sentence Transformers)
173
+
174
+ First install the Sentence Transformers library:
175
+
176
+ ```bash
177
+ pip install -U sentence-transformers
178
+ ```
179
+
180
+ Then you can load this model and run inference.
181
+ ```python
182
+ from sentence_transformers import SentenceTransformer
183
+
184
+ # Download from the 🤗 Hub
185
+ model = SentenceTransformer("avemio-digital/ModernBERT_base_pairs_embedding")
186
+ # Run inference
187
+ sentences = [
188
+ 'Das Rebhuhn erreicht normalerweise gegen Ende des ersten Lebensjahres die Geschlechtsreife und hat in der Regel zu diesem Zeitpunkt auch die erste Verpaarung.',
189
+ 'Das Rebhuhn erreicht die Geschlechtsreife gegen Ende des ersten Lebensjahres. Zu diesem Zeitpunkt erfolgt in der Regel auch die erste Verpaarung. Das Rebhuhn führt eine monogame Brutehe. Diese beschränkt sich in der Regel auf eine Jahresbrut, bei frühem Gelegeverlust ist jedoch ein Nachgelege möglich. Die Legezeit liegt in den meisten Verbreitungsgebieten zwischen Mitte/Ende April und Anfang/Mitte Mai.',
190
+ 'Traditionell ist Schmallenberg seit dem 19. Jahrhundert Zentrum der Sauerländer Textilindustrie (größtes Unternehmen: Falke-Gruppe). Da die Entwicklung der Textilindustrie jedoch rückläufig ist, dominieren mittelständische Unternehmen. Diese sind vor allem in Industrie und Handwerk angesiedelt. Zu den bedeutenden Schmallenberger Unternehmen gehören die Firmen Audiotec Fischer GmbH (Car-Hifi: Brax / Helix), die Burgbad AG (Badmöbelhersteller mit Sitz in Bad Fredeburg) und Transfluid Maschinenbau GmbH (Weltmarktführer bei Rohrbearbeitungsmaschinen der gesteuerten Roll-Umformtechnik (inkrementell)) sowie die Firma Feldhaus (Bau- und Bergbauunternehmen). Auf Grund der waldreichen Lage kommt der Holzwirtschaft eine wichtige Bedeutung zu. In Bad Fredeburg existiert etwa ein Holzgewerbepark, der kleinen und mittleren Unternehmen Gewerbefläche bietet. Einen großen Anteil am Dienstleistungssektor haben aufgrund der landschaftlich reizvollen Lage und der Wintersportmöglichkeiten Gastronomie und Fremdenverkehr.',
191
+ ]
192
+ embeddings = model.encode(sentences)
193
+ print(embeddings.shape)
194
+ # [3, 768]
195
+
196
+ # Get the similarity scores for the embeddings
197
+ similarities = model.similarity(embeddings, embeddings)
198
+ print(similarities.shape)
199
+ # [3, 3]
200
+ ```
201
+
202
+ <!--
203
+ ### Direct Usage (Transformers)
204
+
205
+ <details><summary>Click to see the direct usage in Transformers</summary>
206
+
207
+ </details>
208
+ -->
209
+
210
+ <!--
211
+ ### Downstream Usage (Sentence Transformers)
212
+
213
+ You can finetune this model on your own dataset.
214
+
215
+ <details><summary>Click to expand</summary>
216
+
217
+ </details>
218
+ -->
219
+
220
+ <!--
221
+ ### Out-of-Scope Use
222
+
223
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
224
+ -->
225
+
226
+ <!--
227
+ ## Bias, Risks and Limitations
228
+
229
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
230
+ -->
231
+
232
+ <!--
233
+ ### Recommendations
234
+
235
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
236
+ -->
237
+
238
+ ## Training Details
239
+
240
+ ### Training Dataset
241
+
242
+ #### json
243
+
244
+ * Dataset: json
245
+ * Size: 933,246 training samples
246
+ * Columns: <code>anchor</code> and <code>positive</code>
247
+ * Approximate statistics based on the first 1000 samples:
248
+ | | anchor | positive |
249
+ |:--------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
250
+ | type | string | string |
251
+ | details | <ul><li>min: 29 tokens</li><li>mean: 54.99 tokens</li><li>max: 131 tokens</li></ul> | <ul><li>min: 33 tokens</li><li>mean: 183.9 tokens</li><li>max: 766 tokens</li></ul> |
252
+ * Samples:
253
+ | anchor | positive |
254
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
255
+ | <code>Häufig festgestellte Besonderheiten bei Babys mit Trisomie 21 sind vorgeburtlich ein bis drei Merkmale, die mittels Ultraschall- oder Blutuntersuchungen erkannt werden können.</code> | <code>Im Zuge der sich stetig entwickelnden Möglichkeiten vorgeburtlicher Untersuchungen (Pränataldiagnostik) sind mit der Zeit einige Besonderheiten dokumentiert worden, die vergleichsweise häufig bei Babys mit Trisomie 21 festgestellt werden und mitunter mittels Ultraschall- oder Blutuntersuchungen zu erkennen sind. Bei keinem Baby mit Down-Syndrom treten alle diese Besonderheiten auf; bei den meisten Babys finden sich vorgeburtlich nur ca. ein bis drei Merkmale, und bei manchen finden sich keine, die ausgeprägt genug wären, als Hinweiszeichen eingestuft zu werden. Manche der Besonderheiten sind darüber hinaus vorgeburtlich vergleichsweise schwer zu erkennen bzw. in ihrer Bedeutung zu bewerten.</code> |
256
+ | <code>Wer sind einige herausragende Spitzenspieler im englischsprachigen Scrabble, die in den letzten Jahren eine prägende Rolle gespielt haben?</code> | <code>Weitere Spitzenspieler, die in den letzten Jahren das englischsprachige Scrabble geprägt haben, sind Pakorn Nemitrmansuk (Weltmeister 2009, Vizeweltmeister 2011), Komol (Weltmeisterschaftsfinalist 2013) sowie Craig Beevers aus England (Sieger der inoffiziellen Weltmeisterschaften 2014).</code> |
257
+ | <code>DMC ist eine Sorte von Marine Distillate Fuel Oil, bei der das Zumischen von Rückstandsöl erlaubt ist.</code> | <code>Schweröl ist in verschiedenen Qualitäten erhältlich. So regelt MARPOL 73/78 Annex VI den Ausstoß von Schwefel-Verbrennungsprodukten in bestimmten Seegebieten, weshalb sogar – von der Norm abweichende – schwefelreduzierte Qualitäten hergestellt werden. Entsprechend der Norm für Marine-Kraftstoffe in der aktuellen Fassung von 2005 wird zwischen „Marine Distillate Fuel Oil“ (DMX, DMA/MGO = Marine Gasoil, DMB/MDO = Marine Diesel Oil, DMC) und „Marine Residual Fuel Oil“ (siehe Tabelle) unterschieden, wobei es sich bei den „Residual Fuels“ um Schweröle im engeren Sinne handelt. Eine Sonderstellung stellt die Sorte DMC dar: Hier erlauben die Spezifikationen das Zumischen von Rückstandsöl.</code> |
258
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
259
+ ```json
260
+ {
261
+ "loss": "MultipleNegativesRankingLoss",
262
+ "matryoshka_dims": [
263
+ 768
264
+ ],
265
+ "matryoshka_weights": [
266
+ 1
267
+ ],
268
+ "n_dims_per_step": -1
269
+ }
270
+ ```
271
+
272
+ ### Training Hyperparameters
273
+ #### Non-Default Hyperparameters
274
+
275
+ - `eval_strategy`: epoch
276
+ - `gradient_accumulation_steps`: 16
277
+ - `learning_rate`: 2e-05
278
+ - `num_train_epochs`: 1
279
+ - `lr_scheduler_type`: cosine
280
+ - `warmup_ratio`: 0.1
281
+ - `bf16`: True
282
+ - `tf32`: True
283
+ - `load_best_model_at_end`: True
284
+ - `optim`: adamw_torch_fused
285
+ - `batch_sampler`: no_duplicates
286
+
287
+ #### All Hyperparameters
288
+ <details><summary>Click to expand</summary>
289
+
290
+ - `overwrite_output_dir`: False
291
+ - `do_predict`: False
292
+ - `eval_strategy`: epoch
293
+ - `prediction_loss_only`: True
294
+ - `per_device_train_batch_size`: 8
295
+ - `per_device_eval_batch_size`: 8
296
+ - `per_gpu_train_batch_size`: None
297
+ - `per_gpu_eval_batch_size`: None
298
+ - `gradient_accumulation_steps`: 16
299
+ - `eval_accumulation_steps`: None
300
+ - `torch_empty_cache_steps`: None
301
+ - `learning_rate`: 2e-05
302
+ - `weight_decay`: 0.0
303
+ - `adam_beta1`: 0.9
304
+ - `adam_beta2`: 0.999
305
+ - `adam_epsilon`: 1e-08
306
+ - `max_grad_norm`: 1.0
307
+ - `num_train_epochs`: 1
308
+ - `max_steps`: -1
309
+ - `lr_scheduler_type`: cosine
310
+ - `lr_scheduler_kwargs`: {}
311
+ - `warmup_ratio`: 0.1
312
+ - `warmup_steps`: 0
313
+ - `log_level`: passive
314
+ - `log_level_replica`: warning
315
+ - `log_on_each_node`: True
316
+ - `logging_nan_inf_filter`: True
317
+ - `save_safetensors`: True
318
+ - `save_on_each_node`: False
319
+ - `save_only_model`: False
320
+ - `restore_callback_states_from_checkpoint`: False
321
+ - `no_cuda`: False
322
+ - `use_cpu`: False
323
+ - `use_mps_device`: False
324
+ - `seed`: 42
325
+ - `data_seed`: None
326
+ - `jit_mode_eval`: False
327
+ - `use_ipex`: False
328
+ - `bf16`: True
329
+ - `fp16`: False
330
+ - `fp16_opt_level`: O1
331
+ - `half_precision_backend`: auto
332
+ - `bf16_full_eval`: False
333
+ - `fp16_full_eval`: False
334
+ - `tf32`: True
335
+ - `local_rank`: 0
336
+ - `ddp_backend`: None
337
+ - `tpu_num_cores`: None
338
+ - `tpu_metrics_debug`: False
339
+ - `debug`: []
340
+ - `dataloader_drop_last`: False
341
+ - `dataloader_num_workers`: 0
342
+ - `dataloader_prefetch_factor`: None
343
+ - `past_index`: -1
344
+ - `disable_tqdm`: False
345
+ - `remove_unused_columns`: True
346
+ - `label_names`: None
347
+ - `load_best_model_at_end`: True
348
+ - `ignore_data_skip`: False
349
+ - `fsdp`: []
350
+ - `fsdp_min_num_params`: 0
351
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
352
+ - `fsdp_transformer_layer_cls_to_wrap`: None
353
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
354
+ - `deepspeed`: None
355
+ - `label_smoothing_factor`: 0.0
356
+ - `optim`: adamw_torch_fused
357
+ - `optim_args`: None
358
+ - `adafactor`: False
359
+ - `group_by_length`: False
360
+ - `length_column_name`: length
361
+ - `ddp_find_unused_parameters`: None
362
+ - `ddp_bucket_cap_mb`: None
363
+ - `ddp_broadcast_buffers`: False
364
+ - `dataloader_pin_memory`: True
365
+ - `dataloader_persistent_workers`: False
366
+ - `skip_memory_metrics`: True
367
+ - `use_legacy_prediction_loop`: False
368
+ - `push_to_hub`: False
369
+ - `resume_from_checkpoint`: None
370
+ - `hub_model_id`: None
371
+ - `hub_strategy`: every_save
372
+ - `hub_private_repo`: None
373
+ - `hub_always_push`: False
374
+ - `gradient_checkpointing`: False
375
+ - `gradient_checkpointing_kwargs`: None
376
+ - `include_inputs_for_metrics`: False
377
+ - `include_for_metrics`: []
378
+ - `eval_do_concat_batches`: True
379
+ - `fp16_backend`: auto
380
+ - `push_to_hub_model_id`: None
381
+ - `push_to_hub_organization`: None
382
+ - `mp_parameters`:
383
+ - `auto_find_batch_size`: False
384
+ - `full_determinism`: False
385
+ - `torchdynamo`: None
386
+ - `ray_scope`: last
387
+ - `ddp_timeout`: 1800
388
+ - `torch_compile`: False
389
+ - `torch_compile_backend`: None
390
+ - `torch_compile_mode`: None
391
+ - `dispatch_batches`: None
392
+ - `split_batches`: None
393
+ - `include_tokens_per_second`: False
394
+ - `include_num_input_tokens_seen`: False
395
+ - `neftune_noise_alpha`: None
396
+ - `optim_target_modules`: None
397
+ - `batch_eval_metrics`: False
398
+ - `eval_on_start`: False
399
+ - `use_liger_kernel`: False
400
+ - `eval_use_gather_object`: False
401
+ - `average_tokens_across_devices`: False
402
+ - `prompts`: None
403
+ - `batch_sampler`: no_duplicates
404
+ - `multi_dataset_batch_sampler`: proportional
405
+
406
+ </details>
407
+
408
+ ### Training Logs
409
+ <details><summary>Click to expand</summary>
410
+
411
+ | Epoch | Step | Training Loss |
412
+ |:------:|:----:|:-------------:|
413
+ | 0.0014 | 10 | 28.6172 |
414
+ | 0.0027 | 20 | 28.332 |
415
+ | 0.0041 | 30 | 27.473 |
416
+ | 0.0055 | 40 | 26.1415 |
417
+ | 0.0069 | 50 | 23.9641 |
418
+ | 0.0082 | 60 | 20.6191 |
419
+ | 0.0096 | 70 | 16.1172 |
420
+ | 0.0110 | 80 | 12.5431 |
421
+ | 0.0123 | 90 | 9.249 |
422
+ | 0.0137 | 100 | 7.6371 |
423
+ | 0.0151 | 110 | 5.7917 |
424
+ | 0.0165 | 120 | 4.4105 |
425
+ | 0.0178 | 130 | 4.4039 |
426
+ | 0.0192 | 140 | 3.6235 |
427
+ | 0.0206 | 150 | 3.2179 |
428
+ | 0.0219 | 160 | 2.7913 |
429
+ | 0.0233 | 170 | 2.5342 |
430
+ | 0.0247 | 180 | 2.1533 |
431
+ | 0.0261 | 190 | 1.995 |
432
+ | 0.0274 | 200 | 1.6953 |
433
+ | 0.0288 | 210 | 1.6049 |
434
+ | 0.0302 | 220 | 1.493 |
435
+ | 0.0315 | 230 | 1.5513 |
436
+ | 0.0329 | 240 | 1.2957 |
437
+ | 0.0343 | 250 | 1.0484 |
438
+ | 0.0357 | 260 | 1.1896 |
439
+ | 0.0370 | 270 | 1.0246 |
440
+ | 0.0384 | 280 | 1.1058 |
441
+ | 0.0398 | 290 | 0.8532 |
442
+ | 0.0411 | 300 | 1.0489 |
443
+ | 0.0425 | 310 | 0.9015 |
444
+ | 0.0439 | 320 | 0.7919 |
445
+ | 0.0453 | 330 | 0.819 |
446
+ | 0.0466 | 340 | 0.7241 |
447
+ | 0.0480 | 350 | 0.5492 |
448
+ | 0.0494 | 360 | 0.7083 |
449
+ | 0.0507 | 370 | 0.6678 |
450
+ | 0.0521 | 380 | 0.7194 |
451
+ | 0.0535 | 390 | 0.675 |
452
+ | 0.0549 | 400 | 0.7268 |
453
+ | 0.0562 | 410 | 0.565 |
454
+ | 0.0576 | 420 | 0.5987 |
455
+ | 0.0590 | 430 | 0.6854 |
456
+ | 0.0603 | 440 | 0.4752 |
457
+ | 0.0617 | 450 | 0.5567 |
458
+ | 0.0631 | 460 | 0.5327 |
459
+ | 0.0645 | 470 | 0.5543 |
460
+ | 0.0658 | 480 | 0.6658 |
461
+ | 0.0672 | 490 | 0.2744 |
462
+ | 0.0686 | 500 | 0.5259 |
463
+ | 0.0699 | 510 | 0.3637 |
464
+ | 0.0713 | 520 | 0.5176 |
465
+ | 0.0727 | 530 | 0.5165 |
466
+ | 0.0741 | 540 | 0.4119 |
467
+ | 0.0754 | 550 | 0.339 |
468
+ | 0.0768 | 560 | 0.395 |
469
+ | 0.0782 | 570 | 0.3159 |
470
+ | 0.0796 | 580 | 0.3716 |
471
+ | 0.0809 | 590 | 0.2447 |
472
+ | 0.0823 | 600 | 0.2547 |
473
+ | 0.0837 | 610 | 0.4384 |
474
+ | 0.0850 | 620 | 0.454 |
475
+ | 0.0864 | 630 | 0.4057 |
476
+ | 0.0878 | 640 | 0.5004 |
477
+ | 0.0892 | 650 | 0.357 |
478
+ | 0.0905 | 660 | 0.3942 |
479
+ | 0.0919 | 670 | 0.3632 |
480
+ | 0.0933 | 680 | 0.3011 |
481
+ | 0.0946 | 690 | 0.3115 |
482
+ | 0.0960 | 700 | 0.2438 |
483
+ | 0.0974 | 710 | 0.2611 |
484
+ | 0.0988 | 720 | 0.3467 |
485
+ | 0.1001 | 730 | 0.348 |
486
+ | 0.1015 | 740 | 0.296 |
487
+ | 0.1029 | 750 | 0.276 |
488
+ | 0.1042 | 760 | 0.2709 |
489
+ | 0.1056 | 770 | 0.2756 |
490
+ | 0.1070 | 780 | 0.2728 |
491
+ | 0.1084 | 790 | 0.2234 |
492
+ | 0.1097 | 800 | 0.4266 |
493
+ | 0.1111 | 810 | 0.3324 |
494
+ | 0.1125 | 820 | 0.2346 |
495
+ | 0.1138 | 830 | 0.271 |
496
+ | 0.1152 | 840 | 0.201 |
497
+ | 0.1166 | 850 | 0.1921 |
498
+ | 0.1180 | 860 | 0.2042 |
499
+ | 0.1193 | 870 | 0.1907 |
500
+ | 0.1207 | 880 | 0.1248 |
501
+ | 0.1221 | 890 | 0.2835 |
502
+ | 0.1234 | 900 | 0.3189 |
503
+ | 0.1248 | 910 | 0.2218 |
504
+ | 0.1262 | 920 | 0.1911 |
505
+ | 0.1276 | 930 | 0.2351 |
506
+ | 0.1289 | 940 | 0.1395 |
507
+ | 0.1303 | 950 | 0.308 |
508
+ | 0.1317 | 960 | 0.2879 |
509
+ | 0.1330 | 970 | 0.1979 |
510
+ | 0.1344 | 980 | 0.1912 |
511
+ | 0.1358 | 990 | 0.204 |
512
+ | 0.1372 | 1000 | 0.2426 |
513
+ | 0.1385 | 1010 | 0.1963 |
514
+ | 0.1399 | 1020 | 0.1617 |
515
+ | 0.1413 | 1030 | 0.2054 |
516
+ | 0.1426 | 1040 | 0.1462 |
517
+ | 0.1440 | 1050 | 0.2215 |
518
+ | 0.1454 | 1060 | 0.1975 |
519
+ | 0.1468 | 1070 | 0.275 |
520
+ | 0.1481 | 1080 | 0.1647 |
521
+ | 0.1495 | 1090 | 0.0933 |
522
+ | 0.1509 | 1100 | 0.1575 |
523
+ | 0.1522 | 1110 | 0.1903 |
524
+ | 0.1536 | 1120 | 0.1834 |
525
+ | 0.1550 | 1130 | 0.0865 |
526
+ | 0.1564 | 1140 | 0.1348 |
527
+ | 0.1577 | 1150 | 0.2203 |
528
+ | 0.1591 | 1160 | 0.1545 |
529
+ | 0.1605 | 1170 | 0.1512 |
530
+ | 0.1618 | 1180 | 0.2597 |
531
+ | 0.1632 | 1190 | 0.1015 |
532
+ | 0.1646 | 1200 | 0.1339 |
533
+ | 0.1660 | 1210 | 0.1925 |
534
+ | 0.1673 | 1220 | 0.1521 |
535
+ | 0.1687 | 1230 | 0.2436 |
536
+ | 0.1701 | 1240 | 0.1407 |
537
+ | 0.1714 | 1250 | 0.1839 |
538
+ | 0.1728 | 1260 | 0.1393 |
539
+ | 0.1742 | 1270 | 0.2673 |
540
+ | 0.1756 | 1280 | 0.1537 |
541
+ | 0.1769 | 1290 | 0.1208 |
542
+ | 0.1783 | 1300 | 0.1518 |
543
+ | 0.1797 | 1310 | 0.209 |
544
+ | 0.1810 | 1320 | 0.219 |
545
+ | 0.1824 | 1330 | 0.1047 |
546
+ | 0.1838 | 1340 | 0.1655 |
547
+ | 0.1852 | 1350 | 0.1296 |
548
+ | 0.1865 | 1360 | 0.15 |
549
+ | 0.1879 | 1370 | 0.1376 |
550
+ | 0.1893 | 1380 | 0.1529 |
551
+ | 0.1906 | 1390 | 0.1382 |
552
+ | 0.1920 | 1400 | 0.1012 |
553
+ | 0.1934 | 1410 | 0.2086 |
554
+ | 0.1948 | 1420 | 0.134 |
555
+ | 0.1961 | 1430 | 0.0845 |
556
+ | 0.1975 | 1440 | 0.0712 |
557
+ | 0.1989 | 1450 | 0.1158 |
558
+ | 0.2002 | 1460 | 0.1419 |
559
+ | 0.2016 | 1470 | 0.0943 |
560
+ | 0.2030 | 1480 | 0.157 |
561
+ | 0.2044 | 1490 | 0.2123 |
562
+ | 0.2057 | 1500 | 0.0999 |
563
+ | 0.2071 | 1510 | 0.0949 |
564
+ | 0.2085 | 1520 | 0.1389 |
565
+ | 0.2098 | 1530 | 0.0914 |
566
+ | 0.2112 | 1540 | 0.0973 |
567
+ | 0.2126 | 1550 | 0.1101 |
568
+ | 0.2140 | 1560 | 0.0882 |
569
+ | 0.2153 | 1570 | 0.1571 |
570
+ | 0.2167 | 1580 | 0.1137 |
571
+ | 0.2181 | 1590 | 0.1232 |
572
+ | 0.2194 | 1600 | 0.1152 |
573
+ | 0.2208 | 1610 | 0.1743 |
574
+ | 0.2222 | 1620 | 0.1063 |
575
+ | 0.2236 | 1630 | 0.1271 |
576
+ | 0.2249 | 1640 | 0.0903 |
577
+ | 0.2263 | 1650 | 0.1425 |
578
+ | 0.2277 | 1660 | 0.0922 |
579
+ | 0.2290 | 1670 | 0.142 |
580
+ | 0.2304 | 1680 | 0.0991 |
581
+ | 0.2318 | 1690 | 0.1518 |
582
+ | 0.2332 | 1700 | 0.0825 |
583
+ | 0.2345 | 1710 | 0.079 |
584
+ | 0.2359 | 1720 | 0.1486 |
585
+ | 0.2373 | 1730 | 0.1063 |
586
+ | 0.2387 | 1740 | 0.1264 |
587
+ | 0.2400 | 1750 | 0.0743 |
588
+ | 0.2414 | 1760 | 0.1113 |
589
+ | 0.2428 | 1770 | 0.0722 |
590
+ | 0.2441 | 1780 | 0.0635 |
591
+ | 0.2455 | 1790 | 0.0502 |
592
+ | 0.2469 | 1800 | 0.0487 |
593
+ | 0.2483 | 1810 | 0.1659 |
594
+ | 0.2496 | 1820 | 0.2265 |
595
+ | 0.2510 | 1830 | 0.1222 |
596
+ | 0.2524 | 1840 | 0.1219 |
597
+ | 0.2537 | 1850 | 0.0567 |
598
+ | 0.2551 | 1860 | 0.1375 |
599
+ | 0.2565 | 1870 | 0.1253 |
600
+ | 0.2579 | 1880 | 0.0603 |
601
+ | 0.2592 | 1890 | 0.1453 |
602
+ | 0.2606 | 1900 | 0.0907 |
603
+ | 0.2620 | 1910 | 0.0607 |
604
+ | 0.2633 | 1920 | 0.1449 |
605
+ | 0.2647 | 1930 | 0.0774 |
606
+ | 0.2661 | 1940 | 0.1089 |
607
+ | 0.2675 | 1950 | 0.0378 |
608
+ | 0.2688 | 1960 | 0.089 |
609
+ | 0.2702 | 1970 | 0.0931 |
610
+ | 0.2716 | 1980 | 0.0705 |
611
+ | 0.2729 | 1990 | 0.0405 |
612
+ | 0.2743 | 2000 | 0.1108 |
613
+ | 0.2757 | 2010 | 0.0623 |
614
+ | 0.2771 | 2020 | 0.0619 |
615
+ | 0.2784 | 2030 | 0.0453 |
616
+ | 0.2798 | 2040 | 0.0391 |
617
+ | 0.2812 | 2050 | 0.0597 |
618
+ | 0.2825 | 2060 | 0.0659 |
619
+ | 0.2839 | 2070 | 0.0904 |
620
+ | 0.2853 | 2080 | 0.0972 |
621
+ | 0.2867 | 2090 | 0.0594 |
622
+ | 0.2880 | 2100 | 0.0707 |
623
+ | 0.2894 | 2110 | 0.0821 |
624
+ | 0.2908 | 2120 | 0.0441 |
625
+ | 0.2921 | 2130 | 0.083 |
626
+ | 0.2935 | 2140 | 0.1237 |
627
+ | 0.2949 | 2150 | 0.0478 |
628
+ | 0.2963 | 2160 | 0.0709 |
629
+ | 0.2976 | 2170 | 0.0521 |
630
+ | 0.2990 | 2180 | 0.0863 |
631
+ | 0.3004 | 2190 | 0.0473 |
632
+ | 0.3017 | 2200 | 0.0875 |
633
+ | 0.3031 | 2210 | 0.1146 |
634
+ | 0.3045 | 2220 | 0.0474 |
635
+ | 0.3059 | 2230 | 0.0745 |
636
+ | 0.3072 | 2240 | 0.0406 |
637
+ | 0.3086 | 2250 | 0.0534 |
638
+ | 0.3100 | 2260 | 0.0368 |
639
+ | 0.3113 | 2270 | 0.0749 |
640
+ | 0.3127 | 2280 | 0.0807 |
641
+ | 0.3141 | 2290 | 0.0969 |
642
+ | 0.3155 | 2300 | 0.114 |
643
+ | 0.3168 | 2310 | 0.1219 |
644
+ | 0.3182 | 2320 | 0.0892 |
645
+ | 0.3196 | 2330 | 0.1291 |
646
+ | 0.3209 | 2340 | 0.1145 |
647
+ | 0.3223 | 2350 | 0.0761 |
648
+ | 0.3237 | 2360 | 0.1284 |
649
+ | 0.3251 | 2370 | 0.0712 |
650
+ | 0.3264 | 2380 | 0.1442 |
651
+ | 0.3278 | 2390 | 0.0778 |
652
+ | 0.3292 | 2400 | 0.1032 |
653
+ | 0.3305 | 2410 | 0.0642 |
654
+ | 0.3319 | 2420 | 0.0746 |
655
+ | 0.3333 | 2430 | 0.131 |
656
+ | 0.3347 | 2440 | 0.0461 |
657
+ | 0.3360 | 2450 | 0.0407 |
658
+ | 0.3374 | 2460 | 0.1121 |
659
+ | 0.3388 | 2470 | 0.0712 |
660
+ | 0.3401 | 2480 | 0.2035 |
661
+ | 0.3415 | 2490 | 0.0687 |
662
+ | 0.3429 | 2500 | 0.0528 |
663
+ | 0.3443 | 2510 | 0.06 |
664
+ | 0.3456 | 2520 | 0.0892 |
665
+ | 0.3470 | 2530 | 0.074 |
666
+ | 0.3484 | 2540 | 0.1052 |
667
+ | 0.3497 | 2550 | 0.0612 |
668
+ | 0.3511 | 2560 | 0.045 |
669
+ | 0.3525 | 2570 | 0.0907 |
670
+ | 0.3539 | 2580 | 0.1082 |
671
+ | 0.3552 | 2590 | 0.1077 |
672
+ | 0.3566 | 2600 | 0.0512 |
673
+ | 0.3580 | 2610 | 0.1034 |
674
+ | 0.3593 | 2620 | 0.0324 |
675
+ | 0.3607 | 2630 | 0.0621 |
676
+ | 0.3621 | 2640 | 0.1106 |
677
+ | 0.3635 | 2650 | 0.0769 |
678
+ | 0.3648 | 2660 | 0.123 |
679
+ | 0.3662 | 2670 | 0.1007 |
680
+ | 0.3676 | 2680 | 0.1268 |
681
+ | 0.3689 | 2690 | 0.0614 |
682
+ | 0.3703 | 2700 | 0.0487 |
683
+ | 0.3717 | 2710 | 0.033 |
684
+ | 0.3731 | 2720 | 0.0895 |
685
+ | 0.3744 | 2730 | 0.0633 |
686
+ | 0.3758 | 2740 | 0.0377 |
687
+ | 0.3772 | 2750 | 0.0573 |
688
+ | 0.3785 | 2760 | 0.0814 |
689
+ | 0.3799 | 2770 | 0.028 |
690
+ | 0.3813 | 2780 | 0.0936 |
691
+ | 0.3827 | 2790 | 0.023 |
692
+ | 0.3840 | 2800 | 0.0424 |
693
+ | 0.3854 | 2810 | 0.023 |
694
+ | 0.3868 | 2820 | 0.0559 |
695
+ | 0.3881 | 2830 | 0.0746 |
696
+ | 0.3895 | 2840 | 0.0838 |
697
+ | 0.3909 | 2850 | 0.1613 |
698
+ | 0.3923 | 2860 | 0.075 |
699
+ | 0.3936 | 2870 | 0.0768 |
700
+ | 0.3950 | 2880 | 0.0408 |
701
+ | 0.3964 | 2890 | 0.081 |
702
+ | 0.3978 | 2900 | 0.0752 |
703
+ | 0.3991 | 2910 | 0.0363 |
704
+ | 0.4005 | 2920 | 0.037 |
705
+ | 0.4019 | 2930 | 0.07 |
706
+ | 0.4032 | 2940 | 0.0632 |
707
+ | 0.4046 | 2950 | 0.0388 |
708
+ | 0.4060 | 2960 | 0.0486 |
709
+ | 0.4074 | 2970 | 0.1143 |
710
+ | 0.4087 | 2980 | 0.0479 |
711
+ | 0.4101 | 2990 | 0.043 |
712
+ | 0.4115 | 3000 | 0.0662 |
713
+ | 0.4128 | 3010 | 0.0854 |
714
+ | 0.4142 | 3020 | 0.0521 |
715
+ | 0.4156 | 3030 | 0.0463 |
716
+ | 0.4170 | 3040 | 0.0412 |
717
+ | 0.4183 | 3050 | 0.0298 |
718
+ | 0.4197 | 3060 | 0.0756 |
719
+ | 0.4211 | 3070 | 0.0659 |
720
+ | 0.4224 | 3080 | 0.1408 |
721
+ | 0.4238 | 3090 | 0.0861 |
722
+ | 0.4252 | 3100 | 0.062 |
723
+ | 0.4266 | 3110 | 0.0424 |
724
+ | 0.4279 | 3120 | 0.0372 |
725
+ | 0.4293 | 3130 | 0.0887 |
726
+ | 0.4307 | 3140 | 0.1115 |
727
+ | 0.4320 | 3150 | 0.0384 |
728
+ | 0.4334 | 3160 | 0.0946 |
729
+ | 0.4348 | 3170 | 0.0373 |
730
+ | 0.4362 | 3180 | 0.0311 |
731
+ | 0.4375 | 3190 | 0.0641 |
732
+ | 0.4389 | 3200 | 0.0957 |
733
+ | 0.4403 | 3210 | 0.0925 |
734
+ | 0.4416 | 3220 | 0.0469 |
735
+ | 0.4430 | 3230 | 0.0329 |
736
+ | 0.4444 | 3240 | 0.0318 |
737
+ | 0.4458 | 3250 | 0.0298 |
738
+ | 0.4471 | 3260 | 0.0637 |
739
+ | 0.4485 | 3270 | 0.0889 |
740
+ | 0.4499 | 3280 | 0.1015 |
741
+ | 0.4512 | 3290 | 0.0574 |
742
+ | 0.4526 | 3300 | 0.0204 |
743
+ | 0.4540 | 3310 | 0.0471 |
744
+ | 0.4554 | 3320 | 0.021 |
745
+ | 0.4567 | 3330 | 0.0397 |
746
+ | 0.4581 | 3340 | 0.1484 |
747
+ | 0.4595 | 3350 | 0.018 |
748
+ | 0.4608 | 3360 | 0.1063 |
749
+ | 0.4622 | 3370 | 0.0253 |
750
+ | 0.4636 | 3380 | 0.0479 |
751
+ | 0.4650 | 3390 | 0.0449 |
752
+ | 0.4663 | 3400 | 0.0382 |
753
+ | 0.4677 | 3410 | 0.0714 |
754
+ | 0.4691 | 3420 | 0.0333 |
755
+ | 0.4704 | 3430 | 0.0508 |
756
+ | 0.4718 | 3440 | 0.0497 |
757
+ | 0.4732 | 3450 | 0.0304 |
758
+ | 0.4746 | 3460 | 0.0479 |
759
+ | 0.4759 | 3470 | 0.0567 |
760
+ | 0.4773 | 3480 | 0.0264 |
761
+ | 0.4787 | 3490 | 0.0552 |
762
+ | 0.4800 | 3500 | 0.0334 |
763
+ | 0.4814 | 3510 | 0.0316 |
764
+ | 0.4828 | 3520 | 0.0334 |
765
+ | 0.4842 | 3530 | 0.0535 |
766
+ | 0.4855 | 3540 | 0.0968 |
767
+ | 0.4869 | 3550 | 0.0678 |
768
+ | 0.4883 | 3560 | 0.0768 |
769
+ | 0.4896 | 3570 | 0.0538 |
770
+ | 0.4910 | 3580 | 0.0439 |
771
+ | 0.4924 | 3590 | 0.0388 |
772
+ | 0.4938 | 3600 | 0.0978 |
773
+ | 0.4951 | 3610 | 0.0342 |
774
+ | 0.4965 | 3620 | 0.0539 |
775
+ | 0.4979 | 3630 | 0.0712 |
776
+ | 0.4992 | 3640 | 0.0395 |
777
+ | 0.5006 | 3650 | 0.0549 |
778
+ | 0.5020 | 3660 | 0.125 |
779
+ | 0.5034 | 3670 | 0.0558 |
780
+ | 0.5047 | 3680 | 0.0607 |
781
+ | 0.5061 | 3690 | 0.0667 |
782
+ | 0.5075 | 3700 | 0.0556 |
783
+ | 0.5088 | 3710 | 0.0409 |
784
+ | 0.5102 | 3720 | 0.0178 |
785
+ | 0.5116 | 3730 | 0.0377 |
786
+ | 0.5130 | 3740 | 0.0847 |
787
+ | 0.5143 | 3750 | 0.0428 |
788
+ | 0.5157 | 3760 | 0.0795 |
789
+ | 0.5171 | 3770 | 0.0631 |
790
+ | 0.5184 | 3780 | 0.0212 |
791
+ | 0.5198 | 3790 | 0.0259 |
792
+ | 0.5212 | 3800 | 0.076 |
793
+ | 0.5226 | 3810 | 0.02 |
794
+ | 0.5239 | 3820 | 0.0928 |
795
+ | 0.5253 | 3830 | 0.0233 |
796
+ | 0.5267 | 3840 | 0.0447 |
797
+ | 0.5280 | 3850 | 0.0338 |
798
+ | 0.5294 | 3860 | 0.0331 |
799
+ | 0.5308 | 3870 | 0.1292 |
800
+ | 0.5322 | 3880 | 0.0163 |
801
+ | 0.5335 | 3890 | 0.0375 |
802
+ | 0.5349 | 3900 | 0.029 |
803
+ | 0.5363 | 3910 | 0.0356 |
804
+ | 0.5376 | 3920 | 0.0804 |
805
+ | 0.5390 | 3930 | 0.0546 |
806
+ | 0.5404 | 3940 | 0.0506 |
807
+ | 0.5418 | 3950 | 0.0177 |
808
+ | 0.5431 | 3960 | 0.0388 |
809
+ | 0.5445 | 3970 | 0.0206 |
810
+ | 0.5459 | 3980 | 0.0237 |
811
+ | 0.5473 | 3990 | 0.0701 |
812
+ | 0.5486 | 4000 | 0.0269 |
813
+ | 0.5500 | 4010 | 0.0741 |
814
+ | 0.5514 | 4020 | 0.0381 |
815
+ | 0.5527 | 4030 | 0.0257 |
816
+ | 0.5541 | 4040 | 0.0354 |
817
+ | 0.5555 | 4050 | 0.0579 |
818
+ | 0.5569 | 4060 | 0.0134 |
819
+ | 0.5582 | 4070 | 0.0297 |
820
+ | 0.5596 | 4080 | 0.0462 |
821
+ | 0.5610 | 4090 | 0.0497 |
822
+ | 0.5623 | 4100 | 0.0564 |
823
+ | 0.5637 | 4110 | 0.0224 |
824
+ | 0.5651 | 4120 | 0.0451 |
825
+ | 0.5665 | 4130 | 0.0168 |
826
+ | 0.5678 | 4140 | 0.0238 |
827
+ | 0.5692 | 4150 | 0.0209 |
828
+ | 0.5706 | 4160 | 0.0471 |
829
+ | 0.5719 | 4170 | 0.0438 |
830
+ | 0.5733 | 4180 | 0.0286 |
831
+ | 0.5747 | 4190 | 0.0548 |
832
+ | 0.5761 | 4200 | 0.0367 |
833
+ | 0.5774 | 4210 | 0.0165 |
834
+ | 0.5788 | 4220 | 0.0492 |
835
+ | 0.5802 | 4230 | 0.0327 |
836
+ | 0.5815 | 4240 | 0.0682 |
837
+ | 0.5829 | 4250 | 0.0448 |
838
+ | 0.5843 | 4260 | 0.0736 |
839
+ | 0.5857 | 4270 | 0.0398 |
840
+ | 0.5870 | 4280 | 0.0294 |
841
+ | 0.5884 | 4290 | 0.0553 |
842
+ | 0.5898 | 4300 | 0.0832 |
843
+ | 0.5911 | 4310 | 0.0414 |
844
+ | 0.5925 | 4320 | 0.0261 |
845
+ | 0.5939 | 4330 | 0.0295 |
846
+ | 0.5953 | 4340 | 0.0187 |
847
+ | 0.5966 | 4350 | 0.0325 |
848
+ | 0.5980 | 4360 | 0.0619 |
849
+ | 0.5994 | 4370 | 0.0362 |
850
+ | 0.6007 | 4380 | 0.0159 |
851
+ | 0.6021 | 4390 | 0.0453 |
852
+ | 0.6035 | 4400 | 0.0343 |
853
+ | 0.6049 | 4410 | 0.0322 |
854
+ | 0.6062 | 4420 | 0.0501 |
855
+ | 0.6076 | 4430 | 0.0351 |
856
+ | 0.6090 | 4440 | 0.0257 |
857
+ | 0.6103 | 4450 | 0.036 |
858
+ | 0.6117 | 4460 | 0.0557 |
859
+ | 0.6131 | 4470 | 0.0722 |
860
+ | 0.6145 | 4480 | 0.0624 |
861
+ | 0.6158 | 4490 | 0.0124 |
862
+ | 0.6172 | 4500 | 0.0676 |
863
+ | 0.6186 | 4510 | 0.0166 |
864
+ | 0.6199 | 4520 | 0.0294 |
865
+ | 0.6213 | 4530 | 0.0595 |
866
+ | 0.6227 | 4540 | 0.0143 |
867
+ | 0.6241 | 4550 | 0.022 |
868
+ | 0.6254 | 4560 | 0.0394 |
869
+ | 0.6268 | 4570 | 0.0242 |
870
+ | 0.6282 | 4580 | 0.0312 |
871
+ | 0.6295 | 4590 | 0.0219 |
872
+ | 0.6309 | 4600 | 0.0742 |
873
+ | 0.6323 | 4610 | 0.0282 |
874
+ | 0.6337 | 4620 | 0.0656 |
875
+ | 0.6350 | 4630 | 0.044 |
876
+ | 0.6364 | 4640 | 0.0295 |
877
+ | 0.6378 | 4650 | 0.0285 |
878
+ | 0.6391 | 4660 | 0.0328 |
879
+ | 0.6405 | 4670 | 0.0311 |
880
+ | 0.6419 | 4680 | 0.0446 |
881
+ | 0.6433 | 4690 | 0.0232 |
882
+ | 0.6446 | 4700 | 0.0334 |
883
+ | 0.6460 | 4710 | 0.0342 |
884
+ | 0.6474 | 4720 | 0.0672 |
885
+ | 0.6487 | 4730 | 0.0705 |
886
+ | 0.6501 | 4740 | 0.0349 |
887
+ | 0.6515 | 4750 | 0.044 |
888
+ | 0.6529 | 4760 | 0.0438 |
889
+ | 0.6542 | 4770 | 0.1152 |
890
+ | 0.6556 | 4780 | 0.0195 |
891
+ | 0.6570 | 4790 | 0.03 |
892
+ | 0.6583 | 4800 | 0.0357 |
893
+ | 0.6597 | 4810 | 0.0163 |
894
+ | 0.6611 | 4820 | 0.0416 |
895
+ | 0.6625 | 4830 | 0.0177 |
896
+ | 0.6638 | 4840 | 0.0139 |
897
+ | 0.6652 | 4850 | 0.0789 |
898
+ | 0.6666 | 4860 | 0.0247 |
899
+ | 0.6679 | 4870 | 0.0533 |
900
+ | 0.6693 | 4880 | 0.0205 |
901
+ | 0.6707 | 4890 | 0.1045 |
902
+ | 0.6721 | 4900 | 0.0395 |
903
+ | 0.6734 | 4910 | 0.0189 |
904
+ | 0.6748 | 4920 | 0.0287 |
905
+ | 0.6762 | 4930 | 0.0372 |
906
+ | 0.6775 | 4940 | 0.0197 |
907
+ | 0.6789 | 4950 | 0.0171 |
908
+ | 0.6803 | 4960 | 0.0239 |
909
+ | 0.6817 | 4970 | 0.0406 |
910
+ | 0.6830 | 4980 | 0.0152 |
911
+ | 0.6844 | 4990 | 0.0392 |
912
+ | 0.6858 | 5000 | 0.0333 |
913
+ | 0.6871 | 5010 | 0.0297 |
914
+ | 0.6885 | 5020 | 0.0525 |
915
+ | 0.6899 | 5030 | 0.0736 |
916
+ | 0.6913 | 5040 | 0.0536 |
917
+ | 0.6926 | 5050 | 0.0261 |
918
+ | 0.6940 | 5060 | 0.0597 |
919
+ | 0.6954 | 5070 | 0.0738 |
920
+ | 0.6967 | 5080 | 0.0277 |
921
+ | 0.6981 | 5090 | 0.0741 |
922
+ | 0.6995 | 5100 | 0.044 |
923
+ | 0.7009 | 5110 | 0.0221 |
924
+ | 0.7022 | 5120 | 0.0102 |
925
+ | 0.7036 | 5130 | 0.0312 |
926
+ | 0.7050 | 5140 | 0.0237 |
927
+ | 0.7064 | 5150 | 0.0156 |
928
+ | 0.7077 | 5160 | 0.0297 |
929
+ | 0.7091 | 5170 | 0.0213 |
930
+ | 0.7105 | 5180 | 0.0187 |
931
+ | 0.7118 | 5190 | 0.0328 |
932
+ | 0.7132 | 5200 | 0.0192 |
933
+ | 0.7146 | 5210 | 0.024 |
934
+ | 0.7160 | 5220 | 0.0723 |
935
+ | 0.7173 | 5230 | 0.0469 |
936
+ | 0.7187 | 5240 | 0.0188 |
937
+ | 0.7201 | 5250 | 0.0411 |
938
+ | 0.7214 | 5260 | 0.0345 |
939
+ | 0.7228 | 5270 | 0.0156 |
940
+ | 0.7242 | 5280 | 0.032 |
941
+ | 0.7256 | 5290 | 0.0298 |
942
+ | 0.7269 | 5300 | 0.0372 |
943
+ | 0.7283 | 5310 | 0.0217 |
944
+ | 0.7297 | 5320 | 0.0327 |
945
+ | 0.7310 | 5330 | 0.0218 |
946
+ | 0.7324 | 5340 | 0.0381 |
947
+ | 0.7338 | 5350 | 0.022 |
948
+ | 0.7352 | 5360 | 0.0432 |
949
+ | 0.7365 | 5370 | 0.0122 |
950
+ | 0.7379 | 5380 | 0.0249 |
951
+ | 0.7393 | 5390 | 0.0248 |
952
+ | 0.7406 | 5400 | 0.0933 |
953
+ | 0.7420 | 5410 | 0.0269 |
954
+ | 0.7434 | 5420 | 0.0204 |
955
+ | 0.7448 | 5430 | 0.0184 |
956
+ | 0.7461 | 5440 | 0.0667 |
957
+ | 0.7475 | 5450 | 0.0286 |
958
+ | 0.7489 | 5460 | 0.0119 |
959
+ | 0.7502 | 5470 | 0.0232 |
960
+ | 0.7516 | 5480 | 0.0259 |
961
+ | 0.7530 | 5490 | 0.026 |
962
+ | 0.7544 | 5500 | 0.0466 |
963
+ | 0.7557 | 5510 | 0.0809 |
964
+ | 0.7571 | 5520 | 0.0224 |
965
+ | 0.7585 | 5530 | 0.1008 |
966
+ | 0.7598 | 5540 | 0.0247 |
967
+ | 0.7612 | 5550 | 0.0212 |
968
+ | 0.7626 | 5560 | 0.0294 |
969
+ | 0.7640 | 5570 | 0.0307 |
970
+ | 0.7653 | 5580 | 0.0198 |
971
+ | 0.7667 | 5590 | 0.022 |
972
+ | 0.7681 | 5600 | 0.0105 |
973
+ | 0.7694 | 5610 | 0.0471 |
974
+ | 0.7708 | 5620 | 0.0207 |
975
+ | 0.7722 | 5630 | 0.0315 |
976
+ | 0.7736 | 5640 | 0.0169 |
977
+ | 0.7749 | 5650 | 0.0281 |
978
+ | 0.7763 | 5660 | 0.0183 |
979
+ | 0.7777 | 5670 | 0.0353 |
980
+ | 0.7790 | 5680 | 0.0198 |
981
+ | 0.7804 | 5690 | 0.0076 |
982
+ | 0.7818 | 5700 | 0.0359 |
983
+ | 0.7832 | 5710 | 0.0327 |
984
+ | 0.7845 | 5720 | 0.0187 |
985
+ | 0.7859 | 5730 | 0.0233 |
986
+ | 0.7873 | 5740 | 0.0424 |
987
+ | 0.7886 | 5750 | 0.0202 |
988
+ | 0.7900 | 5760 | 0.0266 |
989
+ | 0.7914 | 5770 | 0.0257 |
990
+ | 0.7928 | 5780 | 0.042 |
991
+ | 0.7941 | 5790 | 0.0304 |
992
+ | 0.7955 | 5800 | 0.0357 |
993
+ | 0.7969 | 5810 | 0.0318 |
994
+ | 0.7982 | 5820 | 0.0146 |
995
+ | 0.7996 | 5830 | 0.0145 |
996
+ | 0.8010 | 5840 | 0.0241 |
997
+ | 0.8024 | 5850 | 0.0301 |
998
+ | 0.8037 | 5860 | 0.018 |
999
+ | 0.8051 | 5870 | 0.0312 |
1000
+ | 0.8065 | 5880 | 0.0202 |
1001
+ | 0.8078 | 5890 | 0.0516 |
1002
+ | 0.8092 | 5900 | 0.0445 |
1003
+ | 0.8106 | 5910 | 0.0146 |
1004
+ | 0.8120 | 5920 | 0.0744 |
1005
+ | 0.8133 | 5930 | 0.0186 |
1006
+ | 0.8147 | 5940 | 0.0322 |
1007
+ | 0.8161 | 5950 | 0.0536 |
1008
+ | 0.8174 | 5960 | 0.0305 |
1009
+ | 0.8188 | 5970 | 0.025 |
1010
+ | 0.8202 | 5980 | 0.0665 |
1011
+ | 0.8216 | 5990 | 0.0162 |
1012
+ | 0.8229 | 6000 | 0.0124 |
1013
+ | 0.8243 | 6010 | 0.0527 |
1014
+ | 0.8257 | 6020 | 0.0116 |
1015
+ | 0.8270 | 6030 | 0.029 |
1016
+ | 0.8284 | 6040 | 0.0178 |
1017
+ | 0.8298 | 6050 | 0.015 |
1018
+ | 0.8312 | 6060 | 0.0234 |
1019
+ | 0.8325 | 6070 | 0.0342 |
1020
+ | 0.8339 | 6080 | 0.0202 |
1021
+ | 0.8353 | 6090 | 0.0313 |
1022
+ | 0.8366 | 6100 | 0.0474 |
1023
+ | 0.8380 | 6110 | 0.0342 |
1024
+ | 0.8394 | 6120 | 0.0114 |
1025
+ | 0.8408 | 6130 | 0.0227 |
1026
+ | 0.8421 | 6140 | 0.0163 |
1027
+ | 0.8435 | 6150 | 0.0207 |
1028
+ | 0.8449 | 6160 | 0.0296 |
1029
+ | 0.8462 | 6170 | 0.0175 |
1030
+ | 0.8476 | 6180 | 0.0685 |
1031
+ | 0.8490 | 6190 | 0.0481 |
1032
+ | 0.8504 | 6200 | 0.0253 |
1033
+ | 0.8517 | 6210 | 0.1079 |
1034
+ | 0.8531 | 6220 | 0.0195 |
1035
+ | 0.8545 | 6230 | 0.0322 |
1036
+ | 0.8558 | 6240 | 0.0219 |
1037
+ | 0.8572 | 6250 | 0.0153 |
1038
+ | 0.8586 | 6260 | 0.0247 |
1039
+ | 0.8600 | 6270 | 0.0117 |
1040
+ | 0.8613 | 6280 | 0.0162 |
1041
+ | 0.8627 | 6290 | 0.052 |
1042
+ | 0.8641 | 6300 | 0.038 |
1043
+ | 0.8655 | 6310 | 0.0922 |
1044
+ | 0.8668 | 6320 | 0.0169 |
1045
+ | 0.8682 | 6330 | 0.0305 |
1046
+ | 0.8696 | 6340 | 0.0104 |
1047
+ | 0.8709 | 6350 | 0.0396 |
1048
+ | 0.8723 | 6360 | 0.0162 |
1049
+ | 0.8737 | 6370 | 0.0143 |
1050
+ | 0.8751 | 6380 | 0.0204 |
1051
+ | 0.8764 | 6390 | 0.0295 |
1052
+ | 0.8778 | 6400 | 0.0474 |
1053
+ | 0.8792 | 6410 | 0.0561 |
1054
+ | 0.8805 | 6420 | 0.016 |
1055
+ | 0.8819 | 6430 | 0.0447 |
1056
+ | 0.8833 | 6440 | 0.0154 |
1057
+ | 0.8847 | 6450 | 0.0216 |
1058
+ | 0.8860 | 6460 | 0.0647 |
1059
+ | 0.8874 | 6470 | 0.0218 |
1060
+ | 0.8888 | 6480 | 0.0141 |
1061
+ | 0.8901 | 6490 | 0.0693 |
1062
+ | 0.8915 | 6500 | 0.0146 |
1063
+ | 0.8929 | 6510 | 0.0194 |
1064
+ | 0.8943 | 6520 | 0.0106 |
1065
+ | 0.8956 | 6530 | 0.0715 |
1066
+ | 0.8970 | 6540 | 0.0309 |
1067
+ | 0.8984 | 6550 | 0.0692 |
1068
+ | 0.8997 | 6560 | 0.0111 |
1069
+ | 0.9011 | 6570 | 0.0187 |
1070
+ | 0.9025 | 6580 | 0.0646 |
1071
+ | 0.9039 | 6590 | 0.0774 |
1072
+ | 0.9052 | 6600 | 0.0329 |
1073
+ | 0.9066 | 6610 | 0.0293 |
1074
+ | 0.9080 | 6620 | 0.0162 |
1075
+ | 0.9093 | 6630 | 0.0373 |
1076
+ | 0.9107 | 6640 | 0.0585 |
1077
+ | 0.9121 | 6650 | 0.0771 |
1078
+ | 0.9135 | 6660 | 0.1385 |
1079
+ | 0.9148 | 6670 | 0.0418 |
1080
+ | 0.9162 | 6680 | 0.0171 |
1081
+ | 0.9176 | 6690 | 0.0265 |
1082
+ | 0.9189 | 6700 | 0.0203 |
1083
+ | 0.9203 | 6710 | 0.0493 |
1084
+ | 0.9217 | 6720 | 0.0255 |
1085
+ | 0.9231 | 6730 | 0.0248 |
1086
+ | 0.9244 | 6740 | 0.0204 |
1087
+ | 0.9258 | 6750 | 0.0194 |
1088
+ | 0.9272 | 6760 | 0.012 |
1089
+ | 0.9285 | 6770 | 0.0161 |
1090
+ | 0.9299 | 6780 | 0.0231 |
1091
+ | 0.9313 | 6790 | 0.0667 |
1092
+ | 0.9327 | 6800 | 0.0163 |
1093
+ | 0.9340 | 6810 | 0.0168 |
1094
+ | 0.9354 | 6820 | 0.0179 |
1095
+ | 0.9368 | 6830 | 0.0453 |
1096
+ | 0.9381 | 6840 | 0.045 |
1097
+ | 0.9395 | 6850 | 0.0346 |
1098
+ | 0.9409 | 6860 | 0.0253 |
1099
+ | 0.9423 | 6870 | 0.0122 |
1100
+ | 0.9436 | 6880 | 0.0367 |
1101
+ | 0.9450 | 6890 | 0.0563 |
1102
+ | 0.9464 | 6900 | 0.0208 |
1103
+ | 0.9477 | 6910 | 0.0323 |
1104
+ | 0.9491 | 6920 | 0.0195 |
1105
+ | 0.9505 | 6930 | 0.0382 |
1106
+ | 0.9519 | 6940 | 0.0198 |
1107
+ | 0.9532 | 6950 | 0.0158 |
1108
+ | 0.9546 | 6960 | 0.0203 |
1109
+ | 0.9560 | 6970 | 0.0154 |
1110
+ | 0.9573 | 6980 | 0.0359 |
1111
+ | 0.9587 | 6990 | 0.0128 |
1112
+ | 0.9601 | 7000 | 0.0283 |
1113
+ | 0.9615 | 7010 | 0.0174 |
1114
+ | 0.9628 | 7020 | 0.057 |
1115
+ | 0.9642 | 7030 | 0.0994 |
1116
+ | 0.9656 | 7040 | 0.0225 |
1117
+ | 0.9669 | 7050 | 0.0336 |
1118
+ | 0.9683 | 7060 | 0.0197 |
1119
+ | 0.9697 | 7070 | 0.0399 |
1120
+ | 0.9711 | 7080 | 0.0341 |
1121
+ | 0.9724 | 7090 | 0.0821 |
1122
+ | 0.9738 | 7100 | 0.022 |
1123
+ | 0.9752 | 7110 | 0.0283 |
1124
+ | 0.9765 | 7120 | 0.0414 |
1125
+ | 0.9779 | 7130 | 0.0596 |
1126
+ | 0.9793 | 7140 | 0.0133 |
1127
+ | 0.9807 | 7150 | 0.0436 |
1128
+ | 0.9820 | 7160 | 0.0231 |
1129
+ | 0.9834 | 7170 | 0.0115 |
1130
+ | 0.9848 | 7180 | 0.029 |
1131
+ | 0.9861 | 7190 | 0.0697 |
1132
+ | 0.9875 | 7200 | 0.0257 |
1133
+ | 0.9889 | 7210 | 0.0141 |
1134
+ | 0.9903 | 7220 | 0.0105 |
1135
+ | 0.9916 | 7230 | 0.0105 |
1136
+ | 0.9930 | 7240 | 0.0175 |
1137
+ | 0.9944 | 7250 | 0.0303 |
1138
+ | 0.9957 | 7260 | 0.0273 |
1139
+ | 0.9971 | 7270 | 0.017 |
1140
+ | 0.9985 | 7280 | 0.0125 |
1141
+ | 0.9999 | 7290 | 0.0092 |
1142
+
1143
+ </details>
1144
+
1145
+ ### Framework Versions
1146
+ - Python: 3.11.11
1147
+ - Sentence Transformers: 3.3.1
1148
+ - Transformers: 4.48.1
1149
+ - PyTorch: 2.5.1+cu124
1150
+ - Accelerate: 1.2.1
1151
+ - Datasets: 2.19.1
1152
+ - Tokenizers: 0.21.0
1153
+
1154
+ ## Citation
1155
+
1156
+ ### BibTeX
1157
+
1158
+ #### Sentence Transformers
1159
+ ```bibtex
1160
+ @inproceedings{reimers-2019-sentence-bert,
1161
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
1162
+ author = "Reimers, Nils and Gurevych, Iryna",
1163
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
1164
+ month = "11",
1165
+ year = "2019",
1166
+ publisher = "Association for Computational Linguistics",
1167
+ url = "https://arxiv.org/abs/1908.10084",
1168
+ }
1169
+ ```
1170
+
1171
+ #### MatryoshkaLoss
1172
+ ```bibtex
1173
+ @misc{kusupati2024matryoshka,
1174
+ title={Matryoshka Representation Learning},
1175
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
1176
+ year={2024},
1177
+ eprint={2205.13147},
1178
+ archivePrefix={arXiv},
1179
+ primaryClass={cs.LG}
1180
+ }
1181
+ ```
1182
+
1183
+ #### MultipleNegativesRankingLoss
1184
+ ```bibtex
1185
+ @misc{henderson2017efficient,
1186
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
1187
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
1188
+ year={2017},
1189
+ eprint={1705.00652},
1190
+ archivePrefix={arXiv},
1191
+ primaryClass={cs.CL}
1192
+ }
1193
+ ```
1194
+
1195
+ <!--
1196
+ ## Glossary
1197
+
1198
+ *Clearly define terms in order to be accessible across audiences.*
1199
+ -->
1200
+
1201
+ <!--
1202
+ ## Model Card Authors
1203
+
1204
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
1205
+ -->
1206
+
1207
+ <!--
1208
+ ## Model Card Contact
1209
+
1210
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
1211
+ -->
config.json ADDED
@@ -0,0 +1,47 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/content/ModernBERT-base-financial-matryoshka/checkpoint-7291",
3
+ "architectures": [
4
+ "ModernBertModel"
5
+ ],
6
+ "attention_bias": false,
7
+ "attention_dropout": 0.0,
8
+ "bos_token_id": 50281,
9
+ "classifier_activation": "gelu",
10
+ "classifier_bias": false,
11
+ "classifier_dropout": 0.0,
12
+ "classifier_pooling": "mean",
13
+ "cls_token_id": 50281,
14
+ "decoder_bias": true,
15
+ "deterministic_flash_attn": false,
16
+ "embedding_dropout": 0.0,
17
+ "eos_token_id": 50282,
18
+ "global_attn_every_n_layers": 3,
19
+ "global_rope_theta": 160000.0,
20
+ "gradient_checkpointing": false,
21
+ "hidden_activation": "gelu",
22
+ "hidden_size": 768,
23
+ "initializer_cutoff_factor": 2.0,
24
+ "initializer_range": 0.02,
25
+ "intermediate_size": 1152,
26
+ "layer_norm_eps": 1e-05,
27
+ "local_attention": 128,
28
+ "local_rope_theta": 10000.0,
29
+ "max_position_embeddings": 8192,
30
+ "mlp_bias": false,
31
+ "mlp_dropout": 0.0,
32
+ "model_type": "modernbert",
33
+ "norm_bias": false,
34
+ "norm_eps": 1e-05,
35
+ "num_attention_heads": 12,
36
+ "num_hidden_layers": 22,
37
+ "pad_token_id": 50283,
38
+ "position_embedding_type": "absolute",
39
+ "reference_compile": true,
40
+ "repad_logits_with_grad": false,
41
+ "sep_token_id": 50282,
42
+ "sparse_pred_ignore_index": -100,
43
+ "sparse_prediction": false,
44
+ "torch_dtype": "float32",
45
+ "transformers_version": "4.48.1",
46
+ "vocab_size": 50368
47
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.48.1",
5
+ "pytorch": "2.5.1+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4f0eb1cc5d9c6eaf912b00586da917796f43acf8cbc2cf50efe054ec3c622a02
3
+ size 596070136
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": true,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,952 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "|||IP_ADDRESS|||",
5
+ "lstrip": false,
6
+ "normalized": true,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": false
10
+ },
11
+ "1": {
12
+ "content": "<|padding|>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "50254": {
20
+ "content": " ",
21
+ "lstrip": false,
22
+ "normalized": true,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": false
26
+ },
27
+ "50255": {
28
+ "content": " ",
29
+ "lstrip": false,
30
+ "normalized": true,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": false
34
+ },
35
+ "50256": {
36
+ "content": " ",
37
+ "lstrip": false,
38
+ "normalized": true,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": false
42
+ },
43
+ "50257": {
44
+ "content": " ",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": false,
49
+ "special": false
50
+ },
51
+ "50258": {
52
+ "content": " ",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": false,
57
+ "special": false
58
+ },
59
+ "50259": {
60
+ "content": " ",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": false,
65
+ "special": false
66
+ },
67
+ "50260": {
68
+ "content": " ",
69
+ "lstrip": false,
70
+ "normalized": true,
71
+ "rstrip": false,
72
+ "single_word": false,
73
+ "special": false
74
+ },
75
+ "50261": {
76
+ "content": " ",
77
+ "lstrip": false,
78
+ "normalized": true,
79
+ "rstrip": false,
80
+ "single_word": false,
81
+ "special": false
82
+ },
83
+ "50262": {
84
+ "content": " ",
85
+ "lstrip": false,
86
+ "normalized": true,
87
+ "rstrip": false,
88
+ "single_word": false,
89
+ "special": false
90
+ },
91
+ "50263": {
92
+ "content": " ",
93
+ "lstrip": false,
94
+ "normalized": true,
95
+ "rstrip": false,
96
+ "single_word": false,
97
+ "special": false
98
+ },
99
+ "50264": {
100
+ "content": " ",
101
+ "lstrip": false,
102
+ "normalized": true,
103
+ "rstrip": false,
104
+ "single_word": false,
105
+ "special": false
106
+ },
107
+ "50265": {
108
+ "content": " ",
109
+ "lstrip": false,
110
+ "normalized": true,
111
+ "rstrip": false,
112
+ "single_word": false,
113
+ "special": false
114
+ },
115
+ "50266": {
116
+ "content": " ",
117
+ "lstrip": false,
118
+ "normalized": true,
119
+ "rstrip": false,
120
+ "single_word": false,
121
+ "special": false
122
+ },
123
+ "50267": {
124
+ "content": " ",
125
+ "lstrip": false,
126
+ "normalized": true,
127
+ "rstrip": false,
128
+ "single_word": false,
129
+ "special": false
130
+ },
131
+ "50268": {
132
+ "content": " ",
133
+ "lstrip": false,
134
+ "normalized": true,
135
+ "rstrip": false,
136
+ "single_word": false,
137
+ "special": false
138
+ },
139
+ "50269": {
140
+ "content": " ",
141
+ "lstrip": false,
142
+ "normalized": true,
143
+ "rstrip": false,
144
+ "single_word": false,
145
+ "special": false
146
+ },
147
+ "50270": {
148
+ "content": " ",
149
+ "lstrip": false,
150
+ "normalized": true,
151
+ "rstrip": false,
152
+ "single_word": false,
153
+ "special": false
154
+ },
155
+ "50271": {
156
+ "content": " ",
157
+ "lstrip": false,
158
+ "normalized": true,
159
+ "rstrip": false,
160
+ "single_word": false,
161
+ "special": false
162
+ },
163
+ "50272": {
164
+ "content": " ",
165
+ "lstrip": false,
166
+ "normalized": true,
167
+ "rstrip": false,
168
+ "single_word": false,
169
+ "special": false
170
+ },
171
+ "50273": {
172
+ "content": " ",
173
+ "lstrip": false,
174
+ "normalized": true,
175
+ "rstrip": false,
176
+ "single_word": false,
177
+ "special": false
178
+ },
179
+ "50274": {
180
+ "content": " ",
181
+ "lstrip": false,
182
+ "normalized": true,
183
+ "rstrip": false,
184
+ "single_word": false,
185
+ "special": false
186
+ },
187
+ "50275": {
188
+ "content": " ",
189
+ "lstrip": false,
190
+ "normalized": true,
191
+ "rstrip": false,
192
+ "single_word": false,
193
+ "special": false
194
+ },
195
+ "50276": {
196
+ "content": " ",
197
+ "lstrip": false,
198
+ "normalized": true,
199
+ "rstrip": false,
200
+ "single_word": false,
201
+ "special": false
202
+ },
203
+ "50277": {
204
+ "content": "|||EMAIL_ADDRESS|||",
205
+ "lstrip": false,
206
+ "normalized": true,
207
+ "rstrip": false,
208
+ "single_word": false,
209
+ "special": false
210
+ },
211
+ "50278": {
212
+ "content": "|||PHONE_NUMBER|||",
213
+ "lstrip": false,
214
+ "normalized": true,
215
+ "rstrip": false,
216
+ "single_word": false,
217
+ "special": false
218
+ },
219
+ "50279": {
220
+ "content": "<|endoftext|>",
221
+ "lstrip": false,
222
+ "normalized": false,
223
+ "rstrip": false,
224
+ "single_word": false,
225
+ "special": true
226
+ },
227
+ "50280": {
228
+ "content": "[UNK]",
229
+ "lstrip": false,
230
+ "normalized": false,
231
+ "rstrip": false,
232
+ "single_word": false,
233
+ "special": true
234
+ },
235
+ "50281": {
236
+ "content": "[CLS]",
237
+ "lstrip": false,
238
+ "normalized": false,
239
+ "rstrip": false,
240
+ "single_word": false,
241
+ "special": true
242
+ },
243
+ "50282": {
244
+ "content": "[SEP]",
245
+ "lstrip": false,
246
+ "normalized": false,
247
+ "rstrip": false,
248
+ "single_word": false,
249
+ "special": true
250
+ },
251
+ "50283": {
252
+ "content": "[PAD]",
253
+ "lstrip": false,
254
+ "normalized": false,
255
+ "rstrip": false,
256
+ "single_word": false,
257
+ "special": true
258
+ },
259
+ "50284": {
260
+ "content": "[MASK]",
261
+ "lstrip": true,
262
+ "normalized": false,
263
+ "rstrip": false,
264
+ "single_word": false,
265
+ "special": true
266
+ },
267
+ "50285": {
268
+ "content": "[unused0]",
269
+ "lstrip": false,
270
+ "normalized": true,
271
+ "rstrip": false,
272
+ "single_word": false,
273
+ "special": false
274
+ },
275
+ "50286": {
276
+ "content": "[unused1]",
277
+ "lstrip": false,
278
+ "normalized": true,
279
+ "rstrip": false,
280
+ "single_word": false,
281
+ "special": false
282
+ },
283
+ "50287": {
284
+ "content": "[unused2]",
285
+ "lstrip": false,
286
+ "normalized": true,
287
+ "rstrip": false,
288
+ "single_word": false,
289
+ "special": false
290
+ },
291
+ "50288": {
292
+ "content": "[unused3]",
293
+ "lstrip": false,
294
+ "normalized": true,
295
+ "rstrip": false,
296
+ "single_word": false,
297
+ "special": false
298
+ },
299
+ "50289": {
300
+ "content": "[unused4]",
301
+ "lstrip": false,
302
+ "normalized": true,
303
+ "rstrip": false,
304
+ "single_word": false,
305
+ "special": false
306
+ },
307
+ "50290": {
308
+ "content": "[unused5]",
309
+ "lstrip": false,
310
+ "normalized": true,
311
+ "rstrip": false,
312
+ "single_word": false,
313
+ "special": false
314
+ },
315
+ "50291": {
316
+ "content": "[unused6]",
317
+ "lstrip": false,
318
+ "normalized": true,
319
+ "rstrip": false,
320
+ "single_word": false,
321
+ "special": false
322
+ },
323
+ "50292": {
324
+ "content": "[unused7]",
325
+ "lstrip": false,
326
+ "normalized": true,
327
+ "rstrip": false,
328
+ "single_word": false,
329
+ "special": false
330
+ },
331
+ "50293": {
332
+ "content": "[unused8]",
333
+ "lstrip": false,
334
+ "normalized": true,
335
+ "rstrip": false,
336
+ "single_word": false,
337
+ "special": false
338
+ },
339
+ "50294": {
340
+ "content": "[unused9]",
341
+ "lstrip": false,
342
+ "normalized": true,
343
+ "rstrip": false,
344
+ "single_word": false,
345
+ "special": false
346
+ },
347
+ "50295": {
348
+ "content": "[unused10]",
349
+ "lstrip": false,
350
+ "normalized": true,
351
+ "rstrip": false,
352
+ "single_word": false,
353
+ "special": false
354
+ },
355
+ "50296": {
356
+ "content": "[unused11]",
357
+ "lstrip": false,
358
+ "normalized": true,
359
+ "rstrip": false,
360
+ "single_word": false,
361
+ "special": false
362
+ },
363
+ "50297": {
364
+ "content": "[unused12]",
365
+ "lstrip": false,
366
+ "normalized": true,
367
+ "rstrip": false,
368
+ "single_word": false,
369
+ "special": false
370
+ },
371
+ "50298": {
372
+ "content": "[unused13]",
373
+ "lstrip": false,
374
+ "normalized": true,
375
+ "rstrip": false,
376
+ "single_word": false,
377
+ "special": false
378
+ },
379
+ "50299": {
380
+ "content": "[unused14]",
381
+ "lstrip": false,
382
+ "normalized": true,
383
+ "rstrip": false,
384
+ "single_word": false,
385
+ "special": false
386
+ },
387
+ "50300": {
388
+ "content": "[unused15]",
389
+ "lstrip": false,
390
+ "normalized": true,
391
+ "rstrip": false,
392
+ "single_word": false,
393
+ "special": false
394
+ },
395
+ "50301": {
396
+ "content": "[unused16]",
397
+ "lstrip": false,
398
+ "normalized": true,
399
+ "rstrip": false,
400
+ "single_word": false,
401
+ "special": false
402
+ },
403
+ "50302": {
404
+ "content": "[unused17]",
405
+ "lstrip": false,
406
+ "normalized": true,
407
+ "rstrip": false,
408
+ "single_word": false,
409
+ "special": false
410
+ },
411
+ "50303": {
412
+ "content": "[unused18]",
413
+ "lstrip": false,
414
+ "normalized": true,
415
+ "rstrip": false,
416
+ "single_word": false,
417
+ "special": false
418
+ },
419
+ "50304": {
420
+ "content": "[unused19]",
421
+ "lstrip": false,
422
+ "normalized": true,
423
+ "rstrip": false,
424
+ "single_word": false,
425
+ "special": false
426
+ },
427
+ "50305": {
428
+ "content": "[unused20]",
429
+ "lstrip": false,
430
+ "normalized": true,
431
+ "rstrip": false,
432
+ "single_word": false,
433
+ "special": false
434
+ },
435
+ "50306": {
436
+ "content": "[unused21]",
437
+ "lstrip": false,
438
+ "normalized": true,
439
+ "rstrip": false,
440
+ "single_word": false,
441
+ "special": false
442
+ },
443
+ "50307": {
444
+ "content": "[unused22]",
445
+ "lstrip": false,
446
+ "normalized": true,
447
+ "rstrip": false,
448
+ "single_word": false,
449
+ "special": false
450
+ },
451
+ "50308": {
452
+ "content": "[unused23]",
453
+ "lstrip": false,
454
+ "normalized": true,
455
+ "rstrip": false,
456
+ "single_word": false,
457
+ "special": false
458
+ },
459
+ "50309": {
460
+ "content": "[unused24]",
461
+ "lstrip": false,
462
+ "normalized": true,
463
+ "rstrip": false,
464
+ "single_word": false,
465
+ "special": false
466
+ },
467
+ "50310": {
468
+ "content": "[unused25]",
469
+ "lstrip": false,
470
+ "normalized": true,
471
+ "rstrip": false,
472
+ "single_word": false,
473
+ "special": false
474
+ },
475
+ "50311": {
476
+ "content": "[unused26]",
477
+ "lstrip": false,
478
+ "normalized": true,
479
+ "rstrip": false,
480
+ "single_word": false,
481
+ "special": false
482
+ },
483
+ "50312": {
484
+ "content": "[unused27]",
485
+ "lstrip": false,
486
+ "normalized": true,
487
+ "rstrip": false,
488
+ "single_word": false,
489
+ "special": false
490
+ },
491
+ "50313": {
492
+ "content": "[unused28]",
493
+ "lstrip": false,
494
+ "normalized": true,
495
+ "rstrip": false,
496
+ "single_word": false,
497
+ "special": false
498
+ },
499
+ "50314": {
500
+ "content": "[unused29]",
501
+ "lstrip": false,
502
+ "normalized": true,
503
+ "rstrip": false,
504
+ "single_word": false,
505
+ "special": false
506
+ },
507
+ "50315": {
508
+ "content": "[unused30]",
509
+ "lstrip": false,
510
+ "normalized": true,
511
+ "rstrip": false,
512
+ "single_word": false,
513
+ "special": false
514
+ },
515
+ "50316": {
516
+ "content": "[unused31]",
517
+ "lstrip": false,
518
+ "normalized": true,
519
+ "rstrip": false,
520
+ "single_word": false,
521
+ "special": false
522
+ },
523
+ "50317": {
524
+ "content": "[unused32]",
525
+ "lstrip": false,
526
+ "normalized": true,
527
+ "rstrip": false,
528
+ "single_word": false,
529
+ "special": false
530
+ },
531
+ "50318": {
532
+ "content": "[unused33]",
533
+ "lstrip": false,
534
+ "normalized": true,
535
+ "rstrip": false,
536
+ "single_word": false,
537
+ "special": false
538
+ },
539
+ "50319": {
540
+ "content": "[unused34]",
541
+ "lstrip": false,
542
+ "normalized": true,
543
+ "rstrip": false,
544
+ "single_word": false,
545
+ "special": false
546
+ },
547
+ "50320": {
548
+ "content": "[unused35]",
549
+ "lstrip": false,
550
+ "normalized": true,
551
+ "rstrip": false,
552
+ "single_word": false,
553
+ "special": false
554
+ },
555
+ "50321": {
556
+ "content": "[unused36]",
557
+ "lstrip": false,
558
+ "normalized": true,
559
+ "rstrip": false,
560
+ "single_word": false,
561
+ "special": false
562
+ },
563
+ "50322": {
564
+ "content": "[unused37]",
565
+ "lstrip": false,
566
+ "normalized": true,
567
+ "rstrip": false,
568
+ "single_word": false,
569
+ "special": false
570
+ },
571
+ "50323": {
572
+ "content": "[unused38]",
573
+ "lstrip": false,
574
+ "normalized": true,
575
+ "rstrip": false,
576
+ "single_word": false,
577
+ "special": false
578
+ },
579
+ "50324": {
580
+ "content": "[unused39]",
581
+ "lstrip": false,
582
+ "normalized": true,
583
+ "rstrip": false,
584
+ "single_word": false,
585
+ "special": false
586
+ },
587
+ "50325": {
588
+ "content": "[unused40]",
589
+ "lstrip": false,
590
+ "normalized": true,
591
+ "rstrip": false,
592
+ "single_word": false,
593
+ "special": false
594
+ },
595
+ "50326": {
596
+ "content": "[unused41]",
597
+ "lstrip": false,
598
+ "normalized": true,
599
+ "rstrip": false,
600
+ "single_word": false,
601
+ "special": false
602
+ },
603
+ "50327": {
604
+ "content": "[unused42]",
605
+ "lstrip": false,
606
+ "normalized": true,
607
+ "rstrip": false,
608
+ "single_word": false,
609
+ "special": false
610
+ },
611
+ "50328": {
612
+ "content": "[unused43]",
613
+ "lstrip": false,
614
+ "normalized": true,
615
+ "rstrip": false,
616
+ "single_word": false,
617
+ "special": false
618
+ },
619
+ "50329": {
620
+ "content": "[unused44]",
621
+ "lstrip": false,
622
+ "normalized": true,
623
+ "rstrip": false,
624
+ "single_word": false,
625
+ "special": false
626
+ },
627
+ "50330": {
628
+ "content": "[unused45]",
629
+ "lstrip": false,
630
+ "normalized": true,
631
+ "rstrip": false,
632
+ "single_word": false,
633
+ "special": false
634
+ },
635
+ "50331": {
636
+ "content": "[unused46]",
637
+ "lstrip": false,
638
+ "normalized": true,
639
+ "rstrip": false,
640
+ "single_word": false,
641
+ "special": false
642
+ },
643
+ "50332": {
644
+ "content": "[unused47]",
645
+ "lstrip": false,
646
+ "normalized": true,
647
+ "rstrip": false,
648
+ "single_word": false,
649
+ "special": false
650
+ },
651
+ "50333": {
652
+ "content": "[unused48]",
653
+ "lstrip": false,
654
+ "normalized": true,
655
+ "rstrip": false,
656
+ "single_word": false,
657
+ "special": false
658
+ },
659
+ "50334": {
660
+ "content": "[unused49]",
661
+ "lstrip": false,
662
+ "normalized": true,
663
+ "rstrip": false,
664
+ "single_word": false,
665
+ "special": false
666
+ },
667
+ "50335": {
668
+ "content": "[unused50]",
669
+ "lstrip": false,
670
+ "normalized": true,
671
+ "rstrip": false,
672
+ "single_word": false,
673
+ "special": false
674
+ },
675
+ "50336": {
676
+ "content": "[unused51]",
677
+ "lstrip": false,
678
+ "normalized": true,
679
+ "rstrip": false,
680
+ "single_word": false,
681
+ "special": false
682
+ },
683
+ "50337": {
684
+ "content": "[unused52]",
685
+ "lstrip": false,
686
+ "normalized": true,
687
+ "rstrip": false,
688
+ "single_word": false,
689
+ "special": false
690
+ },
691
+ "50338": {
692
+ "content": "[unused53]",
693
+ "lstrip": false,
694
+ "normalized": true,
695
+ "rstrip": false,
696
+ "single_word": false,
697
+ "special": false
698
+ },
699
+ "50339": {
700
+ "content": "[unused54]",
701
+ "lstrip": false,
702
+ "normalized": true,
703
+ "rstrip": false,
704
+ "single_word": false,
705
+ "special": false
706
+ },
707
+ "50340": {
708
+ "content": "[unused55]",
709
+ "lstrip": false,
710
+ "normalized": true,
711
+ "rstrip": false,
712
+ "single_word": false,
713
+ "special": false
714
+ },
715
+ "50341": {
716
+ "content": "[unused56]",
717
+ "lstrip": false,
718
+ "normalized": true,
719
+ "rstrip": false,
720
+ "single_word": false,
721
+ "special": false
722
+ },
723
+ "50342": {
724
+ "content": "[unused57]",
725
+ "lstrip": false,
726
+ "normalized": true,
727
+ "rstrip": false,
728
+ "single_word": false,
729
+ "special": false
730
+ },
731
+ "50343": {
732
+ "content": "[unused58]",
733
+ "lstrip": false,
734
+ "normalized": true,
735
+ "rstrip": false,
736
+ "single_word": false,
737
+ "special": false
738
+ },
739
+ "50344": {
740
+ "content": "[unused59]",
741
+ "lstrip": false,
742
+ "normalized": true,
743
+ "rstrip": false,
744
+ "single_word": false,
745
+ "special": false
746
+ },
747
+ "50345": {
748
+ "content": "[unused60]",
749
+ "lstrip": false,
750
+ "normalized": true,
751
+ "rstrip": false,
752
+ "single_word": false,
753
+ "special": false
754
+ },
755
+ "50346": {
756
+ "content": "[unused61]",
757
+ "lstrip": false,
758
+ "normalized": true,
759
+ "rstrip": false,
760
+ "single_word": false,
761
+ "special": false
762
+ },
763
+ "50347": {
764
+ "content": "[unused62]",
765
+ "lstrip": false,
766
+ "normalized": true,
767
+ "rstrip": false,
768
+ "single_word": false,
769
+ "special": false
770
+ },
771
+ "50348": {
772
+ "content": "[unused63]",
773
+ "lstrip": false,
774
+ "normalized": true,
775
+ "rstrip": false,
776
+ "single_word": false,
777
+ "special": false
778
+ },
779
+ "50349": {
780
+ "content": "[unused64]",
781
+ "lstrip": false,
782
+ "normalized": true,
783
+ "rstrip": false,
784
+ "single_word": false,
785
+ "special": false
786
+ },
787
+ "50350": {
788
+ "content": "[unused65]",
789
+ "lstrip": false,
790
+ "normalized": true,
791
+ "rstrip": false,
792
+ "single_word": false,
793
+ "special": false
794
+ },
795
+ "50351": {
796
+ "content": "[unused66]",
797
+ "lstrip": false,
798
+ "normalized": true,
799
+ "rstrip": false,
800
+ "single_word": false,
801
+ "special": false
802
+ },
803
+ "50352": {
804
+ "content": "[unused67]",
805
+ "lstrip": false,
806
+ "normalized": true,
807
+ "rstrip": false,
808
+ "single_word": false,
809
+ "special": false
810
+ },
811
+ "50353": {
812
+ "content": "[unused68]",
813
+ "lstrip": false,
814
+ "normalized": true,
815
+ "rstrip": false,
816
+ "single_word": false,
817
+ "special": false
818
+ },
819
+ "50354": {
820
+ "content": "[unused69]",
821
+ "lstrip": false,
822
+ "normalized": true,
823
+ "rstrip": false,
824
+ "single_word": false,
825
+ "special": false
826
+ },
827
+ "50355": {
828
+ "content": "[unused70]",
829
+ "lstrip": false,
830
+ "normalized": true,
831
+ "rstrip": false,
832
+ "single_word": false,
833
+ "special": false
834
+ },
835
+ "50356": {
836
+ "content": "[unused71]",
837
+ "lstrip": false,
838
+ "normalized": true,
839
+ "rstrip": false,
840
+ "single_word": false,
841
+ "special": false
842
+ },
843
+ "50357": {
844
+ "content": "[unused72]",
845
+ "lstrip": false,
846
+ "normalized": true,
847
+ "rstrip": false,
848
+ "single_word": false,
849
+ "special": false
850
+ },
851
+ "50358": {
852
+ "content": "[unused73]",
853
+ "lstrip": false,
854
+ "normalized": true,
855
+ "rstrip": false,
856
+ "single_word": false,
857
+ "special": false
858
+ },
859
+ "50359": {
860
+ "content": "[unused74]",
861
+ "lstrip": false,
862
+ "normalized": true,
863
+ "rstrip": false,
864
+ "single_word": false,
865
+ "special": false
866
+ },
867
+ "50360": {
868
+ "content": "[unused75]",
869
+ "lstrip": false,
870
+ "normalized": true,
871
+ "rstrip": false,
872
+ "single_word": false,
873
+ "special": false
874
+ },
875
+ "50361": {
876
+ "content": "[unused76]",
877
+ "lstrip": false,
878
+ "normalized": true,
879
+ "rstrip": false,
880
+ "single_word": false,
881
+ "special": false
882
+ },
883
+ "50362": {
884
+ "content": "[unused77]",
885
+ "lstrip": false,
886
+ "normalized": true,
887
+ "rstrip": false,
888
+ "single_word": false,
889
+ "special": false
890
+ },
891
+ "50363": {
892
+ "content": "[unused78]",
893
+ "lstrip": false,
894
+ "normalized": true,
895
+ "rstrip": false,
896
+ "single_word": false,
897
+ "special": false
898
+ },
899
+ "50364": {
900
+ "content": "[unused79]",
901
+ "lstrip": false,
902
+ "normalized": true,
903
+ "rstrip": false,
904
+ "single_word": false,
905
+ "special": false
906
+ },
907
+ "50365": {
908
+ "content": "[unused80]",
909
+ "lstrip": false,
910
+ "normalized": true,
911
+ "rstrip": false,
912
+ "single_word": false,
913
+ "special": false
914
+ },
915
+ "50366": {
916
+ "content": "[unused81]",
917
+ "lstrip": false,
918
+ "normalized": true,
919
+ "rstrip": false,
920
+ "single_word": false,
921
+ "special": false
922
+ },
923
+ "50367": {
924
+ "content": "[unused82]",
925
+ "lstrip": false,
926
+ "normalized": true,
927
+ "rstrip": false,
928
+ "single_word": false,
929
+ "special": false
930
+ }
931
+ },
932
+ "clean_up_tokenization_spaces": true,
933
+ "cls_token": "[CLS]",
934
+ "extra_special_tokens": {},
935
+ "mask_token": "[MASK]",
936
+ "max_length": 8192,
937
+ "model_input_names": [
938
+ "input_ids",
939
+ "attention_mask"
940
+ ],
941
+ "model_max_length": 8192,
942
+ "pad_to_multiple_of": null,
943
+ "pad_token": "[PAD]",
944
+ "pad_token_type_id": 0,
945
+ "padding_side": "right",
946
+ "sep_token": "[SEP]",
947
+ "stride": 0,
948
+ "tokenizer_class": "PreTrainedTokenizerFast",
949
+ "truncation_side": "right",
950
+ "truncation_strategy": "longest_first",
951
+ "unk_token": "[UNK]"
952
+ }