Sami92 commited on
Commit
75a1f07
1 Parent(s): 5c67d3e

Add new SentenceTransformer model.

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,689 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: intfloat/multilingual-e5-large-instruct
3
+ datasets: []
4
+ language: []
5
+ library_name: sentence-transformers
6
+ metrics:
7
+ - cosine_accuracy
8
+ - cosine_accuracy_threshold
9
+ - cosine_f1
10
+ - cosine_f1_threshold
11
+ - cosine_precision
12
+ - cosine_recall
13
+ - cosine_ap
14
+ - dot_accuracy
15
+ - dot_accuracy_threshold
16
+ - dot_f1
17
+ - dot_f1_threshold
18
+ - dot_precision
19
+ - dot_recall
20
+ - dot_ap
21
+ - manhattan_accuracy
22
+ - manhattan_accuracy_threshold
23
+ - manhattan_f1
24
+ - manhattan_f1_threshold
25
+ - manhattan_precision
26
+ - manhattan_recall
27
+ - manhattan_ap
28
+ - euclidean_accuracy
29
+ - euclidean_accuracy_threshold
30
+ - euclidean_f1
31
+ - euclidean_f1_threshold
32
+ - euclidean_precision
33
+ - euclidean_recall
34
+ - euclidean_ap
35
+ - max_accuracy
36
+ - max_accuracy_threshold
37
+ - max_f1
38
+ - max_f1_threshold
39
+ - max_precision
40
+ - max_recall
41
+ - max_ap
42
+ pipeline_tag: sentence-similarity
43
+ tags:
44
+ - sentence-transformers
45
+ - sentence-similarity
46
+ - feature-extraction
47
+ - generated_from_trainer
48
+ - dataset_size:51106
49
+ - loss:AnglELoss
50
+ widget:
51
+ - source_sentence: 'Instruct: Retrieve semantically similar text.
52
+
53
+ Query: Medwedew über die Entsendung von NATO-Truppen in die Ukraine: „Die Entsendung
54
+ von NATO-Truppen auf das Territorium der Ukraine wird den direkten Eintritt dieser
55
+ Länder in den Krieg bedeuten, worauf wir (Russland) mit (...) reagieren müssen.
56
+ Es wird eine Weltkatastrophe werden.“'
57
+ sentences:
58
+ - 'Dipl.-Pol. Udo Walendy (1927-2022) spricht klare Worte über die machtpolitischen
59
+ Hintergründe der gegen Deutschland gerichteten Greuelpropaganda und Geschichtsfälschung...
60
+ Anmerkung: In dem konkreten Fall verbreitete Kohl (alias Henoch Kohn) die Mär
61
+ vom Zigeuner-Massenmord. Während Walendy noch ungestraft nachfragen konnte, woher
62
+ denn die angeblichen Opferzahlen stammten, hat man ja bspw. Ursula Haverbeck direkt
63
+ vor Gericht gezerrt... Der Unterschied war bloß: Es waren ein paar Jahrzehnte
64
+ dazwischen. Die Geschichtslügen wurden ja zwischenzeitlich strafrechtlich abgesichert
65
+ und quasi manifestiert. (§130) Beachtenswert ist natürlich der Umstand, daß vermeintlich
66
+ "deutsche" Politiker von Brandt bis Scholz diese (Sieger-Propaganda-) Lügen gebetsmühlenartig
67
+ wiederholen... EIGENE Politiker?!... MITNICHTEN!'
68
+ - Der Pharmamafia !!! Um Umsatz und Gewinne für die Zunkunft nicht nur zu sichern,
69
+ sondern exorbitant zu steigern, gilt es alle gesunden Kinder weltweit, direkt
70
+ nach der Geburt krank zu spritzen. ‼ HIER WIR IMPFEN NICHT ! Dokumentarfilm ‼
71
+ Denn Impfen wirkt, nur halt anders als behauptet. Ganz wichtig ist dabei ist es
72
+ nach Möglichkeit die Spritzen zur allgemeinen Pflicht zu erklären, denn nur so
73
+ können die verhindern, daß dieses abschäuliche Treiben, wegen einer ungeimpften
74
+ Kontrollgruppe, augenscheinlich ist. <URL> <URL>
75
+ - 'UPDATE Nach Angaben des Militärministeriums werden Einheiten des südlichen Militärbezirks,
76
+ der Luftstreitkräfte und der Marine an den Übungen teilnehmen. Der Zweck der Übungen
77
+ wird als Reaktion auf Provokationen und Bedrohungen durch westliche Länder bezeichnet.
78
+ Das bedeutet, dass der südliche Militärbezirk, der ziemlich direkt an der Spezialoperation
79
+ beteiligt ist, umfassende Übungen zum Einsatz taktischer Atomwaffen als Reaktion
80
+ auf bestimmte Pläne westlicher Länder durchführen wird. Damit sind natürlich die
81
+ kürzlich geäußerten Überlegungen zur Entsendung von NATO-Truppen in die Ukraine
82
+ gemeint. Diese Aussage ist eine ernstzunehmende Steigerung sowohl dessen, was
83
+ offiziell rhetorisch akzeptabel ist, als auch dessen, was bei den Übungen demonstriert
84
+ wird. Ebenso wie das, was während dieser Übungen praktiziert wird. Quelle: 136
85
+ BRIGADE Abonniere: Übersicht Ukraine ©Ansichten der Kanalbetreiber'
86
+ - source_sentence: 'Instruct: Retrieve semantically similar text.
87
+
88
+ Query: Die 1,5h Rede (statt 15min) von Muammar Al Gaddafi bei der vollbesetzten
89
+ Generalversammlung der UNO 23.09.2009 - Deutsch Diese hochbrisante Rede war Gaddafis
90
+ Todesurteil. 01:18:00 - 01:20:11 interessant! Gaddafis gelöschte Reden <URL> t.me/swd_hardcore'
91
+ sentences:
92
+ - '"Lasst uns die aufgeflogenen frechen Mörder ans Licht reißen und deren Schandtaten
93
+ ins Bewusstsein der Völker einhämmern. So lange, bis entweder die Justiz sie ahndet
94
+ – und zwar bis zur obersten Etage – oder bis sich Millionen ehrwürdige Volksgenossen
95
+ versammeln, um Tribunale auszurufen, die dann legal, in echt abrechnen mit diesen
96
+ Schwerstverbrechern." Laden Sie diese Videos auf Ihre Social-Media-Kanäle wie
97
+ TikTok, Facebook, YouTube, VK, Odysee, Telegram ... Video in voller Länge: <URL>
98
+ - Folge uns auf Telegram!'
99
+ - Профессор Соловей заявил, что Джо Байден умер и был заменен двойником, контролируемым
100
+ руководством Секретной службы США. На это указывает ряд внешних признаков. Тело
101
+ настоящего президента США помещено в холодильник бункера под Белым домом до президентских
102
+ выборов.
103
+ - Foreign Minister Sergey Lavrov and Foreign Minister of Tajikistan Sirojiddin Muhriddin
104
+ hold talks on the sidelines of the Third Antalya Diplomacy Forum Antalya, March
105
+ 2, 2024
106
+ - source_sentence: 'Instruct: Retrieve semantically similar text.
107
+
108
+ Query: Und so ist es auch heute noch! Im großen wie im kleinen. Das was man selber
109
+ macht, wird der Gegenseite angelastet und zugeschrieben. Danke an die wunderbare
110
+ Seele für diese ans Licht bringenden Worte'
111
+ sentences:
112
+ - 'Die NATO sind Faschisten In Belgrad findet am 25. Jahrestag des Beginns der Bombardierung
113
+ Jugoslawiens eine Aktion statt, deren Teilnehmer ein Ende der Zusammenarbeit mit
114
+ dem Nordatlantischen Bündnis fordern. Während des Marsches skandieren sie: „Die
115
+ NATO sind Faschisten.“ Russländer & Friends'
116
+ - Übersterblichkeit in Deutschland. Eine der schlimmsten Konsequenzen der Verbrechen
117
+ der letzten Jahre. Wer angesichts solcher Katastrophen – ohne dass überhaupt irgendeine
118
+ juristische Aufarbeitung stattgefunden hat – von „Versöhnung“ mit den Täterkreisen
119
+ spricht, der sollte besser nie mehr öffentlich das Wort ergreifen. Diese Täterkreise
120
+ sind bis heute dafür verantwortlich, dass die Existenz von Kritikern der Verbrechen
121
+ der letzten Jahre bis auf den heutigen Tag zerstört wird. Der Bevölkerung wird
122
+ der Zugang zum Recht verweigert, womit diese Täterkreise geschützt werden. Aber
123
+ jetzt soll mit diesen Täterkreisen wegen einem Datenleak die „Versöhnung“ gesucht
124
+ werden? Was wir von solchen Äußerungen halten, mit denen alle Opfer förmlich für
125
+ dumm verkauft werden sollen, das kann kaum noch sachlich formuliert werden.
126
+ - Von ganzem Herzen ein riesen großes Dankeschön. Lasst uns weiterhin gemeinsam
127
+ Aufklären und die Menschen über Hintergründe informieren. Das geht aber nur mit
128
+ euch und eurer Hilfe, Zuversicht und Schöpferkraft. Wahrheit macht frei und Freiheit
129
+ macht wahr <URL> Denk selbst und informiere Dich
130
+ - source_sentence: 'Instruct: Retrieve semantically similar text.
131
+
132
+ Query: Es ist und bleibt eine unfassbare BARBAREI! Aber wo sind auf einmal all
133
+ die Tierliebhaber? Traut sich wieder keiner dazu was zu sagen? Oder ist es in
134
+ diesem Fall akzeptabel? Ist das Blut der geschächteten Tiere „bunt“ und „weltoffen“
135
+ genug? Es widert mich so dermaßen an. Ich gedenke all der unschuldigen Wesen,
136
+ die brutal gefoltert und abgeschlachtet werden. So etwas kann und darf niemals
137
+ zu einer zivilisierten Gesellschaft gehören und dürfte nirgendwo auf der Welt
138
+ akzeptiert werden! Tim K.'
139
+ sentences:
140
+ - EU-Botschafter ignorieren geschlossene eine Gesprächseinladung von Lawrow Hier
141
+ den Artikel lesen Das russische Außenministerium hat die Botschafter der EU-Staaten
142
+ zu einem Gespräch mit Außenminister Lawrow eingeladen, aber die EU-Botschafter
143
+ haben ihre Teilnahme geschlossen abgesagt. Russland spricht davon, das werde "schreckliche
144
+ Konsequenzen" haben. • Thomas Röper
145
+ - '"Schließlich können wir auch gerade jetzt bei den Demonstrationen feststellen,
146
+ dass auch Demokratien manchmal Merkmale des Totalitarismus haben können.“ Das
147
+ ist mal ein interessanter Artikel <URL> Hier findest Du wie gewohnt alle Themen
148
+ rund um die grosse Agenda, m auf dem Laufenden zu bleiben: <URL> Und hier findest
149
+ du alles zum Thema geistige und körperliche Gesundheit, und um spirituelles Wachstum‍:
150
+ <URL> Und ganz neu: !!!! Für unsere französischsprachigen Freunde findet Ihr hier
151
+ unseren französischen Gesundheitskanal.‍ Pour nos amis francophones, rendez-vous
152
+ sur notre chaîne santé française ici <URL>'
153
+ - Dem ist nichts hinzuzufügen, außer, dass man den Hannibal für seine Verbrechen
154
+ bestraft hat. Und die anderen zwangsfinanziert werden. Merkste was? Wahrheit macht
155
+ frei und Freiheit macht wahr <URL> Denk selbst und informiere Dich
156
+ - source_sentence: 'Instruct: Retrieve semantically similar text.
157
+
158
+ Query: Die Pentagon-Mitarbeiter wechseln zum Überstundenmodus Internetnutzer stellten
159
+ fest, dass es in der Gegend, in der sich die Abteilung befindet, einen starken
160
+ Anstieg der Bestellungen für Pizzalieferungen gab und gleichzeitig die örtlichen
161
+ Bars leer waren. Zuletzt geschah dies im April, kurz vor und nach dem iranischen
162
+ Angriff auf Israel. Dann bemerkte The Sun die hohe Auslastung der Pizzerien von
163
+ Papa Johns mit Bestellungen vom Pentagon. Unsere Website <URL> Unser Kanal auf
164
+ Englisch <URL>'
165
+ sentences:
166
+ - Das hatte ich auch schon mal geschrieben. Ich war zuerst so wütend, dass Russland
167
+ ausgeschlossen wurde. Aber nach der ekelhaften Eröffnung war ich dankbar dafür.
168
+ Dieses kotztheater, was da abgeht, ist diesem stolzen Land nicht zumutbar und
169
+ nicht würdig
170
+ - Heute sind offensichtlich ältere Flugzeuge am Himmel die entweder Turbinen Probleme
171
+ haben oder schon elektrisch Fliegen... Die ganzen Lügen sind sooo offensichtlich
172
+ das es schon weh tut sie bewusst zu ignorieren bzw nicht zu erkennen... Ihr wollt
173
+ die Wahrheit <URL>
174
+ - Erinnern Sie sich an meinen Beitrag von vorhin über die massiven Cyberausfälle.
175
+ Verbinden Sie das alles mit dem, was wir seit „Shot Heard Round the World“ am
176
+ Samstag gesagt haben. BQQM BQQM BQQM BQQM 1776 1776 BRICS
177
+ model-index:
178
+ - name: SentenceTransformer based on intfloat/multilingual-e5-large-instruct
179
+ results:
180
+ - task:
181
+ type: binary-classification
182
+ name: Binary Classification
183
+ dataset:
184
+ name: FineTuned 8
185
+ type: FineTuned_8
186
+ metrics:
187
+ - type: cosine_accuracy
188
+ value: 0.9758104058839553
189
+ name: Cosine Accuracy
190
+ - type: cosine_accuracy_threshold
191
+ value: 0.9067002534866333
192
+ name: Cosine Accuracy Threshold
193
+ - type: cosine_f1
194
+ value: 0.48869752421959095
195
+ name: Cosine F1
196
+ - type: cosine_f1_threshold
197
+ value: 0.9034577012062073
198
+ name: Cosine F1 Threshold
199
+ - type: cosine_precision
200
+ value: 0.6735905044510386
201
+ name: Cosine Precision
202
+ - type: cosine_recall
203
+ value: 0.38344594594594594
204
+ name: Cosine Recall
205
+ - type: cosine_ap
206
+ value: 0.5012063718756087
207
+ name: Cosine Ap
208
+ - type: dot_accuracy
209
+ value: 0.9758104058839553
210
+ name: Dot Accuracy
211
+ - type: dot_accuracy_threshold
212
+ value: 0.9067002534866333
213
+ name: Dot Accuracy Threshold
214
+ - type: dot_f1
215
+ value: 0.48869752421959095
216
+ name: Dot F1
217
+ - type: dot_f1_threshold
218
+ value: 0.903457760810852
219
+ name: Dot F1 Threshold
220
+ - type: dot_precision
221
+ value: 0.6735905044510386
222
+ name: Dot Precision
223
+ - type: dot_recall
224
+ value: 0.38344594594594594
225
+ name: Dot Recall
226
+ - type: dot_ap
227
+ value: 0.501205944378431
228
+ name: Dot Ap
229
+ - type: manhattan_accuracy
230
+ value: 0.9749931898665214
231
+ name: Manhattan Accuracy
232
+ - type: manhattan_accuracy_threshold
233
+ value: 11.01162338256836
234
+ name: Manhattan Accuracy Threshold
235
+ - type: manhattan_f1
236
+ value: 0.4920802534318901
237
+ name: Manhattan F1
238
+ - type: manhattan_f1_threshold
239
+ value: 11.218721389770508
240
+ name: Manhattan F1 Threshold
241
+ - type: manhattan_precision
242
+ value: 0.6563380281690141
243
+ name: Manhattan Precision
244
+ - type: manhattan_recall
245
+ value: 0.3935810810810811
246
+ name: Manhattan Recall
247
+ - type: manhattan_ap
248
+ value: 0.49364856616931857
249
+ name: Manhattan Ap
250
+ - type: euclidean_accuracy
251
+ value: 0.9758104058839553
252
+ name: Euclidean Accuracy
253
+ - type: euclidean_accuracy_threshold
254
+ value: 0.4319716691970825
255
+ name: Euclidean Accuracy Threshold
256
+ - type: euclidean_f1
257
+ value: 0.48869752421959095
258
+ name: Euclidean F1
259
+ - type: euclidean_f1_threshold
260
+ value: 0.439413845539093
261
+ name: Euclidean F1 Threshold
262
+ - type: euclidean_precision
263
+ value: 0.6735905044510386
264
+ name: Euclidean Precision
265
+ - type: euclidean_recall
266
+ value: 0.38344594594594594
267
+ name: Euclidean Recall
268
+ - type: euclidean_ap
269
+ value: 0.5012064992979081
270
+ name: Euclidean Ap
271
+ - type: max_accuracy
272
+ value: 0.9758104058839553
273
+ name: Max Accuracy
274
+ - type: max_accuracy_threshold
275
+ value: 11.01162338256836
276
+ name: Max Accuracy Threshold
277
+ - type: max_f1
278
+ value: 0.4920802534318901
279
+ name: Max F1
280
+ - type: max_f1_threshold
281
+ value: 11.218721389770508
282
+ name: Max F1 Threshold
283
+ - type: max_precision
284
+ value: 0.6735905044510386
285
+ name: Max Precision
286
+ - type: max_recall
287
+ value: 0.3935810810810811
288
+ name: Max Recall
289
+ - type: max_ap
290
+ value: 0.5012064992979081
291
+ name: Max Ap
292
+ ---
293
+
294
+ # SentenceTransformer based on intfloat/multilingual-e5-large-instruct
295
+
296
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
297
+
298
+ ## Model Details
299
+
300
+ ### Model Description
301
+ - **Model Type:** Sentence Transformer
302
+ - **Base model:** [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct) <!-- at revision baa7be480a7de1539afce709c8f13f833a510e0a -->
303
+ - **Maximum Sequence Length:** 512 tokens
304
+ - **Output Dimensionality:** 1024 tokens
305
+ - **Similarity Function:** Cosine Similarity
306
+ <!-- - **Training Dataset:** Unknown -->
307
+ <!-- - **Language:** Unknown -->
308
+ <!-- - **License:** Unknown -->
309
+
310
+ ### Model Sources
311
+
312
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
313
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
314
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
315
+
316
+ ### Full Model Architecture
317
+
318
+ ```
319
+ SentenceTransformer(
320
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
321
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
322
+ (2): Normalize()
323
+ )
324
+ ```
325
+
326
+ ## Usage
327
+
328
+ ### Direct Usage (Sentence Transformers)
329
+
330
+ First install the Sentence Transformers library:
331
+
332
+ ```bash
333
+ pip install -U sentence-transformers
334
+ ```
335
+
336
+ Then you can load this model and run inference.
337
+ ```python
338
+ from sentence_transformers import SentenceTransformer
339
+
340
+ # Download from the 🤗 Hub
341
+ model = SentenceTransformer("Sami92/multiling-e5-large-instruct-claim-matching")
342
+ # Run inference
343
+ sentences = [
344
+ 'Instruct: Retrieve semantically similar text.\nQuery: Die Pentagon-Mitarbeiter wechseln zum Überstundenmodus Internetnutzer stellten fest, dass es in der Gegend, in der sich die Abteilung befindet, einen starken Anstieg der Bestellungen für Pizzalieferungen gab und gleichzeitig die örtlichen Bars leer waren. Zuletzt geschah dies im April, kurz vor und nach dem iranischen Angriff auf Israel. Dann bemerkte The Sun die hohe Auslastung der Pizzerien von Papa Johns mit Bestellungen vom Pentagon. Unsere Website <URL> Unser Kanal auf Englisch <URL>',
345
+ 'Erinnern Sie sich an meinen Beitrag von vorhin über die massiven Cyberausfälle. Verbinden Sie das alles mit dem, was wir seit „Shot Heard Round the World“ am Samstag gesagt haben. BQQM BQQM BQQM BQQM 1776 1776 BRICS',
346
+ 'Heute sind offensichtlich ältere Flugzeuge am Himmel die entweder Turbinen Probleme haben oder schon elektrisch Fliegen... Die ganzen Lügen sind sooo offensichtlich das es schon weh tut sie bewusst zu ignorieren bzw nicht zu erkennen... Ihr wollt die Wahrheit <URL>',
347
+ ]
348
+ embeddings = model.encode(sentences)
349
+ print(embeddings.shape)
350
+ # [3, 1024]
351
+
352
+ # Get the similarity scores for the embeddings
353
+ similarities = model.similarity(embeddings, embeddings)
354
+ print(similarities.shape)
355
+ # [3, 3]
356
+ ```
357
+
358
+ <!--
359
+ ### Direct Usage (Transformers)
360
+
361
+ <details><summary>Click to see the direct usage in Transformers</summary>
362
+
363
+ </details>
364
+ -->
365
+
366
+ <!--
367
+ ### Downstream Usage (Sentence Transformers)
368
+
369
+ You can finetune this model on your own dataset.
370
+
371
+ <details><summary>Click to expand</summary>
372
+
373
+ </details>
374
+ -->
375
+
376
+ <!--
377
+ ### Out-of-Scope Use
378
+
379
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
380
+ -->
381
+
382
+ ## Evaluation
383
+
384
+ ### Metrics
385
+
386
+ #### Binary Classification
387
+ * Dataset: `FineTuned_8`
388
+ * Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
389
+
390
+ | Metric | Value |
391
+ |:-----------------------------|:-----------|
392
+ | cosine_accuracy | 0.9758 |
393
+ | cosine_accuracy_threshold | 0.9067 |
394
+ | cosine_f1 | 0.4887 |
395
+ | cosine_f1_threshold | 0.9035 |
396
+ | cosine_precision | 0.6736 |
397
+ | cosine_recall | 0.3834 |
398
+ | cosine_ap | 0.5012 |
399
+ | dot_accuracy | 0.9758 |
400
+ | dot_accuracy_threshold | 0.9067 |
401
+ | dot_f1 | 0.4887 |
402
+ | dot_f1_threshold | 0.9035 |
403
+ | dot_precision | 0.6736 |
404
+ | dot_recall | 0.3834 |
405
+ | dot_ap | 0.5012 |
406
+ | manhattan_accuracy | 0.975 |
407
+ | manhattan_accuracy_threshold | 11.0116 |
408
+ | manhattan_f1 | 0.4921 |
409
+ | manhattan_f1_threshold | 11.2187 |
410
+ | manhattan_precision | 0.6563 |
411
+ | manhattan_recall | 0.3936 |
412
+ | manhattan_ap | 0.4936 |
413
+ | euclidean_accuracy | 0.9758 |
414
+ | euclidean_accuracy_threshold | 0.432 |
415
+ | euclidean_f1 | 0.4887 |
416
+ | euclidean_f1_threshold | 0.4394 |
417
+ | euclidean_precision | 0.6736 |
418
+ | euclidean_recall | 0.3834 |
419
+ | euclidean_ap | 0.5012 |
420
+ | max_accuracy | 0.9758 |
421
+ | max_accuracy_threshold | 11.0116 |
422
+ | max_f1 | 0.4921 |
423
+ | max_f1_threshold | 11.2187 |
424
+ | max_precision | 0.6736 |
425
+ | max_recall | 0.3936 |
426
+ | **max_ap** | **0.5012** |
427
+
428
+ <!--
429
+ ## Bias, Risks and Limitations
430
+
431
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
432
+ -->
433
+
434
+ <!--
435
+ ### Recommendations
436
+
437
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
438
+ -->
439
+
440
+ ## Training Details
441
+
442
+ ### Training Dataset
443
+
444
+ #### Unnamed Dataset
445
+
446
+
447
+ * Size: 51,106 training samples
448
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>score</code>
449
+ * Approximate statistics based on the first 1000 samples:
450
+ | | sentence1 | sentence2 | score |
451
+ |:--------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:----------------------------------------------------------------|
452
+ | type | string | string | float |
453
+ | details | <ul><li>min: 41 tokens</li><li>mean: 154.84 tokens</li><li>max: 322 tokens</li></ul> | <ul><li>min: 32 tokens</li><li>mean: 133.5 tokens</li><li>max: 339 tokens</li></ul> | <ul><li>min: -1.65</li><li>mean: nan</li><li>max: 1.0</li></ul> |
454
+ * Samples:
455
+ | sentence1 | sentence2 | score |
456
+ |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------|
457
+ | <code>Instruct: Retrieve semantically similar text.<br>Query: AfD-Chefin Weidel verurteilt Verbot von COMPACT-Magazin NICHT (!) Was ist das für eine Stellungnahme? Der Angriff auf COMPACT ist ein Frontalangriff auf die Presse- und Meinungsfreiheit in diesem Land. Und muss entschieden verurteilt werden. Doch ausgerechnet AfD-Frontfrau Alice Weidel kommt mit einer handzahmen Alibi-Erklärung daher, spricht von einem „unguten Zeichen“ und will „kritisch begleiten“. Was es jetzt von der Bundestags-AfD braucht, ist parlamentarischer Druck, z.B. mit einer Sondersitzung des Innenausschusses. Faeser muss sich dafür verantworten, COMPACT verboten zu haben. Und dafür braucht es keine Alibi-Erklärungen, sondern knallharte Offensive. Schließlich plakatiert die AfD - ebenso, wie es der COMPACT-Leitspruch war - "Mut zur Wahrheit." Und nicht "Wir kuschen vor Faeser und Haldenwang". Übrigens: Björn Höcke hat das Verbot mit deutlichen Worten scharf verurteilt und geht zum Gegenangriff über. Dieser Mann hat es verstanden. FREIE SACHSEN: Folgt uns! <URL></code> | <code>Paul Klemm: „COMPACT-Verbot ist Anschlag auf den gesamten Widerstand“ Die Journalisten des Compact Magazins betrachten das Verbot ihrer Zeitschrift nicht nur als Attacke gegen sich selbst. Im Gegenteil: Nancy Faeser ziele mit ihrem Versuch auf die gesamte Systemopposition in Deutschland. Das sagt jedenfalls der bisherige TV-Chef von Compact, Paul Klemm, gegenüber AUF1. Die AUF1-Sondersendung „Tag 2 COMPACT-Verbot: So kann es jeden treffen!“ von gestern sehen Sie hier: <URL></code> | <code>-1.518102343739742</code> |
458
+ | <code>Instruct: Retrieve semantically similar text.<br>Query: vier Monate vor der allerersten Impfung RKI-Protokoll vom 17. August 2020 - mehr als 4 Monate bevor die erste Impfdosis gespritzt wurde "...wichtiger offener Punkt" RKI-LEAK Pressekonferenz 23.07.2024 🫵 Möge die gesamte Republik mit dem Finger auf Regierungs-Journalisten zeigen! ‼ Karl Lauterbach hat geringes Risiko von Covid absichtlich vor Impfpflicht-Abstimmung nicht kommuniziert Zwei Tage nach erstem Lockdown konnte man Massnahmen schon nicht mehr begründen Komplette Pressekonferenz Österreich: ÖRR berichtet über RKI-Files! "Die Pandemie der Ungeimpften" - Österreich Edition RKI-Files zum Download: Server 1 / Server 2 / Server 3 / Server 4 / Server 5 / Server 6 Danke Bernd Reiser auf telegram auf substack auf youtube auf odyssee auf Twitter .</code> | <code>‼ Corona: Nächste Impf-Lüge von Lauterbach aufgedeckt Gegen den Rat des Robert-Koch-Institutes (RKI) hat Bundesgesundheitsminister Karl Lauterbach (SPD) die Deutschen über die Wirkung der Corona-Impfung in Bezug auf Long Covid belogen. Wie aus den jetzt von der Journalistin Aya Velázquez veröffentlichten E-Mails des RKI hervorgeht, hatte der Experten-Rat keine verläßliche Wirkung der Vakzine gegen Long Covid erkannt. Vielmehr hatte er auf Bitten Lauterbachs, diese These wissenschaftlich zu untermauern, im Juli ausdrücklich davon abgeraten, eine solche Behauptung aufzustellen. Zunächst hieß es noch zurückhaltend, aber eindeutig, »die Evidenzlage ist bislang nicht klar«. Link zum Artikel</code> | <code>0.998</code> |
459
+ | <code>Instruct: Retrieve semantically similar text.<br>Query: "Kommunen und Sozialverbände fordern Hilfen für Hitzeschutz Hitzewellen werden durch den Klimawandel immer wahrscheinlicher. Kommunen müssen sich deshalb besser gegen extreme Temperaturen schützen. Es fehlt aber das Geld dafür." ------- Es fehlt mittlerweile das Geld für Hitzeschutz... Quelle</code> | <code>Heute in Großweitzschen: Die Zukunft unserer Kinder sollte nicht von einer wirtschaftlichen Entwicklung abhängig sein. Die Gemeindeverwaltung Großweitzschen planen die Kindertagesstätte ,,Wirbelwind"in Westewitz zu schließen. Wir müssen die kleinen Dorf-Kitas erhalten. Daher braucht es mehr Flexibilität im starren Kita-System und Geld vom Land, um die Dorf-Kitas zu erhalten. So entlasten wir unsere Gemeinden und schaffen es, dass junge Familien aufs Land ziehen. Mehr Infos gibt es auch hier: <URL> Kommt alle heute, den 16.07.2024 in den Versammlungsraum Gallschütz Nr. 13! Gemeinsam versuchen wir diese Entscheidung abzuwenden. Folgt uns bei Telegram, denn wir vernetzen und informieren den Widerstand! Hier geht's zum Kanal: <URL> ₂, ! Übersicht Termine einsenden Ländergruppen Alle Spazis Der Kanal, der den Regierenden und Mitmach-Tätern Beine macht !</code> | <code>-0.5582272769313432</code> |
460
+ * Loss: [<code>AnglELoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#angleloss) with these parameters:
461
+ ```json
462
+ {
463
+ "scale": 20.0,
464
+ "similarity_fct": "pairwise_angle_sim"
465
+ }
466
+ ```
467
+
468
+ ### Evaluation Dataset
469
+
470
+ #### Unnamed Dataset
471
+
472
+
473
+ * Size: 18,355 evaluation samples
474
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
475
+ * Approximate statistics based on the first 1000 samples:
476
+ | | sentence1 | sentence2 | label |
477
+ |:--------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-----------------------------------------------|
478
+ | type | string | string | int |
479
+ | details | <ul><li>min: 41 tokens</li><li>mean: 129.21 tokens</li><li>max: 391 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 123.46 tokens</li><li>max: 379 tokens</li></ul> | <ul><li>0: ~96.50%</li><li>1: ~3.50%</li></ul> |
480
+ * Samples:
481
+ | sentence1 | sentence2 | label |
482
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
483
+ | <code>Instruct: Retrieve semantically similar text.<br>Query: Дорогие подписчики и гости канала! У человека назначенного президентом России и похожего на Владимира Путина обострилось хроническое заболевание почек. В связи с этим под угрозой планы проведения и посещения "Путиным" мероприятий, и совещаний в ближайшие дни.</code> | <code>Ядерную дубину попова показали на канале Россия 1 Качественная графика , современный дизайн. Да и попов внушительно устрашающий . Подпишись сегодня и узнаешь, что будет завтра В ЧАТ СЮДА🪓</code> | <code>0</code> |
484
+ | <code>Instruct: Retrieve semantically similar text.<br>Query: An alle Maskenbefürworter Schaut Euch dieses Video an, und entscheidet selbst wie Ihr mit Eurer Gesundheit umgehen wollt ! Hier wird die CO2 Konzentration unter der Maske gemessen. <URL></code> | <code>Das mit den Masken, sozusagen wie einfach es ist Double hinzustellen und die Leute zu verarschen, zu belügen und zu betrügen, zeigte uns schon Stefan Raab. Wahrheit macht frei und Freiheit macht wahr <URL> Denk selbst und informiere Dich</code> | <code>0</code> |
485
+ | <code>Instruct: Retrieve semantically similar text.<br>Query: Elementares Bor in flüssiger und ionischer Form ~ hochdosiert mit 3 mg~ Elementares Bor enthält konzentrierte Mineraltropfen (CMD), ein besonderes Meerwasserkonzentrat mit vollem Spektrum an Mineralstoffen und Spurenelementen. Fast vollständig von Natrium befreit, wird es durch Sonnenenergie natürlich konzentriert und mit zusätzlichem Bor in Form von Natriumborat ergänzt. leicht resorbierbar durch die gelöste, ionische Form Meerwasserkonzentrat aus dem Großen Salzsee in Utah, Vereinigte Staaten ideal dosierbar mit Opti-Dose-Tropfer Besonderheiten des Herstellers Vitals: erfüllt höchste Qualitätsanforderungen (ISO 22000) verwendet hochwertige Rohstoffe Nahrungsergänzungsmittel seit 1988 Die bio-apo lebt die ganzheitliche Philosophie schon seit über 25 Jahren. Elementares Bor empfehle ich dir hier Mit dem Code "vital15" schenken wir dir 15% Rabatt.</code> | <code>Beitrag zu 10 : 05 Ich esse sehr viele Früchte und Zucker , wie meine Grosseltern auch getan haben . Trotzdem hatte Niemand von uns Diabetes . Meine Schwester ist allergisch auf Fruchtzucker und isst auch sonst selten Süsses . Trotzdem hat sie Probleme mit zu hohen Zuckerwerten ! Impfungen und Fertignahrung sind die Hauptursache . Denkt immer daran , dass wir in jedem Bereich angelogen werden . Vitamine wurden auch nie isoliert und diese "Vitaminpräparate" sind Chemie und sehr schädlich , was sich erst Jahre später bemerkbar macht . Übrigens war die Pharmalobby , die schrieb , dass zu wenig Vitamine in Früchte und Gemüse enthalten sei . Damit "Vitaminmittel" überhaupt verkauft werden , muss man ja ein Mangel haben .</code> | <code>0</code> |
486
+ * Loss: [<code>AnglELoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#angleloss) with these parameters:
487
+ ```json
488
+ {
489
+ "scale": 20.0,
490
+ "similarity_fct": "pairwise_angle_sim"
491
+ }
492
+ ```
493
+
494
+ ### Training Hyperparameters
495
+ #### Non-Default Hyperparameters
496
+
497
+ - `eval_strategy`: steps
498
+ - `per_device_eval_batch_size`: 16
499
+ - `gradient_accumulation_steps`: 8
500
+ - `learning_rate`: 2e-05
501
+ - `num_train_epochs`: 2
502
+ - `warmup_ratio`: 0.1
503
+ - `fp16`: True
504
+ - `push_to_hub`: True
505
+ - `hub_model_id`: Sami92/multiling-e5-large-instruct-claim-matching
506
+ - `push_to_hub_model_id`: multiling-e5-large-instruct-claim-matching
507
+
508
+ #### All Hyperparameters
509
+ <details><summary>Click to expand</summary>
510
+
511
+ - `overwrite_output_dir`: False
512
+ - `do_predict`: False
513
+ - `eval_strategy`: steps
514
+ - `prediction_loss_only`: True
515
+ - `per_device_train_batch_size`: 8
516
+ - `per_device_eval_batch_size`: 16
517
+ - `per_gpu_train_batch_size`: None
518
+ - `per_gpu_eval_batch_size`: None
519
+ - `gradient_accumulation_steps`: 8
520
+ - `eval_accumulation_steps`: None
521
+ - `learning_rate`: 2e-05
522
+ - `weight_decay`: 0.0
523
+ - `adam_beta1`: 0.9
524
+ - `adam_beta2`: 0.999
525
+ - `adam_epsilon`: 1e-08
526
+ - `max_grad_norm`: 1.0
527
+ - `num_train_epochs`: 2
528
+ - `max_steps`: -1
529
+ - `lr_scheduler_type`: linear
530
+ - `lr_scheduler_kwargs`: {}
531
+ - `warmup_ratio`: 0.1
532
+ - `warmup_steps`: 0
533
+ - `log_level`: passive
534
+ - `log_level_replica`: warning
535
+ - `log_on_each_node`: True
536
+ - `logging_nan_inf_filter`: True
537
+ - `save_safetensors`: True
538
+ - `save_on_each_node`: False
539
+ - `save_only_model`: False
540
+ - `restore_callback_states_from_checkpoint`: False
541
+ - `no_cuda`: False
542
+ - `use_cpu`: False
543
+ - `use_mps_device`: False
544
+ - `seed`: 42
545
+ - `data_seed`: None
546
+ - `jit_mode_eval`: False
547
+ - `use_ipex`: False
548
+ - `bf16`: False
549
+ - `fp16`: True
550
+ - `fp16_opt_level`: O1
551
+ - `half_precision_backend`: auto
552
+ - `bf16_full_eval`: False
553
+ - `fp16_full_eval`: False
554
+ - `tf32`: None
555
+ - `local_rank`: 0
556
+ - `ddp_backend`: None
557
+ - `tpu_num_cores`: None
558
+ - `tpu_metrics_debug`: False
559
+ - `debug`: []
560
+ - `dataloader_drop_last`: False
561
+ - `dataloader_num_workers`: 0
562
+ - `dataloader_prefetch_factor`: None
563
+ - `past_index`: -1
564
+ - `disable_tqdm`: False
565
+ - `remove_unused_columns`: True
566
+ - `label_names`: None
567
+ - `load_best_model_at_end`: False
568
+ - `ignore_data_skip`: False
569
+ - `fsdp`: []
570
+ - `fsdp_min_num_params`: 0
571
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
572
+ - `fsdp_transformer_layer_cls_to_wrap`: None
573
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
574
+ - `deepspeed`: None
575
+ - `label_smoothing_factor`: 0.0
576
+ - `optim`: adamw_torch
577
+ - `optim_args`: None
578
+ - `adafactor`: False
579
+ - `group_by_length`: False
580
+ - `length_column_name`: length
581
+ - `ddp_find_unused_parameters`: None
582
+ - `ddp_bucket_cap_mb`: None
583
+ - `ddp_broadcast_buffers`: False
584
+ - `dataloader_pin_memory`: True
585
+ - `dataloader_persistent_workers`: False
586
+ - `skip_memory_metrics`: True
587
+ - `use_legacy_prediction_loop`: False
588
+ - `push_to_hub`: True
589
+ - `resume_from_checkpoint`: None
590
+ - `hub_model_id`: Sami92/multiling-e5-large-instruct-claim-matching
591
+ - `hub_strategy`: every_save
592
+ - `hub_private_repo`: False
593
+ - `hub_always_push`: False
594
+ - `gradient_checkpointing`: False
595
+ - `gradient_checkpointing_kwargs`: None
596
+ - `include_inputs_for_metrics`: False
597
+ - `eval_do_concat_batches`: True
598
+ - `fp16_backend`: auto
599
+ - `push_to_hub_model_id`: multiling-e5-large-instruct-claim-matching
600
+ - `push_to_hub_organization`: None
601
+ - `mp_parameters`:
602
+ - `auto_find_batch_size`: False
603
+ - `full_determinism`: False
604
+ - `torchdynamo`: None
605
+ - `ray_scope`: last
606
+ - `ddp_timeout`: 1800
607
+ - `torch_compile`: False
608
+ - `torch_compile_backend`: None
609
+ - `torch_compile_mode`: None
610
+ - `dispatch_batches`: None
611
+ - `split_batches`: None
612
+ - `include_tokens_per_second`: False
613
+ - `include_num_input_tokens_seen`: False
614
+ - `neftune_noise_alpha`: None
615
+ - `optim_target_modules`: None
616
+ - `batch_eval_metrics`: False
617
+ - `batch_sampler`: batch_sampler
618
+ - `multi_dataset_batch_sampler`: proportional
619
+
620
+ </details>
621
+
622
+ ### Training Logs
623
+ | Epoch | Step | Training Loss | loss | FineTuned_8_max_ap |
624
+ |:------:|:----:|:-------------:|:------:|:------------------:|
625
+ | 0 | 0 | - | - | 0.4155 |
626
+ | 0.1252 | 100 | 3.1911 | 0.3698 | 0.4095 |
627
+ | 0.2504 | 200 | 3.0285 | 0.3700 | 0.4180 |
628
+ | 0.3756 | 300 | 2.9879 | 0.3623 | 0.3774 |
629
+ | 0.5009 | 400 | 2.9907 | 0.3641 | 0.4271 |
630
+ | 0.6261 | 500 | 2.9632 | 0.3441 | 0.4599 |
631
+ | 0.7513 | 600 | 2.9207 | 0.3323 | 0.4447 |
632
+ | 0.8765 | 700 | 2.9043 | 0.3271 | 0.5012 |
633
+
634
+
635
+ ### Framework Versions
636
+ - Python: 3.10.12
637
+ - Sentence Transformers: 3.0.1
638
+ - Transformers: 4.41.2
639
+ - PyTorch: 2.3.1+cu121
640
+ - Accelerate: 0.32.0
641
+ - Datasets: 2.20.0
642
+ - Tokenizers: 0.19.1
643
+
644
+ ## Citation
645
+
646
+ ### BibTeX
647
+
648
+ #### Sentence Transformers
649
+ ```bibtex
650
+ @inproceedings{reimers-2019-sentence-bert,
651
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
652
+ author = "Reimers, Nils and Gurevych, Iryna",
653
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
654
+ month = "11",
655
+ year = "2019",
656
+ publisher = "Association for Computational Linguistics",
657
+ url = "https://arxiv.org/abs/1908.10084",
658
+ }
659
+ ```
660
+
661
+ #### AnglELoss
662
+ ```bibtex
663
+ @misc{li2023angleoptimized,
664
+ title={AnglE-optimized Text Embeddings},
665
+ author={Xianming Li and Jing Li},
666
+ year={2023},
667
+ eprint={2309.12871},
668
+ archivePrefix={arXiv},
669
+ primaryClass={cs.CL}
670
+ }
671
+ ```
672
+
673
+ <!--
674
+ ## Glossary
675
+
676
+ *Clearly define terms in order to be accessible across audiences.*
677
+ -->
678
+
679
+ <!--
680
+ ## Model Card Authors
681
+
682
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
683
+ -->
684
+
685
+ <!--
686
+ ## Model Card Contact
687
+
688
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
689
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/home/sami/CLAIMSPOTTING/Classification_Training/ClaimMatching/Model/FineTuned_8/checkpoint-700",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.42.3",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.42.3",
5
+ "pytorch": "1.13.0+cu117"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1b85bfdaab35ad38229360b71def00796e06e6eb06e6cb4e6991cb0bf3f8dcf5
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,62 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "additional_special_tokens": [],
45
+ "bos_token": "<s>",
46
+ "clean_up_tokenization_spaces": true,
47
+ "cls_token": "<s>",
48
+ "eos_token": "</s>",
49
+ "mask_token": "<mask>",
50
+ "max_length": 512,
51
+ "model_max_length": 512,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "<pad>",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "</s>",
57
+ "stride": 0,
58
+ "tokenizer_class": "XLMRobertaTokenizer",
59
+ "truncation_side": "right",
60
+ "truncation_strategy": "longest_first",
61
+ "unk_token": "<unk>"
62
+ }