nickprock commited on
Commit
86b556c
·
verified ·
1 Parent(s): ea8c870

Add new SentenceTransformer model

Browse files
0_StaticEmbedding/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d835d94fc64d33197bb520c1d60cae0f4bae56e5e530d474bb253d0a193b63ac
3
+ size 127393888
0_StaticEmbedding/tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
README.md ADDED
@@ -0,0 +1,546 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ tags:
4
+ - sentence-transformers
5
+ - sentence-similarity
6
+ - feature-extraction
7
+ - generated_from_trainer
8
+ - dataset_size:39780811
9
+ - loss:MatryoshkaLoss
10
+ - loss:MultipleNegativesRankingLoss
11
+ widget:
12
+ - source_sentence: quanto tempo può stare fuori l'anguria prima che vada a male?
13
+ sentences:
14
+ - Fu allora che la linea Make-up Cover sviluppata da Dermacol fu lanciata come una
15
+ delle prime del suo genere sia in Europa che nel mondo e la licenza di questo
16
+ prodotto fu venduta fino a Hollywood nel 1969. Siamo orgogliosi che la bellezza
17
+ di molte stelle del cinema ha avuto le sue origini da Dermacol a Praga.
18
+ - Risposta completa. Se l'anguria viene tagliata, può rimanere fresca in frigorifero
19
+ per circa tre-cinque giorni. L'anguria tagliata può durare un giorno se tagliata
20
+ e conservata sul piano di lavoro. L'anguria è ricca di acqua ed elettroliti. Il
21
+ frutto è anche ricco di vitamina A, un potente antiossidante che protegge il corpo
22
+ dai radicali liberi.
23
+ - È più spesso associato ai pomodori, ma l'anguria è in realtà una fonte più concentrata.
24
+ Rispetto a un grande pomodoro fresco, una tazza di anguria ha 1,5 volte il licopene
25
+ (6 milligrammi (mg) in un'anguria rispetto a 4 mg in un pomodoro). Maggiori informazioni
26
+ sul motivo per cui il licopene è così importante a breve.
27
+ - source_sentence: dove vivono i serpenti a sonagli?
28
+ sentences:
29
+ - Il bengalese è la lingua nazionale e ufficiale del Bangladesh e una delle 23 lingue
30
+ ufficiali riconosciute dalla Repubblica dell'India. È la lingua ufficiale degli
31
+ stati indiani del Bengala occidentale, del Tripura e dell'Assam.
32
+ - I componenti del veleno possono anche cambiare nel corso della vita di un serpente,
33
+ in specie (ad esempio, alcuni serpenti a sonagli del genere Crotalus) che si affidano
34
+ a una serie di animali da preda come giovani (lucertole a sangue freddo e altri
35
+ piccoli esotermici), e un diverso insieme di animali da preda da adulti (roditori
36
+ a sangue caldo).
37
+ - 'Dimensioni: un certo numero di diversi serpenti a sonagli vivono negli Stati
38
+ Uniti e hanno dimensioni variabili dal serpente a sonagli dal naso lungo 1 piede
39
+ al diamondback orientale lungo da 5 a 8 piedi. Dieta: i serpenti a sonagli sono
40
+ pit vipersâ€à Hanno organi di rilevamento del calore situati in fosse vicino
41
+ agli occhi. Abitat: Vivono in una varietà di habitat, tra cui foreste, praterie,
42
+ arbusti, paludi e deserti, e sono anche abili nuotatori. Quasi tutti i rettili,
43
+ compresi i serpenti a sonagli, sono ectotermici (a sangue freddo). Gli ectotermi
44
+ non possono regolare la temperatura corporea come fanno gli animali a sangue caldo.'
45
+ - source_sentence: come miscelare correttamente il tè matcha
46
+ sentences:
47
+ - Il miglior sito per chi ama la lingua Visayan (Bisaya o Cebuano) che offre Bisaya
48
+ English e English Bisaya Translations and Dictionary. Bisaya (Cebuano o Visayan)
49
+ è una delle lingue più parlate nelle Filippine, specialmente a Visayas.
50
+ - È vero che, poiché il matcha è composto da foglie di tè intere frantumate, il
51
+ contenuto di caffeina è leggermente superiore a quello del tè in busta. In effetti,
52
+ il livello di caffeina del matcha può effettivamente eguagliare la metà del livello
53
+ di una tazza di caffè nero. Tieni presente che la caffeina non fa male a te in
54
+ quantità moderate.
55
+ - Hai solo bisogno di aggiungere circa 1/2 cucchiaino di Matcha per tazza di acqua/latte
56
+ riscaldata. Il tè verde Matcha, soprattutto biologico, è il tè più costoso da
57
+ raccogliere e macinare sul mercato. Ci vogliono giorni di essiccazione e macinazione
58
+ e ci vuole una grande quantità di foglie di tè Matcha per creare solo 1 cucchiaino
59
+ di Matcha in polvere.
60
+ - source_sentence: terapia fisica colleyville
61
+ sentences:
62
+ - I primi cinque segni precoci di gravidanza. 1 Nausea o malattia possono iniziare
63
+ molto presto per alcune donne - un comune segno precoce di gravidanza sarà la
64
+ nausea mattutina. 2 Avendo bisogno di fare pipì più spesso quando si rimane incinta,
65
+ un segno precoce potrebbe essere la necessità di fare pipì di più. 3 Mal di testa
66
+ - Potresti provare mal di testa nelle prime fasi della gravidanza.
67
+ - 'Sabato: 8:00 - 12:00. Terapia fisica e riabilitazione sportiva di Colleyville.
68
+ Joel D. Judd, PT, DPT, OCS - Dottore in fisioterapia / Specialista clinico ortopedico
69
+ certificato Boaord. Colleyville Physical Therapy fornisce servizi di fisioterapia
70
+ eccezionali ai cittadini di Colleyville dal 2000. Joel e il suo staff sono esperti
71
+ nell''aiutarvi a riprendervi da un infortunio o da un intervento chirurgico.'
72
+ - Programmi e requisiti di formazione del fisioterapista. I corsi di laurea in fisioterapia
73
+ preparano gli studenti a lavorare sul campo con i pazienti che necessitano di
74
+ terapia fisica. La maggior parte degli studenti nei programmi di formazione in
75
+ fisioterapia completa i diplomi di dottorato nel campo, ma alcuni possono esercitarsi
76
+ con i master.
77
+ - source_sentence: di quale sistema fa parte l'insulina?
78
+ sentences:
79
+ - Un contatore elettrico o un contatore di energia è un'apparecchiatura in grado
80
+ di misurare la quantità di energia elettrica consumata da un'abitazione, un'azienda
81
+ o un dispositivo alimentato elettricamente. I contatori elettrici sono generalmente
82
+ calibrati in unità di fatturazione; il più comune è il kilowattora.
83
+ - 1 Arrotolare il flacone di insulina tra le mani due o tre volte per miscelare
84
+ l'insulina. 2 Non agitare il flacone, poiché possono formarsi bolle d'aria che
85
+ influiscono sulla quantità di insulina prelevata. 3 Pulire la parte in gomma sulla
86
+ parte superiore del flacone di insulina con un tampone imbevuto di alcol o un
87
+ batuffolo di cotone inumidito con alcol.
88
+ - Come i nostri nervi regolano la secrezione di insulina. LA STORIA COMPLETA. Il
89
+ sistema nervoso autonomo, che è la parte del sistema nervoso al di fuori del controllo
90
+ cosciente, svolge un ruolo importante nel rilascio di insulina dalle cellule beta
91
+ nella parte endocrina del pancreas.
92
+ pipeline_tag: sentence-similarity
93
+ library_name: sentence-transformers
94
+ metrics:
95
+ - cosine_accuracy
96
+ model-index:
97
+ - name: Static Embeddings with BERTino uncased tokenizer finetuned on a subset of
98
+ MMARCO
99
+ results:
100
+ - task:
101
+ type: triplet
102
+ name: Triplet
103
+ dataset:
104
+ name: mmarco dev
105
+ type: mmarco_dev
106
+ metrics:
107
+ - type: cosine_accuracy
108
+ value: 0.9815999865531921
109
+ name: Cosine Accuracy
110
+ - task:
111
+ type: triplet
112
+ name: Triplet
113
+ dataset:
114
+ name: mmarco test
115
+ type: mmarco_test
116
+ metrics:
117
+ - type: cosine_accuracy
118
+ value: 0.9785000085830688
119
+ name: Cosine Accuracy
120
+ ---
121
+
122
+ # Static Embeddings with BERTino uncased tokenizer finetuned on a subset of MMARCO
123
+
124
+ This is a [sentence-transformers](https://www.SBERT.net) model trained on the mmarco dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
125
+
126
+ ## Model Details
127
+
128
+ ### Model Description
129
+ - **Model Type:** Sentence Transformer
130
+ <!-- - **Base model:** [Unknown](https://huggingface.co/unknown) -->
131
+ - **Maximum Sequence Length:** inf tokens
132
+ - **Output Dimensionality:** 1024 dimensions
133
+ - **Similarity Function:** Cosine Similarity
134
+ - **Training Dataset:**
135
+ - mmarco
136
+ <!-- - **Language:** Unknown -->
137
+ - **License:** apache-2.0
138
+
139
+ ### Model Sources
140
+
141
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
142
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
143
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
144
+
145
+ ### Full Model Architecture
146
+
147
+ ```
148
+ SentenceTransformer(
149
+ (0): StaticEmbedding(
150
+ (embedding): EmbeddingBag(31102, 1024, mode='mean')
151
+ )
152
+ )
153
+ ```
154
+
155
+ ## Usage
156
+
157
+ ### Direct Usage (Sentence Transformers)
158
+
159
+ First install the Sentence Transformers library:
160
+
161
+ ```bash
162
+ pip install -U sentence-transformers
163
+ ```
164
+
165
+ Then you can load this model and run inference.
166
+ ```python
167
+ from sentence_transformers import SentenceTransformer
168
+
169
+ # Download from the 🤗 Hub
170
+ model = SentenceTransformer("nickprock/static-similarity-mmarco3m-mrl-BERTino-v1.5")
171
+ # Run inference
172
+ sentences = [
173
+ "di quale sistema fa parte l'insulina?",
174
+ 'Come i nostri nervi regolano la secrezione di insulina. LA STORIA COMPLETA. Il sistema nervoso autonomo, che è la parte del sistema nervoso al di fuori del controllo cosciente, svolge un ruolo importante nel rilascio di insulina dalle cellule beta nella parte endocrina del pancreas.',
175
+ "1 Arrotolare il flacone di insulina tra le mani due o tre volte per miscelare l'insulina. 2 Non agitare il flacone, poiché possono formarsi bolle d'aria che influiscono sulla quantità di insulina prelevata. 3 Pulire la parte in gomma sulla parte superiore del flacone di insulina con un tampone imbevuto di alcol o un batuffolo di cotone inumidito con alcol.",
176
+ ]
177
+ embeddings = model.encode(sentences)
178
+ print(embeddings.shape)
179
+ # [3, 1024]
180
+
181
+ # Get the similarity scores for the embeddings
182
+ similarities = model.similarity(embeddings, embeddings)
183
+ print(similarities.shape)
184
+ # [3, 3]
185
+ ```
186
+
187
+ <!--
188
+ ### Direct Usage (Transformers)
189
+
190
+ <details><summary>Click to see the direct usage in Transformers</summary>
191
+
192
+ </details>
193
+ -->
194
+
195
+ <!--
196
+ ### Downstream Usage (Sentence Transformers)
197
+
198
+ You can finetune this model on your own dataset.
199
+
200
+ <details><summary>Click to expand</summary>
201
+
202
+ </details>
203
+ -->
204
+
205
+ <!--
206
+ ### Out-of-Scope Use
207
+
208
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
209
+ -->
210
+
211
+ ## Evaluation
212
+
213
+ ### Metrics
214
+
215
+ #### Triplet
216
+
217
+ * Datasets: `mmarco_dev` and `mmarco_test`
218
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
219
+
220
+ | Metric | mmarco_dev | mmarco_test |
221
+ |:--------------------|:-----------|:------------|
222
+ | **cosine_accuracy** | **0.9816** | **0.9785** |
223
+
224
+ <!--
225
+ ## Bias, Risks and Limitations
226
+
227
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
228
+ -->
229
+
230
+ <!--
231
+ ### Recommendations
232
+
233
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
234
+ -->
235
+
236
+ ## Training Details
237
+
238
+ ### Training Dataset
239
+
240
+ #### mmarco
241
+
242
+ * Dataset: mmarco
243
+ * Size: 39,780,811 training samples
244
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
245
+ * Approximate statistics based on the first 1000 samples:
246
+ | | query | positive | negative |
247
+ |:--------|:------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|
248
+ | type | string | string | string |
249
+ | details | <ul><li>min: 10 characters</li><li>mean: 38.84 characters</li><li>max: 112 characters</li></ul> | <ul><li>min: 92 characters</li><li>mean: 400.26 characters</li><li>max: 1273 characters</li></ul> | <ul><li>min: 76 characters</li><li>mean: 383.85 characters</li><li>max: 1071 characters</li></ul> |
250
+ * Samples:
251
+ | query | positive | negative |
252
+ |:------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
253
+ | <code>è un certificato di nascita uguale a un certificato di naturalizzazione</code> | <code>No. Un certificato di nascita viene rilasciato dopo la nascita, di solito nella città e nello stato in cui è avvenuta la nascita. La nascita di Barack Obama è stata registrata a Honolulu, nelle Hawaii, per esempio.</code> | <code>La modifica non può essere effettuata tramite posta. Per trovare l'ufficio più vicino, vedere Office Locator. Quando visiti l'ufficio dell'amministrazione della sicurezza sociale, devi portare una prova della cittadinanza statunitense come il certificato di naturalizzazione o il passaporto statunitense e qualche altra forma di documento d'identità con foto come la patente di guida. Il cambio non può essere effettuato per posta. Per trovare l'ufficio più vicino, vedere Office Locator. Quando visiti l'ufficio dell'amministrazione della sicurezza sociale, devi portare una prova della cittadinanza statunitense come il certificato di naturalizzazione o il passaporto statunitense e qualche altra forma di documento d'identità con foto come la patente di guida.</code> |
254
+ | <code>il latte è consentito nella dieta della pancia di grano?</code> | <code>Se perdi peso con la dieta della pancia di grano, probabilmente sarà per aver fatto scelte alimentari sane e non perché hai evitato il glutine. Non ci sono prove scientifiche che gli alimenti con glutine causino un aumento di peso maggiore rispetto ad altri alimenti. Ma la dieta della pancia di grano non elimina solo il glutine. Vieta anche tutta una serie di altri alimenti, tra cui sciroppo di mais ad alto contenuto di fruttosio, saccarosio, cibi zuccherati, riso, patate, soda, succhi di frutta, frutta secca e legumi. Eliminare il sale è ottimo per la pressione sanguigna. Ma se hai il colesterolo alto o malattie cardiache, potresti voler evitare i latticini ricchi di grassi e la carne rossa che sono consentiti nella dieta della pancia di grano. Davis incoraggia l'esercizio, ma il tipo e la quantità effettivi sono lasciati a te.</code> | <code>Rasmalai. Ingredienti: Latte, zucchero, ingredienti del latte modificato, farina di frumento, pistacchi, acido citrico, acido acetico, cloruro di calcio, sorbato di potassio, fecola di patate modificata, gomma di guar, gomma di xantano e aromi.Fatti: ingredienti: latte, zucchero, latte modificato ingredienti, farina di frumento, pistacchi, acido citrico, acido acetico, cloruro di calcio, sorbato di potassio, fecola di patate modificata, gomma di guar, gomma di xantano e aromi. Fatti:</code> |
255
+ | <code>qual è stata la logica alla base della politica di pacificazione durante la seconda guerra mondiale?</code> | <code>La politica di pacificazione come motivo più importante dello scoppio della seconda guerra mondiale. Lo scoppio della seconda guerra mondiale ebbe molte cause, una delle quali fu. la politica di pacificazione che fu una delle cause più importanti. La politica di pacificazione, tra il 1936 â€â†1939 era la politica di. cedendo alle richieste di Hitler di prevenire un altro conflitto. Questo era un. una delle maggiori cause della seconda guerra mondiale come Gran Bretagna e Francia. avrebbe potuto fermare Hitler molto prima, per esempio l'invasione di.</code> | <code>Razionale per la politica sulla valutazione delle prestazioni. La valutazione delle prestazioni può essere vista come il processo di valutazione e registrazione delle prestazioni del personale allo scopo di esprimere giudizi sul personale che portano a decisioni.</code> |
256
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
257
+ ```json
258
+ {
259
+ "loss": "MultipleNegativesRankingLoss",
260
+ "matryoshka_dims": [
261
+ 1024,
262
+ 768,
263
+ 512,
264
+ 256,
265
+ 128,
266
+ 64,
267
+ 32
268
+ ],
269
+ "matryoshka_weights": [
270
+ 1,
271
+ 1,
272
+ 1,
273
+ 1,
274
+ 1,
275
+ 1,
276
+ 1
277
+ ],
278
+ "n_dims_per_step": -1
279
+ }
280
+ ```
281
+
282
+ ### Evaluation Dataset
283
+
284
+ #### mmarco
285
+
286
+ * Dataset: mmarco
287
+ * Size: 39,780,811 evaluation samples
288
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
289
+ * Approximate statistics based on the first 1000 samples:
290
+ | | query | positive | negative |
291
+ |:--------|:-----------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|
292
+ | type | string | string | string |
293
+ | details | <ul><li>min: 11 characters</li><li>mean: 39.1 characters</li><li>max: 194 characters</li></ul> | <ul><li>min: 71 characters</li><li>mean: 392.09 characters</li><li>max: 1089 characters</li></ul> | <ul><li>min: 65 characters</li><li>mean: 372.69 characters</li><li>max: 1060 characters</li></ul> |
294
+ * Samples:
295
+ | query | positive | negative |
296
+ |:-------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
297
+ | <code>che colpa c'è in turchia?</code> | <code>Il terremoto in Turchia rivela una nuova zona di faglia attiva di Wendy Zukerman Un terremoto di magnitudo 7.2 ha colpito ieri la Turchia, uccidendo più di 200 persone e ferendone migliaia. La Turchia è uno dei paesi più terremotati al mondo. La maggior parte si trova sulla placca anatolica, una piccola placca tettonica a forma di cuneo che viene schiacciata verso ovest mentre la placca araba a est si scontra con la placca eurasiatica.</code> | <code>Leggi e regolamenti sull'assicurazione auto senza colpa della Florida. La Florida segue senza colpa quando si tratta del pagamento dei sinistri dell'assicurazione auto dopo un incidente d'auto. In uno stato senza colpa, i conducenti sono tenuti a portare un'assicurazione auto che paga la protezione contro le lesioni personali, o PIP, benefici.</code> |
298
+ | <code>significato del nome olivia</code> | <code>15 Terribili significati del nome del bambino. Olivia. La storia: Olivia è stata usata per la prima volta come nome femminile nella dodicesima notte di Shakespeare. Mentre secondo l'interpretazione latina significa semplicemente ramo d'ulivo, Olivia è anche conosciuta come una versione femminile di Oliver che significa, sì, esercito di elfi.</code> | <code>Olivia Munn ha lavorato senza sforzo sulle onde da spiaggia strutturate sul braccio di Aaron Rodgers agli ESPYs 2016 a Los Angeles mercoledì 13 luglio. Alberto E. Rodriguez/Getty. In una parola, impeccabile! Olivia Munn ha calcato il tappeto rosso agli ESPYs 2016 mercoledì 13 luglio a Los Angeles, lavorando sulle onde da spiaggia più voluminose e strutturate. Continua a leggere per i dettagli su come ricreare lo stile! Questo look è grintoso ma senza sforzo - [è] tutto basato sulla consistenza, ha detto a Us Weekly l'hairstylist delle celebrità Chris Appleton.</code> |
299
+ | <code>a cosa servono i carboidrati?</code> | <code>Scopri quali buoni carboidrati aggiungere alla tua dieta per perdere peso. Non sono mai stato un fan delle diete a basso contenuto di carboidrati: il nostro corpo e il nostro cervello hanno bisogno di carboidrati per funzionare in modo efficace. Scopri quali carboidrati buoni aggiungere alla tua dieta per perdere peso. Non sono mai stato un fan delle diete a basso contenuto di carboidrati: il nostro corpo e il nostro cervello hanno bisogno di carboidrati per funzionare in modo efficace.</code> | <code>L'elenco di carboidrati sani di seguito è la migliore fonte di carboidrati buoni. La scelta di carboidrati cattivi (anziché da questo elenco di carboidrati buoni) può minare rapidamente la tua salute e sabotare i tuoi obiettivi di gestione del peso.</code> |
300
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
301
+ ```json
302
+ {
303
+ "loss": "MultipleNegativesRankingLoss",
304
+ "matryoshka_dims": [
305
+ 1024,
306
+ 768,
307
+ 512,
308
+ 256,
309
+ 128,
310
+ 64,
311
+ 32
312
+ ],
313
+ "matryoshka_weights": [
314
+ 1,
315
+ 1,
316
+ 1,
317
+ 1,
318
+ 1,
319
+ 1,
320
+ 1
321
+ ],
322
+ "n_dims_per_step": -1
323
+ }
324
+ ```
325
+
326
+ ### Training Hyperparameters
327
+ #### Non-Default Hyperparameters
328
+
329
+ - `eval_strategy`: steps
330
+ - `per_device_train_batch_size`: 2048
331
+ - `per_device_eval_batch_size`: 2048
332
+ - `learning_rate`: 0.2
333
+ - `num_train_epochs`: 1
334
+ - `warmup_ratio`: 0.1
335
+ - `bf16`: True
336
+ - `load_best_model_at_end`: True
337
+ - `batch_sampler`: no_duplicates
338
+
339
+ #### All Hyperparameters
340
+ <details><summary>Click to expand</summary>
341
+
342
+ - `overwrite_output_dir`: False
343
+ - `do_predict`: False
344
+ - `eval_strategy`: steps
345
+ - `prediction_loss_only`: True
346
+ - `per_device_train_batch_size`: 2048
347
+ - `per_device_eval_batch_size`: 2048
348
+ - `per_gpu_train_batch_size`: None
349
+ - `per_gpu_eval_batch_size`: None
350
+ - `gradient_accumulation_steps`: 1
351
+ - `eval_accumulation_steps`: None
352
+ - `torch_empty_cache_steps`: None
353
+ - `learning_rate`: 0.2
354
+ - `weight_decay`: 0.0
355
+ - `adam_beta1`: 0.9
356
+ - `adam_beta2`: 0.999
357
+ - `adam_epsilon`: 1e-08
358
+ - `max_grad_norm`: 1.0
359
+ - `num_train_epochs`: 1
360
+ - `max_steps`: -1
361
+ - `lr_scheduler_type`: linear
362
+ - `lr_scheduler_kwargs`: {}
363
+ - `warmup_ratio`: 0.1
364
+ - `warmup_steps`: 0
365
+ - `log_level`: passive
366
+ - `log_level_replica`: warning
367
+ - `log_on_each_node`: True
368
+ - `logging_nan_inf_filter`: True
369
+ - `save_safetensors`: True
370
+ - `save_on_each_node`: False
371
+ - `save_only_model`: False
372
+ - `restore_callback_states_from_checkpoint`: False
373
+ - `no_cuda`: False
374
+ - `use_cpu`: False
375
+ - `use_mps_device`: False
376
+ - `seed`: 42
377
+ - `data_seed`: None
378
+ - `jit_mode_eval`: False
379
+ - `use_ipex`: False
380
+ - `bf16`: True
381
+ - `fp16`: False
382
+ - `fp16_opt_level`: O1
383
+ - `half_precision_backend`: auto
384
+ - `bf16_full_eval`: False
385
+ - `fp16_full_eval`: False
386
+ - `tf32`: None
387
+ - `local_rank`: 0
388
+ - `ddp_backend`: None
389
+ - `tpu_num_cores`: None
390
+ - `tpu_metrics_debug`: False
391
+ - `debug`: []
392
+ - `dataloader_drop_last`: False
393
+ - `dataloader_num_workers`: 0
394
+ - `dataloader_prefetch_factor`: None
395
+ - `past_index`: -1
396
+ - `disable_tqdm`: False
397
+ - `remove_unused_columns`: True
398
+ - `label_names`: None
399
+ - `load_best_model_at_end`: True
400
+ - `ignore_data_skip`: False
401
+ - `fsdp`: []
402
+ - `fsdp_min_num_params`: 0
403
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
404
+ - `tp_size`: 0
405
+ - `fsdp_transformer_layer_cls_to_wrap`: None
406
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
407
+ - `deepspeed`: None
408
+ - `label_smoothing_factor`: 0.0
409
+ - `optim`: adamw_torch
410
+ - `optim_args`: None
411
+ - `adafactor`: False
412
+ - `group_by_length`: False
413
+ - `length_column_name`: length
414
+ - `ddp_find_unused_parameters`: None
415
+ - `ddp_bucket_cap_mb`: None
416
+ - `ddp_broadcast_buffers`: False
417
+ - `dataloader_pin_memory`: True
418
+ - `dataloader_persistent_workers`: False
419
+ - `skip_memory_metrics`: True
420
+ - `use_legacy_prediction_loop`: False
421
+ - `push_to_hub`: False
422
+ - `resume_from_checkpoint`: None
423
+ - `hub_model_id`: None
424
+ - `hub_strategy`: every_save
425
+ - `hub_private_repo`: None
426
+ - `hub_always_push`: False
427
+ - `gradient_checkpointing`: False
428
+ - `gradient_checkpointing_kwargs`: None
429
+ - `include_inputs_for_metrics`: False
430
+ - `include_for_metrics`: []
431
+ - `eval_do_concat_batches`: True
432
+ - `fp16_backend`: auto
433
+ - `push_to_hub_model_id`: None
434
+ - `push_to_hub_organization`: None
435
+ - `mp_parameters`:
436
+ - `auto_find_batch_size`: False
437
+ - `full_determinism`: False
438
+ - `torchdynamo`: None
439
+ - `ray_scope`: last
440
+ - `ddp_timeout`: 1800
441
+ - `torch_compile`: False
442
+ - `torch_compile_backend`: None
443
+ - `torch_compile_mode`: None
444
+ - `dispatch_batches`: None
445
+ - `split_batches`: None
446
+ - `include_tokens_per_second`: False
447
+ - `include_num_input_tokens_seen`: False
448
+ - `neftune_noise_alpha`: None
449
+ - `optim_target_modules`: None
450
+ - `batch_eval_metrics`: False
451
+ - `eval_on_start`: False
452
+ - `use_liger_kernel`: False
453
+ - `eval_use_gather_object`: False
454
+ - `average_tokens_across_devices`: False
455
+ - `prompts`: None
456
+ - `batch_sampler`: no_duplicates
457
+ - `multi_dataset_batch_sampler`: proportional
458
+
459
+ </details>
460
+
461
+ ### Training Logs
462
+ | Epoch | Step | Training Loss | Validation Loss | mmarco_dev_cosine_accuracy | mmarco_test_cosine_accuracy |
463
+ |:------:|:----:|:-------------:|:---------------:|:--------------------------:|:---------------------------:|
464
+ | -1 | -1 | - | - | 0.7382 | - |
465
+ | 0.0007 | 1 | 42.3016 | - | - | - |
466
+ | 0.0683 | 100 | 20.914 | 8.5389 | 0.9048 | - |
467
+ | 0.1365 | 200 | 7.612 | 5.6560 | 0.9345 | - |
468
+ | 0.2048 | 300 | 5.4857 | 4.3568 | 0.9503 | - |
469
+ | 0.2730 | 400 | 4.374 | 3.5553 | 0.9593 | - |
470
+ | 0.3413 | 500 | 3.7164 | 3.0826 | 0.9664 | - |
471
+ | 0.4096 | 600 | 3.2707 | 2.7282 | 0.9719 | - |
472
+ | 0.4778 | 700 | 2.9356 | 2.5033 | 0.9742 | - |
473
+ | 0.5461 | 800 | 2.6984 | 2.3172 | 0.9781 | - |
474
+ | 0.6143 | 900 | 2.5414 | 2.1870 | 0.9797 | - |
475
+ | 0.6826 | 1000 | 2.3811 | 2.0797 | 0.9804 | - |
476
+ | 0.7509 | 1100 | 2.273 | 1.9936 | 0.9816 | - |
477
+ | -1 | -1 | - | - | - | 0.9785 |
478
+
479
+
480
+ ### Framework Versions
481
+ - Python: 3.10.12
482
+ - Sentence Transformers: 3.5.0.dev0
483
+ - Transformers: 4.50.0.dev0
484
+ - PyTorch: 2.5.1+cu121
485
+ - Accelerate: 1.2.1
486
+ - Datasets: 3.3.1
487
+ - Tokenizers: 0.21.0
488
+
489
+ ## Citation
490
+
491
+ ### BibTeX
492
+
493
+ #### Sentence Transformers
494
+ ```bibtex
495
+ @inproceedings{reimers-2019-sentence-bert,
496
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
497
+ author = "Reimers, Nils and Gurevych, Iryna",
498
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
499
+ month = "11",
500
+ year = "2019",
501
+ publisher = "Association for Computational Linguistics",
502
+ url = "https://arxiv.org/abs/1908.10084",
503
+ }
504
+ ```
505
+
506
+ #### MatryoshkaLoss
507
+ ```bibtex
508
+ @misc{kusupati2024matryoshka,
509
+ title={Matryoshka Representation Learning},
510
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
511
+ year={2024},
512
+ eprint={2205.13147},
513
+ archivePrefix={arXiv},
514
+ primaryClass={cs.LG}
515
+ }
516
+ ```
517
+
518
+ #### MultipleNegativesRankingLoss
519
+ ```bibtex
520
+ @misc{henderson2017efficient,
521
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
522
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
523
+ year={2017},
524
+ eprint={1705.00652},
525
+ archivePrefix={arXiv},
526
+ primaryClass={cs.CL}
527
+ }
528
+ ```
529
+
530
+ <!--
531
+ ## Glossary
532
+
533
+ *Clearly define terms in order to be accessible across audiences.*
534
+ -->
535
+
536
+ <!--
537
+ ## Model Card Authors
538
+
539
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
540
+ -->
541
+
542
+ <!--
543
+ ## Model Card Contact
544
+
545
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
546
+ -->
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.5.0.dev0",
4
+ "transformers": "4.50.0.dev0",
5
+ "pytorch": "2.5.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
modules.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "0_StaticEmbedding",
6
+ "type": "sentence_transformers.models.StaticEmbedding"
7
+ }
8
+ ]