Add new SentenceTransformer model
Browse files- 0_StaticEmbedding/model.safetensors +3 -0
- 0_StaticEmbedding/tokenizer.json +0 -0
- README.md +546 -0
- config_sentence_transformers.json +10 -0
- modules.json +8 -0
0_StaticEmbedding/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:d835d94fc64d33197bb520c1d60cae0f4bae56e5e530d474bb253d0a193b63ac
|
3 |
+
size 127393888
|
0_StaticEmbedding/tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
README.md
ADDED
@@ -0,0 +1,546 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: apache-2.0
|
3 |
+
tags:
|
4 |
+
- sentence-transformers
|
5 |
+
- sentence-similarity
|
6 |
+
- feature-extraction
|
7 |
+
- generated_from_trainer
|
8 |
+
- dataset_size:39780811
|
9 |
+
- loss:MatryoshkaLoss
|
10 |
+
- loss:MultipleNegativesRankingLoss
|
11 |
+
widget:
|
12 |
+
- source_sentence: quanto tempo può stare fuori l'anguria prima che vada a male?
|
13 |
+
sentences:
|
14 |
+
- Fu allora che la linea Make-up Cover sviluppata da Dermacol fu lanciata come una
|
15 |
+
delle prime del suo genere sia in Europa che nel mondo e la licenza di questo
|
16 |
+
prodotto fu venduta fino a Hollywood nel 1969. Siamo orgogliosi che la bellezza
|
17 |
+
di molte stelle del cinema ha avuto le sue origini da Dermacol a Praga.
|
18 |
+
- Risposta completa. Se l'anguria viene tagliata, può rimanere fresca in frigorifero
|
19 |
+
per circa tre-cinque giorni. L'anguria tagliata può durare un giorno se tagliata
|
20 |
+
e conservata sul piano di lavoro. L'anguria è ricca di acqua ed elettroliti. Il
|
21 |
+
frutto è anche ricco di vitamina A, un potente antiossidante che protegge il corpo
|
22 |
+
dai radicali liberi.
|
23 |
+
- È più spesso associato ai pomodori, ma l'anguria è in realtà una fonte più concentrata.
|
24 |
+
Rispetto a un grande pomodoro fresco, una tazza di anguria ha 1,5 volte il licopene
|
25 |
+
(6 milligrammi (mg) in un'anguria rispetto a 4 mg in un pomodoro). Maggiori informazioni
|
26 |
+
sul motivo per cui il licopene è così importante a breve.
|
27 |
+
- source_sentence: dove vivono i serpenti a sonagli?
|
28 |
+
sentences:
|
29 |
+
- Il bengalese è la lingua nazionale e ufficiale del Bangladesh e una delle 23 lingue
|
30 |
+
ufficiali riconosciute dalla Repubblica dell'India. È la lingua ufficiale degli
|
31 |
+
stati indiani del Bengala occidentale, del Tripura e dell'Assam.
|
32 |
+
- I componenti del veleno possono anche cambiare nel corso della vita di un serpente,
|
33 |
+
in specie (ad esempio, alcuni serpenti a sonagli del genere Crotalus) che si affidano
|
34 |
+
a una serie di animali da preda come giovani (lucertole a sangue freddo e altri
|
35 |
+
piccoli esotermici), e un diverso insieme di animali da preda da adulti (roditori
|
36 |
+
a sangue caldo).
|
37 |
+
- 'Dimensioni: un certo numero di diversi serpenti a sonagli vivono negli Stati
|
38 |
+
Uniti e hanno dimensioni variabili dal serpente a sonagli dal naso lungo 1 piede
|
39 |
+
al diamondback orientale lungo da 5 a 8 piedi. Dieta: i serpenti a sonagli sono
|
40 |
+
pit vipersâ€à Hanno organi di rilevamento del calore situati in fosse vicino
|
41 |
+
agli occhi. Abitat: Vivono in una varietà di habitat, tra cui foreste, praterie,
|
42 |
+
arbusti, paludi e deserti, e sono anche abili nuotatori. Quasi tutti i rettili,
|
43 |
+
compresi i serpenti a sonagli, sono ectotermici (a sangue freddo). Gli ectotermi
|
44 |
+
non possono regolare la temperatura corporea come fanno gli animali a sangue caldo.'
|
45 |
+
- source_sentence: come miscelare correttamente il tè matcha
|
46 |
+
sentences:
|
47 |
+
- Il miglior sito per chi ama la lingua Visayan (Bisaya o Cebuano) che offre Bisaya
|
48 |
+
English e English Bisaya Translations and Dictionary. Bisaya (Cebuano o Visayan)
|
49 |
+
è una delle lingue più parlate nelle Filippine, specialmente a Visayas.
|
50 |
+
- È vero che, poiché il matcha è composto da foglie di tè intere frantumate, il
|
51 |
+
contenuto di caffeina è leggermente superiore a quello del tè in busta. In effetti,
|
52 |
+
il livello di caffeina del matcha può effettivamente eguagliare la metà del livello
|
53 |
+
di una tazza di caffè nero. Tieni presente che la caffeina non fa male a te in
|
54 |
+
quantità moderate.
|
55 |
+
- Hai solo bisogno di aggiungere circa 1/2 cucchiaino di Matcha per tazza di acqua/latte
|
56 |
+
riscaldata. Il tè verde Matcha, soprattutto biologico, è il tè più costoso da
|
57 |
+
raccogliere e macinare sul mercato. Ci vogliono giorni di essiccazione e macinazione
|
58 |
+
e ci vuole una grande quantità di foglie di tè Matcha per creare solo 1 cucchiaino
|
59 |
+
di Matcha in polvere.
|
60 |
+
- source_sentence: terapia fisica colleyville
|
61 |
+
sentences:
|
62 |
+
- I primi cinque segni precoci di gravidanza. 1 Nausea o malattia possono iniziare
|
63 |
+
molto presto per alcune donne - un comune segno precoce di gravidanza sarà la
|
64 |
+
nausea mattutina. 2 Avendo bisogno di fare pipì più spesso quando si rimane incinta,
|
65 |
+
un segno precoce potrebbe essere la necessità di fare pipì di più. 3 Mal di testa
|
66 |
+
- Potresti provare mal di testa nelle prime fasi della gravidanza.
|
67 |
+
- 'Sabato: 8:00 - 12:00. Terapia fisica e riabilitazione sportiva di Colleyville.
|
68 |
+
Joel D. Judd, PT, DPT, OCS - Dottore in fisioterapia / Specialista clinico ortopedico
|
69 |
+
certificato Boaord. Colleyville Physical Therapy fornisce servizi di fisioterapia
|
70 |
+
eccezionali ai cittadini di Colleyville dal 2000. Joel e il suo staff sono esperti
|
71 |
+
nell''aiutarvi a riprendervi da un infortunio o da un intervento chirurgico.'
|
72 |
+
- Programmi e requisiti di formazione del fisioterapista. I corsi di laurea in fisioterapia
|
73 |
+
preparano gli studenti a lavorare sul campo con i pazienti che necessitano di
|
74 |
+
terapia fisica. La maggior parte degli studenti nei programmi di formazione in
|
75 |
+
fisioterapia completa i diplomi di dottorato nel campo, ma alcuni possono esercitarsi
|
76 |
+
con i master.
|
77 |
+
- source_sentence: di quale sistema fa parte l'insulina?
|
78 |
+
sentences:
|
79 |
+
- Un contatore elettrico o un contatore di energia è un'apparecchiatura in grado
|
80 |
+
di misurare la quantità di energia elettrica consumata da un'abitazione, un'azienda
|
81 |
+
o un dispositivo alimentato elettricamente. I contatori elettrici sono generalmente
|
82 |
+
calibrati in unità di fatturazione; il più comune è il kilowattora.
|
83 |
+
- 1 Arrotolare il flacone di insulina tra le mani due o tre volte per miscelare
|
84 |
+
l'insulina. 2 Non agitare il flacone, poiché possono formarsi bolle d'aria che
|
85 |
+
influiscono sulla quantità di insulina prelevata. 3 Pulire la parte in gomma sulla
|
86 |
+
parte superiore del flacone di insulina con un tampone imbevuto di alcol o un
|
87 |
+
batuffolo di cotone inumidito con alcol.
|
88 |
+
- Come i nostri nervi regolano la secrezione di insulina. LA STORIA COMPLETA. Il
|
89 |
+
sistema nervoso autonomo, che è la parte del sistema nervoso al di fuori del controllo
|
90 |
+
cosciente, svolge un ruolo importante nel rilascio di insulina dalle cellule beta
|
91 |
+
nella parte endocrina del pancreas.
|
92 |
+
pipeline_tag: sentence-similarity
|
93 |
+
library_name: sentence-transformers
|
94 |
+
metrics:
|
95 |
+
- cosine_accuracy
|
96 |
+
model-index:
|
97 |
+
- name: Static Embeddings with BERTino uncased tokenizer finetuned on a subset of
|
98 |
+
MMARCO
|
99 |
+
results:
|
100 |
+
- task:
|
101 |
+
type: triplet
|
102 |
+
name: Triplet
|
103 |
+
dataset:
|
104 |
+
name: mmarco dev
|
105 |
+
type: mmarco_dev
|
106 |
+
metrics:
|
107 |
+
- type: cosine_accuracy
|
108 |
+
value: 0.9815999865531921
|
109 |
+
name: Cosine Accuracy
|
110 |
+
- task:
|
111 |
+
type: triplet
|
112 |
+
name: Triplet
|
113 |
+
dataset:
|
114 |
+
name: mmarco test
|
115 |
+
type: mmarco_test
|
116 |
+
metrics:
|
117 |
+
- type: cosine_accuracy
|
118 |
+
value: 0.9785000085830688
|
119 |
+
name: Cosine Accuracy
|
120 |
+
---
|
121 |
+
|
122 |
+
# Static Embeddings with BERTino uncased tokenizer finetuned on a subset of MMARCO
|
123 |
+
|
124 |
+
This is a [sentence-transformers](https://www.SBERT.net) model trained on the mmarco dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
125 |
+
|
126 |
+
## Model Details
|
127 |
+
|
128 |
+
### Model Description
|
129 |
+
- **Model Type:** Sentence Transformer
|
130 |
+
<!-- - **Base model:** [Unknown](https://huggingface.co/unknown) -->
|
131 |
+
- **Maximum Sequence Length:** inf tokens
|
132 |
+
- **Output Dimensionality:** 1024 dimensions
|
133 |
+
- **Similarity Function:** Cosine Similarity
|
134 |
+
- **Training Dataset:**
|
135 |
+
- mmarco
|
136 |
+
<!-- - **Language:** Unknown -->
|
137 |
+
- **License:** apache-2.0
|
138 |
+
|
139 |
+
### Model Sources
|
140 |
+
|
141 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
142 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
143 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
144 |
+
|
145 |
+
### Full Model Architecture
|
146 |
+
|
147 |
+
```
|
148 |
+
SentenceTransformer(
|
149 |
+
(0): StaticEmbedding(
|
150 |
+
(embedding): EmbeddingBag(31102, 1024, mode='mean')
|
151 |
+
)
|
152 |
+
)
|
153 |
+
```
|
154 |
+
|
155 |
+
## Usage
|
156 |
+
|
157 |
+
### Direct Usage (Sentence Transformers)
|
158 |
+
|
159 |
+
First install the Sentence Transformers library:
|
160 |
+
|
161 |
+
```bash
|
162 |
+
pip install -U sentence-transformers
|
163 |
+
```
|
164 |
+
|
165 |
+
Then you can load this model and run inference.
|
166 |
+
```python
|
167 |
+
from sentence_transformers import SentenceTransformer
|
168 |
+
|
169 |
+
# Download from the 🤗 Hub
|
170 |
+
model = SentenceTransformer("nickprock/static-similarity-mmarco3m-mrl-BERTino-v1.5")
|
171 |
+
# Run inference
|
172 |
+
sentences = [
|
173 |
+
"di quale sistema fa parte l'insulina?",
|
174 |
+
'Come i nostri nervi regolano la secrezione di insulina. LA STORIA COMPLETA. Il sistema nervoso autonomo, che è la parte del sistema nervoso al di fuori del controllo cosciente, svolge un ruolo importante nel rilascio di insulina dalle cellule beta nella parte endocrina del pancreas.',
|
175 |
+
"1 Arrotolare il flacone di insulina tra le mani due o tre volte per miscelare l'insulina. 2 Non agitare il flacone, poiché possono formarsi bolle d'aria che influiscono sulla quantità di insulina prelevata. 3 Pulire la parte in gomma sulla parte superiore del flacone di insulina con un tampone imbevuto di alcol o un batuffolo di cotone inumidito con alcol.",
|
176 |
+
]
|
177 |
+
embeddings = model.encode(sentences)
|
178 |
+
print(embeddings.shape)
|
179 |
+
# [3, 1024]
|
180 |
+
|
181 |
+
# Get the similarity scores for the embeddings
|
182 |
+
similarities = model.similarity(embeddings, embeddings)
|
183 |
+
print(similarities.shape)
|
184 |
+
# [3, 3]
|
185 |
+
```
|
186 |
+
|
187 |
+
<!--
|
188 |
+
### Direct Usage (Transformers)
|
189 |
+
|
190 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
191 |
+
|
192 |
+
</details>
|
193 |
+
-->
|
194 |
+
|
195 |
+
<!--
|
196 |
+
### Downstream Usage (Sentence Transformers)
|
197 |
+
|
198 |
+
You can finetune this model on your own dataset.
|
199 |
+
|
200 |
+
<details><summary>Click to expand</summary>
|
201 |
+
|
202 |
+
</details>
|
203 |
+
-->
|
204 |
+
|
205 |
+
<!--
|
206 |
+
### Out-of-Scope Use
|
207 |
+
|
208 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
209 |
+
-->
|
210 |
+
|
211 |
+
## Evaluation
|
212 |
+
|
213 |
+
### Metrics
|
214 |
+
|
215 |
+
#### Triplet
|
216 |
+
|
217 |
+
* Datasets: `mmarco_dev` and `mmarco_test`
|
218 |
+
* Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
|
219 |
+
|
220 |
+
| Metric | mmarco_dev | mmarco_test |
|
221 |
+
|:--------------------|:-----------|:------------|
|
222 |
+
| **cosine_accuracy** | **0.9816** | **0.9785** |
|
223 |
+
|
224 |
+
<!--
|
225 |
+
## Bias, Risks and Limitations
|
226 |
+
|
227 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
228 |
+
-->
|
229 |
+
|
230 |
+
<!--
|
231 |
+
### Recommendations
|
232 |
+
|
233 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
234 |
+
-->
|
235 |
+
|
236 |
+
## Training Details
|
237 |
+
|
238 |
+
### Training Dataset
|
239 |
+
|
240 |
+
#### mmarco
|
241 |
+
|
242 |
+
* Dataset: mmarco
|
243 |
+
* Size: 39,780,811 training samples
|
244 |
+
* Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
|
245 |
+
* Approximate statistics based on the first 1000 samples:
|
246 |
+
| | query | positive | negative |
|
247 |
+
|:--------|:------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|
|
248 |
+
| type | string | string | string |
|
249 |
+
| details | <ul><li>min: 10 characters</li><li>mean: 38.84 characters</li><li>max: 112 characters</li></ul> | <ul><li>min: 92 characters</li><li>mean: 400.26 characters</li><li>max: 1273 characters</li></ul> | <ul><li>min: 76 characters</li><li>mean: 383.85 characters</li><li>max: 1071 characters</li></ul> |
|
250 |
+
* Samples:
|
251 |
+
| query | positive | negative |
|
252 |
+
|:------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
253 |
+
| <code>è un certificato di nascita uguale a un certificato di naturalizzazione</code> | <code>No. Un certificato di nascita viene rilasciato dopo la nascita, di solito nella città e nello stato in cui è avvenuta la nascita. La nascita di Barack Obama è stata registrata a Honolulu, nelle Hawaii, per esempio.</code> | <code>La modifica non può essere effettuata tramite posta. Per trovare l'ufficio più vicino, vedere Office Locator. Quando visiti l'ufficio dell'amministrazione della sicurezza sociale, devi portare una prova della cittadinanza statunitense come il certificato di naturalizzazione o il passaporto statunitense e qualche altra forma di documento d'identità con foto come la patente di guida. Il cambio non può essere effettuato per posta. Per trovare l'ufficio più vicino, vedere Office Locator. Quando visiti l'ufficio dell'amministrazione della sicurezza sociale, devi portare una prova della cittadinanza statunitense come il certificato di naturalizzazione o il passaporto statunitense e qualche altra forma di documento d'identità con foto come la patente di guida.</code> |
|
254 |
+
| <code>il latte è consentito nella dieta della pancia di grano?</code> | <code>Se perdi peso con la dieta della pancia di grano, probabilmente sarà per aver fatto scelte alimentari sane e non perché hai evitato il glutine. Non ci sono prove scientifiche che gli alimenti con glutine causino un aumento di peso maggiore rispetto ad altri alimenti. Ma la dieta della pancia di grano non elimina solo il glutine. Vieta anche tutta una serie di altri alimenti, tra cui sciroppo di mais ad alto contenuto di fruttosio, saccarosio, cibi zuccherati, riso, patate, soda, succhi di frutta, frutta secca e legumi. Eliminare il sale è ottimo per la pressione sanguigna. Ma se hai il colesterolo alto o malattie cardiache, potresti voler evitare i latticini ricchi di grassi e la carne rossa che sono consentiti nella dieta della pancia di grano. Davis incoraggia l'esercizio, ma il tipo e la quantità effettivi sono lasciati a te.</code> | <code>Rasmalai. Ingredienti: Latte, zucchero, ingredienti del latte modificato, farina di frumento, pistacchi, acido citrico, acido acetico, cloruro di calcio, sorbato di potassio, fecola di patate modificata, gomma di guar, gomma di xantano e aromi.Fatti: ingredienti: latte, zucchero, latte modificato ingredienti, farina di frumento, pistacchi, acido citrico, acido acetico, cloruro di calcio, sorbato di potassio, fecola di patate modificata, gomma di guar, gomma di xantano e aromi. Fatti:</code> |
|
255 |
+
| <code>qual è stata la logica alla base della politica di pacificazione durante la seconda guerra mondiale?</code> | <code>La politica di pacificazione come motivo più importante dello scoppio della seconda guerra mondiale. Lo scoppio della seconda guerra mondiale ebbe molte cause, una delle quali fu. la politica di pacificazione che fu una delle cause più importanti. La politica di pacificazione, tra il 1936 â€â†1939 era la politica di. cedendo alle richieste di Hitler di prevenire un altro conflitto. Questo era un. una delle maggiori cause della seconda guerra mondiale come Gran Bretagna e Francia. avrebbe potuto fermare Hitler molto prima, per esempio l'invasione di.</code> | <code>Razionale per la politica sulla valutazione delle prestazioni. La valutazione delle prestazioni può essere vista come il processo di valutazione e registrazione delle prestazioni del personale allo scopo di esprimere giudizi sul personale che portano a decisioni.</code> |
|
256 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
257 |
+
```json
|
258 |
+
{
|
259 |
+
"loss": "MultipleNegativesRankingLoss",
|
260 |
+
"matryoshka_dims": [
|
261 |
+
1024,
|
262 |
+
768,
|
263 |
+
512,
|
264 |
+
256,
|
265 |
+
128,
|
266 |
+
64,
|
267 |
+
32
|
268 |
+
],
|
269 |
+
"matryoshka_weights": [
|
270 |
+
1,
|
271 |
+
1,
|
272 |
+
1,
|
273 |
+
1,
|
274 |
+
1,
|
275 |
+
1,
|
276 |
+
1
|
277 |
+
],
|
278 |
+
"n_dims_per_step": -1
|
279 |
+
}
|
280 |
+
```
|
281 |
+
|
282 |
+
### Evaluation Dataset
|
283 |
+
|
284 |
+
#### mmarco
|
285 |
+
|
286 |
+
* Dataset: mmarco
|
287 |
+
* Size: 39,780,811 evaluation samples
|
288 |
+
* Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
|
289 |
+
* Approximate statistics based on the first 1000 samples:
|
290 |
+
| | query | positive | negative |
|
291 |
+
|:--------|:-----------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|
|
292 |
+
| type | string | string | string |
|
293 |
+
| details | <ul><li>min: 11 characters</li><li>mean: 39.1 characters</li><li>max: 194 characters</li></ul> | <ul><li>min: 71 characters</li><li>mean: 392.09 characters</li><li>max: 1089 characters</li></ul> | <ul><li>min: 65 characters</li><li>mean: 372.69 characters</li><li>max: 1060 characters</li></ul> |
|
294 |
+
* Samples:
|
295 |
+
| query | positive | negative |
|
296 |
+
|:-------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
297 |
+
| <code>che colpa c'è in turchia?</code> | <code>Il terremoto in Turchia rivela una nuova zona di faglia attiva di Wendy Zukerman Un terremoto di magnitudo 7.2 ha colpito ieri la Turchia, uccidendo più di 200 persone e ferendone migliaia. La Turchia è uno dei paesi più terremotati al mondo. La maggior parte si trova sulla placca anatolica, una piccola placca tettonica a forma di cuneo che viene schiacciata verso ovest mentre la placca araba a est si scontra con la placca eurasiatica.</code> | <code>Leggi e regolamenti sull'assicurazione auto senza colpa della Florida. La Florida segue senza colpa quando si tratta del pagamento dei sinistri dell'assicurazione auto dopo un incidente d'auto. In uno stato senza colpa, i conducenti sono tenuti a portare un'assicurazione auto che paga la protezione contro le lesioni personali, o PIP, benefici.</code> |
|
298 |
+
| <code>significato del nome olivia</code> | <code>15 Terribili significati del nome del bambino. Olivia. La storia: Olivia è stata usata per la prima volta come nome femminile nella dodicesima notte di Shakespeare. Mentre secondo l'interpretazione latina significa semplicemente ramo d'ulivo, Olivia è anche conosciuta come una versione femminile di Oliver che significa, sì, esercito di elfi.</code> | <code>Olivia Munn ha lavorato senza sforzo sulle onde da spiaggia strutturate sul braccio di Aaron Rodgers agli ESPYs 2016 a Los Angeles mercoledì 13 luglio. Alberto E. Rodriguez/Getty. In una parola, impeccabile! Olivia Munn ha calcato il tappeto rosso agli ESPYs 2016 mercoledì 13 luglio a Los Angeles, lavorando sulle onde da spiaggia più voluminose e strutturate. Continua a leggere per i dettagli su come ricreare lo stile! Questo look è grintoso ma senza sforzo - [è] tutto basato sulla consistenza, ha detto a Us Weekly l'hairstylist delle celebrità Chris Appleton.</code> |
|
299 |
+
| <code>a cosa servono i carboidrati?</code> | <code>Scopri quali buoni carboidrati aggiungere alla tua dieta per perdere peso. Non sono mai stato un fan delle diete a basso contenuto di carboidrati: il nostro corpo e il nostro cervello hanno bisogno di carboidrati per funzionare in modo efficace. Scopri quali carboidrati buoni aggiungere alla tua dieta per perdere peso. Non sono mai stato un fan delle diete a basso contenuto di carboidrati: il nostro corpo e il nostro cervello hanno bisogno di carboidrati per funzionare in modo efficace.</code> | <code>L'elenco di carboidrati sani di seguito è la migliore fonte di carboidrati buoni. La scelta di carboidrati cattivi (anziché da questo elenco di carboidrati buoni) può minare rapidamente la tua salute e sabotare i tuoi obiettivi di gestione del peso.</code> |
|
300 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
301 |
+
```json
|
302 |
+
{
|
303 |
+
"loss": "MultipleNegativesRankingLoss",
|
304 |
+
"matryoshka_dims": [
|
305 |
+
1024,
|
306 |
+
768,
|
307 |
+
512,
|
308 |
+
256,
|
309 |
+
128,
|
310 |
+
64,
|
311 |
+
32
|
312 |
+
],
|
313 |
+
"matryoshka_weights": [
|
314 |
+
1,
|
315 |
+
1,
|
316 |
+
1,
|
317 |
+
1,
|
318 |
+
1,
|
319 |
+
1,
|
320 |
+
1
|
321 |
+
],
|
322 |
+
"n_dims_per_step": -1
|
323 |
+
}
|
324 |
+
```
|
325 |
+
|
326 |
+
### Training Hyperparameters
|
327 |
+
#### Non-Default Hyperparameters
|
328 |
+
|
329 |
+
- `eval_strategy`: steps
|
330 |
+
- `per_device_train_batch_size`: 2048
|
331 |
+
- `per_device_eval_batch_size`: 2048
|
332 |
+
- `learning_rate`: 0.2
|
333 |
+
- `num_train_epochs`: 1
|
334 |
+
- `warmup_ratio`: 0.1
|
335 |
+
- `bf16`: True
|
336 |
+
- `load_best_model_at_end`: True
|
337 |
+
- `batch_sampler`: no_duplicates
|
338 |
+
|
339 |
+
#### All Hyperparameters
|
340 |
+
<details><summary>Click to expand</summary>
|
341 |
+
|
342 |
+
- `overwrite_output_dir`: False
|
343 |
+
- `do_predict`: False
|
344 |
+
- `eval_strategy`: steps
|
345 |
+
- `prediction_loss_only`: True
|
346 |
+
- `per_device_train_batch_size`: 2048
|
347 |
+
- `per_device_eval_batch_size`: 2048
|
348 |
+
- `per_gpu_train_batch_size`: None
|
349 |
+
- `per_gpu_eval_batch_size`: None
|
350 |
+
- `gradient_accumulation_steps`: 1
|
351 |
+
- `eval_accumulation_steps`: None
|
352 |
+
- `torch_empty_cache_steps`: None
|
353 |
+
- `learning_rate`: 0.2
|
354 |
+
- `weight_decay`: 0.0
|
355 |
+
- `adam_beta1`: 0.9
|
356 |
+
- `adam_beta2`: 0.999
|
357 |
+
- `adam_epsilon`: 1e-08
|
358 |
+
- `max_grad_norm`: 1.0
|
359 |
+
- `num_train_epochs`: 1
|
360 |
+
- `max_steps`: -1
|
361 |
+
- `lr_scheduler_type`: linear
|
362 |
+
- `lr_scheduler_kwargs`: {}
|
363 |
+
- `warmup_ratio`: 0.1
|
364 |
+
- `warmup_steps`: 0
|
365 |
+
- `log_level`: passive
|
366 |
+
- `log_level_replica`: warning
|
367 |
+
- `log_on_each_node`: True
|
368 |
+
- `logging_nan_inf_filter`: True
|
369 |
+
- `save_safetensors`: True
|
370 |
+
- `save_on_each_node`: False
|
371 |
+
- `save_only_model`: False
|
372 |
+
- `restore_callback_states_from_checkpoint`: False
|
373 |
+
- `no_cuda`: False
|
374 |
+
- `use_cpu`: False
|
375 |
+
- `use_mps_device`: False
|
376 |
+
- `seed`: 42
|
377 |
+
- `data_seed`: None
|
378 |
+
- `jit_mode_eval`: False
|
379 |
+
- `use_ipex`: False
|
380 |
+
- `bf16`: True
|
381 |
+
- `fp16`: False
|
382 |
+
- `fp16_opt_level`: O1
|
383 |
+
- `half_precision_backend`: auto
|
384 |
+
- `bf16_full_eval`: False
|
385 |
+
- `fp16_full_eval`: False
|
386 |
+
- `tf32`: None
|
387 |
+
- `local_rank`: 0
|
388 |
+
- `ddp_backend`: None
|
389 |
+
- `tpu_num_cores`: None
|
390 |
+
- `tpu_metrics_debug`: False
|
391 |
+
- `debug`: []
|
392 |
+
- `dataloader_drop_last`: False
|
393 |
+
- `dataloader_num_workers`: 0
|
394 |
+
- `dataloader_prefetch_factor`: None
|
395 |
+
- `past_index`: -1
|
396 |
+
- `disable_tqdm`: False
|
397 |
+
- `remove_unused_columns`: True
|
398 |
+
- `label_names`: None
|
399 |
+
- `load_best_model_at_end`: True
|
400 |
+
- `ignore_data_skip`: False
|
401 |
+
- `fsdp`: []
|
402 |
+
- `fsdp_min_num_params`: 0
|
403 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
404 |
+
- `tp_size`: 0
|
405 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
406 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
407 |
+
- `deepspeed`: None
|
408 |
+
- `label_smoothing_factor`: 0.0
|
409 |
+
- `optim`: adamw_torch
|
410 |
+
- `optim_args`: None
|
411 |
+
- `adafactor`: False
|
412 |
+
- `group_by_length`: False
|
413 |
+
- `length_column_name`: length
|
414 |
+
- `ddp_find_unused_parameters`: None
|
415 |
+
- `ddp_bucket_cap_mb`: None
|
416 |
+
- `ddp_broadcast_buffers`: False
|
417 |
+
- `dataloader_pin_memory`: True
|
418 |
+
- `dataloader_persistent_workers`: False
|
419 |
+
- `skip_memory_metrics`: True
|
420 |
+
- `use_legacy_prediction_loop`: False
|
421 |
+
- `push_to_hub`: False
|
422 |
+
- `resume_from_checkpoint`: None
|
423 |
+
- `hub_model_id`: None
|
424 |
+
- `hub_strategy`: every_save
|
425 |
+
- `hub_private_repo`: None
|
426 |
+
- `hub_always_push`: False
|
427 |
+
- `gradient_checkpointing`: False
|
428 |
+
- `gradient_checkpointing_kwargs`: None
|
429 |
+
- `include_inputs_for_metrics`: False
|
430 |
+
- `include_for_metrics`: []
|
431 |
+
- `eval_do_concat_batches`: True
|
432 |
+
- `fp16_backend`: auto
|
433 |
+
- `push_to_hub_model_id`: None
|
434 |
+
- `push_to_hub_organization`: None
|
435 |
+
- `mp_parameters`:
|
436 |
+
- `auto_find_batch_size`: False
|
437 |
+
- `full_determinism`: False
|
438 |
+
- `torchdynamo`: None
|
439 |
+
- `ray_scope`: last
|
440 |
+
- `ddp_timeout`: 1800
|
441 |
+
- `torch_compile`: False
|
442 |
+
- `torch_compile_backend`: None
|
443 |
+
- `torch_compile_mode`: None
|
444 |
+
- `dispatch_batches`: None
|
445 |
+
- `split_batches`: None
|
446 |
+
- `include_tokens_per_second`: False
|
447 |
+
- `include_num_input_tokens_seen`: False
|
448 |
+
- `neftune_noise_alpha`: None
|
449 |
+
- `optim_target_modules`: None
|
450 |
+
- `batch_eval_metrics`: False
|
451 |
+
- `eval_on_start`: False
|
452 |
+
- `use_liger_kernel`: False
|
453 |
+
- `eval_use_gather_object`: False
|
454 |
+
- `average_tokens_across_devices`: False
|
455 |
+
- `prompts`: None
|
456 |
+
- `batch_sampler`: no_duplicates
|
457 |
+
- `multi_dataset_batch_sampler`: proportional
|
458 |
+
|
459 |
+
</details>
|
460 |
+
|
461 |
+
### Training Logs
|
462 |
+
| Epoch | Step | Training Loss | Validation Loss | mmarco_dev_cosine_accuracy | mmarco_test_cosine_accuracy |
|
463 |
+
|:------:|:----:|:-------------:|:---------------:|:--------------------------:|:---------------------------:|
|
464 |
+
| -1 | -1 | - | - | 0.7382 | - |
|
465 |
+
| 0.0007 | 1 | 42.3016 | - | - | - |
|
466 |
+
| 0.0683 | 100 | 20.914 | 8.5389 | 0.9048 | - |
|
467 |
+
| 0.1365 | 200 | 7.612 | 5.6560 | 0.9345 | - |
|
468 |
+
| 0.2048 | 300 | 5.4857 | 4.3568 | 0.9503 | - |
|
469 |
+
| 0.2730 | 400 | 4.374 | 3.5553 | 0.9593 | - |
|
470 |
+
| 0.3413 | 500 | 3.7164 | 3.0826 | 0.9664 | - |
|
471 |
+
| 0.4096 | 600 | 3.2707 | 2.7282 | 0.9719 | - |
|
472 |
+
| 0.4778 | 700 | 2.9356 | 2.5033 | 0.9742 | - |
|
473 |
+
| 0.5461 | 800 | 2.6984 | 2.3172 | 0.9781 | - |
|
474 |
+
| 0.6143 | 900 | 2.5414 | 2.1870 | 0.9797 | - |
|
475 |
+
| 0.6826 | 1000 | 2.3811 | 2.0797 | 0.9804 | - |
|
476 |
+
| 0.7509 | 1100 | 2.273 | 1.9936 | 0.9816 | - |
|
477 |
+
| -1 | -1 | - | - | - | 0.9785 |
|
478 |
+
|
479 |
+
|
480 |
+
### Framework Versions
|
481 |
+
- Python: 3.10.12
|
482 |
+
- Sentence Transformers: 3.5.0.dev0
|
483 |
+
- Transformers: 4.50.0.dev0
|
484 |
+
- PyTorch: 2.5.1+cu121
|
485 |
+
- Accelerate: 1.2.1
|
486 |
+
- Datasets: 3.3.1
|
487 |
+
- Tokenizers: 0.21.0
|
488 |
+
|
489 |
+
## Citation
|
490 |
+
|
491 |
+
### BibTeX
|
492 |
+
|
493 |
+
#### Sentence Transformers
|
494 |
+
```bibtex
|
495 |
+
@inproceedings{reimers-2019-sentence-bert,
|
496 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
497 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
498 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
499 |
+
month = "11",
|
500 |
+
year = "2019",
|
501 |
+
publisher = "Association for Computational Linguistics",
|
502 |
+
url = "https://arxiv.org/abs/1908.10084",
|
503 |
+
}
|
504 |
+
```
|
505 |
+
|
506 |
+
#### MatryoshkaLoss
|
507 |
+
```bibtex
|
508 |
+
@misc{kusupati2024matryoshka,
|
509 |
+
title={Matryoshka Representation Learning},
|
510 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
511 |
+
year={2024},
|
512 |
+
eprint={2205.13147},
|
513 |
+
archivePrefix={arXiv},
|
514 |
+
primaryClass={cs.LG}
|
515 |
+
}
|
516 |
+
```
|
517 |
+
|
518 |
+
#### MultipleNegativesRankingLoss
|
519 |
+
```bibtex
|
520 |
+
@misc{henderson2017efficient,
|
521 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
522 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
523 |
+
year={2017},
|
524 |
+
eprint={1705.00652},
|
525 |
+
archivePrefix={arXiv},
|
526 |
+
primaryClass={cs.CL}
|
527 |
+
}
|
528 |
+
```
|
529 |
+
|
530 |
+
<!--
|
531 |
+
## Glossary
|
532 |
+
|
533 |
+
*Clearly define terms in order to be accessible across audiences.*
|
534 |
+
-->
|
535 |
+
|
536 |
+
<!--
|
537 |
+
## Model Card Authors
|
538 |
+
|
539 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
540 |
+
-->
|
541 |
+
|
542 |
+
<!--
|
543 |
+
## Model Card Contact
|
544 |
+
|
545 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
546 |
+
-->
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.5.0.dev0",
|
4 |
+
"transformers": "4.50.0.dev0",
|
5 |
+
"pytorch": "2.5.1+cu121"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
modules.json
ADDED
@@ -0,0 +1,8 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "0_StaticEmbedding",
|
6 |
+
"type": "sentence_transformers.models.StaticEmbedding"
|
7 |
+
}
|
8 |
+
]
|