KobanBanan commited on
Commit
230a23e
1 Parent(s): 784ee8a

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,502 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: intfloat/multilingual-e5-large-instruct
3
+ library_name: sentence-transformers
4
+ metrics:
5
+ - cosine_accuracy
6
+ - dot_accuracy
7
+ - manhattan_accuracy
8
+ - euclidean_accuracy
9
+ - max_accuracy
10
+ pipeline_tag: sentence-similarity
11
+ tags:
12
+ - sentence-transformers
13
+ - sentence-similarity
14
+ - feature-extraction
15
+ - generated_from_trainer
16
+ - dataset_size:10190
17
+ - loss:TripletLoss
18
+ widget:
19
+ - source_sentence: безглютеновый хлеб
20
+ sentences:
21
+ - 'Instruct: Найти похожие продукты на основе деталей
22
+
23
+ Query: Баклажаны по-сычуаньски баклажаны, азиатская кухня, закуска, терияки, сладкий
24
+ соус, пряный вкус, овощное блюдо, вегетарианское, пикантное, жареное, замаринованное,
25
+ кунжут, чеснок, имбирь, рыба, рисовый уксус Жареные баклажаны, замаринованные
26
+ в терияки с рыбным соусом, рисовым уксусом, луком и имбирём. Тот самый пикантно-сладко-пряный
27
+ вкус, характерный для азиатской кухни. Идеальная закуска к рису и мясным блюдам.'
28
+ - 'Instruct: Найти похожие продукты на основе деталей
29
+
30
+ Query: Печенье протеиновое в шоколаде без доб. сахара протеин, белок, порционная
31
+ упаковка, тренировка, здоровое питание, сладости без сахара, молочный шоколад,
32
+ снек Печенье в порционной упаковке с высоким содержанием белка — более 14 г на
33
+ 100 г продукта! Изготовлено без добавления сахара. Обладает мягким вкусом с нотами
34
+ нежного молочного шоколада. Такое печенье удобно брать с собой. Например, чтобы
35
+ восполнить запас сил после хорошей тренировки.'
36
+ - 'Instruct: Найти похожие продукты на основе деталей
37
+
38
+ Query: Изделие х/б без глютена с семенами безглютеновый, хлеб, рисовая мука, семена,
39
+ клетчатка, полезный, сытный, ароматный, выпечка, гастрономия Ароматный безглютеновый
40
+ хлеб из рисовой муки и псиллиума, испечённый на дрожжах. Семена тыквы, льна и
41
+ подсолнечника придают его вкусу насыщенные маслянисто-ореховые нотки, а яблочный
42
+ порошок — ненавязчивую кислинку.
43
+
44
+ Псиллиум и пищевые волокна не только помогают хлебу сохранять упругую структуру,
45
+ но и делают его полезнее, ведь клетчатка необходима для поддержания здоровья ЖКТ.
46
+
47
+ Хлеб отлично подойдёт для приготовления сытных бутербродов, изысканных канапе,
48
+ а также подачи с основными блюдами.'
49
+ - source_sentence: арома саше
50
+ sentences:
51
+ - 'Instruct: Найти похожие продукты на основе деталей
52
+
53
+ Query: Сыр творожный Almette с зеленью 150 г None, сыр, творожный, закуски, бутерброды,
54
+ сливочный, зелень Нежный сливочный вкус сыра с зеленью для бутербродов и закусок'
55
+ - 'Instruct: Найти похожие продукты на основе деталей
56
+
57
+ Query: Арома-саше "№13 Warm Tobacco" Aroma Garmony, 10 гр аромат, саше, натуральный,
58
+ древесный, табачный, освежитель, упаковка, автомобиль, комод, шкафчик Саше с согревающим
59
+ древесно-табачным ароматом. Для освежения помещения или устранения запаха.'
60
+ - 'Instruct: Найти похожие продукты на основе деталей
61
+
62
+ Query: Творог зерненый Карат Домашний 4% 200 г творог, домашний, зерненый, натуральный,
63
+ без консервантов, без добавок, полезный завтрак, продукт из молока, умеренная
64
+ жирность, Россия Зерненый творог из натурального молока, сливок и закваски. Мягкая
65
+ текстура, без консервантов. Хранить 17 дней.'
66
+ - source_sentence: мойнез
67
+ sentences:
68
+ - 'Instruct: Найти похожие продукты на основе деталей
69
+
70
+ Query: Масло оливковое Extra Virgin, Греция, 0.5 л None, оливковое масло, нерафинированное,
71
+ холодный отжим, первичный отжим, аромат, цветочный, горчинка, золотистый, зеленоватый,
72
+ Греция, 0.5 л, None Нерафинированное масло первого холодного отжима из ранних
73
+ оливок. Богатый вкус с цветочными нотками и лёгкой горчинкой. Золотистый цвет
74
+ с зеленоватым отливом.'
75
+ - 'Instruct: Найти похожие продукты на основе деталей
76
+
77
+ Query: Соус майонезный "Сырный" сырный, соус, веганский, бутерброды, сэндвичи,
78
+ гарниры, закуски, салаты, бургер, соевое мясо, аллергены, подсластители, консервант,
79
+ пребиотик Густой соус с насыщенным сливочно-сырным вкусом, веганский'
80
+ - 'Instruct: Найти похожие продукты на основе деталей
81
+
82
+ Query: Майонез "Домашний провансаль" майонез, провансаль, натуральный состав,
83
+ домашний, без ароматизаторов, нежная консистенция, короткий срок хранения, яичный
84
+ желток, подсолнечное масло Натуральный майонез из подсолнечного масла и яиц, без
85
+ ароматизаторов и загустителей'
86
+ - source_sentence: сладкие десерты без сахара, которые можно подать на день рождения
87
+ sentences:
88
+ - 'Instruct: Найти похожие продукты на основе деталей
89
+
90
+ Query: Большая порция куриных шариков с пряным соусом "Цезарь" куриные шарики,
91
+ соус, закуски, фастфуд, горячее блюдо, сырная начинка, хрустящая корочка, пряный
92
+ соус, порция Сочные куриные шарики с хрустящей корочкой и тягучей сырной начинкой.
93
+ Приедут к вам горячими с порцией соуса "Цезарь"'
94
+ - 'Instruct: Найти похожие продукты на основе деталей
95
+
96
+ Query: Конфеты Scandic Лесные ягоды без сахара 14 г без сахара, низкий гликемический
97
+ индекс, очищение зубов, свежесть, ягодные конфеты, Россия Ягодный вкус лета в
98
+ каждой конфете. Освежает дыхание и способствует профилактике кариеса зубов. Подходят
99
+ тем, кого интересуют продукты с низким гликемическим индексом. В составе измельченные
100
+ ягоды черники и малины, не содержат сахара, дарят ощущение свежести, не портят
101
+ зубную эмаль. Произведено в России.'
102
+ - 'Instruct: Найти похожие продукты на основе деталей
103
+
104
+ Query: Творог мягкий высокобелковый 6% высокобелковый, натуральный, нежный, десерт,
105
+ мусс, пудинг, полезный, завтрак, молочный, консистенция Мягкий натуральный творог
106
+ с повышенным содержанием белка — это не только завтрак чемпионов, но и замечтальный
107
+ компаньон для хрустящих тостов, блинчиков и полезных сэндвичей. Он обладает нежной
108
+ однородной консистенцией и деликатным молочным вкусом практически без кислинки.
109
+ Такой творог можно превратить в десерт, дополнив его ягодами, орехами и мёдом,
110
+ а можно использовать для приготовления творожных муссов и пудингов.'
111
+ - source_sentence: сладости без сахара и глютена подойдут для летнего пикника
112
+ sentences:
113
+ - 'Instruct: Найти похожие продукты на основе деталей
114
+
115
+ Query: Сорбет "Манго- Маракуйя" без доб. сахара сладость, десерт, веганский, без
116
+ сахара, низкокалорийный, охлаждающий, тропические фрукты, натуральный, диетический,
117
+ сахарозаменитель, фруктовый, без добавок, здоровье Охлаждающий десерт с сочными
118
+ тропическими фруктами — это возможность почувствовать вкус лета даже в холодное
119
+ время года.
120
+
121
+ В основе сорбета — натуральное пюре из манго и маракуйи, никаких ароматизаторов
122
+ и красителей в составе нет. Как нет и сахара — вместо него добавлен подсластитель
123
+ мальтит.
124
+
125
+ Лакомство подойдёт веганам, постящимся, тем, кто считает калории, и всем ценителям
126
+ полезных сладостей.'
127
+ - 'Instruct: Найти похожие продукты на основе деталей
128
+
129
+ Query: Чипсы картофельные Pringles Сметана и Лук 165 г чипсы, закуска, пряности,
130
+ вкус, герметичная упаковка, удобство, классика, детство Ничем не повторимый, знакомый
131
+ с детства вкус.'
132
+ - 'Instruct: Найти похожие продукты на основе деталей
133
+
134
+ Query: Филе камбалы с пряными травами и чесноком камбала, морепродукты, филе,
135
+ пряные травы, чеснок, розмарин, тимьян'
136
+ model-index:
137
+ - name: SentenceTransformer based on intfloat/multilingual-e5-large-instruct
138
+ results:
139
+ - task:
140
+ type: triplet
141
+ name: Triplet
142
+ dataset:
143
+ name: dev
144
+ type: dev
145
+ metrics:
146
+ - type: cosine_accuracy
147
+ value: 0.9205648720211828
148
+ name: Cosine Accuracy
149
+ - type: dot_accuracy
150
+ value: 0.0794351279788173
151
+ name: Dot Accuracy
152
+ - type: manhattan_accuracy
153
+ value: 0.9205648720211828
154
+ name: Manhattan Accuracy
155
+ - type: euclidean_accuracy
156
+ value: 0.9205648720211828
157
+ name: Euclidean Accuracy
158
+ - type: max_accuracy
159
+ value: 0.9205648720211828
160
+ name: Max Accuracy
161
+ ---
162
+
163
+ # SentenceTransformer based on intfloat/multilingual-e5-large-instruct
164
+
165
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
166
+
167
+ ## Model Details
168
+
169
+ ### Model Description
170
+ - **Model Type:** Sentence Transformer
171
+ - **Base model:** [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct) <!-- at revision c9e87c786ffac96aeaeb42863276930883923ecb -->
172
+ - **Maximum Sequence Length:** 512 tokens
173
+ - **Output Dimensionality:** 1024 tokens
174
+ - **Similarity Function:** Cosine Similarity
175
+ <!-- - **Training Dataset:** Unknown -->
176
+ <!-- - **Language:** Unknown -->
177
+ <!-- - **License:** Unknown -->
178
+
179
+ ### Model Sources
180
+
181
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
182
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
183
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
184
+
185
+ ### Full Model Architecture
186
+
187
+ ```
188
+ SentenceTransformer(
189
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
190
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
191
+ (2): Normalize()
192
+ )
193
+ ```
194
+
195
+ ## Usage
196
+
197
+ ### Direct Usage (Sentence Transformers)
198
+
199
+ First install the Sentence Transformers library:
200
+
201
+ ```bash
202
+ pip install -U sentence-transformers
203
+ ```
204
+
205
+ Then you can load this model and run inference.
206
+ ```python
207
+ from sentence_transformers import SentenceTransformer
208
+
209
+ # Download from the 🤗 Hub
210
+ model = SentenceTransformer("Data-Lab/multilingual-e5-large-instruct-embedder-tgd")
211
+ # Run inference
212
+ sentences = [
213
+ 'сладости без сахара и глютена подойдут для летнего пикника',
214
+ 'Instruct: Найти похожие продукты на основе деталей\nQuery: Сорбет "Манго- Маракуйя" без доб. сахара сладость, десерт, веганский, без сахара, низкокалорийный, охлаждающий, тропические фрукты, натуральный, диетический, сахарозаменитель, фруктовый, без добавок, здоровье Охлаждающий десерт с сочными тропическими фруктами — это возможность почувствовать вкус лета даже в холодное время года.\nВ основе сорбета — натуральное пюре из манго и маракуйи, никаких ароматизаторов и красителей в составе нет. Как нет и сахара — вместо него добавлен подсластитель мальтит.\nЛакомство подойдёт веганам, постящимся, тем, кто считает калории, и всем ценителям полезных сладостей.',
215
+ 'Instruct: Найти похожие продукты на основе деталей\nQuery: Филе камбалы с пряными травами и чесноком камбала, морепродукты, филе, пряные травы, чеснок, розмарин, тимьян',
216
+ ]
217
+ embeddings = model.encode(sentences)
218
+ print(embeddings.shape)
219
+ # [3, 1024]
220
+
221
+ # Get the similarity scores for the embeddings
222
+ similarities = model.similarity(embeddings, embeddings)
223
+ print(similarities.shape)
224
+ # [3, 3]
225
+ ```
226
+
227
+ <!--
228
+ ### Direct Usage (Transformers)
229
+
230
+ <details><summary>Click to see the direct usage in Transformers</summary>
231
+
232
+ </details>
233
+ -->
234
+
235
+ <!--
236
+ ### Downstream Usage (Sentence Transformers)
237
+
238
+ You can finetune this model on your own dataset.
239
+
240
+ <details><summary>Click to expand</summary>
241
+
242
+ </details>
243
+ -->
244
+
245
+ <!--
246
+ ### Out-of-Scope Use
247
+
248
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
249
+ -->
250
+
251
+ ## Evaluation
252
+
253
+ ### Metrics
254
+
255
+ #### Triplet
256
+ * Dataset: `dev`
257
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
258
+
259
+ | Metric | Value |
260
+ |:-------------------|:-----------|
261
+ | cosine_accuracy | 0.9206 |
262
+ | dot_accuracy | 0.0794 |
263
+ | manhattan_accuracy | 0.9206 |
264
+ | euclidean_accuracy | 0.9206 |
265
+ | **max_accuracy** | **0.9206** |
266
+
267
+ <!--
268
+ ## Bias, Risks and Limitations
269
+
270
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
271
+ -->
272
+
273
+ <!--
274
+ ### Recommendations
275
+
276
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
277
+ -->
278
+
279
+ ## Training Details
280
+
281
+ ### Training Dataset
282
+
283
+ #### Unnamed Dataset
284
+
285
+
286
+ * Size: 10,190 training samples
287
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>sentence_2</code>
288
+ * Approximate statistics based on the first 1000 samples:
289
+ | | sentence_0 | sentence_1 | sentence_2 |
290
+ |:--------|:---------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
291
+ | type | string | string | string |
292
+ | details | <ul><li>min: 3 tokens</li><li>mean: 7.77 tokens</li><li>max: 30 tokens</li></ul> | <ul><li>min: 35 tokens</li><li>mean: 115.09 tokens</li><li>max: 431 tokens</li></ul> | <ul><li>min: 41 tokens</li><li>mean: 120.37 tokens</li><li>max: 512 tokens</li></ul> |
293
+ * Samples:
294
+ | sentence_0 | sentence_1 | sentence_2 |
295
+ |:-------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
296
+ | <code>хурма</code> | <code>Instruct: Найти похожие продукты на основе деталей<br>Query: Чипсы из хурмы, 25 г чипсы, натуральные, фрукты, перекус, сладкий вкус, десерт Натуральные чипсы из хурмы, без сахара. Мягкие, медово-фруктовые</code> | <code>Instruct: Найти похожие продукты на основе деталей<br>Query: Салат мимоза, 300 г салат, праздничный стол, обед, горбуша, отварные овощи, куриные желтки, классический рецепт, нежный вкус, закуска Классический салат мимоза с горбушей, отварными овощами и куриными желтками.</code> |
297
+ | <code>жареное мясо</code> | <code>Instruct: Найти похожие продукты на основе деталей<br>Query: Жареная говядина с черным перцем жареное мясо, приготовление, специи, соусы, овощи</code> | <code>Instruct: Найти похожие продукты на основе деталей<br>Query: Каша рисовая на безлактозном молоке безлактозное молоко, рисовая каша, завтрак на ходу, низкое содержание жира, альтернативное молоко, легкая сладость, удобная упаковка, подходящий для аллергиков Питательный завтрак для тех, кто не переносит лактозу. Нежная, в меру густая, без лишней сладости, эта каша приготовлена на безлактозном маложирном молоке. И упакована в компактный стаканчик — его удобно захватить с собой, если не успеваете позавтракать дома.</code> |
298
+ | <code>бедро цыпленка бройлера</code> | <code>Instruct: Найти похожие продукты на основе деталей<br>Query: Бедро цыплят-бройлеров Халяль 1 кг None, цыпленок, мясо, бройлер, халяль, бедро, маринование, тушение, запекание, None Сочное бедро цыпленка, подходит для маринования, тушения и запекания</code> | <code>Instruct: Найти похожие продукты на основе деталей<br>Query: Мясо бедра (Филе бедра) индейки в маринаде "Чесночный" 1 кг None, мясо, индейка, филе, маринад, чеснок, диетическое, нежирное, острое, травы, 1 кг, None Диетическое, нежирное филе бедра индейки с деликатным вкусом и ароматом. В меру подсолено и приправлено острым чесночком и травами.</code> |
299
+ * Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
300
+ ```json
301
+ {
302
+ "distance_metric": "TripletDistanceMetric.COSINE",
303
+ "triplet_margin": 0.5
304
+ }
305
+ ```
306
+
307
+ ### Training Hyperparameters
308
+ #### Non-Default Hyperparameters
309
+
310
+ - `eval_strategy`: steps
311
+ - `per_device_train_batch_size`: 4
312
+ - `per_device_eval_batch_size`: 4
313
+ - `fp16`: True
314
+ - `multi_dataset_batch_sampler`: round_robin
315
+
316
+ #### All Hyperparameters
317
+ <details><summary>Click to expand</summary>
318
+
319
+ - `overwrite_output_dir`: False
320
+ - `do_predict`: False
321
+ - `eval_strategy`: steps
322
+ - `prediction_loss_only`: True
323
+ - `per_device_train_batch_size`: 4
324
+ - `per_device_eval_batch_size`: 4
325
+ - `per_gpu_train_batch_size`: None
326
+ - `per_gpu_eval_batch_size`: None
327
+ - `gradient_accumulation_steps`: 1
328
+ - `eval_accumulation_steps`: None
329
+ - `torch_empty_cache_steps`: None
330
+ - `learning_rate`: 5e-05
331
+ - `weight_decay`: 0.0
332
+ - `adam_beta1`: 0.9
333
+ - `adam_beta2`: 0.999
334
+ - `adam_epsilon`: 1e-08
335
+ - `max_grad_norm`: 1
336
+ - `num_train_epochs`: 3
337
+ - `max_steps`: -1
338
+ - `lr_scheduler_type`: linear
339
+ - `lr_scheduler_kwargs`: {}
340
+ - `warmup_ratio`: 0.0
341
+ - `warmup_steps`: 0
342
+ - `log_level`: passive
343
+ - `log_level_replica`: warning
344
+ - `log_on_each_node`: True
345
+ - `logging_nan_inf_filter`: True
346
+ - `save_safetensors`: True
347
+ - `save_on_each_node`: False
348
+ - `save_only_model`: False
349
+ - `restore_callback_states_from_checkpoint`: False
350
+ - `no_cuda`: False
351
+ - `use_cpu`: False
352
+ - `use_mps_device`: False
353
+ - `seed`: 42
354
+ - `data_seed`: None
355
+ - `jit_mode_eval`: False
356
+ - `use_ipex`: False
357
+ - `bf16`: False
358
+ - `fp16`: True
359
+ - `fp16_opt_level`: O1
360
+ - `half_precision_backend`: auto
361
+ - `bf16_full_eval`: False
362
+ - `fp16_full_eval`: False
363
+ - `tf32`: None
364
+ - `local_rank`: 0
365
+ - `ddp_backend`: None
366
+ - `tpu_num_cores`: None
367
+ - `tpu_metrics_debug`: False
368
+ - `debug`: []
369
+ - `dataloader_drop_last`: True
370
+ - `dataloader_num_workers`: 0
371
+ - `dataloader_prefetch_factor`: None
372
+ - `past_index`: -1
373
+ - `disable_tqdm`: False
374
+ - `remove_unused_columns`: True
375
+ - `label_names`: None
376
+ - `load_best_model_at_end`: False
377
+ - `ignore_data_skip`: False
378
+ - `fsdp`: []
379
+ - `fsdp_min_num_params`: 0
380
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
381
+ - `fsdp_transformer_layer_cls_to_wrap`: None
382
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
383
+ - `deepspeed`: None
384
+ - `label_smoothing_factor`: 0.0
385
+ - `optim`: adamw_torch
386
+ - `optim_args`: None
387
+ - `adafactor`: False
388
+ - `group_by_length`: False
389
+ - `length_column_name`: length
390
+ - `ddp_find_unused_parameters`: None
391
+ - `ddp_bucket_cap_mb`: None
392
+ - `ddp_broadcast_buffers`: False
393
+ - `dataloader_pin_memory`: True
394
+ - `dataloader_persistent_workers`: False
395
+ - `skip_memory_metrics`: True
396
+ - `use_legacy_prediction_loop`: False
397
+ - `push_to_hub`: False
398
+ - `resume_from_checkpoint`: None
399
+ - `hub_model_id`: None
400
+ - `hub_strategy`: every_save
401
+ - `hub_private_repo`: False
402
+ - `hub_always_push`: False
403
+ - `gradient_checkpointing`: False
404
+ - `gradient_checkpointing_kwargs`: None
405
+ - `include_inputs_for_metrics`: False
406
+ - `eval_do_concat_batches`: True
407
+ - `fp16_backend`: auto
408
+ - `push_to_hub_model_id`: None
409
+ - `push_to_hub_organization`: None
410
+ - `mp_parameters`:
411
+ - `auto_find_batch_size`: False
412
+ - `full_determinism`: False
413
+ - `torchdynamo`: None
414
+ - `ray_scope`: last
415
+ - `ddp_timeout`: 1800
416
+ - `torch_compile`: False
417
+ - `torch_compile_backend`: None
418
+ - `torch_compile_mode`: None
419
+ - `dispatch_batches`: None
420
+ - `split_batches`: None
421
+ - `include_tokens_per_second`: False
422
+ - `include_num_input_tokens_seen`: False
423
+ - `neftune_noise_alpha`: None
424
+ - `optim_target_modules`: None
425
+ - `batch_eval_metrics`: False
426
+ - `eval_on_start`: False
427
+ - `eval_use_gather_object`: False
428
+ - `batch_sampler`: batch_sampler
429
+ - `multi_dataset_batch_sampler`: round_robin
430
+
431
+ </details>
432
+
433
+ ### Training Logs
434
+ | Epoch | Step | Training Loss | dev_max_accuracy |
435
+ |:------:|:----:|:-------------:|:----------------:|
436
+ | 0.3928 | 500 | 0.2635 | - |
437
+ | 0.7855 | 1000 | 0.1741 | 0.9144 |
438
+ | 1.0 | 1273 | - | 0.9162 |
439
+ | 1.1783 | 1500 | 0.151 | - |
440
+ | 1.5711 | 2000 | 0.1335 | 0.9250 |
441
+ | 1.9639 | 2500 | 0.0977 | - |
442
+ | 2.0 | 2546 | - | 0.9162 |
443
+ | 2.3566 | 3000 | 0.0916 | 0.9276 |
444
+ | 2.7494 | 3500 | 0.0722 | - |
445
+ | 3.0 | 3819 | - | 0.9206 |
446
+
447
+
448
+ ### Framework Versions
449
+ - Python: 3.10.12
450
+ - Sentence Transformers: 3.2.0
451
+ - Transformers: 4.44.0
452
+ - PyTorch: 2.3.1+cu121
453
+ - Accelerate: 0.31.0
454
+ - Datasets: 2.20.0
455
+ - Tokenizers: 0.19.1
456
+
457
+ ## Citation
458
+
459
+ ### BibTeX
460
+
461
+ #### Sentence Transformers
462
+ ```bibtex
463
+ @inproceedings{reimers-2019-sentence-bert,
464
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
465
+ author = "Reimers, Nils and Gurevych, Iryna",
466
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
467
+ month = "11",
468
+ year = "2019",
469
+ publisher = "Association for Computational Linguistics",
470
+ url = "https://arxiv.org/abs/1908.10084",
471
+ }
472
+ ```
473
+
474
+ #### TripletLoss
475
+ ```bibtex
476
+ @misc{hermans2017defense,
477
+ title={In Defense of the Triplet Loss for Person Re-Identification},
478
+ author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
479
+ year={2017},
480
+ eprint={1703.07737},
481
+ archivePrefix={arXiv},
482
+ primaryClass={cs.CV}
483
+ }
484
+ ```
485
+
486
+ <!--
487
+ ## Glossary
488
+
489
+ *Clearly define terms in order to be accessible across audiences.*
490
+ -->
491
+
492
+ <!--
493
+ ## Model Card Authors
494
+
495
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
496
+ -->
497
+
498
+ <!--
499
+ ## Model Card Contact
500
+
501
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
502
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "intfloat/multilingual-e5-large-instruct",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.44.0",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.2.0",
4
+ "transformers": "4.44.0",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:eace27ea7d689cbcf1a2572166841e93ec93e4a0fcb653257b2af87f35f98517
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "additional_special_tokens": [],
45
+ "bos_token": "<s>",
46
+ "clean_up_tokenization_spaces": true,
47
+ "cls_token": "<s>",
48
+ "eos_token": "</s>",
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 512,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "XLMRobertaTokenizer",
54
+ "unk_token": "<unk>"
55
+ }