ictumuk commited on
Commit
62c2258
1 Parent(s): b1a0d33

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,890 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ license: apache-2.0
5
+ library_name: sentence-transformers
6
+ tags:
7
+ - sentence-transformers
8
+ - sentence-similarity
9
+ - feature-extraction
10
+ - generated_from_trainer
11
+ - dataset_size:2720
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: bkai-foundation-models/vietnamese-bi-encoder
15
+ datasets: []
16
+ metrics:
17
+ - cosine_accuracy@1
18
+ - cosine_accuracy@3
19
+ - cosine_accuracy@5
20
+ - cosine_accuracy@10
21
+ - cosine_precision@1
22
+ - cosine_precision@3
23
+ - cosine_precision@5
24
+ - cosine_precision@10
25
+ - cosine_recall@1
26
+ - cosine_recall@3
27
+ - cosine_recall@5
28
+ - cosine_recall@10
29
+ - cosine_ndcg@10
30
+ - cosine_mrr@10
31
+ - cosine_map@100
32
+ widget:
33
+ - source_sentence: '"Các nhà thầu đạt giải thưởng về chất lượng công trình xây dựng
34
+ quy định tại khoản 1 Điều này được xem xét ưu tiên khi tham gia đấu thầu trong
35
+ hoạt động xây dựng theo quy định của pháp luật về đấu thầu."'
36
+ sentences:
37
+ - Các nhà thầu đạt giải thưởng về chất lượng công trình xây dựng có được ưu tiên
38
+ khi tham gia đấu thầu không?
39
+ - Bộ Công Thương có trách nhiệm gì trong hoạt động kinh doanh vận tải bằng xe ô
40
+ tô?
41
+ - Mức phạt khi không thực hiện các biện pháp bảo đảm an toàn, an ninh trong cung
42
+ ứng dịch vụ bưu chính được quy định như thế nào?
43
+ - source_sentence: Bản sao điện tử được cấp từ sổ gốc có giá trị sử dụng thay cho
44
+ bản chính trong các giao dịch, trừ trường hợp pháp luật có quy định khác.
45
+ sentences:
46
+ - Nội dung về quản lý trật tự xây dựng được quy định như thế nào?
47
+ - Bản sao điện tử được cấp từ sổ gốc có giá trị sử dụng thay cho bản chính không?
48
+ - Cơ sở dữ liệu về vụ việc, vướng mắc pháp lý dùng để tư vấn cho DN nhỏ và vừa bao
49
+ gồm những gì?
50
+ - source_sentence: Loài cây sinh trưởng chậm là những loài cây đạt lượng tăng trưởng
51
+ đường kính bình quân hàng năm dưới 02 cm/năm hoặc năng suất bình quân trong một
52
+ chu kỳ kinh doanh dưới 10 m3/ha/năm.
53
+ sentences:
54
+ - Quy định việc thực hiện báo cáo dữ liệu trên Hệ thống cơ sở dữ liệu ngành về các
55
+ cơ sở giáo dục được quy định như thế nào?
56
+ - Thế nào là loài cây sinh trưởng chậm?
57
+ - Hàng hóa thuộc doanh mục cấm kinh doanh có được quá cảnh tại Việt Nam không?
58
+ - source_sentence: 'Chính phủ có nhiệm vụ, quyền hạn sau đây: a) Thống nhất quản lý
59
+ nhà nước về đầu tư theo phương thức PPP; b) Ban hành theo thẩm quyền hoặc trình
60
+ cấp có thẩm quyền ban hành văn bản quy phạm pháp luật về đầu tư theo phương thức
61
+ PPP; c) Tổ chức kiểm tra, thanh tra việc thực hiện đầu tư theo phương thức PPP.'
62
+ sentences:
63
+ - Chính phủ có nhiệm vụ, quyền hạn thế nào trong đầu tư theo phương thức PPP?
64
+ - Để được cấp Giấy chứng nhận khả năng chuyên môn cho công dân Việt Nam đã có Giấy
65
+ chứng nhận ở nước ngoài phải đáp ứng điều kiện nào?
66
+ - Hội đồng thành viên có phải cơ quan quyết định cao nhất của công ty TNHH hai thành
67
+ viên?
68
+ - source_sentence: Đối với các danh hiệu thi đua, hình thức khen thưởng cấp nhà nước,
69
+ khi nhận được quyết định khen thưởng, thủ trưởng các đơn vị lập kế hoạch tổ chức
70
+ đón nhận, trình Lãnh đạo Bộ cho ý kiến chỉ đạo thực hiện. Khi có ý kiến của Lãnh
71
+ đạo Bộ phối hợp với Thường trực Hội đồng Bộ tổ chức công bố, trao tặng. Lễ trao
72
+ tặng cần trang trọng, nên kết hợp với dịp Hội nghị tổng kết công tác, kỷ niệm
73
+ ngày thành lập đơn vị hoặc lồng ghép với các nội dung khác để tiết kiệm thời gian
74
+ và chi phí.
75
+ sentences:
76
+ - Xử phạt bao nhiêu nếu nhân viên phục vụ xe du lịch không hỗ trợ, giúp đỡ hành
77
+ khách là người khuyết tật?
78
+ - Tổ chức trao tặng danh hiệu thi đua ngành lao động thương binh và xã hội được
79
+ quy định như thế nào?
80
+ - Thẩm quyền cấp Giấy chứng nhận cơ sở đủ điều kiện sản xuất thức ăn thủy sản được
81
+ quy định như thế nào?
82
+ pipeline_tag: sentence-similarity
83
+ model-index:
84
+ - name: Legal vietnamese-bi-encoder
85
+ results:
86
+ - task:
87
+ type: information-retrieval
88
+ name: Information Retrieval
89
+ dataset:
90
+ name: dim 768
91
+ type: dim_768
92
+ metrics:
93
+ - type: cosine_accuracy@1
94
+ value: 0.693069306930693
95
+ name: Cosine Accuracy@1
96
+ - type: cosine_accuracy@3
97
+ value: 0.8283828382838284
98
+ name: Cosine Accuracy@3
99
+ - type: cosine_accuracy@5
100
+ value: 0.8415841584158416
101
+ name: Cosine Accuracy@5
102
+ - type: cosine_accuracy@10
103
+ value: 0.8745874587458746
104
+ name: Cosine Accuracy@10
105
+ - type: cosine_precision@1
106
+ value: 0.693069306930693
107
+ name: Cosine Precision@1
108
+ - type: cosine_precision@3
109
+ value: 0.2761276127612761
110
+ name: Cosine Precision@3
111
+ - type: cosine_precision@5
112
+ value: 0.1683168316831683
113
+ name: Cosine Precision@5
114
+ - type: cosine_precision@10
115
+ value: 0.08745874587458745
116
+ name: Cosine Precision@10
117
+ - type: cosine_recall@1
118
+ value: 0.693069306930693
119
+ name: Cosine Recall@1
120
+ - type: cosine_recall@3
121
+ value: 0.8283828382838284
122
+ name: Cosine Recall@3
123
+ - type: cosine_recall@5
124
+ value: 0.8415841584158416
125
+ name: Cosine Recall@5
126
+ - type: cosine_recall@10
127
+ value: 0.8745874587458746
128
+ name: Cosine Recall@10
129
+ - type: cosine_ndcg@10
130
+ value: 0.7873681442707228
131
+ name: Cosine Ndcg@10
132
+ - type: cosine_mrr@10
133
+ value: 0.7590510241500343
134
+ name: Cosine Mrr@10
135
+ - type: cosine_map@100
136
+ value: 0.7617456503808884
137
+ name: Cosine Map@100
138
+ - task:
139
+ type: information-retrieval
140
+ name: Information Retrieval
141
+ dataset:
142
+ name: dim 512
143
+ type: dim_512
144
+ metrics:
145
+ - type: cosine_accuracy@1
146
+ value: 0.6765676567656765
147
+ name: Cosine Accuracy@1
148
+ - type: cosine_accuracy@3
149
+ value: 0.8151815181518152
150
+ name: Cosine Accuracy@3
151
+ - type: cosine_accuracy@5
152
+ value: 0.8382838283828383
153
+ name: Cosine Accuracy@5
154
+ - type: cosine_accuracy@10
155
+ value: 0.8745874587458746
156
+ name: Cosine Accuracy@10
157
+ - type: cosine_precision@1
158
+ value: 0.6765676567656765
159
+ name: Cosine Precision@1
160
+ - type: cosine_precision@3
161
+ value: 0.27172717271727165
162
+ name: Cosine Precision@3
163
+ - type: cosine_precision@5
164
+ value: 0.16765676567656762
165
+ name: Cosine Precision@5
166
+ - type: cosine_precision@10
167
+ value: 0.08745874587458745
168
+ name: Cosine Precision@10
169
+ - type: cosine_recall@1
170
+ value: 0.6765676567656765
171
+ name: Cosine Recall@1
172
+ - type: cosine_recall@3
173
+ value: 0.8151815181518152
174
+ name: Cosine Recall@3
175
+ - type: cosine_recall@5
176
+ value: 0.8382838283828383
177
+ name: Cosine Recall@5
178
+ - type: cosine_recall@10
179
+ value: 0.8745874587458746
180
+ name: Cosine Recall@10
181
+ - type: cosine_ndcg@10
182
+ value: 0.7807787818918538
183
+ name: Cosine Ndcg@10
184
+ - type: cosine_mrr@10
185
+ value: 0.7501322751322752
186
+ name: Cosine Mrr@10
187
+ - type: cosine_map@100
188
+ value: 0.7530162925745885
189
+ name: Cosine Map@100
190
+ - task:
191
+ type: information-retrieval
192
+ name: Information Retrieval
193
+ dataset:
194
+ name: dim 256
195
+ type: dim_256
196
+ metrics:
197
+ - type: cosine_accuracy@1
198
+ value: 0.6633663366336634
199
+ name: Cosine Accuracy@1
200
+ - type: cosine_accuracy@3
201
+ value: 0.8217821782178217
202
+ name: Cosine Accuracy@3
203
+ - type: cosine_accuracy@5
204
+ value: 0.8382838283828383
205
+ name: Cosine Accuracy@5
206
+ - type: cosine_accuracy@10
207
+ value: 0.8745874587458746
208
+ name: Cosine Accuracy@10
209
+ - type: cosine_precision@1
210
+ value: 0.6633663366336634
211
+ name: Cosine Precision@1
212
+ - type: cosine_precision@3
213
+ value: 0.2739273927392739
214
+ name: Cosine Precision@3
215
+ - type: cosine_precision@5
216
+ value: 0.16765676567656762
217
+ name: Cosine Precision@5
218
+ - type: cosine_precision@10
219
+ value: 0.08745874587458745
220
+ name: Cosine Precision@10
221
+ - type: cosine_recall@1
222
+ value: 0.6633663366336634
223
+ name: Cosine Recall@1
224
+ - type: cosine_recall@3
225
+ value: 0.8217821782178217
226
+ name: Cosine Recall@3
227
+ - type: cosine_recall@5
228
+ value: 0.8382838283828383
229
+ name: Cosine Recall@5
230
+ - type: cosine_recall@10
231
+ value: 0.8745874587458746
232
+ name: Cosine Recall@10
233
+ - type: cosine_ndcg@10
234
+ value: 0.7736765054421313
235
+ name: Cosine Ndcg@10
236
+ - type: cosine_mrr@10
237
+ value: 0.7406804966210907
238
+ name: Cosine Mrr@10
239
+ - type: cosine_map@100
240
+ value: 0.7436021604070286
241
+ name: Cosine Map@100
242
+ - task:
243
+ type: information-retrieval
244
+ name: Information Retrieval
245
+ dataset:
246
+ name: dim 128
247
+ type: dim_128
248
+ metrics:
249
+ - type: cosine_accuracy@1
250
+ value: 0.6237623762376238
251
+ name: Cosine Accuracy@1
252
+ - type: cosine_accuracy@3
253
+ value: 0.7920792079207921
254
+ name: Cosine Accuracy@3
255
+ - type: cosine_accuracy@5
256
+ value: 0.8118811881188119
257
+ name: Cosine Accuracy@5
258
+ - type: cosine_accuracy@10
259
+ value: 0.8679867986798679
260
+ name: Cosine Accuracy@10
261
+ - type: cosine_precision@1
262
+ value: 0.6237623762376238
263
+ name: Cosine Precision@1
264
+ - type: cosine_precision@3
265
+ value: 0.264026402640264
266
+ name: Cosine Precision@3
267
+ - type: cosine_precision@5
268
+ value: 0.16237623762376235
269
+ name: Cosine Precision@5
270
+ - type: cosine_precision@10
271
+ value: 0.08679867986798678
272
+ name: Cosine Precision@10
273
+ - type: cosine_recall@1
274
+ value: 0.6237623762376238
275
+ name: Cosine Recall@1
276
+ - type: cosine_recall@3
277
+ value: 0.7920792079207921
278
+ name: Cosine Recall@3
279
+ - type: cosine_recall@5
280
+ value: 0.8118811881188119
281
+ name: Cosine Recall@5
282
+ - type: cosine_recall@10
283
+ value: 0.8679867986798679
284
+ name: Cosine Recall@10
285
+ - type: cosine_ndcg@10
286
+ value: 0.7505326804622336
287
+ name: Cosine Ndcg@10
288
+ - type: cosine_mrr@10
289
+ value: 0.7124613651841374
290
+ name: Cosine Mrr@10
291
+ - type: cosine_map@100
292
+ value: 0.7157968822778131
293
+ name: Cosine Map@100
294
+ - task:
295
+ type: information-retrieval
296
+ name: Information Retrieval
297
+ dataset:
298
+ name: dim 64
299
+ type: dim_64
300
+ metrics:
301
+ - type: cosine_accuracy@1
302
+ value: 0.6204620462046204
303
+ name: Cosine Accuracy@1
304
+ - type: cosine_accuracy@3
305
+ value: 0.7425742574257426
306
+ name: Cosine Accuracy@3
307
+ - type: cosine_accuracy@5
308
+ value: 0.7920792079207921
309
+ name: Cosine Accuracy@5
310
+ - type: cosine_accuracy@10
311
+ value: 0.8382838283828383
312
+ name: Cosine Accuracy@10
313
+ - type: cosine_precision@1
314
+ value: 0.6204620462046204
315
+ name: Cosine Precision@1
316
+ - type: cosine_precision@3
317
+ value: 0.24752475247524747
318
+ name: Cosine Precision@3
319
+ - type: cosine_precision@5
320
+ value: 0.15841584158415842
321
+ name: Cosine Precision@5
322
+ - type: cosine_precision@10
323
+ value: 0.08382838283828381
324
+ name: Cosine Precision@10
325
+ - type: cosine_recall@1
326
+ value: 0.6204620462046204
327
+ name: Cosine Recall@1
328
+ - type: cosine_recall@3
329
+ value: 0.7425742574257426
330
+ name: Cosine Recall@3
331
+ - type: cosine_recall@5
332
+ value: 0.7920792079207921
333
+ name: Cosine Recall@5
334
+ - type: cosine_recall@10
335
+ value: 0.8382838283828383
336
+ name: Cosine Recall@10
337
+ - type: cosine_ndcg@10
338
+ value: 0.7262125815869204
339
+ name: Cosine Ndcg@10
340
+ - type: cosine_mrr@10
341
+ value: 0.6904905966787156
342
+ name: Cosine Mrr@10
343
+ - type: cosine_map@100
344
+ value: 0.6945163770726217
345
+ name: Cosine Map@100
346
+ ---
347
+
348
+ # Legal vietnamese-bi-encoder
349
+
350
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
351
+
352
+ ## Model Details
353
+
354
+ ### Model Description
355
+ - **Model Type:** Sentence Transformer
356
+ - **Base model:** [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) <!-- at revision 84f9d9ada0d1a3c37557398b9ae9fcedcdf40be0 -->
357
+ - **Maximum Sequence Length:** 256 tokens
358
+ - **Output Dimensionality:** 768 tokens
359
+ - **Similarity Function:** Cosine Similarity
360
+ <!-- - **Training Dataset:** Unknown -->
361
+ - **Language:** en
362
+ - **License:** apache-2.0
363
+
364
+ ### Model Sources
365
+
366
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
367
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
368
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
369
+
370
+ ### Full Model Architecture
371
+
372
+ ```
373
+ SentenceTransformer(
374
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
375
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
376
+ )
377
+ ```
378
+
379
+ ## Usage
380
+
381
+ ### Direct Usage (Sentence Transformers)
382
+
383
+ First install the Sentence Transformers library:
384
+
385
+ ```bash
386
+ pip install -U sentence-transformers
387
+ ```
388
+
389
+ Then you can load this model and run inference.
390
+ ```python
391
+ from sentence_transformers import SentenceTransformer
392
+
393
+ # Download from the 🤗 Hub
394
+ model = SentenceTransformer("ictumuk/legal-vietnamese-bi-encoder")
395
+ # Run inference
396
+ sentences = [
397
+ 'Đối với các danh hiệu thi đua, hình thức khen thưởng cấp nhà nước, khi nhận được quyết định khen thưởng, thủ trưởng các đơn vị lập kế hoạch tổ chức đón nhận, trình Lãnh đạo Bộ cho ý kiến chỉ đạo thực hiện. Khi có ý kiến của Lãnh đạo Bộ phối hợp với Thường trực Hội đồng Bộ tổ chức công bố, trao tặng. Lễ trao tặng cần trang trọng, nên kết hợp với dịp Hội nghị tổng kết công tác, kỷ niệm ngày thành lập đơn vị hoặc lồng ghép với các nội dung khác để tiết kiệm thời gian và chi phí.',
398
+ 'Tổ chức trao tặng danh hiệu thi đua ngành lao động thương binh và xã hội được quy định như thế nào?',
399
+ 'Xử phạt bao nhiêu nếu nhân viên phục vụ xe du lịch không hỗ trợ, giúp đỡ hành khách là người khuyết tật?',
400
+ ]
401
+ embeddings = model.encode(sentences)
402
+ print(embeddings.shape)
403
+ # [3, 768]
404
+
405
+ # Get the similarity scores for the embeddings
406
+ similarities = model.similarity(embeddings, embeddings)
407
+ print(similarities.shape)
408
+ # [3, 3]
409
+ ```
410
+
411
+ <!--
412
+ ### Direct Usage (Transformers)
413
+
414
+ <details><summary>Click to see the direct usage in Transformers</summary>
415
+
416
+ </details>
417
+ -->
418
+
419
+ <!--
420
+ ### Downstream Usage (Sentence Transformers)
421
+
422
+ You can finetune this model on your own dataset.
423
+
424
+ <details><summary>Click to expand</summary>
425
+
426
+ </details>
427
+ -->
428
+
429
+ <!--
430
+ ### Out-of-Scope Use
431
+
432
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
433
+ -->
434
+
435
+ ## Evaluation
436
+
437
+ ### Metrics
438
+
439
+ #### Information Retrieval
440
+ * Dataset: `dim_768`
441
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
442
+
443
+ | Metric | Value |
444
+ |:--------------------|:-----------|
445
+ | cosine_accuracy@1 | 0.6931 |
446
+ | cosine_accuracy@3 | 0.8284 |
447
+ | cosine_accuracy@5 | 0.8416 |
448
+ | cosine_accuracy@10 | 0.8746 |
449
+ | cosine_precision@1 | 0.6931 |
450
+ | cosine_precision@3 | 0.2761 |
451
+ | cosine_precision@5 | 0.1683 |
452
+ | cosine_precision@10 | 0.0875 |
453
+ | cosine_recall@1 | 0.6931 |
454
+ | cosine_recall@3 | 0.8284 |
455
+ | cosine_recall@5 | 0.8416 |
456
+ | cosine_recall@10 | 0.8746 |
457
+ | cosine_ndcg@10 | 0.7874 |
458
+ | cosine_mrr@10 | 0.7591 |
459
+ | **cosine_map@100** | **0.7617** |
460
+
461
+ #### Information Retrieval
462
+ * Dataset: `dim_512`
463
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
464
+
465
+ | Metric | Value |
466
+ |:--------------------|:----------|
467
+ | cosine_accuracy@1 | 0.6766 |
468
+ | cosine_accuracy@3 | 0.8152 |
469
+ | cosine_accuracy@5 | 0.8383 |
470
+ | cosine_accuracy@10 | 0.8746 |
471
+ | cosine_precision@1 | 0.6766 |
472
+ | cosine_precision@3 | 0.2717 |
473
+ | cosine_precision@5 | 0.1677 |
474
+ | cosine_precision@10 | 0.0875 |
475
+ | cosine_recall@1 | 0.6766 |
476
+ | cosine_recall@3 | 0.8152 |
477
+ | cosine_recall@5 | 0.8383 |
478
+ | cosine_recall@10 | 0.8746 |
479
+ | cosine_ndcg@10 | 0.7808 |
480
+ | cosine_mrr@10 | 0.7501 |
481
+ | **cosine_map@100** | **0.753** |
482
+
483
+ #### Information Retrieval
484
+ * Dataset: `dim_256`
485
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
486
+
487
+ | Metric | Value |
488
+ |:--------------------|:-----------|
489
+ | cosine_accuracy@1 | 0.6634 |
490
+ | cosine_accuracy@3 | 0.8218 |
491
+ | cosine_accuracy@5 | 0.8383 |
492
+ | cosine_accuracy@10 | 0.8746 |
493
+ | cosine_precision@1 | 0.6634 |
494
+ | cosine_precision@3 | 0.2739 |
495
+ | cosine_precision@5 | 0.1677 |
496
+ | cosine_precision@10 | 0.0875 |
497
+ | cosine_recall@1 | 0.6634 |
498
+ | cosine_recall@3 | 0.8218 |
499
+ | cosine_recall@5 | 0.8383 |
500
+ | cosine_recall@10 | 0.8746 |
501
+ | cosine_ndcg@10 | 0.7737 |
502
+ | cosine_mrr@10 | 0.7407 |
503
+ | **cosine_map@100** | **0.7436** |
504
+
505
+ #### Information Retrieval
506
+ * Dataset: `dim_128`
507
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
508
+
509
+ | Metric | Value |
510
+ |:--------------------|:-----------|
511
+ | cosine_accuracy@1 | 0.6238 |
512
+ | cosine_accuracy@3 | 0.7921 |
513
+ | cosine_accuracy@5 | 0.8119 |
514
+ | cosine_accuracy@10 | 0.868 |
515
+ | cosine_precision@1 | 0.6238 |
516
+ | cosine_precision@3 | 0.264 |
517
+ | cosine_precision@5 | 0.1624 |
518
+ | cosine_precision@10 | 0.0868 |
519
+ | cosine_recall@1 | 0.6238 |
520
+ | cosine_recall@3 | 0.7921 |
521
+ | cosine_recall@5 | 0.8119 |
522
+ | cosine_recall@10 | 0.868 |
523
+ | cosine_ndcg@10 | 0.7505 |
524
+ | cosine_mrr@10 | 0.7125 |
525
+ | **cosine_map@100** | **0.7158** |
526
+
527
+ #### Information Retrieval
528
+ * Dataset: `dim_64`
529
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
530
+
531
+ | Metric | Value |
532
+ |:--------------------|:-----------|
533
+ | cosine_accuracy@1 | 0.6205 |
534
+ | cosine_accuracy@3 | 0.7426 |
535
+ | cosine_accuracy@5 | 0.7921 |
536
+ | cosine_accuracy@10 | 0.8383 |
537
+ | cosine_precision@1 | 0.6205 |
538
+ | cosine_precision@3 | 0.2475 |
539
+ | cosine_precision@5 | 0.1584 |
540
+ | cosine_precision@10 | 0.0838 |
541
+ | cosine_recall@1 | 0.6205 |
542
+ | cosine_recall@3 | 0.7426 |
543
+ | cosine_recall@5 | 0.7921 |
544
+ | cosine_recall@10 | 0.8383 |
545
+ | cosine_ndcg@10 | 0.7262 |
546
+ | cosine_mrr@10 | 0.6905 |
547
+ | **cosine_map@100** | **0.6945** |
548
+
549
+ <!--
550
+ ## Bias, Risks and Limitations
551
+
552
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
553
+ -->
554
+
555
+ <!--
556
+ ### Recommendations
557
+
558
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
559
+ -->
560
+
561
+ ## Training Details
562
+
563
+ ### Training Dataset
564
+
565
+ #### Unnamed Dataset
566
+
567
+
568
+ * Size: 2,720 training samples
569
+ * Columns: <code>positive</code> and <code>anchor</code>
570
+ * Approximate statistics based on the first 1000 samples:
571
+ | | positive | anchor |
572
+ |:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
573
+ | type | string | string |
574
+ | details | <ul><li>min: 4 tokens</li><li>mean: 76.83 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 24.09 tokens</li><li>max: 70 tokens</li></ul> |
575
+ * Samples:
576
+ | positive | anchor |
577
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------|
578
+ | <code>Việc tổ chức sát hạch theo định kỳ 06 tháng một lần hoặc đột xuất theo yêu cầu thực tế tại các địa điểm tổ chức sát hạch đủ điều kiện theo quy định.</code> | <code>Thi sát hạch cấp CCHN kiến trúc được tổ chức vào thời gian nào?</code> |
579
+ | <code>Bộ Nông nghiệp và Phát triển nông thôn chủ trì, phối hợp với các Bộ, ngành có liên quan khẩn trương nghiên cứu trình Thủ tướng Chính phủ ban hành chính sách đối với công chức kiểm lâm. Tiếp tục đầu tư cho lực lượng kiểm lâm thông qua các dự án đào tạo nâng cao năng lực; đầu tư bảo vệ rừng và phòng cháy chữa cháy rừng; tăng cường trang bị vũ khí quân dụng và công cụ hỗ trợ cho kiểm lâm. Giai đoạn 2011 - 2015 đào tạo chuyên môn, nghiệp vụ cho khoảng 8.000 lượt người thuộc lực lượng bảo vệ rừng cơ sở và lực lượng kiểm lâm; đầu tư phương tiện, trang thiết bị phục vụ công tác phòng cháy, chữa cháy rừng và bảo vệ rừng (khoảng 1.000 tỷ đồng).</code> | <code>Chính sách nâng cao năng lực, hiệu quả hoạt động đối với lực lượng Kiểm lâm được quy định như thế nào?</code> |
580
+ | <code>Phạt tiền từ 1.000.000 đồng đến 3.000.000 đồng.</code> | <code>Công chứng viên không giao giấy nhận lưu giữ cho người lập di chúc khi nhận lưu giữ di chúc phạt bao nhiêu?</code> |
581
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
582
+ ```json
583
+ {
584
+ "loss": "MultipleNegativesRankingLoss",
585
+ "matryoshka_dims": [
586
+ 768,
587
+ 512,
588
+ 256,
589
+ 128,
590
+ 64
591
+ ],
592
+ "matryoshka_weights": [
593
+ 1,
594
+ 1,
595
+ 1,
596
+ 1,
597
+ 1
598
+ ],
599
+ "n_dims_per_step": -1
600
+ }
601
+ ```
602
+
603
+ ### Evaluation Dataset
604
+
605
+ #### Unnamed Dataset
606
+
607
+
608
+ * Size: 303 evaluation samples
609
+ * Columns: <code>positive</code> and <code>anchor</code>
610
+ * Approximate statistics based on the first 1000 samples:
611
+ | | positive | anchor |
612
+ |:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
613
+ | type | string | string |
614
+ | details | <ul><li>min: 7 tokens</li><li>mean: 77.55 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 9 tokens</li><li>mean: 24.21 tokens</li><li>max: 54 tokens</li></ul> |
615
+ * Samples:
616
+ | positive | anchor |
617
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------|
618
+ | <code>Hồ sơ cấp lại Thẻ công chứng viên gồm các giấy tờ sau đây: <br>a) Giấy đề nghị cấp lại Thẻ công chứng viên (Mẫu TP-CC-07);<br>b) 01 ảnh chân dung cỡ 2cm x 3cm (ảnh chụp không quá 06 tháng trước ngày nộp hồ sơ);<br>c) Thẻ công chứng viên đang sử dụng (trong trường hợp Thẻ bị hỏng).</code> | <code>Hồ sơ cấp lại Thẻ công chứng viên gồm những giấy tờ gì?</code> |
619
+ | <code>"Tổ chức tôn giáo phải có tên bằng tiếng Việt."</code> | <code>Tổ chức tôn giáo có được sử dụng tên tiếng anh?</code> |
620
+ | <code>Mức độ bảo đảm khi đăng nhập tài khoản thực hiện thủ tục hành chính trên môi trường điện tử được quy định như sau:<br><br>a) Mức độ bảo đảm của danh tính điện tử của tổ chức, cá nhân được dùng để đăng nhập dựa trên xác minh được các thông tin của danh tính điện tử do tổ chức, cá nhân cung cấp là chính xác thông qua việc so sánh, đối chiếu tự động với các thông tin, dữ liệu hệ thống đang quản lý hoặc được kết nối, chia sẻ; hoặc so sánh với các bằng chứng mà tổ chức, cá nhân đó cung cấp trực tiếp;<br><br>b) Mức độ bảo đảm xác thực người dùng khi đăng nhập tài khoản dựa trên ít nhất một yếu tố xác thực của tổ chức, cá nhân.<br><br>Mức độ bảo đảm xác thực người dùng khi thực hiện thủ tục hành chính do cơ quan, tổ chức xây dựng, cung cấp dịch vụ công trực tuyến xác định. Trường hợp mức độ bảo đảm xác thực khi thực hiện thủ tục hành chính yêu cầu cao hơn so với mức độ khi đăng nhập, tổ chức, cá nhân bổ sung giải pháp xác thực theo hướng dẫn cụ thể của cơ quan cung cấp thủ tục hành chính tại Cổng dịch vụ công quốc gia hoặc Cổng dịch vụ công cấp bộ, cấp tỉnh.</code> | <code>Mức độ bảo đảm khi đăng nhập tài khoản thực hiện thủ tục hành chính trên môi trường điện tử được quy định như thế nào?</code> |
621
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
622
+ ```json
623
+ {
624
+ "loss": "MultipleNegativesRankingLoss",
625
+ "matryoshka_dims": [
626
+ 768,
627
+ 512,
628
+ 256,
629
+ 128,
630
+ 64
631
+ ],
632
+ "matryoshka_weights": [
633
+ 1,
634
+ 1,
635
+ 1,
636
+ 1,
637
+ 1
638
+ ],
639
+ "n_dims_per_step": -1
640
+ }
641
+ ```
642
+
643
+ ### Training Hyperparameters
644
+ #### Non-Default Hyperparameters
645
+
646
+ - `eval_strategy`: epoch
647
+ - `per_device_train_batch_size`: 16
648
+ - `per_device_eval_batch_size`: 16
649
+ - `gradient_accumulation_steps`: 16
650
+ - `learning_rate`: 2e-05
651
+ - `num_train_epochs`: 25
652
+ - `lr_scheduler_type`: cosine
653
+ - `warmup_ratio`: 0.1
654
+ - `fp16`: True
655
+ - `load_best_model_at_end`: True
656
+ - `optim`: adamw_torch_fused
657
+ - `batch_sampler`: no_duplicates
658
+
659
+ #### All Hyperparameters
660
+ <details><summary>Click to expand</summary>
661
+
662
+ - `overwrite_output_dir`: False
663
+ - `do_predict`: False
664
+ - `eval_strategy`: epoch
665
+ - `prediction_loss_only`: True
666
+ - `per_device_train_batch_size`: 16
667
+ - `per_device_eval_batch_size`: 16
668
+ - `per_gpu_train_batch_size`: None
669
+ - `per_gpu_eval_batch_size`: None
670
+ - `gradient_accumulation_steps`: 16
671
+ - `eval_accumulation_steps`: None
672
+ - `learning_rate`: 2e-05
673
+ - `weight_decay`: 0.0
674
+ - `adam_beta1`: 0.9
675
+ - `adam_beta2`: 0.999
676
+ - `adam_epsilon`: 1e-08
677
+ - `max_grad_norm`: 1.0
678
+ - `num_train_epochs`: 25
679
+ - `max_steps`: -1
680
+ - `lr_scheduler_type`: cosine
681
+ - `lr_scheduler_kwargs`: {}
682
+ - `warmup_ratio`: 0.1
683
+ - `warmup_steps`: 0
684
+ - `log_level`: passive
685
+ - `log_level_replica`: warning
686
+ - `log_on_each_node`: True
687
+ - `logging_nan_inf_filter`: True
688
+ - `save_safetensors`: True
689
+ - `save_on_each_node`: False
690
+ - `save_only_model`: False
691
+ - `restore_callback_states_from_checkpoint`: False
692
+ - `no_cuda`: False
693
+ - `use_cpu`: False
694
+ - `use_mps_device`: False
695
+ - `seed`: 42
696
+ - `data_seed`: None
697
+ - `jit_mode_eval`: False
698
+ - `use_ipex`: False
699
+ - `bf16`: False
700
+ - `fp16`: True
701
+ - `fp16_opt_level`: O1
702
+ - `half_precision_backend`: auto
703
+ - `bf16_full_eval`: False
704
+ - `fp16_full_eval`: False
705
+ - `tf32`: None
706
+ - `local_rank`: 0
707
+ - `ddp_backend`: None
708
+ - `tpu_num_cores`: None
709
+ - `tpu_metrics_debug`: False
710
+ - `debug`: []
711
+ - `dataloader_drop_last`: False
712
+ - `dataloader_num_workers`: 0
713
+ - `dataloader_prefetch_factor`: None
714
+ - `past_index`: -1
715
+ - `disable_tqdm`: False
716
+ - `remove_unused_columns`: True
717
+ - `label_names`: None
718
+ - `load_best_model_at_end`: True
719
+ - `ignore_data_skip`: False
720
+ - `fsdp`: []
721
+ - `fsdp_min_num_params`: 0
722
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
723
+ - `fsdp_transformer_layer_cls_to_wrap`: None
724
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
725
+ - `deepspeed`: None
726
+ - `label_smoothing_factor`: 0.0
727
+ - `optim`: adamw_torch_fused
728
+ - `optim_args`: None
729
+ - `adafactor`: False
730
+ - `group_by_length`: False
731
+ - `length_column_name`: length
732
+ - `ddp_find_unused_parameters`: None
733
+ - `ddp_bucket_cap_mb`: None
734
+ - `ddp_broadcast_buffers`: False
735
+ - `dataloader_pin_memory`: True
736
+ - `dataloader_persistent_workers`: False
737
+ - `skip_memory_metrics`: True
738
+ - `use_legacy_prediction_loop`: False
739
+ - `push_to_hub`: False
740
+ - `resume_from_checkpoint`: None
741
+ - `hub_model_id`: None
742
+ - `hub_strategy`: every_save
743
+ - `hub_private_repo`: False
744
+ - `hub_always_push`: False
745
+ - `gradient_checkpointing`: False
746
+ - `gradient_checkpointing_kwargs`: None
747
+ - `include_inputs_for_metrics`: False
748
+ - `eval_do_concat_batches`: True
749
+ - `fp16_backend`: auto
750
+ - `push_to_hub_model_id`: None
751
+ - `push_to_hub_organization`: None
752
+ - `mp_parameters`:
753
+ - `auto_find_batch_size`: False
754
+ - `full_determinism`: False
755
+ - `torchdynamo`: None
756
+ - `ray_scope`: last
757
+ - `ddp_timeout`: 1800
758
+ - `torch_compile`: False
759
+ - `torch_compile_backend`: None
760
+ - `torch_compile_mode`: None
761
+ - `dispatch_batches`: None
762
+ - `split_batches`: None
763
+ - `include_tokens_per_second`: False
764
+ - `include_num_input_tokens_seen`: False
765
+ - `neftune_noise_alpha`: None
766
+ - `optim_target_modules`: None
767
+ - `batch_eval_metrics`: False
768
+ - `batch_sampler`: no_duplicates
769
+ - `multi_dataset_batch_sampler`: proportional
770
+
771
+ </details>
772
+
773
+ ### Training Logs
774
+ | Epoch | Step | Training Loss | loss | dim_128_cosine_map@100 | dim_256_cosine_map@100 | dim_512_cosine_map@100 | dim_64_cosine_map@100 | dim_768_cosine_map@100 |
775
+ |:----------:|:------:|:-------------:|:----------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|:----------------------:|
776
+ | 0.9412 | 10 | 2.0053 | 1.3422 | 0.6805 | 0.6979 | 0.7146 | 0.6315 | 0.7193 |
777
+ | 1.8824 | 20 | 1.3864 | - | - | - | - | - | - |
778
+ | 1.9765 | 21 | - | 0.9838 | 0.6810 | 0.7072 | 0.7361 | 0.6481 | 0.7497 |
779
+ | 2.8235 | 30 | 0.9121 | - | - | - | - | - | - |
780
+ | 2.9176 | 31 | - | 0.8075 | 0.6928 | 0.7228 | 0.7385 | 0.6565 | 0.7449 |
781
+ | 3.7647 | 40 | 0.5327 | - | - | - | - | - | - |
782
+ | 3.9529 | 42 | - | 0.7225 | 0.7061 | 0.7330 | 0.7497 | 0.6707 | 0.7543 |
783
+ | 4.7059 | 50 | 0.3222 | - | - | - | - | - | - |
784
+ | 4.9882 | 53 | - | 0.6622 | 0.7039 | 0.7309 | 0.7473 | 0.6697 | 0.7509 |
785
+ | 5.6471 | 60 | 0.2505 | - | - | - | - | - | - |
786
+ | 5.9294 | 63 | - | 0.6895 | 0.7049 | 0.7381 | 0.7518 | 0.6757 | 0.7598 |
787
+ | 6.5882 | 70 | 0.1677 | - | - | - | - | - | - |
788
+ | **6.9647** | **74** | **-** | **0.6428** | **0.7167** | **0.7431** | **0.7535** | **0.6823** | **0.7575** |
789
+ | 7.5294 | 80 | 0.122 | - | - | - | - | - | - |
790
+ | 8.0 | 85 | - | 0.6084 | 0.7039 | 0.7392 | 0.7478 | 0.6762 | 0.7573 |
791
+ | 8.4706 | 90 | 0.0956 | - | - | - | - | - | - |
792
+ | 8.9412 | 95 | - | 0.6338 | 0.7079 | 0.7428 | 0.7515 | 0.6840 | 0.7591 |
793
+ | 9.4118 | 100 | 0.0748 | - | - | - | - | - | - |
794
+ | 9.9765 | 106 | - | 0.6446 | 0.7128 | 0.7429 | 0.7477 | 0.6834 | 0.7582 |
795
+ | 10.3529 | 110 | 0.0582 | - | - | - | - | - | - |
796
+ | 10.9176 | 116 | - | 0.6115 | 0.7095 | 0.7375 | 0.7467 | 0.6850 | 0.7567 |
797
+ | 11.2941 | 120 | 0.0509 | - | - | - | - | - | - |
798
+ | 11.9529 | 127 | - | 0.6557 | 0.7091 | 0.7433 | 0.7474 | 0.6803 | 0.7552 |
799
+ | 12.2353 | 130 | 0.0446 | - | - | - | - | - | - |
800
+ | 12.9882 | 138 | - | 0.6356 | 0.7130 | 0.7430 | 0.7530 | 0.6867 | 0.7562 |
801
+ | 13.1765 | 140 | 0.0356 | - | - | - | - | - | - |
802
+ | 13.9294 | 148 | - | 0.6487 | 0.7079 | 0.7380 | 0.7466 | 0.6868 | 0.7531 |
803
+ | 14.1176 | 150 | 0.0308 | - | - | - | - | - | - |
804
+ | 14.9647 | 159 | - | 0.6595 | 0.7102 | 0.7384 | 0.7494 | 0.6885 | 0.7566 |
805
+ | 15.0588 | 160 | 0.0301 | - | - | - | - | - | - |
806
+ | 16.0 | 170 | 0.0279 | 0.6594 | 0.7170 | 0.7434 | 0.7532 | 0.6924 | 0.7617 |
807
+ | 16.9412 | 180 | 0.0202 | 0.7014 | 0.7138 | 0.7438 | 0.7557 | 0.6902 | 0.7601 |
808
+ | 17.8824 | 190 | 0.0197 | - | - | - | - | - | - |
809
+ | 17.9765 | 191 | - | 0.7127 | 0.7124 | 0.7417 | 0.7518 | 0.6893 | 0.7594 |
810
+ | 18.8235 | 200 | 0.0157 | - | - | - | - | - | - |
811
+ | 18.9176 | 201 | - | 0.7047 | 0.7127 | 0.7423 | 0.7521 | 0.6914 | 0.7611 |
812
+ | 19.7647 | 210 | 0.0157 | - | - | - | - | - | - |
813
+ | 19.9529 | 212 | - | 0.6954 | 0.7160 | 0.7437 | 0.7534 | 0.6931 | 0.7610 |
814
+ | 20.7059 | 220 | 0.0133 | - | - | - | - | - | - |
815
+ | 20.9882 | 223 | - | 0.6913 | 0.7170 | 0.7438 | 0.7533 | 0.6945 | 0.7619 |
816
+ | 21.6471 | 230 | 0.0157 | - | - | - | - | - | - |
817
+ | 21.9294 | 233 | - | 0.6902 | 0.7158 | 0.7436 | 0.7530 | 0.6943 | 0.7618 |
818
+ | 22.5882 | 240 | 0.016 | - | - | - | - | - | - |
819
+ | 22.9647 | 244 | - | 0.6900 | 0.7156 | 0.7434 | 0.7528 | 0.6943 | 0.7615 |
820
+ | 23.5294 | 250 | 0.0159 | 0.6901 | 0.7158 | 0.7436 | 0.7530 | 0.6945 | 0.7617 |
821
+
822
+ * The bold row denotes the saved checkpoint.
823
+
824
+ ### Framework Versions
825
+ - Python: 3.10.13
826
+ - Sentence Transformers: 3.0.1
827
+ - Transformers: 4.41.2
828
+ - PyTorch: 2.1.2
829
+ - Accelerate: 0.30.1
830
+ - Datasets: 2.19.2
831
+ - Tokenizers: 0.19.1
832
+
833
+ ## Citation
834
+
835
+ ### BibTeX
836
+
837
+ #### Sentence Transformers
838
+ ```bibtex
839
+ @inproceedings{reimers-2019-sentence-bert,
840
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
841
+ author = "Reimers, Nils and Gurevych, Iryna",
842
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
843
+ month = "11",
844
+ year = "2019",
845
+ publisher = "Association for Computational Linguistics",
846
+ url = "https://arxiv.org/abs/1908.10084",
847
+ }
848
+ ```
849
+
850
+ #### MatryoshkaLoss
851
+ ```bibtex
852
+ @misc{kusupati2024matryoshka,
853
+ title={Matryoshka Representation Learning},
854
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
855
+ year={2024},
856
+ eprint={2205.13147},
857
+ archivePrefix={arXiv},
858
+ primaryClass={cs.LG}
859
+ }
860
+ ```
861
+
862
+ #### MultipleNegativesRankingLoss
863
+ ```bibtex
864
+ @misc{henderson2017efficient,
865
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
866
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
867
+ year={2017},
868
+ eprint={1705.00652},
869
+ archivePrefix={arXiv},
870
+ primaryClass={cs.CL}
871
+ }
872
+ ```
873
+
874
+ <!--
875
+ ## Glossary
876
+
877
+ *Clearly define terms in order to be accessible across audiences.*
878
+ -->
879
+
880
+ <!--
881
+ ## Model Card Authors
882
+
883
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
884
+ -->
885
+
886
+ <!--
887
+ ## Model Card Contact
888
+
889
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
890
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "bkai-foundation-models/vietnamese-bi-encoder",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.41.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e3923f1ac468b5d768961f37bf128664407a7716329bda4b929273bca912aad1
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff