nampham1106 commited on
Commit
b481767
·
verified ·
1 Parent(s): 5716eef

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,1151 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: sentence-transformers
3
+ tags:
4
+ - sentence-transformers
5
+ - sentence-similarity
6
+ - feature-extraction
7
+ - generated_from_trainer
8
+ - dataset_size:80448
9
+ - loss:MultipleNegativesRankingLoss
10
+ base_model: BookingCare/multilingual-e5-base-v2
11
+ metrics:
12
+ - cosine_accuracy@1
13
+ - cosine_accuracy@3
14
+ - cosine_accuracy@5
15
+ - cosine_accuracy@10
16
+ - cosine_precision@1
17
+ - cosine_precision@3
18
+ - cosine_precision@5
19
+ - cosine_precision@10
20
+ - cosine_recall@1
21
+ - cosine_recall@3
22
+ - cosine_recall@5
23
+ - cosine_recall@10
24
+ - cosine_ndcg@10
25
+ - cosine_mrr@10
26
+ - cosine_map@100
27
+ - dot_accuracy@1
28
+ - dot_accuracy@3
29
+ - dot_accuracy@5
30
+ - dot_accuracy@10
31
+ - dot_precision@1
32
+ - dot_precision@3
33
+ - dot_precision@5
34
+ - dot_precision@10
35
+ - dot_recall@1
36
+ - dot_recall@3
37
+ - dot_recall@5
38
+ - dot_recall@10
39
+ - dot_ndcg@10
40
+ - dot_mrr@10
41
+ - dot_map@100
42
+ widget:
43
+ - source_sentence: Chấn thương phần mềm nghiêm trọng
44
+ sentences:
45
+ - ' Theo Đông y, bạc thau có tính mát, vị đắng, hơi cay và chua. Cây có tác dụng
46
+ điều kinh, lợi tiểu, thanh nhiệt, cầm máu, thư cân hoạt lạc, tiêu đờm, nhuận phế,
47
+ chỉ khái. Vậy
48
+
49
+ Trong dân gian Việt Nam,
50
+
51
+ thường được dùng để làm thuốc chữa
52
+
53
+ kinh nguyệt không đều
54
+
55
+ rong kinh
56
+
57
+ , bí tiểu tiện, rát buốt, tiểu ít, màu nước tiểu đục. Ngoài ra,
58
+
59
+ dùng trong điều trị lở ngứa, mụn nhọt, sát khuẩn, giải độc,
60
+
61
+ viêm phế quản
62
+
63
+ và sốt rét cũng rất hiệu quả. Người ta thường dùng tươi, giã nát ra đắp lên những
64
+ nơi bị
65
+
66
+ gãy xương
67
+
68
+ hoặc đắp lên mụn nhọt cho hút mủ lên da non. Bên cạnh đó, người ta hay dùng bạc
69
+ thau phơi khô để chữa ho đặc biệt là cho trẻ em. cây bạc thau chữa bệnh gì? bạc
70
+ thau kinh nguyệt không đều , rong kinh bạc thau viêm phế quản gãy xương Ở Quảng
71
+ Tây (Trung Quốc), bạc sau được dùng bằng cách lấy toàn cây để trị ho, nhức mỏi
72
+ chân tay, viêm thận thuỷ thũng hay dùng ngoài trị độc do giang mai.'
73
+ - '1.1. Định nghĩa Các bác sĩ cho biết những chấn thương phần mềm được gọi là nghiêm
74
+ trọng khi: Vết thương phần mềm làm lộ gân, xương khớp, thần kinh và/hoặc mạch
75
+ máu; Vết thương mất đoạn gân hoặc xương. 1.2. Hậu quả Tình trạng này nếu không
76
+ được điều trị đúng cách sẽ có nguy cơ dẫn đến di chứng: Nhiễm trùng; – gân ,mạch
77
+ máu, thần kinh,cơ... Hoại tử xương Biến dạng, co rút cơ quan vận động; Cứng khớp;
78
+ Làm mất chức năng vận động của chi thể, ảnh hưởng lớn đến cuộc sống của người
79
+ bệnh. 1.3. Điều trị Các biện pháp phù hợp thường được áp dụng đối với dạng chấn
80
+ thương này là: Khâu da che phủ thì đầu (vết thương đơn giản không bị căng kéo);
81
+ Ghép da tự thân; Xoay vạt da tại chỗ; có cuống mạch liền Chuyển vạt da rời có
82
+ cuống mạnh rời (nối vi phẫu mạch máu). Chuyển vạt da Theo khuyến cáo của bác sĩ,
83
+ quyết định khâu da thì đầu hay để hở hoặc chuyển vạt cơ che phủ các chấn thương
84
+ là rất quan trọng. Điều này phụ thuộc rất nhiều vào trình độ chuyên môn của phẫu
85
+ thuật viên.Đánh giá vết thương và xử lý vết thương theo thang tạo hình từ thấp
86
+ tới cao tương ứng với độ phức tạp của vết thương.'
87
+ - ' (CPP – Cerebral Perfusion Pressure) có mối liên quan mật thiết với
88
+
89
+ . Áp lực tưới máu não được định nghĩa là hiệu số giữa áp lực động mạch trung bình
90
+ (Mean Arterial Pressure - MAP) và áp lực nội sọ (ICP). Điều đó có nghĩa là: CPP
91
+ = MAP - ICP. Áp lực động mạch trung bình là áp lực trung bình ở động mạch cảnh.
92
+ MAP = (áp lực thì tâm thu + 2 áp lực thì tâm trương)/3.
93
+
94
+ ở người bình thường là trên 50mmHg. Áp lực tưới máu não nên duy trì ở mức 70 -
95
+ 80mmHg và áp lực nội sọ ở mức dưới 15mmHg. Áp lực tưới máu não áp lực nội sọ Áp
96
+ lực tưới máu não Tình trạng tăng
97
+
98
+ dẫn đến quá trình giảm áp lực tưới máu não và lưu lượng máu não, là nguyên nhân
99
+ chính gây tử vong đối với các bệnh nhân bị chấn thương sọ não. Bởi vậy, việc duy
100
+ trì áp lực tưới máu não ở một giá trị thích hợp trong thời gian nhanh nhất chính
101
+ là một trong những yếu tố then chốt của hoạt động chăm sóc đặc biệt cho người
102
+ bệnh, tránh hoại tử não ở bệnh nhân bị tăng
103
+
104
+ , đặc biệt với người bị
105
+
106
+ thường gặp trong tai nạn giao thông. áp l��c nội sọ áp lực nội sọ chấn thương sọ
107
+ não Theo dõi mức
108
+
109
+
110
+
111
+ cho phép đánh giá chính xác những thay đổi áp lực và lưu lượng máu trong não,
112
+ phục vụ tốt nhất cho quá trình chẩn đoán và điều trị ở các bệnh nhân bị
113
+
114
+ chấn thương sọ não nặng
115
+
116
+ , hôn mê,... áp lực nội sọ áp lực tưới máu não chấn thương sọ não nặng Video
117
+ đề xuất: Khám sức khỏe định kỳ tại Vinmec: Bảo vệ bạn trước khi quá muộn! XEM
118
+ THÊM: Chức năng của dịch não tủy Chức năng của dịch não tủy Điều trị ở bệnh nhân
119
+ tụ máu não do chấn thương sọ não Điều trị ở bệnh nhân tụ máu não do chấn thương
120
+ sọ não Chấn thương sọ não: Nhận biết và điều trị thế nào? Chấn thương sọ não:
121
+ Nhận biết và điều trị thế nào? Thần kinh Điều chỉnh áp lực tưới máu não Chấn
122
+ thương sọ não Điều chỉnh áp lực trong sọ Áp lực tưới máu não Dịch não tủy'
123
+ - source_sentence: Định nghĩa về tình trạng hiếm muộn
124
+ sentences:
125
+ - ' Những người sau điều trị ung thư có thể gặp các vấn đề về sức khỏe răng miệng,
126
+ tùy thuộc vào các phương pháp điều trị mà họ nhận được: Hóa trị có thể ảnh hưởng
127
+ đến men răng và làm tăng nguy cơ mắc các vấn đề răng miệng lâu dài. Liệu pháp
128
+ xạ trị liều cao đến vùng đầu và cổ có thể làm thay đổi sự phát triển của răng.
129
+ Nó cũng có thể gây ra bệnh nướu răng và sản xuất nước bọt thấp hơn, gây khô miệng.
130
+ Thuốc steroid có thể làm tăng nguy cơ mắc các vấn đề về mắt như bong tróc mắt
131
+ ảnh hưởng đến thị lực (đục thủy tinh thể). Để theo dõi các vấn đề này trong tương
132
+ lai, người bệnh nên sắp xếp các cuộc hẹn thường xuyên với nha sĩ và bác sĩ nhãn
133
+ khoa.'
134
+ - ' Vắc xin phòng cúm
135
+
136
+ : Khá nhiều cha mẹ băn khoăn liệu trẻ có cần vắc xin phòng cúm hay không, thì
137
+ câu trả lời là có. Biến chứng của cúm ở trẻ dưới 5 tuổi thường nghiêm trọng, do
138
+ đó để bảo vệ sức khỏe cho trẻ, cha mẹ nên đưa đi tiêm phòng cúm. Lịch tiêm cụ
139
+ thể cha mẹ cần tham vấn với bác sĩ. Cha mẹ cần lưu ý virus cúm mỗi năm lại biến
140
+ đổi, do đó trẻ cần được tiêm phòng hàng năm. Vắc xin phòng cúm Ngoài chế độ dinh
141
+ dưỡng, trẻ 8 tháng cần 5mg kẽm nguyên tố/ngày để trẻ ăn ngon, đạt chiều cao và
142
+ cân nặng đúng chuẩn và vượt chuẩn. Kẽm đóng vai trò tác động đến hầu hết các quá
143
+ trình sinh học diễn ra trong cơ thể, đặc biệt là quá trình phân giải tổng hợp
144
+ axit nucleic, protein... Các cơ quan trong cơ thể khi thiếu kẽm có thể dẫn đến
145
+ một số bệnh lý như rối loạn thần kinh, dễ sinh cáu gắt,... Vì vậy cha mẹ cần tìm
146
+ hiểu về
147
+
148
+ Vai trò của kẽm và hướng dẫn bổ sung kẽm hợp lý cho bé
149
+
150
+ . Vai trò của kẽm và hướng dẫn bổ sung kẽm hợp lý cho bé Ngoài kẽm, cha mẹ cũng
151
+ cần bổ sung cho trẻ các vitamin và khoáng chất quan trọng khác như lysine, crom,
152
+ vitamin nhóm B,... giúp con ăn ngon, có hệ miễn dịch tốt, tăng cường đề kháng
153
+ để ít ốm vặt. Hãy thường xuyên truy cập website
154
+
155
+ Vinmec.com
156
+
157
+ và cập nhật những thông tin hữu ích để chăm sóc cho bé và cả gia đình nhé. Vinmec.com Bài
158
+ viết tham khảo nguồn: mayoclinic.org và whattoexpect.com Thực Phẩm bảo vệ sức
159
+ khỏe LAMINKID I: Sản phẩm có công dụng bổ sung vi khoáng và vitamin cho cơ thể.
160
+ Hỗ trợ tiêu hóa, tăng cường hấp thu thức ăn, giúp trẻ ăn ngon. Hỗ trợ nâng cao
161
+ đề kháng cho trẻ, hỗ trợ giảm nguy cơ mắc bệnh do sức đề kháng kém như viêm đường
162
+ hô hấp trên, cảm cúm. Đối tượng sử dụng: - Trẻ biếng ăn, kém hấp thu thức ăn,
163
+ trẻ gầy yếu, suy dinh dưỡng, chậm phát triển. - Trẻ có sức đề kháng kém, đang
164
+ ốm hoặc vừa ốm dậy, trẻ hay mắc các bệnh viêm đường hô hấp trên, cảm cúm. Chịu
165
+ trách nhiệm về chất lượng sản phẩm: Công ty Cổ phần dược phẩm Elepharma Số 9,
166
+ phố Trương Công Giai, tổ 17, Phường Dịch Vọng, Quận Cầu Giấy, Thành phố Hà Nội,
167
+ Việt Nam (ĐT) 1800 6091; (E) info.elepharma@gmail.com https://i.vinmec.com/laminkid
168
+ Xem thêm thông tin về sản phẩm tại: https://i.vinmec.com/dangkytuvandinhduong
169
+ Đăng ký tư vấn dinh dưỡng cho bé tại: nhi khoa Trẻ 8 tháng tuổi Vận động
170
+ của trẻ LaminKid Trẻ mọc răng Dinh dưỡng của trẻ Nhận thức của trẻ Giấc ngủ của
171
+ trẻ'
172
+ - ' Hiếm muộn
173
+
174
+ hiện đang là một gánh nặng của ngành y tế Việt Nam, ảnh hưởng đến khoảng 15-20%
175
+ các cặp vợ chồng ở độ tuổi sinh sản. Theo tổ chức Y tế thế giới (WHO) quy định:
176
+ hiếm muộn là bệnh lý của cơ quan sinh sản, một cặp vợ chồng được gọi là hiếm muộn
177
+ khi không có khả năng có thai sau một năm chung sống trở lên, giao hợp đều đặn
178
+ và không sử dụng
179
+
180
+ nào. Với các cặp vợ chồng có người vợ trên 35 tuổi thì thời gian quy định là 6
181
+ tháng. Vì vậy, khi người vợ trên 35 tuổi, sau 6 tháng mong con nhưng vẫn không
182
+ thể có thai được nên được khám và điều trị sớm. Tuy nhiên đối với những trường
183
+ hợp, nguyên nhân hiếm muộn tương đối rõ ràng thì việc tính thời gian không còn
184
+ được đặt ra. Hiếm muộn biện pháp tránh thai'
185
+ - source_sentence: Chơi trò chơi đố chữ
186
+ sentences:
187
+ - ' Việc
188
+
189
+ dạy trẻ nói
190
+
191
+ sẽ trở nên hấp dẫn hơn nhiều khi nó được thực hiện thông qua một trò chơi. Trẻ
192
+ ở lứa tuổi mới biết đi sẽ thích một trò chơi có tên "Đây là gì?" Khi đưa trẻ đến
193
+ một môi trường mới - quán cà phê, sân bay hoặc chợ - hãy chỉ vào một thứ gì đó
194
+ và hỏi trẻ, "Đây là gì?" Thách thức trẻ tìm ra tên chính xác. Để giúp trẻ không
195
+ nản lòng, hãy bắt đầu với một vài đồ vật - một con mèo, một cái bánh quy – mà
196
+ bố mẹ chắc chắn rằng trẻ đã biết. Sau đó, thỉnh thoảng lại lén nói một từ mới.
197
+ Nếu trẻ không biết, hãy thì thầm câu trả lời và để trẻ hét lên. Sau đó, giới thiệu
198
+ cho trẻ biết đồ vật đó là gì và nó hoạt động như thế nào. Ví dụ "Đó là một chiếc
199
+ ô. Chúng ta sử dụng ô để khi trời mưa để không bị ướt." dạy trẻ nói Những đứa
200
+ trẻ ở độ tuổi lớn hơn sẽ đánh giá cao một trò chơi phức tạp hơn một chút có tên
201
+ "Điều gì xảy ra tiếp theo?" Bắt đầu kể cho trẻ nghe một câu chuyện, và ngay khi
202
+ cốt truyện bắt đầu đi lên cao trào, hãy yêu cầu trẻ kể cho bố mẹ nghe kết thúc
203
+ của nó. Nếu trẻ không đủ vốn từ để tự mình trình bày cụ thể, bố mẹ có thể giúp
204
+ con bằng cách đặt một số câu hỏi gợi ý như "Con có nghĩ con chó sói bỏ chạy không?"
205
+ Một khi bố mẹ đã gợi ý một hướng cốt truyện, bố mẹ có thể hỏi trẻ để biết thêm
206
+ suy nghĩ của chúng một cách chi tiết hơn như "Con nghĩ chú chó đã đi đâu?" hoặc
207
+ "Ai đã đi cùng trẻ?"'
208
+ - ' 3.1 Tầm soát cho đối tượng hội chứng Lynch, có 02 nhóm Người có thân nhân thế
209
+ hệ một (cha mẹ, anh em) đã bị ung thư đại-trực tràng trước tuổi 45. Các đối tượng
210
+ này dễ bị ung thư gấp 10 lần người thường, Người có hơn 2 người thân thế hệ một
211
+ bị bất kỳ ung thư nào. Các đối tượng này dễ bị ung thư gấp 6 lần người thường.
212
+
213
+
214
+ hay xảy ra từ tuổi 50 vì thế nên tầm soát ở độ tuổi này chúng ta có thể giảm tỷ
215
+ lệ 50% ung thư và kéo dài thời gian sống hơn 12 tháng. Test nên dùng cho các đối
216
+ tượng này là nội soi đại tràng. Nếu trong gia đình có người rất trẻ, dưới 40 tuổi
217
+ bị ung thư, nên tầm soát những người trong gia đình sớm hơn 10 năm và nên thực
218
+ hiện kiểm tra nội soi đại tràng mỗi 5 năm. ung thư đại - trực tràng 3.1.1 Ung
219
+ thư đại tràng không do polyp (Hereditary non-polyposis colon cancer: HNPCC) Loại
220
+ ung thư này (hình 9) hay xảy ra trong gia đình và gây bệnh ở người trẻ, trước
221
+ tuổi 45. Ngoài nội soi đại tràng cho những người thân trong gia đình mỗi 5 năm
222
+ tính từ tuổi người mắc bệnh, cần thử DNA để so sánh với DNA của người thân đã
223
+ bị ung thư trước đó. Các đối tượng trong gia đình này cần nội soi đại tràng, nội
224
+ soi dạ dày, chụp nhũ ảnh, siêu âm vùng chậu và thử tế bào tử cung vì ngoài
225
+
226
+ họ có thể bị ung thư dạ dày, ung thư vú, tử cung và buồng trứng. ung thư đại tràng Đa
227
+ polyp trong gia đình (Familial Adenomatous Polyposis: FAP) Loại bệnh này ít gặp
228
+ hơn loại
229
+
230
+ không do polyp nhưng sẽ diễn tiến thành ung thư đại tràng khi trên 50 tuổi, vì
231
+ thế cần tầm soát tất cả người thân của bệnh nhân đã mắc bệnh này bắt đầu từ 10
232
+ tuổi, nội soi đại tràng chậu hông hoặc nội soi toàn bộ đại tràng. Nếu có bệnh
233
+ FAP (hình 10), nên cân nhắc quyết định cắt toàn bộ đại tràng để phòng ngừa polyp
234
+ hóa ác. ung thư đại tràng Theo dõi sau cắt polyp ác tính: Những polyp đại trực
235
+ tràng lớn hơn 1cm, không cuống, nghịch sản có nguy cơ hóa ác cao. Sau cắt polyp
236
+ qua nội soi, cần theo dõi và nội soi kiểm tra định kỳ như sau: Mỗi 01 tháng trong
237
+ 03 tháng đầu, trong năm thứ nhất. Mỗi 03 tháng trong 06 tháng kế tiếp, trong năm
238
+ thứ nhất. Mỗi 06 tháng trong năm thứ hai. Mỗi năm, từ năm thứ 03 đến năm thứ 05.
239
+ Những tổn thương polyp ác tính, lịch nội soi kiểm tra tương tự như lịch theo dõi
240
+ những ung thư đại trực tràng đã được phẫu thuật như: Xét nghiệm máu tìm chỉ điểm
241
+ ung thư (CEA) 06 tháng sau mổ, trong 05 năm. Nội soi đại tràng kiểm tra 06 tháng
242
+ sau mổ, trong năm thứ nhất. Nội soi đại tràng kiểm tra 01 năm sau mổ, trong năm
243
+ thứ hai. Nội soi đại tràng kiểm tra 03 năm sau mổ, trong năm thứ ba về sau. Theo
244
+ dõi các bệnh viêm đại tràng Các bệnh
245
+
246
+ viêm đại tràng
247
+
248
+ gồm
249
+
250
+ viêm loét đại tràng
251
+
252
+ (hình 11) và bệnh
253
+
254
+ Crohn
255
+
256
+ gây phản ứng viêm trên hơn một nửa đại tràng và khiến bệnh nhân dễ bị ung thư
257
+ gấp 10 lần người bình thường. viêm đại tràng viêm loét đại tràng Crohn Các tác
258
+ giả khuyến cáo nếu viêm đại tràng trên 8 năm thì hàng năm nên nội soi đại tràng.
259
+ Mục tiêu chính là phát hiện tổn thương tiền ung thư. Nếu có dị sản nặng do ít
260
+ nhất 2 chuyên gia giải phẫu bệnh xác nhận thì nên cắt toàn bộ đại tràng để ngừa
261
+ ung thư.'
262
+ - 'Nếu ngã theo cơ thế chống tay hay sưng nề nhiều vùng cổ bàn tay nghi ngờ gãy
263
+ xương thuyền cần đến các cơ sở y tế chuyên khoa để chẩn đoán kịp thời. được chẩn
264
+ đoán bằng hỏi bệnh sử, khám thực thể, chụp Xquang cổ bàn tay. Trong một vài trường
265
+ hợp thì phim Xquang chụp ngay sau chấn thương có vẻ bình thường và việc chẩn đoán
266
+ có thể bị chậm sau 2-3 tuần chỗ gãy mới rõ trên Xquang. Cả chụp CT và MRI có thể
267
+ có giá trị để đánh giá những điểm khác nhau của gãy xương thuyền. Chẩn đoán và
268
+ điều trị sớm là quan trọng để có kết quả tối ưu. Gãy xương thuyền Những triệu
269
+ chứng của gãy xương thuyền là: đau, sưng, ấn đau vùng cổ tay, không có biến dạng
270
+ rõ ràng vì thế mà gãy xương thuyền có thể nhầm lẫn với bong gân cổ tay nên bác
271
+ sĩ phải hỏi bệnh sử tỉ mỉ về cơ chế gãy chấn thương và cần phải khám lâm sàng
272
+ thích hợp.'
273
+ - source_sentence: Thiếu vi chất dinh dưỡng ảnh hưởng đến trẻ như thế nào?
274
+ sentences:
275
+ - '3.1 Thiếu vitamin A có vai trò quan trọng đối với trẻ nhỏ, giúp trẻ phát triển
276
+ bình thường, tăng cường khả năng miễn dịch và bảo vệ giác mạc, da, niêm mạc. Đặc
277
+ biệt, vitamin A còn có tác dụng phòng ngừa các bệnh nhiễm trùng như tiêu chảy,
278
+ đường hô hấp, khô giác mạc và mù lòa. Nếu
279
+
280
+ thiếu vitamin A
281
+
282
+ trẻ sẽ dễ gặp các bệnh về mắt và tăng nguy cơ nhiễm trùng. Vitamin A thiếu vitamin
283
+ A 3.2 Thiếu canxi và vitamin D Thiếu vitamin D
284
+
285
+ là nguyên nhân chính gây ra
286
+
287
+ bệnh còi xương ở trẻ em
288
+
289
+ , bởi vì thiếu vitamin D làm giảm hấp thụ canxi ở ruột, cơ thể sẽ huy động lượng
290
+ canxi ở trong xương đi vào máu gây ra rối loạn quá trình khoáng hóa xương. Trẻ
291
+ sẽ có những biểu hiện như quấy khóc, nôn trớ, ra mồ hôi trộm, rụng tóc, đầu to,
292
+ thóp rộng, răng mọc chậm, chậm biết đi, biến dạng xương, lồng ngực dô,... Từ đó,
293
+ làm giảm chiều cao của trẻ. Thiếu vitamin D ảnh hưởng đến hệ miễn dịch, sức đề
294
+ kháng của trẻ. Trẻ dễ mắc các bệnh lý như viêm đường hô hấp trên, hay tái phát.
295
+ Thiếu vitamin D bệnh còi xương ở trẻ em 3.3 Thiếu sắt Sắt
296
+
297
+ là một trong những thành phần của huyết sắc tố, tham gia vào quá trình vận chuyển
298
+ oxy và hô hấp tế bào. Thiếu sắt dẫn tới thiếu máu và các bệnh viêm đường hô hấp,
299
+ các bệnh nhiễm khuẩn ở trẻ. Thiếu sắt làm cho trẻ bị thiếu các dưỡng chất ảnh
300
+ hưởng đến tăng trưởng và phát triển của cơ thể. Sắt 3.4 Thiếu iot Khi cơ thể trẻ
301
+ thiếu i-ốt, tuyến giáp phát triển lớn và gây
302
+
303
+ bệnh bướu cổ
304
+
305
+ . Bên cạnh đó, trẻ thiếu i-ốt còn làm tăng nguy cơ chậm phát triển trí tuệ, chậm
306
+ lớn, thiểu năng và đần độn. bệnh bướu cổ 3.5 Thiếu kẽm Kẽm là một trong những
307
+ vi chất có vai trò quan trọng trong quá trình tăng trưởng và miễn dịch. Trẻ bị
308
+ thiếu kẽm sẽ
309
+
310
+ chậm lớn và giảm sức đề kháng, suy dinh dưỡng và chậm phát triển chiều cao. biếng
311
+ ăn , Tóm lại, vi chất dinh dưỡng là những chất chỉ chiếm một lượng nhỏ trong cơ
312
+ thể nhưng đóng vai trò rất quan trọng trong tăng trưởng, duy trì và nâng cao sức
313
+ khỏe, phát triển trí tuệ,... Thiếu vi chất là tình trạng thường gặp ở trẻ nhỏ
314
+ ảnh hưởng đến sự phát triển của trẻ. Do vậy, khi trẻ có những biểu hiện thiếu
315
+ vi chất dinh dưỡng thì cha mẹ hãy đưa trẻ đến ngay cơ sở y tế để được kiểm tra.
316
+ Ngoài ra cha mẹ cũng nên cho trẻ khám định kỳ nhằm phát hiện sớm tình trạng thiếu
317
+ vi chất ở trẻ. Thiếu vi chất dinh dưỡng LaminKid Suy dinh dưỡng Vi chất dinh
318
+ dưỡng Chậm phát triển chiều cao Chậm phát triển trí tuệ'
319
+ - ' Bất kỳ ai bị tiểu đường đều có nguy cơ cao mắc hôn mê do tiểu đường, tuy nhiên
320
+ những yếu tố dưới đây được xem là các nguy cơ hàng đầu dẫn đến tình trạng này,
321
+ bao gồm: Nếu bạn đang sử dụng máy bơm insulin, bạn cần phải kiểm tra thường xuyên
322
+ lượng đường trong máu của mình. Việc cung cấp insulin có thể dừng lại nếu máy
323
+ bơm bị lỗi hoặc ống thông bị xoắn hay rơi ra khỏi vị trí. Khi bị thiếu hụt insulin
324
+ có thể dẫn đến tình trạng nhiễm toan ceton do tiểu đường. Vấn đề về cung cấp
325
+ insulin: Khi cơ thể bị ốm hoặc gặp phải chấn thương sẽ khiến cho lượng đường trong
326
+ máu của bạn có xu hướng tăng cao đột ngột. Điều này có thể gây ra nhiễm toan ceton
327
+ do tiểu đường nếu bạn bị bệnh tiểu đường loại 1 và không tăng liều insulin để
328
+ bù đắp cho lượng bị thiếu hụt. Một số tình trạng sức khoẻ khác, chẳng hạn như
329
+ bệnh thận hoặc
330
+
331
+ suy tim sung huyết
332
+
333
+ , cũng có thể làm tăng nguy cơ mắc hội chứng tăng áp lực thẩm thấu bệnh tiểu đường
334
+ (hyperosmolar). Bệnh tật, chấn thương hoặc phẫu thuật: suy tim sung huyết Nếu
335
+ bạn không theo dõi thường xuyên lượng đường trong máu hoặc dùng thuốc không theo
336
+ chỉ dẫn của bác sĩ, bạn sẽ có nguy cơ cao mắc các biến chứng tiểu đường lâu dài,
337
+ thậm chí là hôn mê do tiểu đường. Bệnh tiểu đường không được kiểm soát tốt: Đôi
338
+ khi những người mắc bệnh tiểu đường cũng có thể gặp phải chứng
339
+
340
+ rối loạn ăn uống
341
+
342
+ chọn không sử dụng insulin theo chỉ dẫn với mong muốn có thể giảm cân. Đây là
343
+ một hành động khá nguy hiểm, đe dọa đến tính mạng và làm tăng nguy cơ hôn mê do
344
+ tiểu đường. Cố ý bỏ bữa hoặc không dùng insulin: rối loạn ăn uống Rượu là một
345
+ trong những yếu tố có thể tác động khó lượng đến lượng đường trong máu của bạn.
346
+ Tác dụng an thần của rượu có thể khiến bạn khó nhận biết được khi nào mình đang
347
+ gặp phải các triệu chứng của hạ đường huyết. Điều này cũng sẽ làm tăng nguy cơ
348
+ hôn mê do tiểu đường. Uống nhiều rượu: Một số loại thuốc bị cấm sử dụng, chẳng
349
+ hạn như
350
+
351
+ cocaine
352
+
353
+ hoặc thuốc lắc, có thể làm tăng nguy cơ lượng đường trong máu cao ở mức nghiêm
354
+ trọng và các tình trạng khác liên quan đến hôn mê do tiểu đường. Sử dụng các
355
+ loại thuốc bất hợp pháp: cocaine'
356
+ - ' Việc lạm dụng hoặc sử dụng không đúng các sản phẩm giải độc gan có thể để lại
357
+ một số tác dụng không mong muốn, khiến cho tình trạng bệnh lý ở gan nặng hơn cũng
358
+ như gây ra các tác dụng phụ toàn thân, nặng hơn có thể dẫn đến
359
+
360
+ suy gan
361
+
362
+ , đe dọa tính mạng. Do đó, không nên tự ý sử dụng các loại thuốc hoặc thực phẩm
363
+ chức năng giải độc gan nếu không có hướng dẫn, chỉ định của bác sĩ. suy gan Một
364
+ số bệnh nhân mắc các bệnh lý gan m��t tự ý dùng các thuốc giải độc gan đơn thuần
365
+ với hy vọng điều trị được bệnh. Đây là quan điểm sai lầm bởi vì gan bị nhiễm độc
366
+ là do nhiều nguyên nhân khác nhau. Điều quan trọng là phải tìm được nguyên nhân
367
+ mới hy vọng điều trị bệnh hiệu quả. Thực tế là các thuốc giải độc gan chỉ hỗ trợ
368
+ điều trị tổn thương gan chứ không tác dụng trực tiếp đến nguyên nhân bệnh. Do
369
+ đó, các sản phẩm giải độc gan không thể thay thế điều trị y khoa. Phương pháp
370
+ dân gian giải độc gan được truyền miệng từ xa xưa không phải đều phù hợp với tất
371
+ cả bệnh nhân. Tác dụng và hiệu quả còn tùy thuộc vào cơ địa từng người, bệnh cảnh
372
+ cụ thể, cũng như liều lượng, cách dùng, cách bảo quản,... Việc sử dụng tùy tiện
373
+ các loại cây thuốc nam không những không mang lại hiệu quả điều trị mà còn có
374
+ thể ảnh hưởng đến sức khỏe người bệnh. Một số người bệnh
375
+
376
+ nghiện rượu
377
+
378
+ bia tỏ ra chủ quan khi dùng thuốc giải độc gan vì cho rằng mỗi khi đã sử dụng
379
+ thuốc giải độc gan thì có thể uống bao nhiêu bia, rượu cũng được. Điều này hoàn
380
+ toàn sai lầm vì thuốc giải độc gan không thể hỗ trợ điều trị khi nguyên nhân không
381
+ được giải quyết. nghiện rượu'
382
+ - source_sentence: Có cách nào để cải thiện môi trường làm việc độc hại không?
383
+ sentences:
384
+ - ' Chấn thương đầu, cổ, tủy sống rất nguy hiểm vì có thể gây mất vận động (liệt),
385
+
386
+ hôn mê
387
+
388
+ và tử vong.
389
+
390
+ Chấn thương tủy sống
391
+
392
+ là nguyên nhân tổn thương thần kinh và gây ra
393
+
394
+ khó thở
395
+
396
+ . hôn mê Chấn thương tủy sống khó thở Người bệnh bị chấn thương đầu, cổ, tủy
397
+ sống cần được vận chuyển hết sức thận trọng. Bởi bất cứ vận động nào không phù
398
+ hợp cũng có thể làm chấn thương nặng thêm như liệt tay hoặc chân. Nếu người bệnh
399
+ không tỉnh, cần thực hiện hỗ trợ sự sống cơ bản.'
400
+ - ' Quá trình mang thai bị tê tay chân là hiện tượng phổ biến thường gặp. Nếu ở
401
+ mức độ nhẹ thì bệnh chỉ gây ảnh hưởng đến sinh hoạt hằng ngày. Nhưng nếu như tình
402
+ trạng tê tay chân diễn ra liên tục và kèm theo các chứng
403
+
404
+ chóng mặt
405
+
406
+ , khó nhấc tay chân, co cơ,... cần nghĩ đến dấu hiệu của một bệnh lý khác. chóng
407
+ mặt Lúc này, bạn cần tới các cơ sở y tế uy tín gần nhất để được thăm khám chuyên
408
+ sâu và có hướng điều trị phù hợp.'
409
+ - ' Tương tự như chất độc trong không khí,
410
+
411
+ có thể gây hại cho sức khỏe tinh thần và thể chất của người lao động. Nếu bạn
412
+ tiếp tục làm việc quá lâu, nó có thể dẫn đến mức độ căng thẳng cao, lòng tự trọng
413
+ bị tụt giảm và bệnh lý trầm cảm. môi trường làm việc độc hại Nếu sự vấn đề đến
414
+ từ lãnh đạo hoặc tư duy của công ty, bạn sẽ không thể làm được gì nhiều để cải
415
+ thiện, tuy nhiên nếu vấn đề chỉ đến từ 1 hoặc 2 người, bạn có thể thảo luận với
416
+ người quản lý đáng tin cậy hoặc nói chuyện với bộ phận nhân sự (HR). Sau đó, công
417
+ ty có thể thuê trợ giúp từ bên ngoài như thông qua chương trình hỗ trợ nhân viên
418
+ (EAP) để giúp giải quyết vấn đề. Nếu không có sự lựa chọn nào ngoài việc ở lại
419
+ lúc này, hãy thử đặt mình vào một vỏ bọc nhỏ, cố gắng tránh mọi thị phi và giữ
420
+ an tĩnh cho riêng mình. Tập trung vào các mục tiêu bên ngoài công việc và bắt
421
+ đầu lập kế hoạch để thoát ra ngoài.'
422
+ pipeline_tag: sentence-similarity
423
+ model-index:
424
+ - name: SentenceTransformer based on BookingCare/multilingual-e5-base-v2
425
+ results:
426
+ - task:
427
+ type: information-retrieval
428
+ name: Information Retrieval
429
+ dataset:
430
+ name: healthcare dev
431
+ type: healthcare-dev
432
+ metrics:
433
+ - type: cosine_accuracy@1
434
+ value: 0.8482587064676617
435
+ name: Cosine Accuracy@1
436
+ - type: cosine_accuracy@3
437
+ value: 0.9266169154228856
438
+ name: Cosine Accuracy@3
439
+ - type: cosine_accuracy@5
440
+ value: 0.9465174129353234
441
+ name: Cosine Accuracy@5
442
+ - type: cosine_accuracy@10
443
+ value: 0.9639303482587065
444
+ name: Cosine Accuracy@10
445
+ - type: cosine_precision@1
446
+ value: 0.8482587064676617
447
+ name: Cosine Precision@1
448
+ - type: cosine_precision@3
449
+ value: 0.3088723051409619
450
+ name: Cosine Precision@3
451
+ - type: cosine_precision@5
452
+ value: 0.18930348258706467
453
+ name: Cosine Precision@5
454
+ - type: cosine_precision@10
455
+ value: 0.09639303482587065
456
+ name: Cosine Precision@10
457
+ - type: cosine_recall@1
458
+ value: 0.8482587064676617
459
+ name: Cosine Recall@1
460
+ - type: cosine_recall@3
461
+ value: 0.9266169154228856
462
+ name: Cosine Recall@3
463
+ - type: cosine_recall@5
464
+ value: 0.9465174129353234
465
+ name: Cosine Recall@5
466
+ - type: cosine_recall@10
467
+ value: 0.9639303482587065
468
+ name: Cosine Recall@10
469
+ - type: cosine_ndcg@10
470
+ value: 0.9103935171059057
471
+ name: Cosine Ndcg@10
472
+ - type: cosine_mrr@10
473
+ value: 0.8927939666745639
474
+ name: Cosine Mrr@10
475
+ - type: cosine_map@100
476
+ value: 0.8943003609860257
477
+ name: Cosine Map@100
478
+ - type: dot_accuracy@1
479
+ value: 0.8482587064676617
480
+ name: Dot Accuracy@1
481
+ - type: dot_accuracy@3
482
+ value: 0.9266169154228856
483
+ name: Dot Accuracy@3
484
+ - type: dot_accuracy@5
485
+ value: 0.9465174129353234
486
+ name: Dot Accuracy@5
487
+ - type: dot_accuracy@10
488
+ value: 0.9639303482587065
489
+ name: Dot Accuracy@10
490
+ - type: dot_precision@1
491
+ value: 0.8482587064676617
492
+ name: Dot Precision@1
493
+ - type: dot_precision@3
494
+ value: 0.3088723051409619
495
+ name: Dot Precision@3
496
+ - type: dot_precision@5
497
+ value: 0.18930348258706467
498
+ name: Dot Precision@5
499
+ - type: dot_precision@10
500
+ value: 0.09639303482587065
501
+ name: Dot Precision@10
502
+ - type: dot_recall@1
503
+ value: 0.8482587064676617
504
+ name: Dot Recall@1
505
+ - type: dot_recall@3
506
+ value: 0.9266169154228856
507
+ name: Dot Recall@3
508
+ - type: dot_recall@5
509
+ value: 0.9465174129353234
510
+ name: Dot Recall@5
511
+ - type: dot_recall@10
512
+ value: 0.9639303482587065
513
+ name: Dot Recall@10
514
+ - type: dot_ndcg@10
515
+ value: 0.9103935171059057
516
+ name: Dot Ndcg@10
517
+ - type: dot_mrr@10
518
+ value: 0.8927939666745639
519
+ name: Dot Mrr@10
520
+ - type: dot_map@100
521
+ value: 0.8943003609860257
522
+ name: Dot Map@100
523
+ - task:
524
+ type: information-retrieval
525
+ name: Information Retrieval
526
+ dataset:
527
+ name: healthcare test
528
+ type: healthcare-test
529
+ metrics:
530
+ - type: cosine_accuracy@1
531
+ value: 0.6713868285007867
532
+ name: Cosine Accuracy@1
533
+ - type: cosine_accuracy@3
534
+ value: 0.8208586199145875
535
+ name: Cosine Accuracy@3
536
+ - type: cosine_accuracy@5
537
+ value: 0.8650258485052821
538
+ name: Cosine Accuracy@5
539
+ - type: cosine_accuracy@10
540
+ value: 0.8996403686221622
541
+ name: Cosine Accuracy@10
542
+ - type: cosine_precision@1
543
+ value: 0.6713868285007867
544
+ name: Cosine Precision@1
545
+ - type: cosine_precision@3
546
+ value: 0.2736195399715291
547
+ name: Cosine Precision@3
548
+ - type: cosine_precision@5
549
+ value: 0.17300516970105642
550
+ name: Cosine Precision@5
551
+ - type: cosine_precision@10
552
+ value: 0.08996403686221624
553
+ name: Cosine Precision@10
554
+ - type: cosine_recall@1
555
+ value: 0.6713868285007867
556
+ name: Cosine Recall@1
557
+ - type: cosine_recall@3
558
+ value: 0.8208586199145875
559
+ name: Cosine Recall@3
560
+ - type: cosine_recall@5
561
+ value: 0.8650258485052821
562
+ name: Cosine Recall@5
563
+ - type: cosine_recall@10
564
+ value: 0.8996403686221622
565
+ name: Cosine Recall@10
566
+ - type: cosine_ndcg@10
567
+ value: 0.7891859267149058
568
+ name: Cosine Ndcg@10
569
+ - type: cosine_mrr@10
570
+ value: 0.7533213277818758
571
+ name: Cosine Mrr@10
572
+ - type: cosine_map@100
573
+ value: 0.7563423273488229
574
+ name: Cosine Map@100
575
+ - type: dot_accuracy@1
576
+ value: 0.6713868285007867
577
+ name: Dot Accuracy@1
578
+ - type: dot_accuracy@3
579
+ value: 0.8208586199145875
580
+ name: Dot Accuracy@3
581
+ - type: dot_accuracy@5
582
+ value: 0.8650258485052821
583
+ name: Dot Accuracy@5
584
+ - type: dot_accuracy@10
585
+ value: 0.8996403686221622
586
+ name: Dot Accuracy@10
587
+ - type: dot_precision@1
588
+ value: 0.6713868285007867
589
+ name: Dot Precision@1
590
+ - type: dot_precision@3
591
+ value: 0.2736195399715291
592
+ name: Dot Precision@3
593
+ - type: dot_precision@5
594
+ value: 0.17300516970105642
595
+ name: Dot Precision@5
596
+ - type: dot_precision@10
597
+ value: 0.08996403686221624
598
+ name: Dot Precision@10
599
+ - type: dot_recall@1
600
+ value: 0.6713868285007867
601
+ name: Dot Recall@1
602
+ - type: dot_recall@3
603
+ value: 0.8208586199145875
604
+ name: Dot Recall@3
605
+ - type: dot_recall@5
606
+ value: 0.8650258485052821
607
+ name: Dot Recall@5
608
+ - type: dot_recall@10
609
+ value: 0.8996403686221622
610
+ name: Dot Recall@10
611
+ - type: dot_ndcg@10
612
+ value: 0.7891859267149058
613
+ name: Dot Ndcg@10
614
+ - type: dot_mrr@10
615
+ value: 0.7533213277818758
616
+ name: Dot Mrr@10
617
+ - type: dot_map@100
618
+ value: 0.7563423273488229
619
+ name: Dot Map@100
620
+ ---
621
+
622
+ # SentenceTransformer based on BookingCare/multilingual-e5-base-v2
623
+
624
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BookingCare/multilingual-e5-base-v2](https://huggingface.co/BookingCare/multilingual-e5-base-v2). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
625
+
626
+ ## Model Details
627
+
628
+ ### Model Description
629
+ - **Model Type:** Sentence Transformer
630
+ - **Base model:** [BookingCare/multilingual-e5-base-v2](https://huggingface.co/BookingCare/multilingual-e5-base-v2) <!-- at revision 2123c87e34210130089526ab28cbb04929aefd66 -->
631
+ - **Maximum Sequence Length:** 512 tokens
632
+ - **Output Dimensionality:** 768 tokens
633
+ - **Similarity Function:** Cosine Similarity
634
+ <!-- - **Training Dataset:** Unknown -->
635
+ <!-- - **Language:** Unknown -->
636
+ <!-- - **License:** Unknown -->
637
+
638
+ ### Model Sources
639
+
640
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
641
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
642
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
643
+
644
+ ### Full Model Architecture
645
+
646
+ ```
647
+ SentenceTransformer(
648
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
649
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
650
+ (2): Normalize()
651
+ )
652
+ ```
653
+
654
+ ## Usage
655
+
656
+ ### Direct Usage (Sentence Transformers)
657
+
658
+ First install the Sentence Transformers library:
659
+
660
+ ```bash
661
+ pip install -U sentence-transformers
662
+ ```
663
+
664
+ Then you can load this model and run inference.
665
+ ```python
666
+ from sentence_transformers import SentenceTransformer
667
+
668
+ # Download from the 🤗 Hub
669
+ model = SentenceTransformer("BookingCare/multilingual-base-e5-v3.1")
670
+ # Run inference
671
+ sentences = [
672
+ 'Có cách nào để cải thiện môi trường làm việc độc hại không?',
673
+ ' Tương tự như chất độc trong không khí,\ncó thể gây hại cho sức khỏe tinh thần và thể chất của người lao động. Nếu bạn tiếp tục làm việc quá lâu, nó có thể dẫn đến mức độ căng thẳng cao, lòng tự trọng bị tụt giảm và bệnh lý trầm cảm. môi trường làm việc độc hại Nếu sự vấn đề đến từ lãnh đạo hoặc tư duy của công ty, bạn sẽ không thể làm được gì nhiều để cải thiện, tuy nhiên nếu vấn đề chỉ đến từ 1 hoặc 2 người, bạn có thể thảo luận với người quản lý đáng tin cậy hoặc nói chuyện với bộ phận nhân sự (HR). Sau đó, công ty có thể thuê trợ giúp từ bên ngoài như thông qua chương trình hỗ trợ nhân viên (EAP) để giúp giải quyết vấn đề. Nếu không có sự lựa chọn nào ngoài việc ở lại lúc này, hãy thử đặt mình vào một vỏ bọc nhỏ, cố gắng tránh mọi thị phi và giữ an tĩnh cho riêng mình. Tập trung vào các mục tiêu bên ngoài công việc và bắt đầu lập kế hoạch để thoát ra ngoài.',
674
+ ' Chấn thương đầu, cổ, tủy sống rất nguy hiểm vì có thể gây mất vận động (liệt),\nhôn mê\nvà tử vong.\nChấn thương tủy sống\nlà nguyên nhân tổn thương thần kinh và gây ra\nkhó thở\n. hôn mê Chấn thương tủy sống khó thở Người bệnh bị chấn thương đầu, cổ, tủy sống cần được vận chuyển hết sức thận trọng. Bởi bất cứ vận động nào không phù hợp cũng có thể làm chấn thương nặng thêm như liệt tay hoặc chân. Nếu người bệnh không tỉnh, cần thực hiện hỗ trợ sự sống cơ bản.',
675
+ ]
676
+ embeddings = model.encode(sentences)
677
+ print(embeddings.shape)
678
+ # [3, 768]
679
+
680
+ # Get the similarity scores for the embeddings
681
+ similarities = model.similarity(embeddings, embeddings)
682
+ print(similarities.shape)
683
+ # [3, 3]
684
+ ```
685
+
686
+ <!--
687
+ ### Direct Usage (Transformers)
688
+
689
+ <details><summary>Click to see the direct usage in Transformers</summary>
690
+
691
+ </details>
692
+ -->
693
+
694
+ <!--
695
+ ### Downstream Usage (Sentence Transformers)
696
+
697
+ You can finetune this model on your own dataset.
698
+
699
+ <details><summary>Click to expand</summary>
700
+
701
+ </details>
702
+ -->
703
+
704
+ <!--
705
+ ### Out-of-Scope Use
706
+
707
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
708
+ -->
709
+
710
+ ## Evaluation
711
+
712
+ ### Metrics
713
+
714
+ #### Information Retrieval
715
+ * Dataset: `healthcare-dev`
716
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
717
+
718
+ | Metric | Value |
719
+ |:--------------------|:-----------|
720
+ | cosine_accuracy@1 | 0.8483 |
721
+ | cosine_accuracy@3 | 0.9266 |
722
+ | cosine_accuracy@5 | 0.9465 |
723
+ | cosine_accuracy@10 | 0.9639 |
724
+ | cosine_precision@1 | 0.8483 |
725
+ | cosine_precision@3 | 0.3089 |
726
+ | cosine_precision@5 | 0.1893 |
727
+ | cosine_precision@10 | 0.0964 |
728
+ | cosine_recall@1 | 0.8483 |
729
+ | cosine_recall@3 | 0.9266 |
730
+ | cosine_recall@5 | 0.9465 |
731
+ | cosine_recall@10 | 0.9639 |
732
+ | cosine_ndcg@10 | 0.9104 |
733
+ | cosine_mrr@10 | 0.8928 |
734
+ | **cosine_map@100** | **0.8943** |
735
+ | dot_accuracy@1 | 0.8483 |
736
+ | dot_accuracy@3 | 0.9266 |
737
+ | dot_accuracy@5 | 0.9465 |
738
+ | dot_accuracy@10 | 0.9639 |
739
+ | dot_precision@1 | 0.8483 |
740
+ | dot_precision@3 | 0.3089 |
741
+ | dot_precision@5 | 0.1893 |
742
+ | dot_precision@10 | 0.0964 |
743
+ | dot_recall@1 | 0.8483 |
744
+ | dot_recall@3 | 0.9266 |
745
+ | dot_recall@5 | 0.9465 |
746
+ | dot_recall@10 | 0.9639 |
747
+ | dot_ndcg@10 | 0.9104 |
748
+ | dot_mrr@10 | 0.8928 |
749
+ | dot_map@100 | 0.8943 |
750
+
751
+ #### Information Retrieval
752
+ * Dataset: `healthcare-test`
753
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
754
+
755
+ | Metric | Value |
756
+ |:--------------------|:-----------|
757
+ | cosine_accuracy@1 | 0.6714 |
758
+ | cosine_accuracy@3 | 0.8209 |
759
+ | cosine_accuracy@5 | 0.865 |
760
+ | cosine_accuracy@10 | 0.8996 |
761
+ | cosine_precision@1 | 0.6714 |
762
+ | cosine_precision@3 | 0.2736 |
763
+ | cosine_precision@5 | 0.173 |
764
+ | cosine_precision@10 | 0.09 |
765
+ | cosine_recall@1 | 0.6714 |
766
+ | cosine_recall@3 | 0.8209 |
767
+ | cosine_recall@5 | 0.865 |
768
+ | cosine_recall@10 | 0.8996 |
769
+ | cosine_ndcg@10 | 0.7892 |
770
+ | cosine_mrr@10 | 0.7533 |
771
+ | **cosine_map@100** | **0.7563** |
772
+ | dot_accuracy@1 | 0.6714 |
773
+ | dot_accuracy@3 | 0.8209 |
774
+ | dot_accuracy@5 | 0.865 |
775
+ | dot_accuracy@10 | 0.8996 |
776
+ | dot_precision@1 | 0.6714 |
777
+ | dot_precision@3 | 0.2736 |
778
+ | dot_precision@5 | 0.173 |
779
+ | dot_precision@10 | 0.09 |
780
+ | dot_recall@1 | 0.6714 |
781
+ | dot_recall@3 | 0.8209 |
782
+ | dot_recall@5 | 0.865 |
783
+ | dot_recall@10 | 0.8996 |
784
+ | dot_ndcg@10 | 0.7892 |
785
+ | dot_mrr@10 | 0.7533 |
786
+ | dot_map@100 | 0.7563 |
787
+
788
+ <!--
789
+ ## Bias, Risks and Limitations
790
+
791
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
792
+ -->
793
+
794
+ <!--
795
+ ### Recommendations
796
+
797
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
798
+ -->
799
+
800
+ ## Training Details
801
+
802
+ ### Training Hyperparameters
803
+ #### Non-Default Hyperparameters
804
+
805
+ - `eval_strategy`: steps
806
+ - `per_device_train_batch_size`: 5
807
+ - `per_device_eval_batch_size`: 6
808
+ - `learning_rate`: 2e-05
809
+ - `num_train_epochs`: 2
810
+ - `warmup_ratio`: 0.1
811
+ - `fp16`: True
812
+ - `batch_sampler`: no_duplicates
813
+
814
+ #### All Hyperparameters
815
+ <details><summary>Click to expand</summary>
816
+
817
+ - `overwrite_output_dir`: False
818
+ - `do_predict`: False
819
+ - `eval_strategy`: steps
820
+ - `prediction_loss_only`: True
821
+ - `per_device_train_batch_size`: 5
822
+ - `per_device_eval_batch_size`: 6
823
+ - `per_gpu_train_batch_size`: None
824
+ - `per_gpu_eval_batch_size`: None
825
+ - `gradient_accumulation_steps`: 1
826
+ - `eval_accumulation_steps`: None
827
+ - `learning_rate`: 2e-05
828
+ - `weight_decay`: 0.0
829
+ - `adam_beta1`: 0.9
830
+ - `adam_beta2`: 0.999
831
+ - `adam_epsilon`: 1e-08
832
+ - `max_grad_norm`: 1.0
833
+ - `num_train_epochs`: 2
834
+ - `max_steps`: -1
835
+ - `lr_scheduler_type`: linear
836
+ - `lr_scheduler_kwargs`: {}
837
+ - `warmup_ratio`: 0.1
838
+ - `warmup_steps`: 0
839
+ - `log_level`: passive
840
+ - `log_level_replica`: warning
841
+ - `log_on_each_node`: True
842
+ - `logging_nan_inf_filter`: True
843
+ - `save_safetensors`: True
844
+ - `save_on_each_node`: False
845
+ - `save_only_model`: False
846
+ - `restore_callback_states_from_checkpoint`: False
847
+ - `no_cuda`: False
848
+ - `use_cpu`: False
849
+ - `use_mps_device`: False
850
+ - `seed`: 42
851
+ - `data_seed`: None
852
+ - `jit_mode_eval`: False
853
+ - `use_ipex`: False
854
+ - `bf16`: False
855
+ - `fp16`: True
856
+ - `fp16_opt_level`: O1
857
+ - `half_precision_backend`: auto
858
+ - `bf16_full_eval`: False
859
+ - `fp16_full_eval`: False
860
+ - `tf32`: None
861
+ - `local_rank`: 0
862
+ - `ddp_backend`: None
863
+ - `tpu_num_cores`: None
864
+ - `tpu_metrics_debug`: False
865
+ - `debug`: []
866
+ - `dataloader_drop_last`: False
867
+ - `dataloader_num_workers`: 0
868
+ - `dataloader_prefetch_factor`: None
869
+ - `past_index`: -1
870
+ - `disable_tqdm`: False
871
+ - `remove_unused_columns`: True
872
+ - `label_names`: None
873
+ - `load_best_model_at_end`: False
874
+ - `ignore_data_skip`: False
875
+ - `fsdp`: []
876
+ - `fsdp_min_num_params`: 0
877
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
878
+ - `fsdp_transformer_layer_cls_to_wrap`: None
879
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
880
+ - `deepspeed`: None
881
+ - `label_smoothing_factor`: 0.0
882
+ - `optim`: adamw_torch
883
+ - `optim_args`: None
884
+ - `adafactor`: False
885
+ - `group_by_length`: False
886
+ - `length_column_name`: length
887
+ - `ddp_find_unused_parameters`: None
888
+ - `ddp_bucket_cap_mb`: None
889
+ - `ddp_broadcast_buffers`: False
890
+ - `dataloader_pin_memory`: True
891
+ - `dataloader_persistent_workers`: False
892
+ - `skip_memory_metrics`: True
893
+ - `use_legacy_prediction_loop`: False
894
+ - `push_to_hub`: False
895
+ - `resume_from_checkpoint`: None
896
+ - `hub_model_id`: None
897
+ - `hub_strategy`: every_save
898
+ - `hub_private_repo`: False
899
+ - `hub_always_push`: False
900
+ - `gradient_checkpointing`: False
901
+ - `gradient_checkpointing_kwargs`: None
902
+ - `include_inputs_for_metrics`: False
903
+ - `eval_do_concat_batches`: True
904
+ - `fp16_backend`: auto
905
+ - `push_to_hub_model_id`: None
906
+ - `push_to_hub_organization`: None
907
+ - `mp_parameters`:
908
+ - `auto_find_batch_size`: False
909
+ - `full_determinism`: False
910
+ - `torchdynamo`: None
911
+ - `ray_scope`: last
912
+ - `ddp_timeout`: 1800
913
+ - `torch_compile`: False
914
+ - `torch_compile_backend`: None
915
+ - `torch_compile_mode`: None
916
+ - `dispatch_batches`: None
917
+ - `split_batches`: None
918
+ - `include_tokens_per_second`: False
919
+ - `include_num_input_tokens_seen`: False
920
+ - `neftune_noise_alpha`: None
921
+ - `optim_target_modules`: None
922
+ - `batch_eval_metrics`: False
923
+ - `batch_sampler`: no_duplicates
924
+ - `multi_dataset_batch_sampler`: proportional
925
+
926
+ </details>
927
+
928
+ ### Training Logs
929
+ <details><summary>Click to expand</summary>
930
+
931
+ | Epoch | Step | Training Loss | Validation Loss | healthcare-dev_cosine_map@100 | healthcare-test_cosine_map@100 |
932
+ |:------:|:-----:|:-------------:|:---------------:|:-----------------------------:|:------------------------------:|
933
+ | 0 | 0 | - | - | 0.8140 | 0.6266 |
934
+ | 0.0126 | 100 | 0.1461 | 0.1289 | 0.8342 | - |
935
+ | 0.0251 | 200 | 0.1063 | 0.1130 | 0.8448 | - |
936
+ | 0.0377 | 300 | 0.1015 | 0.1008 | 0.8536 | - |
937
+ | 0.0502 | 400 | 0.086 | 0.0937 | 0.8586 | - |
938
+ | 0.0628 | 500 | 0.0824 | 0.0895 | 0.8654 | - |
939
+ | 0.0753 | 600 | 0.1008 | 0.0872 | 0.8669 | - |
940
+ | 0.0879 | 700 | 0.0755 | 0.0930 | 0.8658 | - |
941
+ | 0.1004 | 800 | 0.0968 | 0.0923 | 0.8683 | - |
942
+ | 0.1130 | 900 | 0.1011 | 0.0889 | 0.8677 | - |
943
+ | 0.1255 | 1000 | 0.0943 | 0.0805 | 0.8706 | - |
944
+ | 0.1381 | 1100 | 0.0668 | 0.0782 | 0.8660 | - |
945
+ | 0.1507 | 1200 | 0.0746 | 0.0814 | 0.8738 | - |
946
+ | 0.1632 | 1300 | 0.0825 | 0.0768 | 0.8728 | - |
947
+ | 0.1758 | 1400 | 0.0851 | 0.0860 | 0.8660 | - |
948
+ | 0.1883 | 1500 | 0.1029 | 0.0736 | 0.8752 | - |
949
+ | 0.2009 | 1600 | 0.071 | 0.0805 | 0.8760 | - |
950
+ | 0.2134 | 1700 | 0.081 | 0.0717 | 0.8731 | - |
951
+ | 0.2260 | 1800 | 0.0767 | 0.0698 | 0.8744 | - |
952
+ | 0.2385 | 1900 | 0.0895 | 0.0795 | 0.8705 | - |
953
+ | 0.2511 | 2000 | 0.0666 | 0.0740 | 0.8701 | - |
954
+ | 0.2637 | 2100 | 0.0791 | 0.0702 | 0.8733 | - |
955
+ | 0.2762 | 2200 | 0.0779 | 0.0797 | 0.8767 | - |
956
+ | 0.2888 | 2300 | 0.0812 | 0.0739 | 0.8790 | - |
957
+ | 0.3013 | 2400 | 0.0492 | 0.0754 | 0.8798 | - |
958
+ | 0.3139 | 2500 | 0.0442 | 0.0850 | 0.8722 | - |
959
+ | 0.3264 | 2600 | 0.0652 | 0.0901 | 0.8717 | - |
960
+ | 0.3390 | 2700 | 0.0579 | 0.0865 | 0.8733 | - |
961
+ | 0.3515 | 2800 | 0.0543 | 0.0945 | 0.8742 | - |
962
+ | 0.3641 | 2900 | 0.0639 | 0.0950 | 0.8678 | - |
963
+ | 0.3766 | 3000 | 0.0587 | 0.0824 | 0.8775 | - |
964
+ | 0.3892 | 3100 | 0.078 | 0.0864 | 0.8675 | - |
965
+ | 0.4018 | 3200 | 0.091 | 0.0686 | 0.8763 | - |
966
+ | 0.4143 | 3300 | 0.0763 | 0.0780 | 0.8734 | - |
967
+ | 0.4269 | 3400 | 0.0552 | 0.0842 | 0.8668 | - |
968
+ | 0.4394 | 3500 | 0.0549 | 0.0748 | 0.8748 | - |
969
+ | 0.4520 | 3600 | 0.0642 | 0.0755 | 0.8790 | - |
970
+ | 0.4645 | 3700 | 0.0796 | 0.0815 | 0.8650 | - |
971
+ | 0.4771 | 3800 | 0.0949 | 0.0755 | 0.8642 | - |
972
+ | 0.4896 | 3900 | 0.0783 | 0.0691 | 0.8698 | - |
973
+ | 0.5022 | 4000 | 0.0534 | 0.0655 | 0.8822 | - |
974
+ | 0.5148 | 4100 | 0.0453 | 0.0709 | 0.8742 | - |
975
+ | 0.5273 | 4200 | 0.0498 | 0.0612 | 0.8838 | - |
976
+ | 0.5399 | 4300 | 0.0903 | 0.0619 | 0.8795 | - |
977
+ | 0.5524 | 4400 | 0.0667 | 0.0712 | 0.8825 | - |
978
+ | 0.5650 | 4500 | 0.0364 | 0.0962 | 0.8722 | - |
979
+ | 0.5775 | 4600 | 0.0502 | 0.0706 | 0.8790 | - |
980
+ | 0.5901 | 4700 | 0.0685 | 0.0672 | 0.8788 | - |
981
+ | 0.6026 | 4800 | 0.0675 | 0.0695 | 0.8768 | - |
982
+ | 0.6152 | 4900 | 0.083 | 0.0680 | 0.8787 | - |
983
+ | 0.6277 | 5000 | 0.0598 | 0.0715 | 0.8769 | - |
984
+ | 0.6403 | 5100 | 0.0548 | 0.0710 | 0.8744 | - |
985
+ | 0.6529 | 5200 | 0.0682 | 0.0679 | 0.8855 | - |
986
+ | 0.6654 | 5300 | 0.0378 | 0.0779 | 0.8809 | - |
987
+ | 0.6780 | 5400 | 0.0274 | 0.0711 | 0.8864 | - |
988
+ | 0.6905 | 5500 | 0.0635 | 0.0699 | 0.8842 | - |
989
+ | 0.7031 | 5600 | 0.0681 | 0.0563 | 0.8867 | - |
990
+ | 0.7156 | 5700 | 0.0389 | 0.0595 | 0.8806 | - |
991
+ | 0.7282 | 5800 | 0.0419 | 0.0586 | 0.8796 | - |
992
+ | 0.7407 | 5900 | 0.0306 | 0.0520 | 0.8837 | - |
993
+ | 0.7533 | 6000 | 0.0418 | 0.0622 | 0.8759 | - |
994
+ | 0.7659 | 6100 | 0.0459 | 0.0691 | 0.8770 | - |
995
+ | 0.7784 | 6200 | 0.0616 | 0.0679 | 0.8818 | - |
996
+ | 0.7910 | 6300 | 0.0541 | 0.0658 | 0.8888 | - |
997
+ | 0.8035 | 6400 | 0.0742 | 0.0767 | 0.8890 | - |
998
+ | 0.8161 | 6500 | 0.0531 | 0.0675 | 0.8904 | - |
999
+ | 0.8286 | 6600 | 0.0513 | 0.0720 | 0.8909 | - |
1000
+ | 0.8412 | 6700 | 0.0505 | 0.0722 | 0.8897 | - |
1001
+ | 0.8537 | 6800 | 0.0451 | 0.0705 | 0.8895 | - |
1002
+ | 0.8663 | 6900 | 0.0456 | 0.0704 | 0.8892 | - |
1003
+ | 0.8788 | 7000 | 0.0506 | 0.0668 | 0.8901 | - |
1004
+ | 0.8914 | 7100 | 0.0424 | 0.0556 | 0.8903 | - |
1005
+ | 0.9040 | 7200 | 0.036 | 0.0602 | 0.8890 | - |
1006
+ | 0.9165 | 7300 | 0.0545 | 0.0656 | 0.8886 | - |
1007
+ | 0.9291 | 7400 | 0.0604 | 0.0695 | 0.8863 | - |
1008
+ | 0.9416 | 7500 | 0.0362 | 0.0617 | 0.8909 | - |
1009
+ | 0.9542 | 7600 | 0.0442 | 0.0666 | 0.8932 | - |
1010
+ | 0.9667 | 7700 | 0.0398 | 0.0648 | 0.8886 | - |
1011
+ | 0.9793 | 7800 | 0.0471 | 0.0654 | 0.8921 | - |
1012
+ | 0.9918 | 7900 | 0.0716 | 0.0615 | 0.8933 | - |
1013
+ | 1.0044 | 8000 | 0.0306 | 0.0735 | 0.8929 | - |
1014
+ | 1.0169 | 8100 | 0.0601 | 0.0708 | 0.8927 | - |
1015
+ | 1.0295 | 8200 | 0.041 | 0.0672 | 0.8939 | - |
1016
+ | 1.0421 | 8300 | 0.0311 | 0.0693 | 0.8956 | - |
1017
+ | 1.0546 | 8400 | 0.0508 | 0.0700 | 0.8984 | - |
1018
+ | 1.0672 | 8500 | 0.0414 | 0.0640 | 0.8933 | - |
1019
+ | 1.0797 | 8600 | 0.0451 | 0.0606 | 0.8943 | - |
1020
+ | 1.0923 | 8700 | 0.0347 | 0.0668 | 0.8898 | - |
1021
+ | 1.1048 | 8800 | 0.0413 | 0.0663 | 0.8965 | - |
1022
+ | 1.1174 | 8900 | 0.0369 | 0.0641 | 0.8964 | - |
1023
+ | 1.1299 | 9000 | 0.0252 | 0.0543 | 0.8925 | - |
1024
+ | 1.1425 | 9100 | 0.0221 | 0.0529 | 0.8879 | - |
1025
+ | 1.1551 | 9200 | 0.0306 | 0.0568 | 0.8951 | - |
1026
+ | 1.1676 | 9300 | 0.0378 | 0.0616 | 0.8954 | - |
1027
+ | 1.1802 | 9400 | 0.0338 | 0.0592 | 0.8913 | - |
1028
+ | 1.1927 | 9500 | 0.0207 | 0.0565 | 0.8992 | - |
1029
+ | 1.2053 | 9600 | 0.0259 | 0.0600 | 0.8962 | - |
1030
+ | 1.2178 | 9700 | 0.0079 | 0.0655 | 0.8950 | - |
1031
+ | 1.2304 | 9800 | 0.022 | 0.0660 | 0.8959 | - |
1032
+ | 1.2429 | 9900 | 0.0296 | 0.0657 | 0.8960 | - |
1033
+ | 1.2555 | 10000 | 0.0263 | 0.0667 | 0.8916 | - |
1034
+ | 1.2680 | 10100 | 0.0184 | 0.0590 | 0.8951 | - |
1035
+ | 1.2806 | 10200 | 0.0254 | 0.0587 | 0.8926 | - |
1036
+ | 1.2932 | 10300 | 0.0213 | 0.0627 | 0.8896 | - |
1037
+ | 1.3057 | 10400 | 0.0141 | 0.0655 | 0.8905 | - |
1038
+ | 1.3183 | 10500 | 0.0077 | 0.0702 | 0.8910 | - |
1039
+ | 1.3308 | 10600 | 0.0159 | 0.0700 | 0.8921 | - |
1040
+ | 1.3434 | 10700 | 0.015 | 0.0674 | 0.8908 | - |
1041
+ | 1.3559 | 10800 | 0.018 | 0.0698 | 0.8955 | - |
1042
+ | 1.3685 | 10900 | 0.0156 | 0.0677 | 0.8908 | - |
1043
+ | 1.3810 | 11000 | 0.0219 | 0.0666 | 0.8952 | - |
1044
+ | 1.3936 | 11100 | 0.015 | 0.0640 | 0.8941 | - |
1045
+ | 1.4062 | 11200 | 0.0231 | 0.0634 | 0.8916 | - |
1046
+ | 1.4187 | 11300 | 0.0172 | 0.0679 | 0.8940 | - |
1047
+ | 1.4313 | 11400 | 0.0228 | 0.0636 | 0.8925 | - |
1048
+ | 1.4438 | 11500 | 0.0199 | 0.0655 | 0.8935 | - |
1049
+ | 1.4564 | 11600 | 0.025 | 0.0687 | 0.8961 | - |
1050
+ | 1.4689 | 11700 | 0.0277 | 0.0679 | 0.8922 | - |
1051
+ | 1.4815 | 11800 | 0.0227 | 0.0672 | 0.8912 | - |
1052
+ | 1.4940 | 11900 | 0.0222 | 0.0679 | 0.8914 | - |
1053
+ | 1.5066 | 12000 | 0.0138 | 0.0656 | 0.8929 | - |
1054
+ | 1.5191 | 12100 | 0.0107 | 0.0663 | 0.8916 | - |
1055
+ | 1.5317 | 12200 | 0.0137 | 0.0580 | 0.8927 | - |
1056
+ | 1.5443 | 12300 | 0.0311 | 0.0578 | 0.8948 | - |
1057
+ | 1.5568 | 12400 | 0.0198 | 0.0621 | 0.8953 | - |
1058
+ | 1.5694 | 12500 | 0.0084 | 0.0638 | 0.8950 | - |
1059
+ | 1.5819 | 12600 | 0.0166 | 0.0600 | 0.8959 | - |
1060
+ | 1.5945 | 12700 | 0.0251 | 0.0599 | 0.8928 | - |
1061
+ | 1.6070 | 12800 | 0.0154 | 0.0624 | 0.8973 | - |
1062
+ | 1.6196 | 12900 | 0.0301 | 0.0629 | 0.8937 | - |
1063
+ | 1.6321 | 13000 | 0.0198 | 0.0616 | 0.8937 | - |
1064
+ | 1.6447 | 13100 | 0.0146 | 0.0601 | 0.8914 | - |
1065
+ | 1.6573 | 13200 | 0.0128 | 0.0610 | 0.8945 | - |
1066
+ | 1.6698 | 13300 | 0.0092 | 0.0606 | 0.8920 | - |
1067
+ | 1.6824 | 13400 | 0.0121 | 0.0595 | 0.8954 | - |
1068
+ | 1.6949 | 13500 | 0.0183 | 0.0577 | 0.8918 | - |
1069
+ | 1.7075 | 13600 | 0.0245 | 0.0572 | 0.8944 | - |
1070
+ | 1.7200 | 13700 | 0.0166 | 0.0592 | 0.8931 | - |
1071
+ | 1.7326 | 13800 | 0.0059 | 0.0593 | 0.8929 | - |
1072
+ | 1.7451 | 13900 | 0.0087 | 0.0581 | 0.8918 | - |
1073
+ | 1.7577 | 14000 | 0.0252 | 0.0595 | 0.8924 | - |
1074
+ | 1.7702 | 14100 | 0.0165 | 0.0585 | 0.8976 | - |
1075
+ | 1.7828 | 14200 | 0.022 | 0.0595 | 0.8976 | - |
1076
+ | 1.7954 | 14300 | 0.0143 | 0.0602 | 0.8967 | - |
1077
+ | 1.8079 | 14400 | 0.0328 | 0.0608 | 0.8974 | - |
1078
+ | 1.8205 | 14500 | 0.0228 | 0.0597 | 0.8983 | - |
1079
+ | 1.8330 | 14600 | 0.009 | 0.0594 | 0.8979 | - |
1080
+ | 1.8456 | 14700 | 0.0188 | 0.0593 | 0.8952 | - |
1081
+ | 1.8581 | 14800 | 0.0157 | 0.0583 | 0.8962 | - |
1082
+ | 1.8707 | 14900 | 0.0116 | 0.0571 | 0.8969 | - |
1083
+ | 1.8832 | 15000 | 0.0183 | 0.0559 | 0.8989 | - |
1084
+ | 1.8958 | 15100 | 0.0118 | 0.0554 | 0.8972 | - |
1085
+ | 1.9083 | 15200 | 0.0192 | 0.0559 | 0.8970 | - |
1086
+ | 1.9209 | 15300 | 0.0109 | 0.0566 | 0.8957 | - |
1087
+ | 1.9335 | 15400 | 0.0145 | 0.0566 | 0.8975 | - |
1088
+ | 1.9460 | 15500 | 0.0131 | 0.0573 | 0.8965 | - |
1089
+ | 1.9586 | 15600 | 0.0104 | 0.0575 | 0.8969 | - |
1090
+ | 1.9711 | 15700 | 0.0185 | 0.0581 | 0.8961 | - |
1091
+ | 1.9837 | 15800 | 0.0131 | 0.0579 | 0.8943 | - |
1092
+ | 1.9962 | 15900 | 0.032 | 0.0576 | 0.8943 | - |
1093
+ | 2.0 | 15930 | - | - | - | 0.7563 |
1094
+
1095
+ </details>
1096
+
1097
+ ### Framework Versions
1098
+ - Python: 3.10.13
1099
+ - Sentence Transformers: 3.2.0
1100
+ - Transformers: 4.41.2
1101
+ - PyTorch: 2.1.2
1102
+ - Accelerate: 0.30.1
1103
+ - Datasets: 2.19.2
1104
+ - Tokenizers: 0.19.1
1105
+
1106
+ ## Citation
1107
+
1108
+ ### BibTeX
1109
+
1110
+ #### Sentence Transformers
1111
+ ```bibtex
1112
+ @inproceedings{reimers-2019-sentence-bert,
1113
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
1114
+ author = "Reimers, Nils and Gurevych, Iryna",
1115
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
1116
+ month = "11",
1117
+ year = "2019",
1118
+ publisher = "Association for Computational Linguistics",
1119
+ url = "https://arxiv.org/abs/1908.10084",
1120
+ }
1121
+ ```
1122
+
1123
+ #### MultipleNegativesRankingLoss
1124
+ ```bibtex
1125
+ @misc{henderson2017efficient,
1126
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
1127
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
1128
+ year={2017},
1129
+ eprint={1705.00652},
1130
+ archivePrefix={arXiv},
1131
+ primaryClass={cs.CL}
1132
+ }
1133
+ ```
1134
+
1135
+ <!--
1136
+ ## Glossary
1137
+
1138
+ *Clearly define terms in order to be accessible across audiences.*
1139
+ -->
1140
+
1141
+ <!--
1142
+ ## Model Card Authors
1143
+
1144
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
1145
+ -->
1146
+
1147
+ <!--
1148
+ ## Model Card Contact
1149
+
1150
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
1151
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "BookingCare/multilingual-e5-base-v2",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.41.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.2.0",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:be0a07af5dfea8bb8fc12252cbe15712ba1fd362d5a68da68615d41b92629400
3
+ size 1112197096
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 512,
50
+ "model_max_length": 512,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "stride": 0,
57
+ "tokenizer_class": "XLMRobertaTokenizer",
58
+ "truncation_side": "right",
59
+ "truncation_strategy": "longest_first",
60
+ "unk_token": "<unk>"
61
+ }