KhangLeDuc commited on
Commit
0e2edcf
·
verified ·
1 Parent(s): b3837ca

Upload fine-tuned Vietnamese embedding model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,985 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - vi
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - dense
10
+ - generated_from_trainer
11
+ - dataset_size:57371
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: bkai-foundation-models/vietnamese-bi-encoder
15
+ widget:
16
+ - source_sentence: "Điều 1 Quyết_định 1788 / QĐ - UBND Quy_định tạm_thời định mức\
17
+ \ chi_phí trong xây_dựng có nội_dung như sau : \n \n Điều 1 . : Quy_định tạm_thời\
18
+ \ một_số định mức chi_phí trong xây_dựng cơ_bản lâm_sinh thuộc Dự_án 661 trên\
19
+ \ địa_bàn tỉnh Quảng_Bình như sau : \n 1 . Đối_với trồng và chăm_sóc rừng trồng\
20
+ \ phòng_hộ , rừng đặc_dụng : \n - Chi_phí trực_tiếp ( nhân_công , vật_tư ) được\
21
+ \ xây_dựng trên cơ_sở định mức ban_hành tại Quyết_định số 38 / 2005 / QĐ - BNN\
22
+ \ ngày 06 / 7 / 2005 của Bộ Nông_nghiệp và PTNT và đơn_giá trên địa_bàn tỉnh .\
23
+ \ \n - Chi_phí phục_vụ được tính theo Phụ_lục kèm theo Quyết_định này . \n 2 .\
24
+ \ Đối_với khoanh nuôi xúc_tiến tái_sinh có trồng bổ_sung cây lâm_nghiệp : \n Mức\
25
+ \ đầu_tư bình_quân là 2 triệu đồng / ha / 6 năm . Mức đầu_tư cụ_thể cho từng năm\
26
+ \ theo Phụ_lục kèm theo Quyết_định này ."
27
+ sentences:
28
+ - Khi có quyết_định tuyên_bố phá_sản thì doanh_nghiệp phải giải_quyết các khoản
29
+ nợ theo thứ tự phân_chia tài_sản như thế_nào ?
30
+ - Mức phạt đối_với hành_vi cản_trở trái_phép việc nghiên_cứu khoa_học sử_dụng ngân_sách
31
+ nhà nướcđược quy_định như thế_nào ?
32
+ - Điều 1 Quyết_định 1788 / QĐ - UBND Quy_định tạm_thời định mức chi_phí trong xây_dựng
33
+ - source_sentence: "Điều 14 . Điều_kiện , mức hưởng , trình_tự , thủ_tục và cơ_quan\
34
+ \ có trách_nhiệm bảo_đảm kinh_phí khám bệnh , chữa bệnh cho Dân_quân tự_vệ không\
35
+ \ tham_gia_bảo_hiểm y_tế nếu bị ốm_đau , bị tai_nạn , bị_thương 1 . Điều_kiện\
36
+ \ \n a ) Dân_quân tự_vệ trong thời_gian thực_hiện nhiệm_vụ theo quyết_định điều_động\
37
+ \ , huy_động hoặc làm nhiệm_vụ theo kế_hoạch được cấp có thẩm_quyền phê_duyệt\
38
+ \ , nếu bị ốm_đau , bị tai_nạn , bị_thương được khám bệnh , chữa bệnh tại các\
39
+ \ cơ_sở khám bệnh , chữa bệnh quân , dân y theo quy_định ; \n b ) Dân_quân tự_vệ\
40
+ \ không được khám bệnh , chữa bệnh nếu bị ốm_đau , bị tai_nạn , bị_thương khi\
41
+ \ : cố_ý tự hủy_hoại sức_khỏe của bản_thân hoặc tai_nạn do mâu_thuẫn của chính\
42
+ \ bản_thân với người gây ra tai_nạn mà không liên_quan đến thực_hiện nhiệm_vụ\
43
+ \ hoặc tai_nạn do sử_dụng rượu , bia , sử_dụng chất ma_túy , tiền chất ma_túy\
44
+ \ hoặc chất gây nghiện khác theo quy_định của pháp_luật . \n 2 . Mức_hưởng \n\
45
+ \ Chi_phí khám bệnh , chữa bệnh như mức hưởng bảo_hiểm y_tế cho hạ_sĩ_quan , binh_sĩ\
46
+ \ Quân_đội nhân_dân Việt_Nam đang tại_ngũ . Trong thời_gian điều_trị nội_trú được\
47
+ \ bảo_đảm tiền ăn bệnh_lý . Trường_hợp Dân_quân tự_vệ đang điều_trị nội_trú ,\
48
+ \ nhưng hết thời_gian làm nhiệm_vụ thì được thanh_toán chi_phí khám bệnh , chữa\
49
+ \ bệnh và tiền ăn bệnh_lý nhưng tối_đa không quá 15 ngày ; nếu hết 15 ngày bệnh\
50
+ \ vẫn chưa ổn_định thì điều_trị đến khi ổn_định và được thanh_toán 100 % tiền\
51
+ \ khám , chữa bệnh . \n 3 . Trình_tự giải_quyết \n a ) Dân_quân hoặc người đại_diện\
52
+ \ hợp_pháp của dân_quân gửi trực_tiếp hoặc qua bưu_chính , môi_trường điện_tử\
53
+ \ đơn đề_nghị thanh_toán tiền khám bệnh , chữa bệnh cho dân_quân kèm theo phiếu\
54
+ \ xét_nghiệm , đơn thuốc , hóa_đơn thu tiền , giấy ra viện cho cơ_quan quân_sự\
55
+ \ địa_phương . Dân_quân thuộc đơn_vị Dân_quân tự_vệ của cấp nào tổ_chức thì gửi\
56
+ \ đơn cho cơ_quan quân_sự địa_phương cấp đó ; trường_hợp không hợp_lệ , trong\
57
+ \ thời_hạn 03 ngày làm_việc kể từ ngày nhận được đơn đề_nghị , cơ_quan quân_sự\
58
+ \ địa_phương phải có văn_bản hướng_dẫn gửi người nộp đơn để bổ_sung , hoàn_thiện\
59
+ \ ; \n b ) Trong thời_hạn 10 ngày làm_việc , kể từ ngày nhận đơn đề_nghị , cơ_quan\
60
+ \ quân_sự địa_phương lập 01 bộ hồ_sơ . Tư_lệnh Bộ Tư_lệnh Thủ_đô Hà_Nội , Tư_l���nh\
61
+ \ Bộ Tư_lệnh Thành_phố Hồ_Chí_Minh , Chỉ_huy_trưởng Bộ_chỉ_huy \n quân_sự cấp\
62
+ \ tỉnh , Chỉ_huy_trưởng Ban chỉ_huy quân_sự cấp huyện trình Chủ_tịch Ủy_ban nhân_dân\
63
+ \ cùng cấp quyết_định . Chỉ_huy_trưởng Ban chỉ_huy quân_sự cấp xã báo_cáo Chủ_tịch\
64
+ \ Ủy_ban nhân_dân cấp xã trình Chủ_tịch Ủy_ban nhân_dân cấp huyện quyết_định ;\
65
+ \ \n c ) Trong thời_hạn 05 ngày làm_việc , kể từ ngày nhận được hồ_sơ trình ,\
66
+ \ Chủ_tịch Ủy_ban nhân_dân cấp huyện hoặc Chủ_tịch Ủy_ban nhân_dân cấp tỉnh quyết_định\
67
+ \ kinh_phí khám bệnh , chữa bệnh cho dân_quân ; \n d ) Trong thời_hạn 10 ngày\
68
+ \ làm_việc , kể từ ngày ra quyết_định , Ủy_ban nhân_dân cấp xã có trách_nhiệm\
69
+ \ thực_hiện chi_trả kinh_phí khám bệnh , chữa bệnh cho dân_quân ; nơi không có\
70
+ \ đơn_vị hành_chính cấp xã do Ban chỉ_huy quân_sự cấp huyện thực_hiện chi_trả\
71
+ \ ; việc chi_trả bằng hình_thức chuyển_khoản hoặc qua đường bưu_chính hoặc trực_tiếp_nhận\
72
+ \ ở cấp xã . \n 4 . Hồ_sơ : \n a ) Đơn đề_nghị thanh_toán chi_phí khám bệnh ,\
73
+ \ chữa bệnh của dân_quân hoặc người đại_diện hợp_pháp của dân_quân . Mẫu_đơn quy_định\
74
+ \ tại Phụ_lục III ban_hành kèm theo Nghị_định này ; \n b ) Phiếu xét_nghiệm ,\
75
+ \ đơn thuốc , hóa_đơn thu tiền , giấy xuất_viện ; \n c ) Quyết_định công_dân thực_hiện\
76
+ \ nghĩa_vụ tham_gia Dân_quân tự_vệ ; quyết_định điều_động hoặc huy_động hoặc kế_hoạch\
77
+ \ thực_hiện nhiệm_vụ được cấp có thẩm_quyền phê_duyệt . \n 5 . Kinh_phí bảo_đảm\
78
+ \ thực_hiện chế_độ , chính_sách theo quy_định tại Điều này do Ủy_ban nhân_dân\
79
+ \ cấp huyện bảo_đảm đối_với dân_quân do cơ_quan quân_sự địa_phương cấp huyện ,\
80
+ \ cấp xã quản_lý ; Ủy_ban nhân_dân cấp tỉnh bảo_đảm kinh_phí đối_với dân_quân\
81
+ \ do cơ_quan quân_sự địa_phương cấp tỉnh quản_lý ."
82
+ sentences:
83
+ - Áp_dụng xuất_xứ hàng_hóa hàng dệt may thế_nào ?
84
+ - Trẻ_em là công_dân Việt_Nam được người nước_ngoài nhận nuôi thì có được giữ quốc_tịch
85
+ Việt_Nam không ?
86
+ - Dân_quân tự_vệ được hưởng kinh_phí khám chữa bệnh khi không tham_gia BHYT phải
87
+ thỏa_các điều_kiện nào ?
88
+ - source_sentence: "Điều 87 . Nghĩa_vụ của người được hưởng án_treo 1 . Có_mặt theo\
89
+ \ giấy triệu_tập và cam_kết việc chấp_hành án theo quy_định tại khoản 1 Điều 85\
90
+ \ của Luật này . \n 2 . Thực_hiện nghiêm_chỉnh cam_kết trong việc tuân_thủ pháp_luật\
91
+ \ , nghĩa_vụ công_dân , nội_quy , quy_chế của nơi cư_trú , nơi làm_việc , học_tập\
92
+ \ ; chấp_hành đầy_đủ hình_phạt bổ_sung , nghĩa_vụ bồi_thường thiệt_hại , trừ trường_hợp\
93
+ \ vì lý_do khách_quan được cơ_quan nhà_nước có thẩm_quyền xác_nhận . \n 3 . Chịu\
94
+ \ sự giám_sát , giáo_dục của Ủy_ban nhân_dân cấp xã , đơn_vị quân_đội được giao\
95
+ \ giám_sát , giáo_dục , cơ_quan thi_hành án hình_sự Công_an cấp huyện , cơ_quan\
96
+ \ thi_hành án hình_sự cấp quân_khu nơi cư_trú , nơi làm_việc . \n 4 . Chấp_hành\
97
+ \ quy_định tại Điều 92 của Luật này . \n 5 . Phải có_mặt theo yêu_cầu của Ủy_ban\
98
+ \ nhân_dân cấp xã hoặc đơn_vị quân_đội được giao giám_sát , giáo_dục , cơ_quan\
99
+ \ thi_hành án hình_sự Công_an cấp huyện , cơ_quan thi_hành án hình_sự cấp quân_khu\
100
+ \ . \n 6 . Hằng tháng phải báo_cáo bằng văn_bản với Ủy_ban nhân_dân cấp xã , đơn_vị\
101
+ \ quân_đội được giao giám_sát , giáo_dục về tình_hình chấp_hành nghĩa_vụ của mình\
102
+ \ . Trường_hợp vắng_mặt theo quy_định tại khoản 1 Điều 92 của Luật này thì khi\
103
+ \ hết thời_hạn vắng_mặt , người được hưởng án_treo phải báo_cáo về tình_hình chấp_hành\
104
+ \ nghĩa_vụ của mình ."
105
+ sentences:
106
+ - Thẩm_quyền tiếp_nhận , giải_quyết chế_độ cho các trường_hợp F1
107
+ - Doanh_nghiệp nước_ngoài có được mua nhà , đất tại Việt_Nam ?
108
+ - Nghĩa_vụ thông_báo tình_hình chấp_hành của người được hưởng án_treo được quy_định
109
+ như thế_nào ?
110
+ - source_sentence: "Căn_cứ khoản 2 Điều 185 Luật Doanh_nghiệp 2020 quy_định chấm_dứt\
111
+ \ tư_cách thành_viên hợp danh như sau : \n \n Thành_viên hợp danh có quyền rút\
112
+ \ vốn khỏi công_ty nếu được Hội_đồng thành_viên chấp_thuận . Trường_hợp này ,\
113
+ \ thành_viên muốn rút vốn khỏi công_ty phải thông_báo bằng văn_bản yêu_cầu rút\
114
+ \ vốn chậm nhất là 06 tháng trước ngày rút vốn ; chỉ được rút vốn vào thời_điểm\
115
+ \ kết_thúc năm tài_chính và báo_cáo tài_chính của năm tài_chính đó đã được thông_qua\
116
+ \ . \n \n \n Theo quy_định trên thì chỉ được rút vốn vào thời_điểm kết_thúc năm\
117
+ \ tài_chính và báo_cáo tài_chính của năm tài_chính đó đã được thông_qua ."
118
+ sentences:
119
+ - Thành_viên hợp danh rút được vốn ra khỏi công_ty vào thời_điểm nào ?
120
+ - Dịch_vụ viễn_thông cước trả sau là gì ?
121
+ - Cách tính thời_gian giảng_dạy để hưởng phụ_cấp thâm_niên
122
+ - source_sentence: 'Tôi làm hộ_lý theo hợp_đồng 68 tại khoa kiểm_soát nhiễm_khuẩn
123
+ ở bệnh_viện huyện . Công_việc hàng ngày là xử_lý đồ vải bệnh_nhân và xử_lý_dụng_cụ
124
+ y_tế của bệnh_viện . Tôi đang hưởng lương bậc 4 , hệ_số 2,19 . Tôi xin hỏi , theo
125
+ Nghị_định 111 / 2022 / NĐ - CP , tôi có được tiếp_tục làm_việc và hưởng các chế_độ
126
+ của hợp_đồng 68 nữa không hay tôi phải chuyển sang ký hợp_đồng khác ? Nếu chuyển
127
+ sang loại hợp_đồng khác thì lương và các chế_độ sẽ hưởng thế_nào ? Bộ Nội_vụ trả_lời
128
+ vấn_đề này như sau : Khoản 1 Điều 13 Nghị_định số111 / 2022 / NĐ - CPquy định
129
+ : " Người đang thực_hiện các công_việc hỗ_trợ , phục_vụ theo quy_định tại khoản
130
+ 1 Điều 4 Nghị_định này nếu chưa chuyển sang ký hợp_đồng lao_động theo quy_định
131
+ của Nghị_định số 161 / 2018 / NĐ - CP ngày 29 tháng 11 năm 2018 của Chính_phủ
132
+ sửa_đổi , bổ_sung một_số quy_định về tuyển_dụng công_chức , viên_chức , nâng ngạch
133
+ công_chức , thăng_hạng viên_chức và thực_hiện chế_độ hợp_đồng một_số loại công_việc
134
+ trong cơ_quan hành_chính nhà_nước , đơn_vị sự_nghiệp công_lập ( sau đây viết tắt
135
+ là Nghị_định số 161 / 2018 / NĐ - CP ) và cơ_quan , tổ_chức , đơn_vị không ký
136
+ hợp_đồng dịch_vụ thì trong thời_hạn 12 tháng kể từ ngày Nghị_định này có hiệu_lực
137
+ , cơ_quan , tổ_chức , đơn_vị phải chuyển sang ký hợp_đồng lao_động . Hợp_đồng
138
+ lao_động ký_kết phải bảo_đảm quyền , lợi_ích hợp_pháp về tiền_lương , chế_độ bảo_hiểm
139
+ xã_hội và các chế_độ khác theo quy_định của pháp_luật . Trường_hợp một trong các
140
+ bên không có nhu_cầu thì giải_quyết chế_độ thôi_việc theo quy_định của pháp_luật
141
+ " . Như_vậy , trường_hợp bà Trần_Thị_Hoa nếu chưa chuyển sang ký hợp_đồng lao_động
142
+ theo quy_định của Nghị_định số161 / 2018 / NĐ - CPthì trong thời_hạn 12 tháng
143
+ kể từ ngày Nghị_định số 111 / 2022 / NĐ - CP có hiệu_lực phải chuyển sang ký hợp_đồng
144
+ lao_động . Tiền_lương và các chế_độ khác của người lao_động thực_hiện theo quy_định
145
+ tại khoản 2 Điều 8 Nghị_định số 111 / 2022 / NĐ - CP.'
146
+ sentences:
147
+ - Ký hợp_đồng lao_động theo quy_định mới từ 22 / 2 / 2023
148
+ - Quy_định về tiêu_chuẩn chuyên_môn của sỹ quan kỹ_thuật điện được quy_định như
149
+ thế_nào ?
150
+ - Đối_tượng được bổ_nhiệm Phó_Thủ_trưởng cơ_quan quản_lý thi_hành án hình_sự thuộc
151
+ Bộ Công_an được quy_định như thế_nào ?
152
+ pipeline_tag: sentence-similarity
153
+ library_name: sentence-transformers
154
+ metrics:
155
+ - cosine_accuracy@1
156
+ - cosine_accuracy@3
157
+ - cosine_accuracy@5
158
+ - cosine_accuracy@10
159
+ - cosine_precision@1
160
+ - cosine_precision@3
161
+ - cosine_precision@5
162
+ - cosine_precision@10
163
+ - cosine_recall@1
164
+ - cosine_recall@3
165
+ - cosine_recall@5
166
+ - cosine_recall@10
167
+ - cosine_ndcg@10
168
+ - cosine_mrr@10
169
+ - cosine_map@100
170
+ model-index:
171
+ - name: bkai-fine-tuned-legal
172
+ results:
173
+ - task:
174
+ type: information-retrieval
175
+ name: Information Retrieval
176
+ dataset:
177
+ name: dim 768
178
+ type: dim_768
179
+ metrics:
180
+ - type: cosine_accuracy@1
181
+ value: 0.36968344721796126
182
+ name: Cosine Accuracy@1
183
+ - type: cosine_accuracy@3
184
+ value: 0.4858457676753591
185
+ name: Cosine Accuracy@3
186
+ - type: cosine_accuracy@5
187
+ value: 0.5618463254776181
188
+ name: Cosine Accuracy@5
189
+ - type: cosine_accuracy@10
190
+ value: 0.7314182122437596
191
+ name: Cosine Accuracy@10
192
+ - type: cosine_precision@1
193
+ value: 0.36968344721796126
194
+ name: Cosine Precision@1
195
+ - type: cosine_precision@3
196
+ value: 0.16194858922511968
197
+ name: Cosine Precision@3
198
+ - type: cosine_precision@5
199
+ value: 0.11236926509552363
200
+ name: Cosine Precision@5
201
+ - type: cosine_precision@10
202
+ value: 0.07314182122437596
203
+ name: Cosine Precision@10
204
+ - type: cosine_recall@1
205
+ value: 0.36968344721796126
206
+ name: Cosine Recall@1
207
+ - type: cosine_recall@3
208
+ value: 0.4858457676753591
209
+ name: Cosine Recall@3
210
+ - type: cosine_recall@5
211
+ value: 0.5618463254776181
212
+ name: Cosine Recall@5
213
+ - type: cosine_recall@10
214
+ value: 0.7314182122437596
215
+ name: Cosine Recall@10
216
+ - type: cosine_ndcg@10
217
+ value: 0.5218619998018038
218
+ name: Cosine Ndcg@10
219
+ - type: cosine_mrr@10
220
+ value: 0.458721747426252
221
+ name: Cosine Mrr@10
222
+ - type: cosine_map@100
223
+ value: 0.4687122757309563
224
+ name: Cosine Map@100
225
+ - task:
226
+ type: information-retrieval
227
+ name: Information Retrieval
228
+ dataset:
229
+ name: dim 512
230
+ type: dim_512
231
+ metrics:
232
+ - type: cosine_accuracy@1
233
+ value: 0.3670338864872403
234
+ name: Cosine Accuracy@1
235
+ - type: cosine_accuracy@3
236
+ value: 0.4864035699344582
237
+ name: Cosine Accuracy@3
238
+ - type: cosine_accuracy@5
239
+ value: 0.5668665458095106
240
+ name: Cosine Accuracy@5
241
+ - type: cosine_accuracy@10
242
+ value: 0.7332310695858318
243
+ name: Cosine Accuracy@10
244
+ - type: cosine_precision@1
245
+ value: 0.3670338864872403
246
+ name: Cosine Precision@1
247
+ - type: cosine_precision@3
248
+ value: 0.16213452331148606
249
+ name: Cosine Precision@3
250
+ - type: cosine_precision@5
251
+ value: 0.11337330916190211
252
+ name: Cosine Precision@5
253
+ - type: cosine_precision@10
254
+ value: 0.07332310695858317
255
+ name: Cosine Precision@10
256
+ - type: cosine_recall@1
257
+ value: 0.3670338864872403
258
+ name: Cosine Recall@1
259
+ - type: cosine_recall@3
260
+ value: 0.4864035699344582
261
+ name: Cosine Recall@3
262
+ - type: cosine_recall@5
263
+ value: 0.5668665458095106
264
+ name: Cosine Recall@5
265
+ - type: cosine_recall@10
266
+ value: 0.7332310695858318
267
+ name: Cosine Recall@10
268
+ - type: cosine_ndcg@10
269
+ value: 0.5214562660506156
270
+ name: Cosine Ndcg@10
271
+ - type: cosine_mrr@10
272
+ value: 0.4575318246110334
273
+ name: Cosine Mrr@10
274
+ - type: cosine_map@100
275
+ value: 0.46737592429955493
276
+ name: Cosine Map@100
277
+ - task:
278
+ type: information-retrieval
279
+ name: Information Retrieval
280
+ dataset:
281
+ name: dim 256
282
+ type: dim_256
283
+ metrics:
284
+ - type: cosine_accuracy@1
285
+ value: 0.365221029145168
286
+ name: Cosine Accuracy@1
287
+ - type: cosine_accuracy@3
288
+ value: 0.4843118114628364
289
+ name: Cosine Accuracy@3
290
+ - type: cosine_accuracy@5
291
+ value: 0.5608701715241947
292
+ name: Cosine Accuracy@5
293
+ - type: cosine_accuracy@10
294
+ value: 0.7293264537721378
295
+ name: Cosine Accuracy@10
296
+ - type: cosine_precision@1
297
+ value: 0.365221029145168
298
+ name: Cosine Precision@1
299
+ - type: cosine_precision@3
300
+ value: 0.1614372704876121
301
+ name: Cosine Precision@3
302
+ - type: cosine_precision@5
303
+ value: 0.11217403430483891
304
+ name: Cosine Precision@5
305
+ - type: cosine_precision@10
306
+ value: 0.07293264537721378
307
+ name: Cosine Precision@10
308
+ - type: cosine_recall@1
309
+ value: 0.365221029145168
310
+ name: Cosine Recall@1
311
+ - type: cosine_recall@3
312
+ value: 0.4843118114628364
313
+ name: Cosine Recall@3
314
+ - type: cosine_recall@5
315
+ value: 0.5608701715241947
316
+ name: Cosine Recall@5
317
+ - type: cosine_recall@10
318
+ value: 0.7293264537721378
319
+ name: Cosine Recall@10
320
+ - type: cosine_ndcg@10
321
+ value: 0.5189053364670051
322
+ name: Cosine Ndcg@10
323
+ - type: cosine_mrr@10
324
+ value: 0.4554276705336535
325
+ name: Cosine Mrr@10
326
+ - type: cosine_map@100
327
+ value: 0.46549674883093684
328
+ name: Cosine Map@100
329
+ - task:
330
+ type: information-retrieval
331
+ name: Information Retrieval
332
+ dataset:
333
+ name: dim 128
334
+ type: dim_128
335
+ metrics:
336
+ - type: cosine_accuracy@1
337
+ value: 0.36731278761678987
338
+ name: Cosine Accuracy@1
339
+ - type: cosine_accuracy@3
340
+ value: 0.4855668665458095
341
+ name: Cosine Accuracy@3
342
+ - type: cosine_accuracy@5
343
+ value: 0.5607307209594199
344
+ name: Cosine Accuracy@5
345
+ - type: cosine_accuracy@10
346
+ value: 0.7255612885232186
347
+ name: Cosine Accuracy@10
348
+ - type: cosine_precision@1
349
+ value: 0.36731278761678987
350
+ name: Cosine Precision@1
351
+ - type: cosine_precision@3
352
+ value: 0.16185562218193647
353
+ name: Cosine Precision@3
354
+ - type: cosine_precision@5
355
+ value: 0.11214614419188397
356
+ name: Cosine Precision@5
357
+ - type: cosine_precision@10
358
+ value: 0.07255612885232185
359
+ name: Cosine Precision@10
360
+ - type: cosine_recall@1
361
+ value: 0.36731278761678987
362
+ name: Cosine Recall@1
363
+ - type: cosine_recall@3
364
+ value: 0.4855668665458095
365
+ name: Cosine Recall@3
366
+ - type: cosine_recall@5
367
+ value: 0.5607307209594199
368
+ name: Cosine Recall@5
369
+ - type: cosine_recall@10
370
+ value: 0.7255612885232186
371
+ name: Cosine Recall@10
372
+ - type: cosine_ndcg@10
373
+ value: 0.5180275425139264
374
+ name: Cosine Ndcg@10
375
+ - type: cosine_mrr@10
376
+ value: 0.45544410577878813
377
+ name: Cosine Mrr@10
378
+ - type: cosine_map@100
379
+ value: 0.4654659596012518
380
+ name: Cosine Map@100
381
+ - task:
382
+ type: information-retrieval
383
+ name: Information Retrieval
384
+ dataset:
385
+ name: dim 64
386
+ type: dim_64
387
+ metrics:
388
+ - type: cosine_accuracy@1
389
+ value: 0.3582485009064287
390
+ name: Cosine Accuracy@1
391
+ - type: cosine_accuracy@3
392
+ value: 0.47510807418770046
393
+ name: Cosine Accuracy@3
394
+ - type: cosine_accuracy@5
395
+ value: 0.5530609398968066
396
+ name: Cosine Accuracy@5
397
+ - type: cosine_accuracy@10
398
+ value: 0.7208199693208758
399
+ name: Cosine Accuracy@10
400
+ - type: cosine_precision@1
401
+ value: 0.3582485009064287
402
+ name: Cosine Precision@1
403
+ - type: cosine_precision@3
404
+ value: 0.1583693580625668
405
+ name: Cosine Precision@3
406
+ - type: cosine_precision@5
407
+ value: 0.11061218797936133
408
+ name: Cosine Precision@5
409
+ - type: cosine_precision@10
410
+ value: 0.07208199693208757
411
+ name: Cosine Precision@10
412
+ - type: cosine_recall@1
413
+ value: 0.3582485009064287
414
+ name: Cosine Recall@1
415
+ - type: cosine_recall@3
416
+ value: 0.47510807418770046
417
+ name: Cosine Recall@3
418
+ - type: cosine_recall@5
419
+ value: 0.5530609398968066
420
+ name: Cosine Recall@5
421
+ - type: cosine_recall@10
422
+ value: 0.7208199693208758
423
+ name: Cosine Recall@10
424
+ - type: cosine_ndcg@10
425
+ value: 0.5115186557169926
426
+ name: Cosine Ndcg@10
427
+ - type: cosine_mrr@10
428
+ value: 0.44836820704203273
429
+ name: Cosine Mrr@10
430
+ - type: cosine_map@100
431
+ value: 0.45844332107958174
432
+ name: Cosine Map@100
433
+ ---
434
+
435
+ # bkai-fine-tuned-legal
436
+
437
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
438
+
439
+ ## Model Details
440
+
441
+ ### Model Description
442
+ - **Model Type:** Sentence Transformer
443
+ - **Base model:** [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) <!-- at revision 84f9d9ada0d1a3c37557398b9ae9fcedcdf40be0 -->
444
+ - **Maximum Sequence Length:** 256 tokens
445
+ - **Output Dimensionality:** 768 dimensions
446
+ - **Similarity Function:** Cosine Similarity
447
+ - **Training Dataset:**
448
+ - json
449
+ - **Language:** vi
450
+ - **License:** apache-2.0
451
+
452
+ ### Model Sources
453
+
454
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
455
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
456
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
457
+
458
+ ### Full Model Architecture
459
+
460
+ ```
461
+ SentenceTransformer(
462
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'RobertaModel'})
463
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
464
+ )
465
+ ```
466
+
467
+ ## Usage
468
+
469
+ ### Direct Usage (Sentence Transformers)
470
+
471
+ First install the Sentence Transformers library:
472
+
473
+ ```bash
474
+ pip install -U sentence-transformers
475
+ ```
476
+
477
+ Then you can load this model and run inference.
478
+ ```python
479
+ from sentence_transformers import SentenceTransformer
480
+
481
+ # Download from the 🤗 Hub
482
+ model = SentenceTransformer("KhangLeDuc/ProjectEmbedding")
483
+ # Run inference
484
+ sentences = [
485
+ 'Tôi làm hộ_lý theo hợp_đồng 68 tại khoa kiểm_soát nhiễm_khuẩn ở bệnh_viện huyện . Công_việc hàng ngày là xử_lý đồ vải bệnh_nhân và xử_lý_dụng_cụ y_tế của bệnh_viện . Tôi đang hưởng lương bậc 4 , hệ_số 2,19 . Tôi xin hỏi , theo Nghị_định 111 / 2022 / NĐ - CP , tôi có được tiếp_tục làm_việc và hưởng các chế_độ của hợp_đồng 68 nữa không hay tôi phải chuyển sang ký hợp_đồng khác ? Nếu chuyển sang loại hợp_đồng khác thì lương và các chế_độ sẽ hưởng thế_nào ? Bộ Nội_vụ trả_lời vấn_đề này như sau : Khoản 1 Điều 13 Nghị_định số111 / 2022 / NĐ - CPquy định : " Người đang thực_hiện các công_việc hỗ_trợ , phục_vụ theo quy_định tại khoản 1 Điều 4 Nghị_định này nếu chưa chuyển sang ký hợp_đồng lao_động theo quy_định của Nghị_định số 161 / 2018 / NĐ - CP ngày 29 tháng 11 năm 2018 của Chính_phủ sửa_đổi , bổ_sung một_số quy_định về tuyển_dụng công_chức , viên_chức , nâng ngạch công_chức , thăng_hạng viên_chức và thực_hiện chế_độ hợp_đồng một_số loại công_việc trong cơ_quan hành_chính nhà_nước , đơn_vị sự_nghiệp công_lập ( sau đây viết tắt là Nghị_định số 161 / 2018 / NĐ - CP ) và cơ_quan , tổ_chức , đơn_vị không ký hợp_đồng dịch_vụ thì trong thời_hạn 12 tháng kể từ ngày Nghị_định này có hiệu_lực , cơ_quan , tổ_chức , đơn_vị phải chuyển sang ký hợp_đồng lao_động . Hợp_đồng lao_động ký_kết phải bảo_đảm quyền , lợi_ích hợp_pháp về tiền_lương , chế_độ bảo_hiểm xã_hội và các chế_độ khác theo quy_định của pháp_luật . Trường_hợp một trong các bên không có nhu_cầu thì giải_quyết chế_độ thôi_việc theo quy_định của pháp_luật " . Như_vậy , trường_hợp bà Trần_Thị_Hoa nếu chưa chuyển sang ký hợp_đồng lao_động theo quy_định của Nghị_định số161 / 2018 / NĐ - CPthì trong thời_hạn 12 tháng kể từ ngày Nghị_định số 111 / 2022 / NĐ - CP có hiệu_lực phải chuyển sang ký hợp_đồng lao_động . Tiền_lương và các chế_độ khác của người lao_động thực_hiện theo quy_định tại khoản 2 Điều 8 Nghị_định số 111 / 2022 / NĐ - CP.',
486
+ 'Ký hợp_đồng lao_động theo quy_định mới từ 22 / 2 / 2023',
487
+ 'Đối_tượng được bổ_nhiệm Phó_Thủ_trưởng cơ_quan quản_lý thi_hành án hình_sự thuộc Bộ Công_an được quy_định như thế_nào ?',
488
+ ]
489
+ embeddings = model.encode(sentences)
490
+ print(embeddings.shape)
491
+ # [3, 768]
492
+
493
+ # Get the similarity scores for the embeddings
494
+ similarities = model.similarity(embeddings, embeddings)
495
+ print(similarities)
496
+ # tensor([[ 1.0000, 0.5524, -0.0091],
497
+ # [ 0.5524, 1.0000, -0.0801],
498
+ # [-0.0091, -0.0801, 1.0000]])
499
+ ```
500
+
501
+ <!--
502
+ ### Direct Usage (Transformers)
503
+
504
+ <details><summary>Click to see the direct usage in Transformers</summary>
505
+
506
+ </details>
507
+ -->
508
+
509
+ <!--
510
+ ### Downstream Usage (Sentence Transformers)
511
+
512
+ You can finetune this model on your own dataset.
513
+
514
+ <details><summary>Click to expand</summary>
515
+
516
+ </details>
517
+ -->
518
+
519
+ <!--
520
+ ### Out-of-Scope Use
521
+
522
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
523
+ -->
524
+
525
+ ## Evaluation
526
+
527
+ ### Metrics
528
+
529
+ #### Information Retrieval
530
+
531
+ * Dataset: `dim_768`
532
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
533
+ ```json
534
+ {
535
+ "truncate_dim": 768
536
+ }
537
+ ```
538
+
539
+ | Metric | Value |
540
+ |:--------------------|:-----------|
541
+ | cosine_accuracy@1 | 0.3697 |
542
+ | cosine_accuracy@3 | 0.4858 |
543
+ | cosine_accuracy@5 | 0.5618 |
544
+ | cosine_accuracy@10 | 0.7314 |
545
+ | cosine_precision@1 | 0.3697 |
546
+ | cosine_precision@3 | 0.1619 |
547
+ | cosine_precision@5 | 0.1124 |
548
+ | cosine_precision@10 | 0.0731 |
549
+ | cosine_recall@1 | 0.3697 |
550
+ | cosine_recall@3 | 0.4858 |
551
+ | cosine_recall@5 | 0.5618 |
552
+ | cosine_recall@10 | 0.7314 |
553
+ | **cosine_ndcg@10** | **0.5219** |
554
+ | cosine_mrr@10 | 0.4587 |
555
+ | cosine_map@100 | 0.4687 |
556
+
557
+ #### Information Retrieval
558
+
559
+ * Dataset: `dim_512`
560
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
561
+ ```json
562
+ {
563
+ "truncate_dim": 512
564
+ }
565
+ ```
566
+
567
+ | Metric | Value |
568
+ |:--------------------|:-----------|
569
+ | cosine_accuracy@1 | 0.367 |
570
+ | cosine_accuracy@3 | 0.4864 |
571
+ | cosine_accuracy@5 | 0.5669 |
572
+ | cosine_accuracy@10 | 0.7332 |
573
+ | cosine_precision@1 | 0.367 |
574
+ | cosine_precision@3 | 0.1621 |
575
+ | cosine_precision@5 | 0.1134 |
576
+ | cosine_precision@10 | 0.0733 |
577
+ | cosine_recall@1 | 0.367 |
578
+ | cosine_recall@3 | 0.4864 |
579
+ | cosine_recall@5 | 0.5669 |
580
+ | cosine_recall@10 | 0.7332 |
581
+ | **cosine_ndcg@10** | **0.5215** |
582
+ | cosine_mrr@10 | 0.4575 |
583
+ | cosine_map@100 | 0.4674 |
584
+
585
+ #### Information Retrieval
586
+
587
+ * Dataset: `dim_256`
588
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
589
+ ```json
590
+ {
591
+ "truncate_dim": 256
592
+ }
593
+ ```
594
+
595
+ | Metric | Value |
596
+ |:--------------------|:-----------|
597
+ | cosine_accuracy@1 | 0.3652 |
598
+ | cosine_accuracy@3 | 0.4843 |
599
+ | cosine_accuracy@5 | 0.5609 |
600
+ | cosine_accuracy@10 | 0.7293 |
601
+ | cosine_precision@1 | 0.3652 |
602
+ | cosine_precision@3 | 0.1614 |
603
+ | cosine_precision@5 | 0.1122 |
604
+ | cosine_precision@10 | 0.0729 |
605
+ | cosine_recall@1 | 0.3652 |
606
+ | cosine_recall@3 | 0.4843 |
607
+ | cosine_recall@5 | 0.5609 |
608
+ | cosine_recall@10 | 0.7293 |
609
+ | **cosine_ndcg@10** | **0.5189** |
610
+ | cosine_mrr@10 | 0.4554 |
611
+ | cosine_map@100 | 0.4655 |
612
+
613
+ #### Information Retrieval
614
+
615
+ * Dataset: `dim_128`
616
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
617
+ ```json
618
+ {
619
+ "truncate_dim": 128
620
+ }
621
+ ```
622
+
623
+ | Metric | Value |
624
+ |:--------------------|:----------|
625
+ | cosine_accuracy@1 | 0.3673 |
626
+ | cosine_accuracy@3 | 0.4856 |
627
+ | cosine_accuracy@5 | 0.5607 |
628
+ | cosine_accuracy@10 | 0.7256 |
629
+ | cosine_precision@1 | 0.3673 |
630
+ | cosine_precision@3 | 0.1619 |
631
+ | cosine_precision@5 | 0.1121 |
632
+ | cosine_precision@10 | 0.0726 |
633
+ | cosine_recall@1 | 0.3673 |
634
+ | cosine_recall@3 | 0.4856 |
635
+ | cosine_recall@5 | 0.5607 |
636
+ | cosine_recall@10 | 0.7256 |
637
+ | **cosine_ndcg@10** | **0.518** |
638
+ | cosine_mrr@10 | 0.4554 |
639
+ | cosine_map@100 | 0.4655 |
640
+
641
+ #### Information Retrieval
642
+
643
+ * Dataset: `dim_64`
644
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
645
+ ```json
646
+ {
647
+ "truncate_dim": 64
648
+ }
649
+ ```
650
+
651
+ | Metric | Value |
652
+ |:--------------------|:-----------|
653
+ | cosine_accuracy@1 | 0.3582 |
654
+ | cosine_accuracy@3 | 0.4751 |
655
+ | cosine_accuracy@5 | 0.5531 |
656
+ | cosine_accuracy@10 | 0.7208 |
657
+ | cosine_precision@1 | 0.3582 |
658
+ | cosine_precision@3 | 0.1584 |
659
+ | cosine_precision@5 | 0.1106 |
660
+ | cosine_precision@10 | 0.0721 |
661
+ | cosine_recall@1 | 0.3582 |
662
+ | cosine_recall@3 | 0.4751 |
663
+ | cosine_recall@5 | 0.5531 |
664
+ | cosine_recall@10 | 0.7208 |
665
+ | **cosine_ndcg@10** | **0.5115** |
666
+ | cosine_mrr@10 | 0.4484 |
667
+ | cosine_map@100 | 0.4584 |
668
+
669
+ <!--
670
+ ## Bias, Risks and Limitations
671
+
672
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
673
+ -->
674
+
675
+ <!--
676
+ ### Recommendations
677
+
678
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
679
+ -->
680
+
681
+ ## Training Details
682
+
683
+ ### Training Dataset
684
+
685
+ #### json
686
+
687
+ * Dataset: json
688
+ * Size: 57,371 training samples
689
+ * Columns: <code>positive</code> and <code>anchor</code>
690
+ * Approximate statistics based on the first 1000 samples:
691
+ | | positive | anchor |
692
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
693
+ | type | string | string |
694
+ | details | <ul><li>min: 16 tokens</li><li>mean: 180.36 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 16.49 tokens</li><li>max: 52 tokens</li></ul> |
695
+ * Samples:
696
+ | positive | anchor |
697
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------|
698
+ | <code>Điều 3 Quyết_định 44 / 2015 / QĐ - UBND thu quản_lý phí tham_gia đấu_giá quyền khai_thác khoáng_sản Bình_Dương có nội_dung như sau : <br> <br> Điều 3 . Chánh Văn_phòng Ủy_ban nhân_dân Thủ_trưởng các sở , ban , ngành , Chủ_tịch Ủy_ban nhân_dân các huyện , thị_xã , thành_phố và Thủ_trưởng các đơn_vị , tổ_chức , cá_nhân có liên_quan chịu trách_nhiệm thi_hành Quyết_định này</code> | <code>Điều 3 Quyết_định 44 / 2015 / QĐ - UBND thu quản_lý phí tham_gia đấu_giá quyền khai_thác khoáng_sản Bình_Dương</code> |
699
+ | <code>Điều 2 Quyết_định 3592 / QĐ - UBND 2020 phổ_biến pháp_luật hòa giải ở cơ_sở Khánh_Hòa có nội_dung như sau : <br> <br> Điều 2 . Quyết_định này có hiệu_lực thi_hành kể từ ngày ký .</code> | <code>Điều 2 Quyết_định 3592 / QĐ - UBND 2020 phổ_biến pháp_luật hòa giải ở cơ_sở Khánh_Hòa</code> |
700
+ | <code>Điều 5 . Xác_định chi_phí lập , thẩm_định đồ_án quy_hoạch 1 . Nội_dung , sản_phẩm đồ_án quy_hoạch được quy_định tại Nghị_định quy_định chi_tiết một_số nội_dung về quy_hoạch xây_dựng , Nghị_định về lập , thẩm_định , phê_duyệt và quản_lý quy_hoạch đô_thị , các Nghị_định chuyên_ngành có liên_quan và các văn_bản hướng_dẫn . <br> 2 . Chi_phí lập đồ_án quy_hoạch bao_gồm các chi_phí sau : chi_phí cho những người tham_gia thực_hiện lập đồ_án , các chi_phí khác ( chi_phí mua tài_liệu , số_liệu , bản_đồ , văn_phòng_phẩm , phần_mềm quy_hoạch ( nếu có ) , chi_phí khấu_hao thiết_bị , chi_phí đi_lại , chi_phí lưu_trú , chi_phí hội_nghị , hội_thảo và các khoản chi_phí khác ( nếu có ) ) . <br> 3 . Chi_phí lập đồ_án quy_hoạch xác_định theo định_mức được quy_định tại Thông_tư này chưa bao_gồm chi_phí để thực_hiện các công_việc sau : <br> a ) Lập nhiệm_vụ quy_hoạch . <br> b ) Khảo_sát xây_dựng phục_vụ lập đồ_án quy_hoạch . <br> c ) Mua hoặc lập các bản_đồ địa_hình phục_vụ lập đồ_án quy_hoạch ( nếu có ) . <br> 4 . Chi_phí ...</code> | <code>Chi_phí điều_chỉnh đồ_án quy_hoạch được xác_định như thế_nào ?</code> |
701
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
702
+ ```json
703
+ {
704
+ "loss": "MultipleNegativesRankingLoss",
705
+ "matryoshka_dims": [
706
+ 768,
707
+ 512,
708
+ 256,
709
+ 128,
710
+ 64
711
+ ],
712
+ "matryoshka_weights": [
713
+ 1,
714
+ 1,
715
+ 1,
716
+ 1,
717
+ 1
718
+ ],
719
+ "n_dims_per_step": -1
720
+ }
721
+ ```
722
+
723
+ ### Evaluation Dataset
724
+
725
+ #### json
726
+
727
+ * Dataset: json
728
+ * Size: 7,172 evaluation samples
729
+ * Columns: <code>positive</code> and <code>anchor</code>
730
+ * Approximate statistics based on the first 1000 samples:
731
+ | | positive | anchor |
732
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
733
+ | type | string | string |
734
+ | details | <ul><li>min: 13 tokens</li><li>mean: 181.46 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 16.05 tokens</li><li>max: 38 tokens</li></ul> |
735
+ * Samples:
736
+ | positive | anchor |
737
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------|
738
+ | <code>Cơ_quan tôi tổ_chức đấu_thầu rộng_rãi trong nước gói_thầu tư_vấn thiết_kế và thi_công ( hình_thức một giai_đoạn hai túi hồ_sơ ) . Có 3 nhà_thầu A , B , C tham_gia và đều là nhà_thầu liên_danh . Tổ chuyên_gia đánh_giá xong phần hồ_sơ đề_xuất kỹ_thuật và đã trình chủ đầu_tư phê_duyệt danh_sách nhà_thầu đáp_ứng yêu_cầu kỹ_thuật . Ngoài_ra , tổ chuyên_gia còn có thông_báo gửi các nhà_thầu liên_danh về danh_sách nhà_thầu đáp_ứng yêu_cầu kỹ_thuật và nhà_thầu không đáp_ứng yêu_cầu kỹ_thuật . Sau đó có nhà_thầu liên_danh C không đáp_ứng yêu_cầu kỹ_thuật đã kiến_nghị gửi chủ đầu_tư về kết_quả đánh_giá hồ_sơ đề_xuất kỹ_thuật . Tuy_nhiên đơn_vị gửi kiến_nghị đến chủ đầu_tư lại là một thành_viên của liên_danh nhà_thầu C , không phải là nhà_thầu đứng đầu liên_danh . Tôi xin hỏi , trường_hợp này , thành_viên của nhà_thầu liên_danh có được quyền kiến_nghị không ? Chủ đầu_tư phải giải_quyết như thế_nào hay_là đánh_giá tiếp phần đề_xuất tài_chính ? Bộ Kế_hoạch và Đầu_tư trả_lời vấn_đề này như sau : Kho...</code> | <code>Thành_viên liên_danh nhà_thầu có quyền gửi đơn kiến_nghị ?</code> |
739
+ | <code>Tôi xin hỏi , người làm công_chức cấp xã như địa_chính , xây_dựng , giao_thông thủy_lợi , tài_chính , ... có được hiểu là làm công_tác quản_lý nhà_nước thuộc phạm_vi quản_lý của huyện không ? Bộ Nội_vụ trả_lời vấn_đề này như sau : Chức_danh công_chức cấp xã được quy_định tại Khoản 3 Điều 61Luật Cán_bộ , công chứcnăm 2008 ( sửa_đổi , bổ_sung năm 2019 ) . Nhiệm_vụ của từng chức_danh công_chức cấp xã được quy_định tại Điều 11 Nghị_định số33 / 2023 / NĐ - CPngày 10 / 6 / 2023 của Chính_phủ quy_định về cán_bộ , công_chức cấp xã và người hoạt_động không chuyên_trách ở cấp xã , ở thôn , tổ dân_phố . Theo đó , công_chức cấp xã làm nhiệm_vụ tham_mưu giúp UBND cấp xã về công_tác lý nhà_nước theo lĩnh_vực chuyên_môn , nghiệp_vụ giao trên phạm_vi địa_bàn cấp xã . Căn_cứ các quy_định nêu trên , công_chức cấp xã là người tham_mưu giúp UBND cấp xã về công_tác quản_lý nhà_nước theo lĩnh_vực chuyên_môn được giao trên địa_bàn cấp xã , không phải làm công_tác quản_lý nhà_nước thuộc phạm_vi cấp huyện .</code> | <code>Công_chức cấp xã làm nhiệm_vụ gì ?</code> |
740
+ | <code>Điều 11 . Chế_phẩm sinh_học phải đăng_ký lưu_hành 1 . Chế_phẩm sinh_học sản_xuất trong nước hoặc nhập_khẩu chưa có tên trong Danh_mục chế_phẩm sinh_học trong xử_lý chất_thải tại Việt_Nam . <br> 2 . Chế_phẩm sinh_học có tên trong Danh_mục chế_phẩm sinh_học trong xử_lý chất_thải tại Việt_Nam nhưng có thay_đổi về thành_phần hoặc hàm_lượng các hoạt_chất trong chế_phẩm sinh_học làm ảnh_hưởng đến hiệu_quả xử_lý và tính an_toàn đối_với sức_khỏe con_người và sinh_vật .</code> | <code>Chế_phẩm sinh_học phải đăng_ký lưu_hành bao_gồm những chế_phẩm sinh_học nào ?</code> |
741
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
742
+ ```json
743
+ {
744
+ "loss": "MultipleNegativesRankingLoss",
745
+ "matryoshka_dims": [
746
+ 768,
747
+ 512,
748
+ 256,
749
+ 128,
750
+ 64
751
+ ],
752
+ "matryoshka_weights": [
753
+ 1,
754
+ 1,
755
+ 1,
756
+ 1,
757
+ 1
758
+ ],
759
+ "n_dims_per_step": -1
760
+ }
761
+ ```
762
+
763
+ ### Training Hyperparameters
764
+ #### Non-Default Hyperparameters
765
+
766
+ - `eval_strategy`: epoch
767
+ - `per_device_train_batch_size`: 52
768
+ - `per_device_eval_batch_size`: 52
769
+ - `gradient_accumulation_steps`: 12
770
+ - `learning_rate`: 3e-05
771
+ - `weight_decay`: 0.2
772
+ - `max_grad_norm`: 0.65
773
+ - `num_train_epochs`: 8
774
+ - `lr_scheduler_type`: cosine
775
+ - `warmup_ratio`: 0.15
776
+ - `fp16`: True
777
+ - `load_best_model_at_end`: True
778
+ - `group_by_length`: True
779
+ - `batch_sampler`: no_duplicates
780
+
781
+ #### All Hyperparameters
782
+ <details><summary>Click to expand</summary>
783
+
784
+ - `overwrite_output_dir`: False
785
+ - `do_predict`: False
786
+ - `eval_strategy`: epoch
787
+ - `prediction_loss_only`: True
788
+ - `per_device_train_batch_size`: 52
789
+ - `per_device_eval_batch_size`: 52
790
+ - `per_gpu_train_batch_size`: None
791
+ - `per_gpu_eval_batch_size`: None
792
+ - `gradient_accumulation_steps`: 12
793
+ - `eval_accumulation_steps`: None
794
+ - `torch_empty_cache_steps`: None
795
+ - `learning_rate`: 3e-05
796
+ - `weight_decay`: 0.2
797
+ - `adam_beta1`: 0.9
798
+ - `adam_beta2`: 0.999
799
+ - `adam_epsilon`: 1e-08
800
+ - `max_grad_norm`: 0.65
801
+ - `num_train_epochs`: 8
802
+ - `max_steps`: -1
803
+ - `lr_scheduler_type`: cosine
804
+ - `lr_scheduler_kwargs`: {}
805
+ - `warmup_ratio`: 0.15
806
+ - `warmup_steps`: 0
807
+ - `log_level`: passive
808
+ - `log_level_replica`: warning
809
+ - `log_on_each_node`: True
810
+ - `logging_nan_inf_filter`: True
811
+ - `save_safetensors`: True
812
+ - `save_on_each_node`: False
813
+ - `save_only_model`: False
814
+ - `restore_callback_states_from_checkpoint`: False
815
+ - `no_cuda`: False
816
+ - `use_cpu`: False
817
+ - `use_mps_device`: False
818
+ - `seed`: 42
819
+ - `data_seed`: None
820
+ - `jit_mode_eval`: False
821
+ - `bf16`: False
822
+ - `fp16`: True
823
+ - `fp16_opt_level`: O1
824
+ - `half_precision_backend`: auto
825
+ - `bf16_full_eval`: False
826
+ - `fp16_full_eval`: False
827
+ - `tf32`: None
828
+ - `local_rank`: 0
829
+ - `ddp_backend`: None
830
+ - `tpu_num_cores`: None
831
+ - `tpu_metrics_debug`: False
832
+ - `debug`: []
833
+ - `dataloader_drop_last`: False
834
+ - `dataloader_num_workers`: 0
835
+ - `dataloader_prefetch_factor`: None
836
+ - `past_index`: -1
837
+ - `disable_tqdm`: False
838
+ - `remove_unused_columns`: True
839
+ - `label_names`: None
840
+ - `load_best_model_at_end`: True
841
+ - `ignore_data_skip`: False
842
+ - `fsdp`: []
843
+ - `fsdp_min_num_params`: 0
844
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
845
+ - `fsdp_transformer_layer_cls_to_wrap`: None
846
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
847
+ - `parallelism_config`: None
848
+ - `deepspeed`: None
849
+ - `label_smoothing_factor`: 0.0
850
+ - `optim`: adamw_torch_fused
851
+ - `optim_args`: None
852
+ - `adafactor`: False
853
+ - `group_by_length`: True
854
+ - `length_column_name`: length
855
+ - `project`: huggingface
856
+ - `trackio_space_id`: trackio
857
+ - `ddp_find_unused_parameters`: None
858
+ - `ddp_bucket_cap_mb`: None
859
+ - `ddp_broadcast_buffers`: False
860
+ - `dataloader_pin_memory`: True
861
+ - `dataloader_persistent_workers`: False
862
+ - `skip_memory_metrics`: True
863
+ - `use_legacy_prediction_loop`: False
864
+ - `push_to_hub`: False
865
+ - `resume_from_checkpoint`: None
866
+ - `hub_model_id`: None
867
+ - `hub_strategy`: every_save
868
+ - `hub_private_repo`: None
869
+ - `hub_always_push`: False
870
+ - `hub_revision`: None
871
+ - `gradient_checkpointing`: False
872
+ - `gradient_checkpointing_kwargs`: None
873
+ - `include_inputs_for_metrics`: False
874
+ - `include_for_metrics`: []
875
+ - `eval_do_concat_batches`: True
876
+ - `fp16_backend`: auto
877
+ - `push_to_hub_model_id`: None
878
+ - `push_to_hub_organization`: None
879
+ - `mp_parameters`:
880
+ - `auto_find_batch_size`: False
881
+ - `full_determinism`: False
882
+ - `torchdynamo`: None
883
+ - `ray_scope`: last
884
+ - `ddp_timeout`: 1800
885
+ - `torch_compile`: False
886
+ - `torch_compile_backend`: None
887
+ - `torch_compile_mode`: None
888
+ - `include_tokens_per_second`: False
889
+ - `include_num_input_tokens_seen`: no
890
+ - `neftune_noise_alpha`: None
891
+ - `optim_target_modules`: None
892
+ - `batch_eval_metrics`: False
893
+ - `eval_on_start`: False
894
+ - `use_liger_kernel`: False
895
+ - `liger_kernel_config`: None
896
+ - `eval_use_gather_object`: False
897
+ - `average_tokens_across_devices`: True
898
+ - `prompts`: None
899
+ - `batch_sampler`: no_duplicates
900
+ - `multi_dataset_batch_sampler`: proportional
901
+ - `router_mapping`: {}
902
+ - `learning_rate_mapping`: {}
903
+
904
+ </details>
905
+
906
+ ### Training Logs
907
+ | Epoch | Step | Training Loss | Validation Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
908
+ |:-------:|:-------:|:-------------:|:---------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
909
+ | 1.0 | 92 | 0.5777 | 0.1919 | 0.4327 | 0.4327 | 0.4285 | 0.4231 | 0.3973 |
910
+ | 2.0 | 184 | 0.1552 | 0.1167 | 0.5138 | 0.5103 | 0.5068 | 0.5022 | 0.4873 |
911
+ | 3.0 | 276 | 0.0768 | 0.1053 | 0.5156 | 0.5139 | 0.5093 | 0.5081 | 0.4955 |
912
+ | 4.0 | 368 | 0.0571 | 0.0954 | 0.5184 | 0.5184 | 0.5164 | 0.5120 | 0.5010 |
913
+ | 5.0 | 460 | 0.0491 | 0.0854 | 0.5191 | 0.5196 | 0.5156 | 0.5168 | 0.5049 |
914
+ | 6.0 | 552 | 0.0421 | 0.0839 | 0.5215 | 0.5227 | 0.5187 | 0.5183 | 0.5088 |
915
+ | **7.0** | **644** | **0.0352** | **0.0834** | **0.5219** | **0.5215** | **0.5189** | **0.518** | **0.5115** |
916
+
917
+ * The bold row denotes the saved checkpoint.
918
+
919
+ ### Framework Versions
920
+ - Python: 3.10.12
921
+ - Sentence Transformers: 5.1.2
922
+ - Transformers: 4.57.1
923
+ - PyTorch: 2.9.0+cu128
924
+ - Accelerate: 1.11.0
925
+ - Datasets: 4.4.1
926
+ - Tokenizers: 0.22.1
927
+
928
+ ## Citation
929
+
930
+ ### BibTeX
931
+
932
+ #### Sentence Transformers
933
+ ```bibtex
934
+ @inproceedings{reimers-2019-sentence-bert,
935
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
936
+ author = "Reimers, Nils and Gurevych, Iryna",
937
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
938
+ month = "11",
939
+ year = "2019",
940
+ publisher = "Association for Computational Linguistics",
941
+ url = "https://arxiv.org/abs/1908.10084",
942
+ }
943
+ ```
944
+
945
+ #### MatryoshkaLoss
946
+ ```bibtex
947
+ @misc{kusupati2024matryoshka,
948
+ title={Matryoshka Representation Learning},
949
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
950
+ year={2024},
951
+ eprint={2205.13147},
952
+ archivePrefix={arXiv},
953
+ primaryClass={cs.LG}
954
+ }
955
+ ```
956
+
957
+ #### MultipleNegativesRankingLoss
958
+ ```bibtex
959
+ @misc{henderson2017efficient,
960
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
961
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
962
+ year={2017},
963
+ eprint={1705.00652},
964
+ archivePrefix={arXiv},
965
+ primaryClass={cs.CL}
966
+ }
967
+ ```
968
+
969
+ <!--
970
+ ## Glossary
971
+
972
+ *Clearly define terms in order to be accessible across audiences.*
973
+ -->
974
+
975
+ <!--
976
+ ## Model Card Authors
977
+
978
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
979
+ -->
980
+
981
+ <!--
982
+ ## Model Card Contact
983
+
984
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
985
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "RobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "dtype": "float32",
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.52.4",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "4.1.0",
4
+ "transformers": "4.52.4",
5
+ "pytorch": "2.6.0+cu124"
6
+ },
7
+ "model_type": "SentenceTransformer",
8
+ "prompts": {
9
+ "query": "",
10
+ "document": ""
11
+ },
12
+ "default_prompt_name": null,
13
+ "similarity_fn_name": "cosine"
14
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1887254bee8533e8e84b1cb1e774e8415deabc603749fc7807d060e9ab160096
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 256,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "PhobertTokenizer",
54
+ "unk_token": "<unk>"
55
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff