iambestfeed commited on
Commit
b97d1d3
1 Parent(s): 76c8c53

Upload folder using huggingface_hub

Browse files
This view is limited to 50 files because it contains too many changes.   See raw diff
Files changed (50) hide show
  1. contrastive-with-filter/1_Pooling/config.json +10 -0
  2. contrastive-with-filter/README.md +511 -0
  3. contrastive-with-filter/added_tokens.json +3 -0
  4. contrastive-with-filter/bpe.codes +0 -0
  5. contrastive-with-filter/config.json +28 -0
  6. contrastive-with-filter/config_sentence_transformers.json +10 -0
  7. contrastive-with-filter/model.safetensors +3 -0
  8. contrastive-with-filter/modules.json +14 -0
  9. contrastive-with-filter/sentence_bert_config.json +4 -0
  10. contrastive-with-filter/special_tokens_map.json +9 -0
  11. contrastive-with-filter/tokenizer_config.json +54 -0
  12. contrastive-with-filter/vocab.txt +0 -0
  13. contrastive-without-filter/1_Pooling/config.json +10 -0
  14. contrastive-without-filter/README.md +480 -0
  15. contrastive-without-filter/added_tokens.json +3 -0
  16. contrastive-without-filter/bpe.codes +0 -0
  17. contrastive-without-filter/config.json +28 -0
  18. contrastive-without-filter/config_sentence_transformers.json +10 -0
  19. contrastive-without-filter/model.safetensors +3 -0
  20. contrastive-without-filter/modules.json +14 -0
  21. contrastive-without-filter/sentence_bert_config.json +4 -0
  22. contrastive-without-filter/special_tokens_map.json +9 -0
  23. contrastive-without-filter/tokenizer_config.json +54 -0
  24. contrastive-without-filter/vocab.txt +0 -0
  25. top_10_20_biencoder/1_Pooling/config.json +10 -0
  26. top_10_20_biencoder/added_tokens.json +3 -0
  27. top_10_20_biencoder/bpe.codes +0 -0
  28. top_10_20_biencoder/config.json +28 -0
  29. top_10_20_biencoder/config_sentence_transformers.json +10 -0
  30. top_10_20_biencoder/model.safetensors +3 -0
  31. top_10_20_biencoder/modules.json +20 -0
  32. top_10_20_biencoder/sentence_bert_config.json +4 -0
  33. top_10_20_biencoder/special_tokens_map.json +9 -0
  34. top_10_20_biencoder/tokenizer_config.json +54 -0
  35. top_10_20_biencoder/training_args.bin +3 -0
  36. top_10_20_biencoder/vocab.txt +0 -0
  37. top_10_20_biencoder_with_filter/1_Pooling/config.json +10 -0
  38. top_10_20_biencoder_with_filter/added_tokens.json +3 -0
  39. top_10_20_biencoder_with_filter/bpe.codes +0 -0
  40. top_10_20_biencoder_with_filter/config.json +28 -0
  41. top_10_20_biencoder_with_filter/config_sentence_transformers.json +10 -0
  42. top_10_20_biencoder_with_filter/model.safetensors +3 -0
  43. top_10_20_biencoder_with_filter/modules.json +20 -0
  44. top_10_20_biencoder_with_filter/sentence_bert_config.json +4 -0
  45. top_10_20_biencoder_with_filter/special_tokens_map.json +9 -0
  46. top_10_20_biencoder_with_filter/tokenizer_config.json +54 -0
  47. top_10_20_biencoder_with_filter/training_args.bin +3 -0
  48. top_10_20_biencoder_with_filter/vocab.txt +0 -0
  49. top_10_20_bm25/1_Pooling/config.json +10 -0
  50. top_10_20_bm25/added_tokens.json +3 -0
contrastive-with-filter/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
contrastive-with-filter/README.md ADDED
@@ -0,0 +1,511 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language: []
3
+ library_name: sentence-transformers
4
+ tags:
5
+ - sentence-transformers
6
+ - sentence-similarity
7
+ - feature-extraction
8
+ - generated_from_trainer
9
+ - dataset_size:8027
10
+ - loss:MultipleNegativesRankingLoss
11
+ base_model: vinai/phobert-base-v2
12
+ datasets: []
13
+ widget:
14
+ - source_sentence: 'Bài trắc_nghiệm tính_cách bản_thân : Nếu chỉ được phép ăn một
15
+ trong bốn nguyên_liệu thực_phẩm dưới đây liên_tiếp trong ba ngày , bạn sẽ chọn
16
+ ăn món gì ? - Ngôi_sao'
17
+ sentences:
18
+ - "Alexandra V ( theo X. B ) \n - Showbiz \n - Thời_trang \n - Làm_đẹp \n - Xem\
19
+ \ \n - Ăn_chơi \n - Lối_sống \n - Thể_thao \n - Thời_cuộc \n - Podcasts \n - Thương_trường\
20
+ \ \n - Trắc_nghiệm \n - Video \n - Ảnh \n - Reviews & Deals \n Nếu chỉ được phép\
21
+ \ ăn một trong bốn nguyên_liệu thực_phẩm dưới đây liên_tiếp trong ba ngày , bạn\
22
+ \ sẽ chọn ăn món gì ? \n Alexandra V ( theo X. B )"
23
+ - "Nghĩa đang bị Công_an tỉnh Thái_Nguyên điều_tra về hành_vi giết người . \n Theo\
24
+ \ điều_tra ban_đầu , do mâu_thuẫn gia_đình , vợ Nghĩa bỏ về nhà bố_mẹ đẻ ở xã\
25
+ \ Thành_Công , huyện Phổ_Yên từ nhiều ngày . Khoảng 20h30 ngày 21 / 11 , Nghĩa\
26
+ \ cầm dao đến đón vợ về . \n Trong lúc to_tiếng , anh ta cầm dao đâm một nhát\
27
+ \ vào ngực bà Nguyễn_Thị_Hằng ( mẹ vợ ) khiến tử_vong tại_chỗ . Nghĩa tiếp_tục\
28
+ \ đâm bố vợ Ngô Văn_Cảnh , sau đó tự_sát . \n Nghĩa và ông Cảnh được đưa đi cấp_cứu\
29
+ \ trong tình_trạng bị_thương nặng ."
30
+ - "Liên_hệ quảng_cáo \n Tin 24h \n Showbiz \n Việt_Nam \n Châu_Á \n Âu_Mỹ \n Ngôi_sao\
31
+ \ của năm 2023 \n Thời_trang \n Sao_style \n Tư_vấn \n Làng_mốt \n Làm_đẹp \n\
32
+ \ Tóc \n Da \n Trang_điểm \n Dáng \n Phẫu_thuật thẩm_mỹ \n Xem \n Phim \n Nhạc\
33
+ \ \n Ăn_chơi \n Ẩm_thực \n Du_lịch \n Tips \n Lối_sống \n Tình_yêu \n Công_sở\
34
+ \ \n Nhà_cửa \n Sống_khỏe \n Cưới \n Gỡ_rối \n Thể_thao \n Trong nước \n Quốc_tế\
35
+ \ \n Thời_cuộc \n Hoàng_gia \n Chuyện lạ \n Hình_sự \n Podcasts \n Điểm_tin \n\
36
+ \ Bước qua đổ_vỡ \n Khi ta trẻ \n Suỵt \n Trà_đá cùng sao \n Hồ_sơ vụ_án \n Tám\
37
+ \ công_sở \n Lắng - đọng \n Thương_trường \n Doanh_nhân \n Trắc_nghiệm \n Cung\
38
+ \ Hoàng_Đạo \n Quiz \n Tarot \n Video \n Ảnh \n Reviews & Deals \n Showbiz \n\
39
+ \ Việt_Nam \n Châu_Á \n Âu_Mỹ \n Ngôi_sao của năm 2023 \n Thời_trang \n Sao_style\
40
+ \ \n Tư_vấn \n Làng_mốt \n Làm_đẹp \n Tóc \n Da \n Trang_điểm \n Dáng \n Phẫu_thuật\
41
+ \ thẩm_mỹ \n Xem \n Phim \n Nhạc \n Ăn_chơi \n Ẩm_thực \n Du_lịch \n Tips \n Lối_sống\
42
+ \ \n Tình_yêu \n Công_sở \n Nhà_cửa \n Sống_khỏe \n Cưới \n Gỡ_rối \n Thể_thao\
43
+ \ \n Trong nước \n Quốc_tế \n Thời_cuộc \n Hoàng_gia \n Chuyện lạ \n Hình_sự \n\
44
+ \ Podcasts \n Điểm_tin \n Bước qua đổ_vỡ \n Khi ta trẻ \n Suỵt \n Trà_đá cùng\
45
+ \ sao \n Hồ_sơ vụ_án \n Tám công_sở \n Lắng - đọng \n Thương_trường \n Doanh_nhân\
46
+ \ \n Trắc_nghiệm \n Cung Hoàng_Đạo \n Quiz \n Tarot \n Video \n Ảnh \n Reviews\
47
+ \ & Deals \n Giải_trí \n Show \n Phim \n Sao \n Nhạc \n Thể_thao \n Phong_cách\
48
+ \ \n Thời_cuộc \n Ăn_chơi \n Gia_đình \n Video \n Giải_trí \n Show \n Phim \n\
49
+ \ Sao \n Nhạc \n Điểm tin 21 / 7 : Tâm_sự của bà_xã Hồng_Đăng \n Tâm_sự của bà_xã\
50
+ \ Hồng_Đăng gây chú_ý , Khánh_Vân lên chức CEO , đôi tình_nhân hành_hạ_bé Vân_An\
51
+ \ hầu_tòa . \n Video \n Thứ năm , 21 / 7 / 2022 , 09 : 27 ( GMT + 7 ) \n Tags\
52
+ \ : \n điểm tin \n podcast \n Hồng_Đăng \n bà_xã \n VIDEO NỔI_BẬT \n Sao tuần\
53
+ \ qua : Phạm Quỳnh_Anh tiết_lộ lý_do không sinh thêm con \n 07 : 27 \n Cách con_người\
54
+ \ tắm_giặt ở nơi - 71 độ C \n 04 : 07 \n Chuột rơi trúng đầu khách ăn_lẩu \n 00\
55
+ \ : 41 \n Truyền_thông Trung_Quốc giới_thiệu du_lịch Việt_Nam \n 02 : 50"
56
+ - source_sentence: HLV Jurgen Klopp cho rằng các đội khác như Man_Utd sẽ được hưởng
57
+ phạt_đền , với những tình_huống của Liverpool trong trận thua Southampton tối
58
+ 4 / 1 . - VnExpress
59
+ sentences:
60
+ - Trong bức ảnh street style mới_đây , Hương_Giang khoe dáng mỏng với bộ đồ " kiệm
61
+ vải " . Hoa_hậu diện quần shorts siêu ngắn lấp_ló vòng ba , tôn lên đôi chân thanh_mảnh
62
+ . Những chiếc quần " 5 cm " đã trở_thành quen_thuộc với Hương_Giang . Người đẹp
63
+ rất thích mặc quần jeans rách cực ngầu , kiểu_dáng tôn khéo vòng ba sexy . Có
64
+ thân_hình " không mỡ thừa " nên n��� ca_sĩ tự_tin diện đồ hở mà không lo bị chê
65
+ phản_cảm . Hương_Giang có cả bộ sưu_tập quần " một gang tay " . Xu_hướng " quần
66
+ 5 cm " từ lâu không còn lạ_lẫm với thời_trang mùa hè của sao Việt . Minh_Tú có
67
+ vòng ba săn chắc nên cũng tự_tin diện shorts jeans siêu ngắn . So với nhiều Hoa_hậu
68
+ Việt_Nam , Tiểu_Vy có phong_cách sexy táo_bạo hơn hẳn . Diệp Lâm_Anh rất chuộng
69
+ khoe vòng ba bằng những chiếc quần không_thể ngắn hơn . Thiều Bảo Trâm có cả bộ
70
+ sưu_tập quần shorts khoe chân , trong đó đa_phần là những thiết_kế bó sát , dài
71
+ chưa đầy một gang tay . Chiếc quần của Elly Trần không đủ che vòng ba . Ngọc_Trinh
72
+ cũng là tín_đồ của những chiếc quần shorts kiểu này .
73
+ - "Mọi chuyện xảy ra khi chiếc Toyota_Camry lùi ra khỏi chỗ đỗ và hích vào một xe\
74
+ \ Hyundai Sonata đang chạy qua . Phần_lớn tài_xế sẽ xuống xe , đơn_giản nói lời\
75
+ \ xin_lỗi và trao_đổi thông_tin bảo_hiểm . Nhưng nữ tài_xế xe Toyota không làm\
76
+ \ thế . \n Người phụ_nữ này xuống xe và bắt_đầu la_hét vào mặt đối_phương . Sau\
77
+ \ khi đòi người đàn_ông lái_xe tránh đường cho mình đi , nữ tài_xế ngồi vào chiếc\
78
+ \ Toyota , lái lên phía trước đôi_chút rồi lùi lại thật mạnh , húc tiếp vào chiếc\
79
+ \ Hyundai khi nam tài_xế đã ra khỏi xe . \n Người đàn_ông cầm điện_thoại và dường_như\
80
+ \ đang gọi điện nhờ trợ_giúp , cùng lúc tì người lên đuôi chiếc Toyota để chặn\
81
+ \ lại . Nhưng người phụ_nữ dường_như đã bất_chấp mọi thứ , lùi xe mặc_kệ có người\
82
+ \ đứng sau . Loại được đối_thủ , chiếc Toyota quay đầu và phóng vọt đi , với ba\
83
+ \ - đờ - sốc sau đã móp một bên . Tuy_nhiên , biển số xe của nữ tài_xế đã được\
84
+ \ ghi lại đầy_đủ trong video . \n Mỹ_Anh ( theo Carscoops )"
85
+ - "Liverpool thua chủ nhà Southampton 0 - 1 ở vòng 17 Ngoại_hạng Anh tối 4 / 1 ,\
86
+ \ với bàn duy_nhất của Danny Ings phút thứ 2 . \n Phát_biểu sau trận , HLV Jurgen\
87
+ \ Klopp không hài_lòng với quyết_định của trọng_tài Andre_Marriners , với hai\
88
+ \ tình_huống Sadio_Mane bị Kyle_Walker - Peters phạm lỗi trong cấm_địa . \n *\
89
+ \ Kết_quả - Lịch_đấu Ngoại_hạng Anh \n * Bảng điểm Ngoại_hạng Anh \n Nhuận_Phát"
90
+ - source_sentence: Chồng tôi mất cách đây gần 3 tháng , vài ngày nữa là lễ 100 ngày
91
+ , gia_đình bên chồng có chị dâu chồng vừa phát_hiện bệnh hiểm_nghèo . Anh_trai
92
+ chồng đã mất cách đây 14 năm . - VnExpress
93
+ sentences:
94
+ - "Ưu_điểm : \n - Giặt giẻ nước nóng , sấy khô giẻ bằng khí nóng tích_hợp \n - Lau\
95
+ \ hiệu_quả bằng giẻ xoay , có_thể nâng giẻ 1,5 cm \n - Lực hút mạnh , chổi hút\
96
+ \ chống rối \n - Thiết_kế cao_cấp , khác_biệt so với đối_thủ \n - Camera nhận_diện\
97
+ \ và tránh vật_thể tốt , có_thể xem trực_tiếp như camera an_ninh \n - Dock thiết_kế\
98
+ \ gọn , có đèn LED báo trạng_thái khi hết_nước \n Nhược_điểm : \n - Phần_mềm ,\
99
+ \ trợ_lý ảo chưa hỗ_trợ tiếng Việt \n - Không có hộc chứa nước tẩy_rửa chuyên_biệt\
100
+ \ riêng ( phải mua thêm phụ_kiện ) \n - Một nút bấm cảm_ứng chưa thực_sự thân_thiện\
101
+ \ khi sử_dụng \n Tuấn_Hưng - Quang_Đồng"
102
+ - "Chị dâu chồng không nghĩ tới chuyện chữa bệnh mà nghĩ đến việc phải cưới cho\
103
+ \ cô con_gái đầu . Phía nhà bạn trai của cháu gái bảo sau 120 ngày kể từ khi chồng\
104
+ \ tôi mất thì làm đám_cưới . \n Tôi tìm_hiểu , thấy nhiều thông_tin cho rằng cưới\
105
+ \ cùng năm với năm nhà có tang sẽ ảnh_hưởng đến đôi uyên_ương . Tôi còn lo linh_hồn\
106
+ \ của chồng không được siêu_thoát và những người_thân còn lại trong nhà sẽ gặp\
107
+ \ điều không may . Chuyện cưới này là bất_đắc_dĩ do nguyện_vọng của người ốm không\
108
+ \ biết sống_chết như thế_nào . Thật_sự tôi rất lo_lắng cho gia_đình nhà chồng\
109
+ \ . Xin mọi người cho tôi lời khuyên chân_thành . Xin cảm_ơn . \n Hậu \n Độc_giả\
110
+ \ gọi vào số 09 6658 1270 để được hỗ_trợ , giải_đáp thắc_mắc ."
111
+ - "Ông Đường , 51 tuổi , bị Công_an huyện Cẩm_Giàng khởi_tố cuối tháng 12 / 2022\
112
+ \ về tội Lợi_dụng chức_vụ quyền_hạn trong khi thi_hành công_vụ . Ông đã bị đình_chỉ\
113
+ \ sinh_hoạt Đảng , đình_chỉ công_tác ngay sau đó , Huyện_��y Cẩm_Giang thông_tin\
114
+ \ ngày 3 / 1 . \n Nhà chức_trách cho biết ông Đường bị khởi_tố do liên_quan việc\
115
+ \ đấu_giá quyền sử_dụng khu đất có tổng_diện_tích hơn 4.913 m2 khu Văn_Chỉ , thị_trấn\
116
+ \ Cẩm_Giàng . Đây là khu đất được chia làm 50 lô , thuộc quy_hoạch khu dân_cư\
117
+ \ , nghĩa_trang liệt_sĩ , bể_bơi . \n Theo kế_hoạch , khu đất này được đưa ra_đấu\
118
+ \ với giá khởi_điểm 12 - 18 triệu / m2 , ngày đấu_giá dự_kiến là 2 / 10 / 2022\
119
+ \ . Tuy_nhiên , ngày 28 và 29 / 9 / 2022 , một_số người tập_trung tại UBND thị_trấn\
120
+ \ Cẩm_Giàng với biểu_hiện mất an_ninh trật_tự , ảnh_hưởng đến việc bán hồ_sơ ,\
121
+ \ đấu_giá khu đất . Do_vậy , việc đấu_giá chưa được thực_hiện . \n Lê_Tân"
122
+ - source_sentence: Bộ Y_tế hôm_nay cho biết số_lượng vaccine Covid - 19 cung_ứng cho
123
+ Việt_Nam còn rất hạn_chế , ưu_tiên tiêm người từ 18 tuổi trở lên , khi có thêm
124
+ sẽ tiêm cho học_sinh . - VnExpress
125
+ sentences:
126
+ - "Ngân_hàng trung_ương Afghanistan hôm 15 / 9 thông_báo số tiền và vàng được tìm\
127
+ \ thấy trong nhà của các quan_chức chính_quyền cũ , bao_gồm cựu phó_tổng_thống\
128
+ \ Amrullah_Saleh , dù chưa rõ mục_đích họ để tiền , vàng trong nhà . \n Hiện chưa\
129
+ \ rõ tung_tích Saleh . Ông đã thề sẽ kháng_chiến với Taliban , lực_lượng giành\
130
+ \ chính_quyền một tháng trước . Một thành_viên trong gia_đình cựu phó_tổng_thống\
131
+ \ tuần trước cho hay Taliban đã hành_quyết anh_trai ông là Rohullah_Azizi . \n\
132
+ \ Trong một tuyên_bố riêng , ngân_hàng kêu_gọi người dân Afghanistan sử_dụng đồng_nội_tệ\
133
+ \ , trong bối_cảnh ngày_càng nhiều người lo_ngại các ngân_hàng và công_ty Afghanistan\
134
+ \ thiếu tiền , đặc_biệt là đồng đôla Mỹ vốn sử_dụng rộng_rãi . \n Một dấu_hiệu\
135
+ \ cho thấy Taliban đang tìm cách thu_hồi tài_sản của quan_chức chính_quyền cũ\
136
+ \ là ngân_hàng trung_ương tuần trước ban_hành thông_tư cho các ngân_hàng địa_phương\
137
+ \ , yêu_cầu họ đóng_băng tài_khoản của những cá_nhân có liên_quan với chính_phủ\
138
+ \ cũ , theo hai ngân_hàng thương_mại . \n Hồng_Hạnh ( Theo Reuters )"
139
+ - "Ý_kiến này được Bộ Y_tế gửi Văn_phòng Chính_phủ , sau hơn một tuần Thủ_tướng\
140
+ \ yêu_cầu phối_hợp với Bộ Giáo_dục và Đào_tạo triển_khai tiêm vaccine cho học_sinh\
141
+ \ , để năm_học mới diễn ra an_toàn . \n Theo đó , thời_gian qua , Bộ Y_tế đã cố_gắng\
142
+ \ tiếp_cận các nguồn vaccine Covid - 19 . Tuy_nhiên hiện_nay số_lượng cung_ứng\
143
+ \ cho Việt_Nam chỉ đáp_ứng một phần nhu_cầu phòng_chống dịch theo Nghị_quyết số\
144
+ \ 21 . Bộ Y_tế đã hướng_dẫn địa_phương , đơn_vị tiêm cho người từ 18 tuổi trở\
145
+ \ lên . \n \" Dự_kiến khi thêm nguồn cung_ứng , vaccine phân_bổ về các địa_phương\
146
+ \ , đề_nghị UBND các tỉnh_thành phê_duyệt danh_sách đối_tượng tiêm cụ_thể , trong\
147
+ \ đó có người dưới 18 tuổi , bao_gồm cả học_sinh \" , theo Bộ Y_tế . \n Tại cuộc\
148
+ \ họp Ban chỉ_đạo quốc_gia phòng_chống Covid - 19 , chiều 5 / 9 , Bộ_trưởng Nguyễn\
149
+ \ Thanh_Long cho biết đến nay cả nước đã tiêm được 21.523.792 liều , đạt gần 30\
150
+ \ % số người từ 18 tuổi trở lên . Trong đó 15.112.140 người tiêm 1 liều và hơn\
151
+ \ 3.205.826 người tiêm đủ hai liều vaccine . \n Đến ngày 4 / 9 , số người từ 18\
152
+ \ tuổi trở lên đã được tiêm vaccine ở Hà_Nội là 3.026.125 , đạt 52,7 % ; tại TP\
153
+ \ HCM tiêm 6.130.000 liều , đạt 88 , % . \n Theo báo_cáo của Tiểu_ban Tiêm_chủng\
154
+ \ , 30 đợt vaccine Covid - 19 với tổng_số 32,8 triệu liều đã được phân_bổ cho\
155
+ \ các địa_phương , đơn_vị . Dự_kiến đến hết tháng 4 / 2022 cung_ứng được 150 triệu\
156
+ \ liều ."
157
+ - Trong bộ ảnh mới thực_hiện , Anh Thư giúp nhà thiết_kế Nguyễn_Hà_Nhật_Huy giới_thiệu
158
+ các mẫu đầm đi tiệc dành cho mùa thu . Lấy cảm_hứng từ vẻ đẹp thanh_lịch của phụ_nữ
159
+ hiện_đại , nhà mốt Việt đã mang tới nhiều mẫu đầm có tính ứng_dụng cao và phù_hợp
160
+ với chị_em công_sở . Nhà_thiết_kế sử_dụng các chất_liệu vải bố , ren , organza
161
+ kết_hợp cùng những đường cắt_cúp được viền ren tỉ_mỉ . Đầm liền thân dáng ngắn
162
+ có phần cắt_cúp ngực đẹp_mắt , đồng_thời chi_tiết tay bồng bằng vải trong cũng
163
+ góp_phần mang tới nét duyên_dáng cho người mặc . Cùng với vải bố dễ dựng phom
164
+ và tôn hình_thể , Nguyễn_Hà_Nhật_Huy cũng chọn vải xếp ly để mang tới các mẫu
165
+ đầm đi đúng khuynh_hướng thời_trang 2020 . Kỹ_thuật xoắn vải được nhà mốt Việt
166
+ áp_dụng một_cách hiệu_quả trên từng dáng váy đi tiệc . Váy cổ vest cho mùa mới
167
+ được thể_hiện cuốn_hút hơn bằng thiết_kế sát_nách đi kèm phần chân váy xếp nếp
168
+ độc_đáo . Ở bộ sưu_tập này , Nguyễn_Hà_Nhật_Huy sử_dụng tông trắng và hồng nude
169
+ làm chủ_đạo . Dù dùng màu đơn_sắc , anh giúp các mẫu váy trở_nên thu_hút nhờ lối
170
+ tạo phom và phần cắt may tinh_tế . Đầm cổ vest thiết_kế trên vải bố trắng vừa
171
+ mang lại nét thanh_lịch vừa giúp phái_đẹp tôn chiều cao một_cách hiệu_quả . Bộ
172
+ ảnh được thực_hiện với sự hỗ_trợ của nhiếp_ảnh Antonio_Dinh , trang_điểm Đinh_Văn_Long
173
+ , trợ_lý Thắng LQ. Duy_Khánh
174
+ - source_sentence: Singapore - Du_khách có_thể thưởng_thức những món ngon được chế_biến
175
+ bởi các đầu_bếp danh_tiếng và ngắm nhìn khoảng 400.000 sinh_vật biển bơi_lội .
176
+ - VnExpress
177
+ sentences:
178
+ - "Chủ_nhật , 17 / 12 / 2023 \n Mới nhất \n Tin theo khu_vực \n Hà_Nội \n TP Hồ_Chí_Minh\
179
+ \ \n International \n Mới nhất \n Thời_sự \n Góc_nhìn \n Thế_giới \n Video \n\
180
+ \ Podcasts \n Kinh_doanh \n Bất_động_sản \n Khoa_học \n Giải_trí \n Thể_thao \n\
181
+ \ Pháp_luật \n Giáo_dục \n Sức_khỏe \n Đời_sống \n Du_lịch \n Số_hóa \n Xe \n\
182
+ \ Ý_kiến \n Tâm_sự \n Thư_giãn \n Tất_cả \n Trở_lại Thư_giãn \n Thư_giãn \n Thú_cưng\
183
+ \ \n Thứ_bảy , 25 / 12 / 2021 , 22 : 00 ( GMT + 7 ) \n Mèo chăm_chỉ gập bụng \n\
184
+ \ Con vật nằm một bên máy tập rồi liên_tục gập bụng để nâng cao sức_khỏe . \n\
185
+ \ Mèo chăm_chỉ gập bụng \n Xuka \n ( st ) \n Trở_lại Thư_giãn \n Trở_lại Thư_giãn\
186
+ \ \n Chia_sẻ \n Copy link thành_công \n ×"
187
+ - "Thứ_sáu , 15 / 12 / 2023 \n Mới nhất \n Tin theo khu_vực \n Hà_Nội \n TP Hồ_Chí_Minh\
188
+ \ \n International \n Mới nhất \n Thời_sự \n Góc_nhìn \n Thế_giới \n Video \n\
189
+ \ Podcasts \n Kinh_doanh \n Bất_động_sản \n Khoa_học \n Giải_trí \n Thể_thao \n\
190
+ \ Pháp_luật \n Giáo_dục \n Sức_khỏe \n Đời_sống \n Du_lịch \n Số_hóa \n Xe \n\
191
+ \ Ý_kiến \n Tâm_sự \n Thư_giãn \n Tất_cả \n Trở_lại Thư_giãn \n Thư_giãn \n Cười\
192
+ \ \n Thứ_sáu , 7 / 10 / 2022 , 08 : 00 ( GMT + 7 ) \n Chủ nhà dọa cẩu tặc bằng\
193
+ \ camera \n ' Đúng là chó giữ nhà , camera giữ chó là có thật ' , một người hài_hước\
194
+ \ . \n Chủ nhà dọa cẩu tặc bằng camera \n Xuka ( st ) \n Trở_lại Thư_giãn \n Trở_lại\
195
+ \ Thư_giãn \n Chia_sẻ \n Copy link thành_công \n ×"
196
+ - "SingaporeDu khách có_thể thưởng_thức những món ngon được chế_biến bởi các đầu_bếp\
197
+ \ danh_tiếng và ngắm nhìn khoảng 400.000 sinh_vật biển bơi_lội . \n Theo Tastemade"
198
+ pipeline_tag: sentence-similarity
199
+ ---
200
+
201
+ # SentenceTransformer based on vinai/phobert-base-v2
202
+
203
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2). It maps sentences & paragraphs to a 1536-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
204
+
205
+ ## Model Details
206
+
207
+ ### Model Description
208
+ - **Model Type:** Sentence Transformer
209
+ - **Base model:** [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2) <!-- at revision 2b51e367d92093c9688112098510e6a58bab67cd -->
210
+ - **Maximum Sequence Length:** 256 tokens
211
+ - **Output Dimensionality:** 1536 tokens
212
+ - **Similarity Function:** Cosine Similarity
213
+ <!-- - **Training Dataset:** Unknown -->
214
+ <!-- - **Language:** Unknown -->
215
+ <!-- - **License:** Unknown -->
216
+
217
+ ### Model Sources
218
+
219
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
220
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
221
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
222
+
223
+ ### Full Model Architecture
224
+
225
+ ```
226
+ SentenceTransformer(
227
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
228
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
229
+ )
230
+ ```
231
+
232
+ ## Usage
233
+
234
+ ### Direct Usage (Sentence Transformers)
235
+
236
+ First install the Sentence Transformers library:
237
+
238
+ ```bash
239
+ pip install -U sentence-transformers
240
+ ```
241
+
242
+ Then you can load this model and run inference.
243
+ ```python
244
+ from sentence_transformers import SentenceTransformer
245
+
246
+ # Download from the 🤗 Hub
247
+ model = SentenceTransformer("sentence_transformers_model_id")
248
+ # Run inference
249
+ sentences = [
250
+ 'Singapore - Du_khách có_thể thưởng_thức những món ngon được chế_biến bởi các đầu_bếp danh_tiếng và ngắm nhìn khoảng 400.000 sinh_vật biển bơi_lội . - VnExpress',
251
+ 'SingaporeDu khách có_thể thưởng_thức những món ngon được chế_biến bởi các đầu_bếp danh_tiếng và ngắm nhìn khoảng 400.000 sinh_vật biển bơi_lội . \n Theo Tastemade',
252
+ "Thứ_sáu , 15 / 12 / 2023 \n Mới nhất \n Tin theo khu_vực \n Hà_Nội \n TP Hồ_Chí_Minh \n International \n Mới nhất \n Thời_sự \n Góc_nhìn \n Thế_giới \n Video \n Podcasts \n Kinh_doanh \n Bất_động_sản \n Khoa_học \n Giải_trí \n Thể_thao \n Pháp_luật \n Giáo_dục \n Sức_khỏe \n Đời_sống \n Du_lịch \n Số_hóa \n Xe \n Ý_kiến \n Tâm_sự \n Thư_giãn \n Tất_cả \n Trở_lại Thư_giãn \n Thư_giãn \n Cười \n Thứ_sáu , 7 / 10 / 2022 , 08 : 00 ( GMT + 7 ) \n Chủ nhà dọa cẩu tặc bằng camera \n ' Đúng là chó giữ nhà , camera giữ chó là có thật ' , một người hài_hước . \n Chủ nhà dọa cẩu tặc bằng camera \n Xuka ( st ) \n Trở_lại Thư_giãn \n Trở_lại Thư_giãn \n Chia_sẻ \n Copy link thành_công \n ×",
253
+ ]
254
+ embeddings = model.encode(sentences)
255
+ print(embeddings.shape)
256
+ # [3, 1536]
257
+
258
+ # Get the similarity scores for the embeddings
259
+ similarities = model.similarity(embeddings, embeddings)
260
+ print(similarities.shape)
261
+ # [3, 3]
262
+ ```
263
+
264
+ <!--
265
+ ### Direct Usage (Transformers)
266
+
267
+ <details><summary>Click to see the direct usage in Transformers</summary>
268
+
269
+ </details>
270
+ -->
271
+
272
+ <!--
273
+ ### Downstream Usage (Sentence Transformers)
274
+
275
+ You can finetune this model on your own dataset.
276
+
277
+ <details><summary>Click to expand</summary>
278
+
279
+ </details>
280
+ -->
281
+
282
+ <!--
283
+ ### Out-of-Scope Use
284
+
285
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
286
+ -->
287
+
288
+ <!--
289
+ ## Bias, Risks and Limitations
290
+
291
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
292
+ -->
293
+
294
+ <!--
295
+ ### Recommendations
296
+
297
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
298
+ -->
299
+
300
+ ## Training Details
301
+
302
+ ### Training Dataset
303
+
304
+ #### Unnamed Dataset
305
+
306
+
307
+ * Size: 8,027 training samples
308
+ * Columns: <code>sentence_0</code> and <code>sentence_1</code>
309
+ * Approximate statistics based on the first 1000 samples:
310
+ | | sentence_0 | sentence_1 |
311
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
312
+ | type | string | string |
313
+ | details | <ul><li>min: 4 tokens</li><li>mean: 29.35 tokens</li><li>max: 67 tokens</li></ul> | <ul><li>min: 21 tokens</li><li>mean: 153.68 tokens</li><li>max: 256 tokens</li></ul> |
314
+ * Samples:
315
+ | sentence_0 | sentence_1 |
316
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
317
+ | <code>Sở_hữu visual ' không phải dạng vừa ' , cậu em_út của Hòa_Minzy được nhiều fan nữ nhận làm ... chồng .</code> | <code>Chiều mùng 5 Tết Tân_Sửu ( 16 / 2 ) , Hòa_Minzy đăng_tải trên trang cá_nhân_ảnh gia_đình khiến fan trầm_trồ trước độ đẹp đều của 5 chị_em nhà nữ ca_sĩ . Cả bốn chị em_gái đều khoe sắc trong tà áo_dài , riêng cậu em_út bảnh_bao trong quần_âu , áo sơ_mi trắng . Mái_tóc dài lãng_tử của cậu em Hòa_Minzy khiến nhiều fan nữ đòi " bế về làm chồng " . <br> Cậu út nhà Hòa_Minzy có tên là Nguyễn_Văn Hùng , 21 tuổi , đang học_tập tại ĐH Công_nghệ TP HCM. Văn Hùng là con út nên gần_gũi với chị tư Hòa_Minzy nhất . Anh cũng thường_xuyên khoe khoảnh_khắc tình_cảm của hai chị_em trên trang cá_nhân . Hòa_Minzy khá chiều_chuộng em_trai khi thường tặng cho Văn Hùng những món quà đắt tiền dịp sinh_nhật . <br> Quỳnh_Anh</code> |
318
+ | <code>Nhiều mẫu giày Adidas với thế mạnh trọng_lượng nhẹ , êm , ôm gọn bàn_chân , thiết_kế thời_trang giảm_giá 30 - 44 % đến hết 31 / 5 . - VnExpress</code> | <code>Khởi_đầu bằng những đôi giày điền_kinh có đinh ở đế , cái tên Adidas ngày_càng quen_thuộc với người sử_dụng . Nhằm đáp_ứng nhu_cầu luyện_tập thể_thao cũng như cung_cấp phụ_kiện cần_thiết cho chạy bộ , nhà phân_phối Sneaker House đang giảm_giá một_số mẫu giày Adidas với mức tối_đa 44 % trên Shop VnExpress . <br> Ngoài các mẫu giày chạy bộ chính hãng Adidas , Shop VnExpress còn nhiều mặt_hàng thời_trang chính hãng khác đang được bán với giá ưu_đãi . Nhập mã HE2020 , khách_hàng được giảm 9 % cho đơn hàng thời_trang từ 350.000 đồng , tối_đa 50.000 đồng , áp_dụng một lần cho một khách trong thời_gian từ 4 đến 20 / 5 / 2020 . Xem chi_tiết tại đây . <br> Hoàng_Anh</code> |
319
+ | <code>Hai cao_thủ thể_hiện võ kungfu nấu món thịt lợn xào sa tế thu_hút người xem .</code> | <code>Chủ_nhật , 17 / 12 / 2023 <br> Mới nhất <br> Tin theo khu_vực <br> Hà_Nội <br> TP Hồ_Chí_Minh <br> International <br> Mới nhất <br> Thời_sự <br> Góc_nhìn <br> Thế_giới <br> Video <br> Podcasts <br> Kinh_doanh <br> Bất_động_sản <br> Khoa_học <br> Giải_trí <br> Thể_thao <br> Pháp_luật <br> Giáo_dục <br> Sức_khỏe <br> Đời_sống <br> Du_lịch <br> Số_hóa <br> Xe <br> Ý_kiến <br> Tâm_sự <br> Thư_giãn <br> Tất_cả <br> Trở_lại Thư_giãn <br> Thư_giãn <br> Cười <br> Chủ_nhật , 7 / 8 / 2022 , 17 : 00 ( GMT + 7 ) <br> Cao_thủ thể_hiện kungfu nấu_ăn <br> Hai cao_thủ thể_hiện võ kungfu nấu món thịt lợn xào sa tế thu_hút người xem . <br> Cao_thủ thể_hiện kungfu nấu_ăn <br> Mộc_Trà <br> ( <br> st <br> ) <br> Trở_lại Thư_giãn <br> Trở_lại Thư_giãn <br> Chia_sẻ <br> Copy link thành_công <br> ×</code> |
320
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
321
+ ```json
322
+ {
323
+ "scale": 20.0,
324
+ "similarity_fct": "cos_sim"
325
+ }
326
+ ```
327
+
328
+ ### Training Hyperparameters
329
+ #### Non-Default Hyperparameters
330
+
331
+ - `per_device_train_batch_size`: 32
332
+ - `per_device_eval_batch_size`: 32
333
+ - `num_train_epochs`: 5
334
+ - `multi_dataset_batch_sampler`: round_robin
335
+
336
+ #### All Hyperparameters
337
+ <details><summary>Click to expand</summary>
338
+
339
+ - `overwrite_output_dir`: False
340
+ - `do_predict`: False
341
+ - `eval_strategy`: no
342
+ - `prediction_loss_only`: True
343
+ - `per_device_train_batch_size`: 32
344
+ - `per_device_eval_batch_size`: 32
345
+ - `per_gpu_train_batch_size`: None
346
+ - `per_gpu_eval_batch_size`: None
347
+ - `gradient_accumulation_steps`: 1
348
+ - `eval_accumulation_steps`: None
349
+ - `learning_rate`: 5e-05
350
+ - `weight_decay`: 0.0
351
+ - `adam_beta1`: 0.9
352
+ - `adam_beta2`: 0.999
353
+ - `adam_epsilon`: 1e-08
354
+ - `max_grad_norm`: 1
355
+ - `num_train_epochs`: 5
356
+ - `max_steps`: -1
357
+ - `lr_scheduler_type`: linear
358
+ - `lr_scheduler_kwargs`: {}
359
+ - `warmup_ratio`: 0.0
360
+ - `warmup_steps`: 0
361
+ - `log_level`: passive
362
+ - `log_level_replica`: warning
363
+ - `log_on_each_node`: True
364
+ - `logging_nan_inf_filter`: True
365
+ - `save_safetensors`: True
366
+ - `save_on_each_node`: False
367
+ - `save_only_model`: False
368
+ - `restore_callback_states_from_checkpoint`: False
369
+ - `no_cuda`: False
370
+ - `use_cpu`: False
371
+ - `use_mps_device`: False
372
+ - `seed`: 42
373
+ - `data_seed`: None
374
+ - `jit_mode_eval`: False
375
+ - `use_ipex`: False
376
+ - `bf16`: False
377
+ - `fp16`: False
378
+ - `fp16_opt_level`: O1
379
+ - `half_precision_backend`: auto
380
+ - `bf16_full_eval`: False
381
+ - `fp16_full_eval`: False
382
+ - `tf32`: None
383
+ - `local_rank`: 0
384
+ - `ddp_backend`: None
385
+ - `tpu_num_cores`: None
386
+ - `tpu_metrics_debug`: False
387
+ - `debug`: []
388
+ - `dataloader_drop_last`: False
389
+ - `dataloader_num_workers`: 0
390
+ - `dataloader_prefetch_factor`: None
391
+ - `past_index`: -1
392
+ - `disable_tqdm`: False
393
+ - `remove_unused_columns`: True
394
+ - `label_names`: None
395
+ - `load_best_model_at_end`: False
396
+ - `ignore_data_skip`: False
397
+ - `fsdp`: []
398
+ - `fsdp_min_num_params`: 0
399
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
400
+ - `fsdp_transformer_layer_cls_to_wrap`: None
401
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
402
+ - `deepspeed`: None
403
+ - `label_smoothing_factor`: 0.0
404
+ - `optim`: adamw_torch
405
+ - `optim_args`: None
406
+ - `adafactor`: False
407
+ - `group_by_length`: False
408
+ - `length_column_name`: length
409
+ - `ddp_find_unused_parameters`: None
410
+ - `ddp_bucket_cap_mb`: None
411
+ - `ddp_broadcast_buffers`: False
412
+ - `dataloader_pin_memory`: True
413
+ - `dataloader_persistent_workers`: False
414
+ - `skip_memory_metrics`: True
415
+ - `use_legacy_prediction_loop`: False
416
+ - `push_to_hub`: False
417
+ - `resume_from_checkpoint`: None
418
+ - `hub_model_id`: None
419
+ - `hub_strategy`: every_save
420
+ - `hub_private_repo`: False
421
+ - `hub_always_push`: False
422
+ - `gradient_checkpointing`: False
423
+ - `gradient_checkpointing_kwargs`: None
424
+ - `include_inputs_for_metrics`: False
425
+ - `eval_do_concat_batches`: True
426
+ - `fp16_backend`: auto
427
+ - `push_to_hub_model_id`: None
428
+ - `push_to_hub_organization`: None
429
+ - `mp_parameters`:
430
+ - `auto_find_batch_size`: False
431
+ - `full_determinism`: False
432
+ - `torchdynamo`: None
433
+ - `ray_scope`: last
434
+ - `ddp_timeout`: 1800
435
+ - `torch_compile`: False
436
+ - `torch_compile_backend`: None
437
+ - `torch_compile_mode`: None
438
+ - `dispatch_batches`: None
439
+ - `split_batches`: None
440
+ - `include_tokens_per_second`: False
441
+ - `include_num_input_tokens_seen`: False
442
+ - `neftune_noise_alpha`: None
443
+ - `optim_target_modules`: None
444
+ - `batch_eval_metrics`: False
445
+ - `batch_sampler`: batch_sampler
446
+ - `multi_dataset_batch_sampler`: round_robin
447
+
448
+ </details>
449
+
450
+ ### Training Logs
451
+ | Epoch | Step | Training Loss |
452
+ |:------:|:----:|:-------------:|
453
+ | 1.9920 | 500 | 0.664 |
454
+ | 3.9841 | 1000 | 0.0512 |
455
+
456
+
457
+ ### Framework Versions
458
+ - Python: 3.10.13
459
+ - Sentence Transformers: 3.0.1
460
+ - Transformers: 4.41.2
461
+ - PyTorch: 2.1.2
462
+ - Accelerate: 0.30.1
463
+ - Datasets: 2.19.2
464
+ - Tokenizers: 0.19.1
465
+
466
+ ## Citation
467
+
468
+ ### BibTeX
469
+
470
+ #### Sentence Transformers
471
+ ```bibtex
472
+ @inproceedings{reimers-2019-sentence-bert,
473
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
474
+ author = "Reimers, Nils and Gurevych, Iryna",
475
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
476
+ month = "11",
477
+ year = "2019",
478
+ publisher = "Association for Computational Linguistics",
479
+ url = "https://arxiv.org/abs/1908.10084",
480
+ }
481
+ ```
482
+
483
+ #### MultipleNegativesRankingLoss
484
+ ```bibtex
485
+ @misc{henderson2017efficient,
486
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
487
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
488
+ year={2017},
489
+ eprint={1705.00652},
490
+ archivePrefix={arXiv},
491
+ primaryClass={cs.CL}
492
+ }
493
+ ```
494
+
495
+ <!--
496
+ ## Glossary
497
+
498
+ *Clearly define terms in order to be accessible across audiences.*
499
+ -->
500
+
501
+ <!--
502
+ ## Model Card Authors
503
+
504
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
505
+ -->
506
+
507
+ <!--
508
+ ## Model Card Contact
509
+
510
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
511
+ -->
contrastive-with-filter/added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
contrastive-with-filter/bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
contrastive-with-filter/config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "vinai/phobert-base-v2",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.41.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
contrastive-with-filter/config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
contrastive-with-filter/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cd590806e0d2192a588ffa74239daf8243d85e5f961d0eda540027a7437aaecb
3
+ size 540015464
contrastive-with-filter/modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
contrastive-with-filter/sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
contrastive-with-filter/special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": "<mask>",
6
+ "pad_token": "<pad>",
7
+ "sep_token": "</s>",
8
+ "unk_token": "<unk>"
9
+ }
contrastive-with-filter/tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
contrastive-with-filter/vocab.txt ADDED
The diff for this file is too large to render. See raw diff
 
contrastive-without-filter/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
contrastive-without-filter/README.md ADDED
@@ -0,0 +1,480 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language: []
3
+ library_name: sentence-transformers
4
+ tags:
5
+ - sentence-transformers
6
+ - sentence-similarity
7
+ - feature-extraction
8
+ - generated_from_trainer
9
+ - dataset_size:10000
10
+ - loss:MultipleNegativesRankingLoss
11
+ base_model: vinai/phobert-base-v2
12
+ datasets: []
13
+ widget:
14
+ - source_sentence: Kho báu của người Minos được khai_quật trên đảo hoang ở Hy lạp
15
+ chứa tiền và nhiều đồ trang_sức giá_trị .
16
+ sentences:
17
+ - "Bộ Văn_hóa Hy Lạp hôm 1 / 11 công_bố phát_hiện một kho báu lớn trên hòn đảo không\
18
+ \ người ở Chrysi nằm giữa biển Libya , cách đảo lớn Crete 15 km về phía nam .\
19
+ \ Nó được xác_định có niên_đại_từ thời_kỳ đồ đồng cách đây khoảng 3.800 năm .\
20
+ \ \n Kho báu chứa nhiều đồ trang_sức bằng vàng , chuỗi hạt thủy_tinh và tiền đồng\
21
+ \ talăng - đơn_vị tiền_tệ chung của người Hy Lạp cổ_đại . Một_số chuỗi hạt có\
22
+ \ nguồn_gốc từ Ai Cập . Bên cạnh khối tài_sản giá_trị , các nhà khảo_cổ_học còn\
23
+ \ khai_quật được một_số hài_cốt , bể cá cổ_xưa và một lượng lớn bột Porphyry -\
24
+ \ chất nhuộm màu tím được tạo ra từ ốc_sên biển . \n \" Nhiều vỏ ốc vỡ đã được\
25
+ \ phát_hiện , cho thấy việc sản_xuất thuốc_nhuộm Porphyry ra_đời từ rất sớm ở\
26
+ \ Địa_Trung_Hải \" , Bộ Văn_hóa cho biết . \" Tất_cả đã tạo nên một trong những\
27
+ \ kho báu quan_trọng nhất của người Minos từng được tìm thấy ở Hy Lạp \" . \n\
28
+ \ Nền văn_minh Minos được biết đến là những người tiên_phong trong lĩnh_vực hàng_hải\
29
+ \ . Họ phát_triển phồn_thịnh trong thời_đại đồ đồng , thống_trị đảo Crete và vùng_biển\
30
+ \ Aegea trong khoảng thời_gian từ năm 2700 đến 1450 trước Công_nguyên , trước\
31
+ \ khi bị thay_thế bởi nền văn_minh Mycenae . \n Đoàn_Dương ( Theo AFP )"
32
+ - "Ngày 12 / 3 , Sở Thông_tin - Truyền_thông Quảng_Nam cho biết Chánh Thanh_tra\
33
+ \ Nguyễn_Văn_Nam ký quyết_định phạt hành_chính 12,5 triệu đồng đối_với Nguyễn\
34
+ \ Tống_Dũ , xã Đại_Hiệp , huyện Đại_Lộc . \n Nhà chức_trách xác_định ông Dũ vi_phạm\
35
+ \ hành_chính trong lĩnh_vực bưu_chính , viễn_thông , công_nghệ thông_tin và tần_số\
36
+ \ vô_tuyến . \n Trước đó , ngày 24 / 2 , ông Dũ đăng thông_tin trên Facebook với\
37
+ \ nội_dung \" học_sinh chưa thể đến trường , giám_đốc sở giáo_dục Quảng_Nam chuẩn_bị\
38
+ \ nhận án kỷ_luật \" và xóa sau thời_gian ngắn . \n Đến nay , Quảng_Nam đã ghi_nhận\
39
+ \ hai ca dương_tính nCoV là \" bệnh_nhân 31 \" và \" bệnh_nhân 33 \" . Để phòng_chống\
40
+ \ dịch nCoV , tỉnh đã cho học_sinh đến ngày 15 / 3 ."
41
+ - "Nếu phải chọn một trong hai loại thực_phẩm dưới đây để ăn thường_xuyên và không\
42
+ \ thay_đổi trong thời_gian dài , bạn sẽ chọn loại nào ? \n Alexandra_V"
43
+ - source_sentence: Chelsea bổ_nhiệm huyền_thoại người CH Czech vào vai_trò cố_vấn
44
+ kỹ_thuật và chuyên_môn . - VnExpress
45
+ sentences:
46
+ - "\" Tôi rất vinh_dự khi gia_nhập Chelsea một lần nữa . Trách_nhiệm của tôi là\
47
+ \ giúp CLB có hiệu_suất cao nhất có_thể , nối_tiếp thành_công mà Chelsea đã đạt\
48
+ \ trong 15 năm qua \" , Cech nói trong lễ ra_mắt hôm 20 / 6 . \" Tôi chờ_đợi những\
49
+ \ thử_thách mới , hy_vọng kiến_thức và kinh_nghiệm của tôi sẽ giúp Chelsea thành_công\
50
+ \ hơn nữa \" . \n Theo Sky_Sports , vai_trò mới của cựu_thủ_môn 37 tuổi ở Chelsea\
51
+ \ là cố_vấn mọi mặt liên_quan tới bóng_đá cũng như tăng_cường năng_lực của đội\
52
+ \ . Anh cũng làm nhiệm_vụ kết_nối giữa học_viện và đội một . \n Cech sẽ làm_việc\
53
+ \ chủ_yếu tại đại bản_doanh Cobham , sát_cánh với Giám_đốc Marina_Granovskaia\
54
+ \ , người được mệnh_danh là \" Bà đầm thép \" của Chelsea . Cech cũng theo đội\
55
+ \ trong các trận_đấu trên sân_nhà lẫn sân_khách . \n Giám_đốc Granovskaia hoan_nghênh\
56
+ \ sự trở_lại của Cech : \" Chúng_tôi rất vui_mừng được chào_đón Petr trở về mái\
57
+ \ nhà Chelsea \" . \n Cech tiếp_quản một_số công_việc của Michael_Emenalo , người\
58
+ \ đã rời khỏi vị_trí Giám_đốc kỹ_thuật của Chelsea để gia_nhập Monaco vào tháng\
59
+ \ 11 / 2017 . Trở_lại Chelsea là bước_đi đầu_tiên của Cech sau khi giải_nghệ .\
60
+ \ Trong trận cuối_cùng của sự_nghiệp cầu_thủ , Cech khoác_áo Arsenal chống lại\
61
+ \ chính Chelsea ở chung_kết Europa_League . \n Cech chơi 11 mùa giải cho Chelsea\
62
+ \ , giành 13 danh_hiệu trong đó có bốn chức vô_địch Ngoại_hạng Anh , bốn Cup FA\
63
+ \ , một Champions_League và một Europa_League trước khi gia_nhập Arsenal vào năm\
64
+ \ 2015 . Trong màu áo \" Pháo_Thủ \" , anh có thêm một Cup_FA. \n Thảo_Nguyên"
65
+ - "Cao_Triệu Khánh_Ly \n | \n Ngoisao . net phối_hợp Công_ty Cổ_phần Bibica tổ_chức\
66
+ \ cuộc thi \" Cả nhà cũng vẽ ước_mơ \" từ ngày 10 / 8 đến ngày 6 / 9 . Độc_giả\
67
+ \ có_thể chia_sẻ mọi ước_mơ của bản_thân , cho gia_đình hoặc cộng_đồng . \n Ban\
68
+ \ tổ_chức sẽ chọn 3 bài dự thi chất_lượng nhất để trao 2 triệu đồng_tiền_mặt mỗi\
69
+ \ tuần . Một giải_thưởng tháng trị_giá 5 triệu đồng_tiền_mặt . Độc_giả gửi bài\
70
+ \ thi tại đây , dưới dạng bài viết ( kèm 1 - 3 ảnh ) ; bài ảnh ( tối_đa 12 ảnh\
71
+ \ ) ; video hoặc hình_vẽ thể_hiện ước_mơ . \n Mỗi bài dự thi sẽ đóng_góp một bộ\
72
+ \ sách giáo_khoa tặng học_sinh nghèo trong năm_học mới . Độc_giả còn có_thể đóng_góp\
73
+ \ cho chương_trình tặng sách giáo_khoa , bữa xế và xe_đạp cho trẻ_em nghèo bằng\
74
+ \ cách mua hàng trực_tuyến trên website Bibica hoặc mua trực_tiếp các sản_phẩm\
75
+ \ của Bibica tại các cửa_hàng trên toàn_quốc . Tham_gia chia_sẻ # HURAtiepsucdentruong\
76
+ \ trên facebook cá_nhân hoặc hội nhóm để đóng_góp 5.000 đồng một hashtag cho chương_trình\
77
+ \ ."
78
+ - "Ngày 9 / 1 , Quốc và 4 người khác bị Công_an TP Buôn_Ma_Thuột tạm giữ , điều_tra\
79
+ \ về hành_vi Đánh_bạc ; Tổ_chức đánh_bạc . \n Hai hôm trước , khi đột_kích sới\
80
+ \ bạc , cảnh_sát thu_giữ tại hiện_trường gần 100 triệu đồng , 30 điện_thoại và\
81
+ \ nhiều tang_vật khác . \n Theo điều_tra , Quốc tổ_chức đá gà ăn_tiền trong rẫy\
82
+ \ cà_phê gần một tháng nay , mỗi độ ăn_thua 1 - 10 triệu đồng . Để tránh bị phát_hiện\
83
+ \ , anh ta thường_xuyên thay_đổi địa_điểm sát_phạt , thuê người cảnh_giới vòng\
84
+ \ ngoài . \n Trần_Hoá"
85
+ - source_sentence: Cô_dâu mặc chiếc váy được làm từ lá cờ in khẩu_hiệu " Đưa nước
86
+ Mỹ vĩ_đại trở_lại " , trong khi khách mời cũng đội mũ in dòng chữ này .
87
+ sentences:
88
+ - "Phía sau những tòa nhà cao , vết_tích bom B - 52 vẫn còn trên phố Khâm_Thiên\
89
+ \ , trong lễ giỗ chung của 287 người bị bom sát_hại năm 1972 . \n Ngọc_Thành"
90
+ - "Sảnh ngân_hàng ưu_tiên ( ACB Privilege_Banking ) tại Buôn_Ma_Thuột là mô_hình\
91
+ \ thứ 10 trên toàn hệ_thống ACB. Không_gian này đáp_ứng sự gia_tăng về nhu_cầu\
92
+ \ của nhóm khách cao_cấp . \n Trong 5 năm qua , ACB Privilege_Banking mở_rộng\
93
+ \ quy_mô , phục_vụ hàng nghìn khách_hàng cao_cấp trên toàn_quốc . Trung_tâm có\
94
+ \ mô_hình chuyên_biệt , đội_ngũ chuyên_viên tư_vấn chuyên_môn cao cùng nhiều đặc_quyền\
95
+ \ như phòng chờ sân_bay , đặc_quyền golf , ẩm_thực , du_lịch . \n Khách_hàng có_thể\
96
+ \ trải nghiệm mô_hình tại lầu 3 , tòa nhà ACB , số 152 - 156 Y_Jut , phường Thắng_Lợi\
97
+ \ , thành_phố Buôn_Ma_Thuột , Đăk_Lăk . Sự_kiện khai_trương có chủ_đề \" Sắc_màu\
98
+ \ Tây_Nguyên \" , giới_thiệu nghệ_thuật văn_hóa cà_phê cùng các loại nông_sản\
99
+ \ đặc_trưng . Chương_trình mang đến cơ_hội để kết_nối các doanh_nghiệp trong hệ\
100
+ \ sinh_thái khách_hàng ACB , mở ra nhiều cơ_hội hợp_tác kinh_doanh . \n Minh_Huy"
101
+ - "Audra và Jeff_Johnson làm đám_cưới hôm 4 / 7 , trùng ngày quốc_khánh Mỹ , tại\
102
+ \ Kalamazoo , bang Michigan , Mỹ trong sự chúc phúc của gia_đình và bạn_bè , những\
103
+ \ người đội chiếc mũ in dòng chữ \" Đưa nước Mỹ vĩ_đại trở_lại \" , khẩu_hiệu\
104
+ \ tranh_cử năm 2016 của Tổng_thống Donald_Trump . \n \" Cứ như nước Mỹ bao_phủ\
105
+ \ toàn_bộ đám_cưới của tôi và tôi không hề hối_tiếc \" , cô_dâu Audra_Johnson\
106
+ \ chia_sẻ . Audra cho biết ngoài việc tôn_vinh tình_yêu , vợ_chồng cô quyết_định\
107
+ \ biến đám_cưới thành nơi vinh_danh Trump và mọi chi_tiết đều được chuẩn_bị công_phu\
108
+ \ . Ngay cả móng tay của cô_dâu cũng được sơn giống như cờ Mỹ . \n \" Váy cưới\
109
+ \ được lấy ý_tưởng từ thiết_kế của Andre_Soriano . Thật_ra váy cưới được làm từ\
110
+ \ một lá cờ ' Đưa nước Mỹ vĩ_đại trở_lại ' và nó đã trở_thành_tâm_điểm của đám_cưới\
111
+ \ \" , Audra nói . Nhà_thiết_kế Soriano đã tạo ra chiếc váy in khẩu_hiệu của Trump\
112
+ \ cho nữ ca_sĩ Joy Villa mặc tới thảm_đỏ lễ trao giải Grammy 2017 . \n Dù chủ_đề\
113
+ \ vinh_danh Trump , cặp vợ_chồng chào_đón tất_cả mọi người cùng đến dự , bao_gồm\
114
+ \ những người theo đảng Dân_chủ . Một_số người từ_chối đội chiếc mũ có in khẩu_hiệu\
115
+ \ của Trump . Bố chú_rể cũng không tới đám_cưới vì ông không ủng_hộ Trump . \n\
116
+ \ Audra cho biết nếu được mời tới đám_cưới theo chủ_đề của cựu tổng_thống Barack_Obama\
117
+ \ , cô sẽ vui_vẻ nhận_lời . \n Huyền_Lê ( Theo Fox )"
118
+ - source_sentence: Mua_đồ ăn trữ sẵn trong nhà nhưng quên ăn khiến những quả trứng
119
+ vịt lộn treo trong bếp đã nở con .
120
+ sentences:
121
+ - "Mua_đồ ăn trữ sẵn trong nhà nhưng quên ăn khiến những quả trứng vịt lộn treo\
122
+ \ trong bếp đã nở con . \n Xuka ( st )"
123
+ - "Ca_sĩ nói : \" Là người chồng , cha trong gia_đình , tôi mong góp tiếng_nói tích_cực\
124
+ \ kêu_gọi cộng_đồng cùng hưởng_ứng_chiến_dịch \" . Hoạt_động được nhiều nghệ_sĩ\
125
+ \ hưởng_ứng như : Hoa_hậu H ' Hen_Niê , diễn_viên Bảo_Thanh , ca_sĩ Trọng Hiếu\
126
+ \ , MC Minh_Trang , diễn_viên Kim_Lý ... \n Trước đó , ca_sĩ cùng con_trai đầu\
127
+ \ - bé Tê_Giác - làm đại_sứ khách mời trong chiến_dịch kêu_gọi bảo_vệ tê_giác\
128
+ \ của WildAid . \n Chiến_dịch Trái_tim xanh do UNICEF tại Việt_Nam phát_động .\
129
+ \ Ca_sĩ Hoàng_Bách - sinh năm 1980 , cựu thành_viên nhóm AC & M. Sau thời_gian\
130
+ \ vượt qua trầm_cảm , anh lập ban nhạc mới Bach20_Band và phát_triển theo hướng\
131
+ \ truyền_cảm_hứng cho cộng_đồng . Vợ_chồng ca_sĩ đón con thứ ba vào năm 2019 ."
132
+ - "Khi muỗi vừa chích vào da , bị phát_hiện , chúng rút vòi bay đi ta thấy ngứa\
133
+ \ nhưng khi hút máu căng bụng thì không ? Tại_sao ? ( Tư ) \n Ảnh minh_họa : ST.\
134
+ \ \n Mời độc_giả đặt câu hỏi tại đây"
135
+ - source_sentence: Vòi xịt vệ_sinh , phễu thoát sàn , móc treo quần_áo ... bằng inox
136
+ , lắp_đặt đơn_giản , với chi_phí tiết_kiệm từ 85.000 đồng trên Shop VnExpress
137
+ . - VnExpress
138
+ sentences:
139
+ - "Shop VnExpress gợi_ý những phụ_kiện inox dùng trong gia_đình đang bán_chạy thời_gian\
140
+ \ qua , giúp góp_phần làm mới không_gian sống trong gia_đình . \n Shop VnExpress\
141
+ \ đang giảm_giá hàng chục nghìn mặt_hàng thời_trang , gia_dụng , nội_thất , mỹ_phẩm\
142
+ \ , nhu yếu_phẩm ... Đặt_hàng trong thời_gian này , nhập mã \" NHAMOI08 \" , người\
143
+ \ mua được giảm 8 % ( tối_đa 60.000 đồng ) cho đơn hàng nội_thất từ 400.000 đồng\
144
+ \ . Xem thêm tại đây . \n Thư_Kỳ"
145
+ - Ông chồng no đòn vì nói_xấu vợ khi đang nhậu Bác Ba_Phi ( st ) Cách vợ trừng_trị
146
+ chồng say rượu Chồng quay quán chè cho vợ xem khi trốn đi nhậu
147
+ - "Tòa_thánh Vatican hôm_qua tuyên_bố vấn_đề sức_khỏe đã khiến Giáo_hoàng 83 tuổi\
148
+ \ không_thể đến gặp các giáo_sĩ Rome và cử_hành Thánh lễ sám_hối khi bắt_đầu Mùa\
149
+ \ Chay tại thánh_đường St John Laterantheo theo kế_hoạch ban_đầu . \n Giáo_hoàng\
150
+ \ Francis vẫn thực_hiện nốt những công_việc đã lên kế_hoạch , nhưng ông muốn \"\
151
+ \ ở gần Santa Marta hơn \" . Tòa_thánh Vatican không nói rõ biểu_hiện bệnh của\
152
+ \ Giáo_hoàng , song trong buổi Thánh lễ hôm 26 / 2 , ông bị ho và hắt_hơi . \n\
153
+ \ Trong buổi lễ tại Quảng_trường St . Peter , Giáo_hoàng đã bày_tỏ sự ủng_hộ đối_với\
154
+ \ những bệnh_nhân nhiễm virus corona . \" Một lần nữa , tôi muốn thể_hiện sự đồng_hành\
155
+ \ với những người nhiễm nCoV cũng như những nhân_viên y_tế đang chăm_sóc cho họ\
156
+ \ \" , Giáo_hoàng Francis nói . \n Tình_trạng sức_khỏe của Giáo_hoàng được thông_báo\
157
+ \ trong bối_cảnh dịch Covid - 19 lan rộng ở Italy , khiến hơn 600 người nhiễm_bệnh\
158
+ \ và 17 người tử_vong , hầu_hết đều ở khu_vực miền bắc nước này . Rome báo_cáo\
159
+ \ ba trường_hợp nhiễm nCoV nhưng đều hồi_phục . \n Giáo_hoàng Francis không đặc_biệt\
160
+ \ tiếp_xúc với những người mắc virus corona , nhưng đã gặp_gỡ và bắt_tay các tín_đồ\
161
+ \ trong buổi Thánh lễ hôm 26 / 2 . Ông cũng hôn một em bé ở Quảng_trường Thánh_Peter\
162
+ \ và ôm hôn chào_đón các linh_mục đến thăm . \n Dịch_Covid - 19 khởi_phát ở Trung_Quốc\
163
+ \ từ tháng 12 / 2019 , tới nay đã xuất_hi���n ở 51 quốc_gia và vùng lãnh_thổ , khiến\
164
+ \ hơn 83.000 người nhiễm_bệnh , hơn 2.800 ca tử_vong . \n Ngọc_Ánh ( Theo NY_Post\
165
+ \ )"
166
+ pipeline_tag: sentence-similarity
167
+ ---
168
+
169
+ # SentenceTransformer based on vinai/phobert-base-v2
170
+
171
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2). It maps sentences & paragraphs to a 1536-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
172
+
173
+ ## Model Details
174
+
175
+ ### Model Description
176
+ - **Model Type:** Sentence Transformer
177
+ - **Base model:** [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2) <!-- at revision 2b51e367d92093c9688112098510e6a58bab67cd -->
178
+ - **Maximum Sequence Length:** 256 tokens
179
+ - **Output Dimensionality:** 1536 tokens
180
+ - **Similarity Function:** Cosine Similarity
181
+ <!-- - **Training Dataset:** Unknown -->
182
+ <!-- - **Language:** Unknown -->
183
+ <!-- - **License:** Unknown -->
184
+
185
+ ### Model Sources
186
+
187
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
188
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
189
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
190
+
191
+ ### Full Model Architecture
192
+
193
+ ```
194
+ SentenceTransformer(
195
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
196
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
197
+ )
198
+ ```
199
+
200
+ ## Usage
201
+
202
+ ### Direct Usage (Sentence Transformers)
203
+
204
+ First install the Sentence Transformers library:
205
+
206
+ ```bash
207
+ pip install -U sentence-transformers
208
+ ```
209
+
210
+ Then you can load this model and run inference.
211
+ ```python
212
+ from sentence_transformers import SentenceTransformer
213
+
214
+ # Download from the 🤗 Hub
215
+ model = SentenceTransformer("sentence_transformers_model_id")
216
+ # Run inference
217
+ sentences = [
218
+ 'Vòi xịt vệ_sinh , phễu thoát sàn , móc treo quần_áo ... bằng inox , lắp_đặt đơn_giản , với chi_phí tiết_kiệm từ 85.000 đồng trên Shop VnExpress . - VnExpress',
219
+ 'Shop VnExpress gợi_ý những phụ_kiện inox dùng trong gia_đình đang bán_chạy thời_gian qua , giúp góp_phần làm mới không_gian sống trong gia_đình . \n Shop VnExpress đang giảm_giá hàng chục nghìn mặt_hàng thời_trang , gia_dụng , nội_thất , mỹ_phẩm , nhu yếu_phẩm ... Đặt_hàng trong thời_gian này , nhập mã " NHAMOI08 " , người mua được giảm 8 % ( tối_đa 60.000 đồng ) cho đơn hàng nội_thất từ 400.000 đồng . Xem thêm tại đây . \n Thư_Kỳ',
220
+ 'Tòa_thánh Vatican hôm_qua tuyên_bố vấn_đề sức_khỏe đã khiến Giáo_hoàng 83 tuổi không_thể đến gặp các giáo_sĩ Rome và cử_hành Thánh lễ sám_hối khi bắt_đầu Mùa Chay tại thánh_đường St John Laterantheo theo kế_hoạch ban_đầu . \n Giáo_hoàng Francis vẫn thực_hiện nốt những công_việc đã lên kế_hoạch , nhưng ông muốn " ở gần Santa Marta hơn " . Tòa_thánh Vatican không nói rõ biểu_hiện bệnh của Giáo_hoàng , song trong buổi Thánh lễ hôm 26 / 2 , ông bị ho và hắt_hơi . \n Trong buổi lễ tại Quảng_trường St . Peter , Giáo_hoàng đã bày_tỏ sự ủng_hộ đối_với những bệnh_nhân nhiễm virus corona . " Một lần nữa , tôi muốn thể_hiện sự đồng_hành với những người nhiễm nCoV cũng như những nhân_viên y_tế đang chăm_sóc cho họ " , Giáo_hoàng Francis nói . \n Tình_trạng sức_khỏe của Giáo_hoàng được thông_báo trong bối_cảnh dịch Covid - 19 lan rộng ở Italy , khiến hơn 600 người nhiễm_bệnh và 17 người tử_vong , hầu_hết đều ở khu_vực miền bắc nước này . Rome báo_cáo ba trường_hợp nhiễm nCoV nhưng đều hồi_phục . \n Giáo_hoàng Francis không đặc_biệt tiếp_xúc với những người mắc virus corona , nhưng đã gặp_gỡ và bắt_tay các tín_đồ trong buổi Thánh lễ hôm 26 / 2 . Ông cũng hôn một em bé ở Quảng_trường Thánh_Peter và ôm hôn chào_đón các linh_mục đến thăm . \n Dịch_Covid - 19 khởi_phát ở Trung_Quốc từ tháng 12 / 2019 , tới nay đã xuất_hiện ở 51 quốc_gia và vùng lãnh_thổ , khiến hơn 83.000 người nhiễm_bệnh , hơn 2.800 ca tử_vong . \n Ngọc_Ánh ( Theo NY_Post )',
221
+ ]
222
+ embeddings = model.encode(sentences)
223
+ print(embeddings.shape)
224
+ # [3, 1536]
225
+
226
+ # Get the similarity scores for the embeddings
227
+ similarities = model.similarity(embeddings, embeddings)
228
+ print(similarities.shape)
229
+ # [3, 3]
230
+ ```
231
+
232
+ <!--
233
+ ### Direct Usage (Transformers)
234
+
235
+ <details><summary>Click to see the direct usage in Transformers</summary>
236
+
237
+ </details>
238
+ -->
239
+
240
+ <!--
241
+ ### Downstream Usage (Sentence Transformers)
242
+
243
+ You can finetune this model on your own dataset.
244
+
245
+ <details><summary>Click to expand</summary>
246
+
247
+ </details>
248
+ -->
249
+
250
+ <!--
251
+ ### Out-of-Scope Use
252
+
253
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
254
+ -->
255
+
256
+ <!--
257
+ ## Bias, Risks and Limitations
258
+
259
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
260
+ -->
261
+
262
+ <!--
263
+ ### Recommendations
264
+
265
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
266
+ -->
267
+
268
+ ## Training Details
269
+
270
+ ### Training Dataset
271
+
272
+ #### Unnamed Dataset
273
+
274
+
275
+ * Size: 10,000 training samples
276
+ * Columns: <code>sentence_0</code> and <code>sentence_1</code>
277
+ * Approximate statistics based on the first 1000 samples:
278
+ | | sentence_0 | sentence_1 |
279
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
280
+ | type | string | string |
281
+ | details | <ul><li>min: 5 tokens</li><li>mean: 27.83 tokens</li><li>max: 87 tokens</li></ul> | <ul><li>min: 21 tokens</li><li>mean: 149.67 tokens</li><li>max: 256 tokens</li></ul> |
282
+ * Samples:
283
+ | sentence_0 | sentence_1 |
284
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
285
+ | <code>Bạn mất bao_lâu để nghĩ ra đáp_án cho câu thành_ngữ này ? - VnExpress</code> | <code>Thứ_sáu , 15 / 12 / 2023 <br> Mới nhất <br> Tin theo khu_vực <br> Hà_Nội <br> TP Hồ_Chí_Minh <br> International <br> Mới nhất <br> Thời_sự <br> Góc_nhìn <br> Thế_giới <br> Video <br> Podcasts <br> Kinh_doanh <br> Bất_động_sản <br> Khoa_học <br> Giải_trí <br> Thể_thao <br> Pháp_luật <br> Giáo_dục <br> Sức_khỏe <br> Đời_sống <br> Du_lịch <br> Số_hóa <br> Xe <br> Ý_kiến <br> Tâm_sự <br> Thư_giãn <br> Tất_cả <br> Trở_lại Thư_giãn <br> Thư_giãn <br> Đố_vui <br> Thứ_tư , 15 / 3 / 2023 , 00 : 01 ( GMT + 7 ) <br> Đoán câu thành_ngữ trong 3 giây , bạn có_thể ? <br> Bạn mất bao_lâu để nghĩ ra đáp_án cho câu thành_ngữ này ? <br> >> Xem đáp_án <br> Mộc_Trà <br> ( <br> st <br> ) <br> Trở_lại Thư_giãn <br> Trở_lại Thư_giãn <br> Chia_sẻ <br> Copy link thành_công <br> ×</code> |
286
+ | <code>Tôm sốt với ớt xanh , ớt đỏ thơm thơm , thấm vị đậm_đà , chế_biến nhanh , đơn_giản . - Ngôi_sao</code> | <code>Nguyên_liệu : <br> - Tôm : 250 gr <br> - Ớt xanh : 1 quả <br> - Ớt đỏ : 1 quả <br> - Chanh : 1 quả <br> - Tỏi_tây : 1 củ <br> - Gừng : 1 lát <br> - Đường : 1 muỗng cà_phê <br> - Muối : 1 muỗng cà_phê <br> - Giấm trắng : 2 muỗng cà_phê <br> - Bột ngô : 4 muỗng_canh <br> - Nước : 50 ml <br> Cách làm : <br> | Bước 1 : Bỏ râu_tôm , làm sạch , gỡ chỉ lưng . <br> | Bước 2 : Thái nhỏ ớt xanh , ớt đỏ , gừng , tỏi_tây , vắt chút chanh và để riêng . <br> | <br> Bước 3 : <br> Phủ đều bột ngô lên tôm . Cho tôm vào chảo dầu , chiên trong 2 phút cho đến khi chín vàng . Chuyển sang đĩa và đặt sang một bên . <br> | <br> Bước 4 : <br> Lấy một chảo sạch , thêm nước , đường , giấm , cốt chanh . Để lửa nhỏ vừa , khuấy đều và nấu cho đến khi nước sốt đặc lại . <br> | <br> Bước 4 : <br> Cho tôm vào chảo , thêm gừng , tỏi_tây , ớt và muối rồi đảo đều cho đến khi các nguyên_liệu ngấm đều nước sốt . <br> Nguyên_Chi ( Theo Daydaycook )</code> |
287
+ | <code>Trung_Quốc - Khói bốc lên mù_mịt rồi nổ bùng kèm lửa lớn từ chiếc xe_buýt điện đỗ trong sân Học_viện Bách_Sắc ở Quảng_Tây , sáng 15 / 5 . - VnExpress</code> | <code>Khói bốc lên từ gầm chiếc xe_buýt điện đỗ ngoài cùng và chỉ vài giây sau lửa bùng lên . Ngọn lửa nhanh_chóng lan sang mấy thùng rác và ba xe_buýt điện khác đỗ bên cạnh . <br> Những người xung_quanh dùng nhiều bình cứu_hỏa để dập lửa nhưng không hiệu_quả . Chỉ đến khi lính cứu_hỏa đến_nơi và khoảng 20 phút sau , đám cháy được dập tắt , nhưng những chiếc xe_buýt chỉ còn trơ khung . <br> Theo CCTV , lửa cháy do lỗi từ hệ_thống sạc của pin xe . Sinh_viên trong tòa nhà gần đó được sơ_tán kịp_thời , không có ai bị_thương . <br> Xe_điện phát_nổ không còn là chuyện hiếm gặp ở Trung_Quốc . Hồi 2019 , một chiếc Tesla phát_nổ khi đang đỗ trong hầm . Tháng 5 / 2020 , một chiếc xe điện thương_hiệu nội_địa bốc cháy khi đang sạc . Đến tháng 9 / 2020 , tiếp_tục một chiếc xe điện BAIC cũng nổ lúc sạc . Gần đây nhất , hồi tháng 1 , Tesla 3 cũng phát_nổ trong nhà để xe . Rủi_ro từ hệ_thống sạc và pin là một trong những lo_ngại của người dùng với xe điện . <br> Mỹ_Anh ( theo Epoch_Times )</code> |
288
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
289
+ ```json
290
+ {
291
+ "scale": 20.0,
292
+ "similarity_fct": "cos_sim"
293
+ }
294
+ ```
295
+
296
+ ### Training Hyperparameters
297
+ #### Non-Default Hyperparameters
298
+
299
+ - `per_device_train_batch_size`: 32
300
+ - `per_device_eval_batch_size`: 32
301
+ - `num_train_epochs`: 5
302
+ - `multi_dataset_batch_sampler`: round_robin
303
+
304
+ #### All Hyperparameters
305
+ <details><summary>Click to expand</summary>
306
+
307
+ - `overwrite_output_dir`: False
308
+ - `do_predict`: False
309
+ - `eval_strategy`: no
310
+ - `prediction_loss_only`: True
311
+ - `per_device_train_batch_size`: 32
312
+ - `per_device_eval_batch_size`: 32
313
+ - `per_gpu_train_batch_size`: None
314
+ - `per_gpu_eval_batch_size`: None
315
+ - `gradient_accumulation_steps`: 1
316
+ - `eval_accumulation_steps`: None
317
+ - `learning_rate`: 5e-05
318
+ - `weight_decay`: 0.0
319
+ - `adam_beta1`: 0.9
320
+ - `adam_beta2`: 0.999
321
+ - `adam_epsilon`: 1e-08
322
+ - `max_grad_norm`: 1
323
+ - `num_train_epochs`: 5
324
+ - `max_steps`: -1
325
+ - `lr_scheduler_type`: linear
326
+ - `lr_scheduler_kwargs`: {}
327
+ - `warmup_ratio`: 0.0
328
+ - `warmup_steps`: 0
329
+ - `log_level`: passive
330
+ - `log_level_replica`: warning
331
+ - `log_on_each_node`: True
332
+ - `logging_nan_inf_filter`: True
333
+ - `save_safetensors`: True
334
+ - `save_on_each_node`: False
335
+ - `save_only_model`: False
336
+ - `restore_callback_states_from_checkpoint`: False
337
+ - `no_cuda`: False
338
+ - `use_cpu`: False
339
+ - `use_mps_device`: False
340
+ - `seed`: 42
341
+ - `data_seed`: None
342
+ - `jit_mode_eval`: False
343
+ - `use_ipex`: False
344
+ - `bf16`: False
345
+ - `fp16`: False
346
+ - `fp16_opt_level`: O1
347
+ - `half_precision_backend`: auto
348
+ - `bf16_full_eval`: False
349
+ - `fp16_full_eval`: False
350
+ - `tf32`: None
351
+ - `local_rank`: 0
352
+ - `ddp_backend`: None
353
+ - `tpu_num_cores`: None
354
+ - `tpu_metrics_debug`: False
355
+ - `debug`: []
356
+ - `dataloader_drop_last`: False
357
+ - `dataloader_num_workers`: 0
358
+ - `dataloader_prefetch_factor`: None
359
+ - `past_index`: -1
360
+ - `disable_tqdm`: False
361
+ - `remove_unused_columns`: True
362
+ - `label_names`: None
363
+ - `load_best_model_at_end`: False
364
+ - `ignore_data_skip`: False
365
+ - `fsdp`: []
366
+ - `fsdp_min_num_params`: 0
367
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
368
+ - `fsdp_transformer_layer_cls_to_wrap`: None
369
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
370
+ - `deepspeed`: None
371
+ - `label_smoothing_factor`: 0.0
372
+ - `optim`: adamw_torch
373
+ - `optim_args`: None
374
+ - `adafactor`: False
375
+ - `group_by_length`: False
376
+ - `length_column_name`: length
377
+ - `ddp_find_unused_parameters`: None
378
+ - `ddp_bucket_cap_mb`: None
379
+ - `ddp_broadcast_buffers`: False
380
+ - `dataloader_pin_memory`: True
381
+ - `dataloader_persistent_workers`: False
382
+ - `skip_memory_metrics`: True
383
+ - `use_legacy_prediction_loop`: False
384
+ - `push_to_hub`: False
385
+ - `resume_from_checkpoint`: None
386
+ - `hub_model_id`: None
387
+ - `hub_strategy`: every_save
388
+ - `hub_private_repo`: False
389
+ - `hub_always_push`: False
390
+ - `gradient_checkpointing`: False
391
+ - `gradient_checkpointing_kwargs`: None
392
+ - `include_inputs_for_metrics`: False
393
+ - `eval_do_concat_batches`: True
394
+ - `fp16_backend`: auto
395
+ - `push_to_hub_model_id`: None
396
+ - `push_to_hub_organization`: None
397
+ - `mp_parameters`:
398
+ - `auto_find_batch_size`: False
399
+ - `full_determinism`: False
400
+ - `torchdynamo`: None
401
+ - `ray_scope`: last
402
+ - `ddp_timeout`: 1800
403
+ - `torch_compile`: False
404
+ - `torch_compile_backend`: None
405
+ - `torch_compile_mode`: None
406
+ - `dispatch_batches`: None
407
+ - `split_batches`: None
408
+ - `include_tokens_per_second`: False
409
+ - `include_num_input_tokens_seen`: False
410
+ - `neftune_noise_alpha`: None
411
+ - `optim_target_modules`: None
412
+ - `batch_eval_metrics`: False
413
+ - `batch_sampler`: batch_sampler
414
+ - `multi_dataset_batch_sampler`: round_robin
415
+
416
+ </details>
417
+
418
+ ### Training Logs
419
+ | Epoch | Step | Training Loss |
420
+ |:------:|:----:|:-------------:|
421
+ | 1.5974 | 500 | 0.8959 |
422
+ | 3.1949 | 1000 | 0.1912 |
423
+ | 4.7923 | 1500 | 0.0968 |
424
+
425
+
426
+ ### Framework Versions
427
+ - Python: 3.10.13
428
+ - Sentence Transformers: 3.0.1
429
+ - Transformers: 4.41.2
430
+ - PyTorch: 2.1.2
431
+ - Accelerate: 0.30.1
432
+ - Datasets: 2.19.2
433
+ - Tokenizers: 0.19.1
434
+
435
+ ## Citation
436
+
437
+ ### BibTeX
438
+
439
+ #### Sentence Transformers
440
+ ```bibtex
441
+ @inproceedings{reimers-2019-sentence-bert,
442
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
443
+ author = "Reimers, Nils and Gurevych, Iryna",
444
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
445
+ month = "11",
446
+ year = "2019",
447
+ publisher = "Association for Computational Linguistics",
448
+ url = "https://arxiv.org/abs/1908.10084",
449
+ }
450
+ ```
451
+
452
+ #### MultipleNegativesRankingLoss
453
+ ```bibtex
454
+ @misc{henderson2017efficient,
455
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
456
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
457
+ year={2017},
458
+ eprint={1705.00652},
459
+ archivePrefix={arXiv},
460
+ primaryClass={cs.CL}
461
+ }
462
+ ```
463
+
464
+ <!--
465
+ ## Glossary
466
+
467
+ *Clearly define terms in order to be accessible across audiences.*
468
+ -->
469
+
470
+ <!--
471
+ ## Model Card Authors
472
+
473
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
474
+ -->
475
+
476
+ <!--
477
+ ## Model Card Contact
478
+
479
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
480
+ -->
contrastive-without-filter/added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
contrastive-without-filter/bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
contrastive-without-filter/config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "vinai/phobert-base-v2",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.41.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
contrastive-without-filter/config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
contrastive-without-filter/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c39ec4061755ff4a7319a68e46201a3c199101acadf3be89c3475ec9ece958f3
3
+ size 540015464
contrastive-without-filter/modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
contrastive-without-filter/sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
contrastive-without-filter/special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": "<mask>",
6
+ "pad_token": "<pad>",
7
+ "sep_token": "</s>",
8
+ "unk_token": "<unk>"
9
+ }
contrastive-without-filter/tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
contrastive-without-filter/vocab.txt ADDED
The diff for this file is too large to render. See raw diff
 
top_10_20_biencoder/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
top_10_20_biencoder/added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
top_10_20_biencoder/bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
top_10_20_biencoder/config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "top_10_bm25",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.38.1",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
top_10_20_biencoder/config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.38.1",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
top_10_20_biencoder/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:bcdc5e09b953d04fd11b475e94eedcfa77e65ab235476a31adb05a566dcf96e0
3
+ size 540015464
top_10_20_biencoder/modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
top_10_20_biencoder/sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 258,
3
+ "do_lower_case": false
4
+ }
top_10_20_biencoder/special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": "<mask>",
6
+ "pad_token": "<pad>",
7
+ "sep_token": "</s>",
8
+ "unk_token": "<unk>"
9
+ }
top_10_20_biencoder/tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 1000000000000000019884624838656,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
top_10_20_biencoder/training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c939e2041603f2cbaa906f5fe7f4a5adb89febe1a63c96f134aaf71cbbd292e6
3
+ size 6520
top_10_20_biencoder/vocab.txt ADDED
The diff for this file is too large to render. See raw diff
 
top_10_20_biencoder_with_filter/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
top_10_20_biencoder_with_filter/added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
top_10_20_biencoder_with_filter/bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
top_10_20_biencoder_with_filter/config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "top_10_bm25",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.38.1",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
top_10_20_biencoder_with_filter/config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.38.1",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
top_10_20_biencoder_with_filter/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e4d5aee2eb58d748b270ec3aaf7e117d633b225c012a7bce324941fceadfc230
3
+ size 540015464
top_10_20_biencoder_with_filter/modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
top_10_20_biencoder_with_filter/sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 258,
3
+ "do_lower_case": false
4
+ }
top_10_20_biencoder_with_filter/special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": "<mask>",
6
+ "pad_token": "<pad>",
7
+ "sep_token": "</s>",
8
+ "unk_token": "<unk>"
9
+ }
top_10_20_biencoder_with_filter/tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 1000000000000000019884624838656,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
top_10_20_biencoder_with_filter/training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c939e2041603f2cbaa906f5fe7f4a5adb89febe1a63c96f134aaf71cbbd292e6
3
+ size 6520
top_10_20_biencoder_with_filter/vocab.txt ADDED
The diff for this file is too large to render. See raw diff
 
top_10_20_bm25/1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
top_10_20_bm25/added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }