Add new SentenceTransformer model
Browse files- 1_Pooling/config.json +10 -0
- README.md +1260 -0
- config.json +31 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +37 -0
- tokenizer.json +0 -0
- tokenizer_config.json +62 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,1260 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- sentence-transformers
|
4 |
+
- sentence-similarity
|
5 |
+
- feature-extraction
|
6 |
+
- generated_from_trainer
|
7 |
+
- dataset_size:631587
|
8 |
+
- loss:MultipleNegativesRankingLoss
|
9 |
+
base_model: tintnguyen/bert-base-vi-uncased
|
10 |
+
widget:
|
11 |
+
- source_sentence: thành phố bất động sản đắt nhất
|
12 |
+
sentences:
|
13 |
+
- 'Đồng hồ: 18.066 đô la. Paris, kinh đô thời trang của thế giới và thủ đô thực
|
14 |
+
tế của đất nước Pháp hiện được công nhận là một trong những thành phố đắt đỏ nhất
|
15 |
+
để mua bất động sản, khi thị trường bất động sản tiếp tục phát triển mạnh với
|
16 |
+
nền kinh tế Pháp ổn định.'
|
17 |
+
- Hầu hết các cô gái và chàng trai đeo chiếc nhẫn thuần khiết của họ trên ngón áp
|
18 |
+
út của họ. Một số cô gái thích đeo nó trên ngón áp út của bàn tay trái, và thay
|
19 |
+
thế nó bằng chiếc nhẫn cưới của họ. Nhẫn tinh khiết không dành riêng cho ngón
|
20 |
+
tay đeo nhẫn; bạn có thể mặc nó bất cứ nơi nào thoải mái nhất cho bạn. Một số
|
21 |
+
thậm chí đeo nhẫn của họ trên một chuỗi như một chiếc vòng cổ. Một.
|
22 |
+
- 'Michaela Kennedy Cuomo, con gái út của Andrew Cuomo, phải nhập viện một thời
|
23 |
+
gian ngắn sau khi bất tỉnh: báo cáo. Theo các báo cáo, Michaela Kennedy Cuomo
|
24 |
+
(bên phải, trong ảnh với cha Thống đốc Cuomo), 17 tuổi, đã phải nhập viện một
|
25 |
+
thời gian ngắn sau khi được tìm thấy trong tình trạng bất tỉnh trong ngôi nhà
|
26 |
+
ở Westchester mà cô ở cùng mẹ, Kerry Kennedy, theo báo cáo. (Hình ảnh Spencer
|
27 |
+
Platt / Getty)'
|
28 |
+
- source_sentence: núi đọ ở tỉnh nào
|
29 |
+
sentences:
|
30 |
+
- Việc phát hiện một số di tích mà tiêu biểu là Núi Đọ vào cuối năm 1960, đã xuất
|
31 |
+
lộ những công cụ đá thô sơ đầu tiên của con người. Các nhà Khảo cổ học Việt Nam
|
32 |
+
cùng với Giáo sư Boriskovski đã nghiên cứu và chứng minh rằng ở Núi Đọ từng tồn
|
33 |
+
tại một nền văn hóa sơ kỳ thời đại đá cũ. Di tích Núi Đọ thuộc địa phận hai xã
|
34 |
+
Thiệu Tân và Thiệu Khánh, huyện Đông Sơn, Thanh Hóa. Núi Đọ là một quả núi thấp,
|
35 |
+
sườn núi dốc thoai thoải từ 20 độ đến 25 độ, cao 158 m so với mặt nước biển, nằm
|
36 |
+
ngay bên bờ hữu ngạn sông Chu; chỗ hợp lưu của hai dòng sông Mã và sông Chu cách
|
37 |
+
Thành phố Thanh Hóa 7 km về phía bắc - tây bắc.
|
38 |
+
- 'Virus Zika có thể lây truyền qua muỗi hoặc qua đường tình dục. Hầu hết mọi người
|
39 |
+
có thể phục hồi hoàn toàn và các triệu chứng virus zika tự hết trong khoảng một
|
40 |
+
tuần. Đa số các trường hợp không có triệu chứng nhiễm virus Zika. Tuy nhiên, nếu
|
41 |
+
có thì các biểu hiện virus zika thông thường gồm: Sốt, phát ban, đau khớp, đau
|
42 |
+
đầu, kết mạc mắt đỏ, đau cơ, cảm giác đau ở lưng. Bệnh virus Zika đặc biệt nguy
|
43 |
+
hiểm nếu đi từ mẹ sang con. Bà bầu bị nhiễm virus Zika khi mang thai có thể khiến
|
44 |
+
thai nhi mắc chứng đầu nhỏ. Khi lớn hơn, bé có thể bị suy giảm thị giác, thính
|
45 |
+
giác, tăng trưởng kém và thậm chí co giật.'
|
46 |
+
- Ý nghĩa hoa Alstroemeria Astroemeria cứng cáp là một bông hoa tuyệt đẹp kết hợp
|
47 |
+
nhiều màu sắc khác nhau thành một vẻ đẹp gắn kết. Loài hoa tươi sáng này tượng
|
48 |
+
trưng cho tình bạn, vẻ đẹp bền lâu của sự cam kết và chăm sóc.
|
49 |
+
- source_sentence: giáo của người đông sơn có hình gì
|
50 |
+
sentences:
|
51 |
+
- Chủ nhân của Văn hóa Đông Sơn đã chế tạo nhiều loại vũ khí từ đồng dùng để đánh
|
52 |
+
xa, gồm có lao, đầu mũi tên. Để bắn tên tất phải có cung, nỏ bằng gỗ hoặc tre.
|
53 |
+
Việc phát hiện bộ lẫy nỏ có hộp, có rãnh đặt mũi tên, có nấc để giữ dây nỏ, có
|
54 |
+
lẫy cong đùng để bóp cò, không còn nguyên vẹn ở làng Vạc, cho thấy việc dùng cung
|
55 |
+
nỏ của người Đông Sơn rất lợi hại khi săn bắn, chiến tranh là điều có thể tin
|
56 |
+
được. Giáo hình búp da, hình lá mía. Lao cũng giống như giáo nhưng kích cỡ nhỏ
|
57 |
+
hơn. Vũ khí đánh gần có dao găm. Dao găm có nhiều kiểu phân biệt dựa vào phần
|
58 |
+
cán và đốc chắn. Nhiều chiếc dao găm được đúc rất công phu. Chuôi dao đúc hình
|
59 |
+
tượng người nam hoặc nữ, y phục hoa văn trang sức đẹp đẽ, sống động. Phần cán
|
60 |
+
dao găm có những chiếc được chạm trổ rất độc đáo với hình tượng động vật như rắn
|
61 |
+
ngậm chân hổ, hổ ngậm chân voi, hay rắn ngậm chân voi...
|
62 |
+
- 'Xét nghiệm máu FSH kiểm tra mức độ hormone kích thích nang trứng trong máu. Mức
|
63 |
+
độ FHS có thể xác định xem các cơ quan sinh dục ở cả nam và nữ có hoạt động bình
|
64 |
+
thường hay không. Mức độ FHS cũng có thể được kiểm tra để phát hiện các vấn đề
|
65 |
+
với tuyến yên. Số lượng: * Chỉ số nguyên. Hormone kích thích nang trứng, hoặc
|
66 |
+
FSH, được sản xuất bởi tuyến yên để kích thích sản xuất và phát triển trứng ở
|
67 |
+
nữ và tinh trùng ở nam. FSH cũng kích thích sản xuất các hormone khác, bao gồm
|
68 |
+
testosterone và estrogen.'
|
69 |
+
- White Lightning là một tàu lượn siêu tốc bằng gỗ tại Fun Spot America ở Orlando,
|
70 |
+
Florida. Chuyến xe được thiết kế riêng do Great Coasters International sản xuất.
|
71 |
+
Chuyến đi là tàu lượn bằng gỗ đầu tiên của Orlando.
|
72 |
+
- source_sentence: bước đầu tiên trong quá trình tổng hợp protein là gì
|
73 |
+
sentences:
|
74 |
+
- 'Sáu bước đơn giản để trồng hoa nhài: 1 Hoa nhài phát triển mạnh trong môi trường
|
75 |
+
ban ngày nóng ẩm. 2 Chọn nơi trồng hoa nhài của bạn. 3 Chuẩn bị đất để trồng bằng
|
76 |
+
cách làm việc với một lượng lớn vật liệu hữu cơ, chẳng hạn như rêu than bùn hoặc
|
77 |
+
phân trộn. Bón phân đa dụng mỗi tháng một lần từ tháng 3 đến tháng 11.'
|
78 |
+
- 'PHẦN A. Đọc phần sau và ghi chú vào giấy của bạn: Tổng hợp protein là quá trình
|
79 |
+
cơ thể sử dụng để tạo ra protein. Bước đầu tiên của quá trình tổng hợp protein
|
80 |
+
được gọi là Phiên mã. Nó xảy ra trong nhân. Trong quá trình phiên mã, mRNA phiên
|
81 |
+
mã (bản sao) DNA. DNA là ࢠ€Š“được giải nénࢠ€Â và sợi mRNA
|
82 |
+
sao chép một sợi DNA. Một khi nó làm được điều này, mRNA sẽ rời khỏi nhân và đi
|
83 |
+
vào tế bào chất. mRNA sau đó sẽ tự gắn vào ribosome.'
|
84 |
+
- LIÊN KẾT / TRANG WEB THÊM VÀO DANH SÁCH CÔNG VIỆC. danh từ. Skinny jeans là loại
|
85 |
+
quần denim bó sát với da thường được làm bằng vải co giãn. Một ví dụ về quần jean
|
86 |
+
bó là những chiếc quần jean bó sát từ eo đến mắt cá chân.
|
87 |
+
- source_sentence: phương pháp lóc ối bác sĩ sẽ làm gì
|
88 |
+
sentences:
|
89 |
+
- Gương mặt thân quen mùa 1 được phát sóng trên kênh VTV3 từ ngày 5 tháng 1 năm
|
90 |
+
2013 đến 23 tháng 3 năm 2013 với các thí sinh gồm Khởi My, Đại Nghĩa, Thúy Uyên,
|
91 |
+
Kyo York, Phương Thanh và Chí Thiện. Bộ ba giám khảo chính là nhạc sĩ Đức Huy,
|
92 |
+
ca sĩ Mỹ Linh và NSƯT Hoài Linh. Người dẫn chương trình mùa này là nghệ sĩ Thanh
|
93 |
+
Bạch. Sau 10 tuần thi, kết quả chung cuộc giải nhất thuộc về thí sinh Khởi My.
|
94 |
+
- 'Khi thai phụ đã quá ngày dự sinh, các phương pháp sau đây có thể được bác sĩ
|
95 |
+
cân nhắc lựa chọn để gây khởi phát chuyển dạ:
|
96 |
+
|
97 |
+
Lóc ối: Với biện pháp này, bác sĩ sẽ đeo găng và dùng ngón tay để tách màng ối
|
98 |
+
ra khỏi thành tử cung.
|
99 |
+
|
100 |
+
Phá vỡ túi nước ối: Bác sĩ sẽ tạo một lỗ nhỏ trên túi nước ối để làm vỡ ối, qua
|
101 |
+
đó kích thích sự chuyển dạ.
|
102 |
+
|
103 |
+
Oxytocin: Là một loại thuốc giúp tạo ra các cơn co thắt chuyển dạ, được tiêm theo
|
104 |
+
đường tĩnh mạch vào cánh tay của thai phụ. Liều lượng có thể được tăng dần theo
|
105 |
+
thời gian nhưng phải theo dõi cẩn thận.
|
106 |
+
|
107 |
+
Các chất tương tự Prostaglandin: Đây là những loại thuốc được đặt trong âm đạo
|
108 |
+
để làm chín muồi cổ tử cung.
|
109 |
+
|
110 |
+
Làm giãn nở cổ tử cung: Bác sĩ có thể đặt ống thông có gắn một quả bong bóng rất
|
111 |
+
nhỏ vào cuối cổ tử cung của thai phụ. Sau đó, nước sẽ được bơm vào quả bóng. Khi
|
112 |
+
bóng đã được bơm căng, nó sẽ gây ra tác động áp lực, giúp cổ tử cung mở ra và
|
113 |
+
quá trình chuyển dạ sẽ bắt đầu.'
|
114 |
+
- 'Nghĩa quân Tây Sơn ở vào thế bất lợi: phía bắc có quân Trịnh, phía nam còn quân
|
115 |
+
Nguyễn. Nguyễn Nhạc phải tạm hoà hoãn với quân Trịnh để dồn sức đánh Nguyễn. Từ
|
116 |
+
năm 1776 đến năm 1783, nghĩa quân Tây Sơn đã bốn lần đánh vào Gia Định.Trong lần
|
117 |
+
tiến quân năm 1777, Tây Sơn bắt giết được chúa Nguyễn, chỉ còn Nguyễn Ánh chạy
|
118 |
+
thoát. Chính quyền họ Nguyễn ở Đàng Trong đến đây bị lật đổ.'
|
119 |
+
pipeline_tag: sentence-similarity
|
120 |
+
library_name: sentence-transformers
|
121 |
+
---
|
122 |
+
|
123 |
+
# SentenceTransformer based on tintnguyen/bert-base-vi-uncased
|
124 |
+
|
125 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [tintnguyen/bert-base-vi-uncased](https://huggingface.co/tintnguyen/bert-base-vi-uncased). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
126 |
+
|
127 |
+
## Model Details
|
128 |
+
|
129 |
+
### Model Description
|
130 |
+
- **Model Type:** Sentence Transformer
|
131 |
+
- **Base model:** [tintnguyen/bert-base-vi-uncased](https://huggingface.co/tintnguyen/bert-base-vi-uncased) <!-- at revision 4e50493f19bb3d6599ec112044d6c84f65b733bb -->
|
132 |
+
- **Maximum Sequence Length:** 512 tokens
|
133 |
+
- **Output Dimensionality:** 768 dimensions
|
134 |
+
- **Similarity Function:** Cosine Similarity
|
135 |
+
<!-- - **Training Dataset:** Unknown -->
|
136 |
+
<!-- - **Language:** Unknown -->
|
137 |
+
<!-- - **License:** Unknown -->
|
138 |
+
|
139 |
+
### Model Sources
|
140 |
+
|
141 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
142 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
143 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
144 |
+
|
145 |
+
### Full Model Architecture
|
146 |
+
|
147 |
+
```
|
148 |
+
SentenceTransformer(
|
149 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
|
150 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
151 |
+
)
|
152 |
+
```
|
153 |
+
|
154 |
+
## Usage
|
155 |
+
|
156 |
+
### Direct Usage (Sentence Transformers)
|
157 |
+
|
158 |
+
First install the Sentence Transformers library:
|
159 |
+
|
160 |
+
```bash
|
161 |
+
pip install -U sentence-transformers
|
162 |
+
```
|
163 |
+
|
164 |
+
Then you can load this model and run inference.
|
165 |
+
```python
|
166 |
+
from sentence_transformers import SentenceTransformer
|
167 |
+
|
168 |
+
# Download from the 🤗 Hub
|
169 |
+
model = SentenceTransformer("tintnguyen/bert-base-vi-uncased-st")
|
170 |
+
# Run inference
|
171 |
+
sentences = [
|
172 |
+
'phương pháp lóc ối bác sĩ sẽ làm gì',
|
173 |
+
'Khi thai phụ đã quá ngày dự sinh, các phương pháp sau đây có thể được bác sĩ cân nhắc lựa chọn để gây khởi phát chuyển dạ:\nLóc ối: Với biện pháp này, bác sĩ sẽ đeo găng và dùng ngón tay để tách màng ối ra khỏi thành tử cung.\nPhá vỡ túi nước ối: Bác sĩ sẽ tạo một lỗ nhỏ trên túi nước ối để làm vỡ ối, qua đó kích thích sự chuyển dạ.\nOxytocin: Là một loại thuốc giúp tạo ra các cơn co thắt chuyển dạ, được tiêm theo đường tĩnh mạch vào cánh tay của thai phụ. Liều lượng có thể được tăng dần theo thời gian nhưng phải theo dõi cẩn thận.\nCác chất tương tự Prostaglandin: Đây là những loại thuốc được đặt trong âm đạo để làm chín muồi cổ tử cung.\nLàm giãn nở cổ tử cung: Bác sĩ có thể đặt ống thông có gắn một quả bong bóng rất nhỏ vào cuối cổ tử cung của thai phụ. Sau đó, nước sẽ được bơm vào quả bóng. Khi bóng đã được bơm căng, nó sẽ gây ra tác động áp lực, giúp cổ tử cung mở ra và quá trình chuyển dạ sẽ bắt đầu.',
|
174 |
+
'Nghĩa quân Tây Sơn ở vào thế bất lợi: phía bắc có quân Trịnh, phía nam còn quân Nguyễn. Nguyễn Nhạc phải tạm hoà hoãn với quân Trịnh để dồn sức đánh Nguyễn. Từ năm 1776 đến năm 1783, nghĩa quân Tây Sơn đã bốn lần đánh vào Gia Định.Trong lần tiến quân năm 1777, Tây Sơn bắt giết được chúa Nguyễn, chỉ còn Nguyễn Ánh chạy thoát. Chính quyền họ Nguyễn ở Đàng Trong đến đây bị lật đổ.',
|
175 |
+
]
|
176 |
+
embeddings = model.encode(sentences)
|
177 |
+
print(embeddings.shape)
|
178 |
+
# [3, 768]
|
179 |
+
|
180 |
+
# Get the similarity scores for the embeddings
|
181 |
+
similarities = model.similarity(embeddings, embeddings)
|
182 |
+
print(similarities.shape)
|
183 |
+
# [3, 3]
|
184 |
+
```
|
185 |
+
|
186 |
+
<!--
|
187 |
+
### Direct Usage (Transformers)
|
188 |
+
|
189 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
190 |
+
|
191 |
+
</details>
|
192 |
+
-->
|
193 |
+
|
194 |
+
<!--
|
195 |
+
### Downstream Usage (Sentence Transformers)
|
196 |
+
|
197 |
+
You can finetune this model on your own dataset.
|
198 |
+
|
199 |
+
<details><summary>Click to expand</summary>
|
200 |
+
|
201 |
+
</details>
|
202 |
+
-->
|
203 |
+
|
204 |
+
<!--
|
205 |
+
### Out-of-Scope Use
|
206 |
+
|
207 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
208 |
+
-->
|
209 |
+
|
210 |
+
<!--
|
211 |
+
## Bias, Risks and Limitations
|
212 |
+
|
213 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
214 |
+
-->
|
215 |
+
|
216 |
+
<!--
|
217 |
+
### Recommendations
|
218 |
+
|
219 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
220 |
+
-->
|
221 |
+
|
222 |
+
## Training Details
|
223 |
+
|
224 |
+
### Training Dataset
|
225 |
+
|
226 |
+
#### Unnamed Dataset
|
227 |
+
|
228 |
+
|
229 |
+
* Size: 631,587 training samples
|
230 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
231 |
+
* Approximate statistics based on the first 1000 samples:
|
232 |
+
| | anchor | positive |
|
233 |
+
|:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
|
234 |
+
| type | string | string |
|
235 |
+
| details | <ul><li>min: 5 tokens</li><li>mean: 10.92 tokens</li><li>max: 41 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 106.79 tokens</li><li>max: 512 tokens</li></ul> |
|
236 |
+
* Samples:
|
237 |
+
| anchor | positive |
|
238 |
+
|:---------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
239 |
+
| <code>bạn có thể lấy hộ chiếu ở dmv không</code> | <code>Nộp đơn xin Hộ chiếu Hoa Kỳ tại Văn phòng DMV. Xuất bản 27/09/2001 01:53 PM | Cập nhật 24/08/2011 11:05 AM. Bạn có thể nộp đơn xin Hộ chiếu Hoa Kỳ tại một số văn phòng xe cơ giới do các nhân viên quận điều hành. Bạn có thể nộp đơn xin Hộ chiếu Hoa Kỳ tại một số Bưu điện Hoa Kỳ. NYSDMV không cấp hộ chiếu và không thể cung cấp cho bạn thông tin về cách xin hộ chiếu. Liên hệ với Bưu điện Hoa Kỳ hoặc văn phòng thư ký quận được liệt kê trong các trang màu xanh trong danh bạ điện thoại của bạn. NYSDMV không cấp hộ chiếu và không thể cung cấp cho bạn thông tin về cách nộp đơn xin hộ chiếu. Liên hệ với Bưu điện Hoa Kỳ hoặc văn phòng lục sự quận được liệt kê trong các trang màu xanh lam của danh bạ điện thoại của bạn.</code> |
|
240 |
+
| <code>tổng số người mỹ thiệt mạng trong tất cả các cuộc chiến tranh</code> | <code>1 Con số chính thức của người Mỹ thiệt mạng trong Chiến tranh Cách mạng (4.435) chỉ bằng khoảng 2/3 con số mà các nhà sử học đưa ra. Tổng số người Mỹ thiệt mạng trong Nội chiến được đưa ra là 140.414 - cao hơn khoảng 30.000 so với hầu hết các nhà sử học ước tính. Tôi nghi ngờ (nhưng không biết chắc chắn) rằng sự gia tăng có thể đến từ việc DoD tính số người chết trong tù binh là chiến đấu hơn là bệnh tật.</code> |
|
241 |
+
| <code>lý thuyết vụ nổ lớn được quay ở đâu</code> | <code>Thuyết Vụ nổ lớn được ghi hình tại Warner Bros. Studios ở Burbank, California. Bạn phải từ mười tám tuổi trở lên để tham gia buổi ghi hình Thuyết Vụ nổ lớn. Số lượng vé có hạn và nhu cầu rất cao. Vé được bán miễn phí trên TVTickets.com. Phần thứ 10 của Big Bang Theory hiện đang được sản xuất.</code> |
|
242 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
243 |
+
```json
|
244 |
+
{
|
245 |
+
"scale": 20.0,
|
246 |
+
"similarity_fct": "cos_sim"
|
247 |
+
}
|
248 |
+
```
|
249 |
+
|
250 |
+
### Evaluation Dataset
|
251 |
+
|
252 |
+
#### Unnamed Dataset
|
253 |
+
|
254 |
+
|
255 |
+
* Size: 300 evaluation samples
|
256 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
257 |
+
* Approximate statistics based on the first 300 samples:
|
258 |
+
| | anchor | positive |
|
259 |
+
|:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
|
260 |
+
| type | string | string |
|
261 |
+
| details | <ul><li>min: 5 tokens</li><li>mean: 11.02 tokens</li><li>max: 43 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 108.76 tokens</li><li>max: 512 tokens</li></ul> |
|
262 |
+
* Samples:
|
263 |
+
| anchor | positive |
|
264 |
+
|:--------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
265 |
+
| <code>lúa mạch đen được dùng làm gì và ăn ở pháp</code> | <code>Tiêu dùng và sử dụng của con người. Như đã nói trước đó, hầu hết lúa mạch đen được trồng ở châu Âu là để làm bánh mì. Canada có một số lượng hạn chế hạt lúa mạch đen được sử dụng để chưng cất và sử dụng thực phẩm, và ở Mỹ khoảng một nửa lúa mạch đen làm ngũ cốc được sử dụng cho những mục đích này (7, 8). Hạt lúa mạch đen được sử dụng để làm bột mì, thức ăn gia súc, hoặc bia. Nó cũng có thể được ăn toàn bộ, dưới dạng quả mọng lúa mạch đen luộc, hoặc bằng cách cuộn lại, tương tự như yến mạch cán (10).</code> |
|
266 |
+
| <code>kỳ hạm của hải quân chúng tôi là gì</code> | <code>USS Hiến pháp là kỳ hạm truyền thống của Hải quân Hoa Kỳ. Và nó vẫn đang được thực hiện và được điều khiển bởi một thủy thủ đoàn Hải quân Hoa Kỳ. USS Constellation CVN-64 được Tổng thống Ronald Reagan đặt cho biệt danh là Chiến hạm của Hoa Kỳ. Nó hiện đã ngừng hoạt động và được thay thế trong hạm đội bằng tàu sân bay USS Ronald Reagan CVN-76.</code> |
|
267 |
+
| <code>cửa sổ kính lớn nhất</code> | <code>Cửa sổ kính màu lớn nhất thế giới. Cửa sổ kính màu lớn nhất thế giới thực sự nằm trong lăng mộ tại Nghĩa trang Phục sinh ở Công lý. Nó chứa 2.448 tấm và rộng 22.381 feet vuông. Cũng cần lưu ý thêm, nó chỉ cách nhà máy cải tạo nước Stickney, cơ sở xử lý nước thải lớn nhất (vào tháng 7 và cả tháng 8, là cơ sở xử lý nước thải bốc mùi nhất trên thế giới, vài dặm ngắn) chỉ vài dặm ngắn.</code> |
|
268 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
269 |
+
```json
|
270 |
+
{
|
271 |
+
"scale": 20.0,
|
272 |
+
"similarity_fct": "cos_sim"
|
273 |
+
}
|
274 |
+
```
|
275 |
+
|
276 |
+
### Training Hyperparameters
|
277 |
+
#### Non-Default Hyperparameters
|
278 |
+
|
279 |
+
- `eval_strategy`: steps
|
280 |
+
- `per_device_train_batch_size`: 16
|
281 |
+
- `per_device_eval_batch_size`: 16
|
282 |
+
- `learning_rate`: 2e-05
|
283 |
+
- `num_train_epochs`: 2
|
284 |
+
- `warmup_ratio`: 0.1
|
285 |
+
- `fp16`: True
|
286 |
+
- `batch_sampler`: no_duplicates
|
287 |
+
|
288 |
+
#### All Hyperparameters
|
289 |
+
<details><summary>Click to expand</summary>
|
290 |
+
|
291 |
+
- `overwrite_output_dir`: False
|
292 |
+
- `do_predict`: False
|
293 |
+
- `eval_strategy`: steps
|
294 |
+
- `prediction_loss_only`: True
|
295 |
+
- `per_device_train_batch_size`: 16
|
296 |
+
- `per_device_eval_batch_size`: 16
|
297 |
+
- `per_gpu_train_batch_size`: None
|
298 |
+
- `per_gpu_eval_batch_size`: None
|
299 |
+
- `gradient_accumulation_steps`: 1
|
300 |
+
- `eval_accumulation_steps`: None
|
301 |
+
- `torch_empty_cache_steps`: None
|
302 |
+
- `learning_rate`: 2e-05
|
303 |
+
- `weight_decay`: 0.0
|
304 |
+
- `adam_beta1`: 0.9
|
305 |
+
- `adam_beta2`: 0.999
|
306 |
+
- `adam_epsilon`: 1e-08
|
307 |
+
- `max_grad_norm`: 1.0
|
308 |
+
- `num_train_epochs`: 2
|
309 |
+
- `max_steps`: -1
|
310 |
+
- `lr_scheduler_type`: linear
|
311 |
+
- `lr_scheduler_kwargs`: {}
|
312 |
+
- `warmup_ratio`: 0.1
|
313 |
+
- `warmup_steps`: 0
|
314 |
+
- `log_level`: passive
|
315 |
+
- `log_level_replica`: warning
|
316 |
+
- `log_on_each_node`: True
|
317 |
+
- `logging_nan_inf_filter`: True
|
318 |
+
- `save_safetensors`: True
|
319 |
+
- `save_on_each_node`: False
|
320 |
+
- `save_only_model`: False
|
321 |
+
- `restore_callback_states_from_checkpoint`: False
|
322 |
+
- `no_cuda`: False
|
323 |
+
- `use_cpu`: False
|
324 |
+
- `use_mps_device`: False
|
325 |
+
- `seed`: 42
|
326 |
+
- `data_seed`: None
|
327 |
+
- `jit_mode_eval`: False
|
328 |
+
- `use_ipex`: False
|
329 |
+
- `bf16`: False
|
330 |
+
- `fp16`: True
|
331 |
+
- `fp16_opt_level`: O1
|
332 |
+
- `half_precision_backend`: auto
|
333 |
+
- `bf16_full_eval`: False
|
334 |
+
- `fp16_full_eval`: False
|
335 |
+
- `tf32`: None
|
336 |
+
- `local_rank`: 0
|
337 |
+
- `ddp_backend`: None
|
338 |
+
- `tpu_num_cores`: None
|
339 |
+
- `tpu_metrics_debug`: False
|
340 |
+
- `debug`: []
|
341 |
+
- `dataloader_drop_last`: False
|
342 |
+
- `dataloader_num_workers`: 0
|
343 |
+
- `dataloader_prefetch_factor`: None
|
344 |
+
- `past_index`: -1
|
345 |
+
- `disable_tqdm`: False
|
346 |
+
- `remove_unused_columns`: True
|
347 |
+
- `label_names`: None
|
348 |
+
- `load_best_model_at_end`: False
|
349 |
+
- `ignore_data_skip`: False
|
350 |
+
- `fsdp`: []
|
351 |
+
- `fsdp_min_num_params`: 0
|
352 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
353 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
354 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
355 |
+
- `deepspeed`: None
|
356 |
+
- `label_smoothing_factor`: 0.0
|
357 |
+
- `optim`: adamw_torch
|
358 |
+
- `optim_args`: None
|
359 |
+
- `adafactor`: False
|
360 |
+
- `group_by_length`: False
|
361 |
+
- `length_column_name`: length
|
362 |
+
- `ddp_find_unused_parameters`: None
|
363 |
+
- `ddp_bucket_cap_mb`: None
|
364 |
+
- `ddp_broadcast_buffers`: False
|
365 |
+
- `dataloader_pin_memory`: True
|
366 |
+
- `dataloader_persistent_workers`: False
|
367 |
+
- `skip_memory_metrics`: True
|
368 |
+
- `use_legacy_prediction_loop`: False
|
369 |
+
- `push_to_hub`: False
|
370 |
+
- `resume_from_checkpoint`: None
|
371 |
+
- `hub_model_id`: None
|
372 |
+
- `hub_strategy`: every_save
|
373 |
+
- `hub_private_repo`: False
|
374 |
+
- `hub_always_push`: False
|
375 |
+
- `gradient_checkpointing`: False
|
376 |
+
- `gradient_checkpointing_kwargs`: None
|
377 |
+
- `include_inputs_for_metrics`: False
|
378 |
+
- `include_for_metrics`: []
|
379 |
+
- `eval_do_concat_batches`: True
|
380 |
+
- `fp16_backend`: auto
|
381 |
+
- `push_to_hub_model_id`: None
|
382 |
+
- `push_to_hub_organization`: None
|
383 |
+
- `mp_parameters`:
|
384 |
+
- `auto_find_batch_size`: False
|
385 |
+
- `full_determinism`: False
|
386 |
+
- `torchdynamo`: None
|
387 |
+
- `ray_scope`: last
|
388 |
+
- `ddp_timeout`: 1800
|
389 |
+
- `torch_compile`: False
|
390 |
+
- `torch_compile_backend`: None
|
391 |
+
- `torch_compile_mode`: None
|
392 |
+
- `dispatch_batches`: None
|
393 |
+
- `split_batches`: None
|
394 |
+
- `include_tokens_per_second`: False
|
395 |
+
- `include_num_input_tokens_seen`: False
|
396 |
+
- `neftune_noise_alpha`: None
|
397 |
+
- `optim_target_modules`: None
|
398 |
+
- `batch_eval_metrics`: False
|
399 |
+
- `eval_on_start`: False
|
400 |
+
- `use_liger_kernel`: False
|
401 |
+
- `eval_use_gather_object`: False
|
402 |
+
- `average_tokens_across_devices`: False
|
403 |
+
- `prompts`: None
|
404 |
+
- `batch_sampler`: no_duplicates
|
405 |
+
- `multi_dataset_batch_sampler`: proportional
|
406 |
+
|
407 |
+
</details>
|
408 |
+
|
409 |
+
### Training Logs
|
410 |
+
<details><summary>Click to expand</summary>
|
411 |
+
|
412 |
+
| Epoch | Step | Training Loss | Validation Loss |
|
413 |
+
|:------:|:-----:|:-------------:|:---------------:|
|
414 |
+
| 0.0025 | 100 | 1.6877 | - |
|
415 |
+
| 0.0051 | 200 | 1.259 | - |
|
416 |
+
| 0.0076 | 300 | 0.6289 | - |
|
417 |
+
| 0.0101 | 400 | 0.3623 | - |
|
418 |
+
| 0.0127 | 500 | 0.3353 | - |
|
419 |
+
| 0.0152 | 600 | 0.2671 | - |
|
420 |
+
| 0.0177 | 700 | 0.1881 | - |
|
421 |
+
| 0.0203 | 800 | 0.179 | - |
|
422 |
+
| 0.0228 | 900 | 0.1611 | - |
|
423 |
+
| 0.0253 | 1000 | 0.1587 | 0.1468 |
|
424 |
+
| 0.0279 | 1100 | 0.141 | - |
|
425 |
+
| 0.0304 | 1200 | 0.13 | - |
|
426 |
+
| 0.0329 | 1300 | 0.1257 | - |
|
427 |
+
| 0.0355 | 1400 | 0.1153 | - |
|
428 |
+
| 0.0380 | 1500 | 0.1341 | - |
|
429 |
+
| 0.0405 | 1600 | 0.1227 | - |
|
430 |
+
| 0.0431 | 1700 | 0.1024 | - |
|
431 |
+
| 0.0456 | 1800 | 0.0818 | - |
|
432 |
+
| 0.0481 | 1900 | 0.1069 | - |
|
433 |
+
| 0.0507 | 2000 | 0.0831 | 0.0978 |
|
434 |
+
| 0.0532 | 2100 | 0.1035 | - |
|
435 |
+
| 0.0557 | 2200 | 0.0949 | - |
|
436 |
+
| 0.0583 | 2300 | 0.1037 | - |
|
437 |
+
| 0.0608 | 2400 | 0.0894 | - |
|
438 |
+
| 0.0633 | 2500 | 0.0831 | - |
|
439 |
+
| 0.0659 | 2600 | 0.1085 | - |
|
440 |
+
| 0.0684 | 2700 | 0.0815 | - |
|
441 |
+
| 0.0709 | 2800 | 0.071 | - |
|
442 |
+
| 0.0735 | 2900 | 0.0889 | - |
|
443 |
+
| 0.0760 | 3000 | 0.0832 | 0.0704 |
|
444 |
+
| 0.0785 | 3100 | 0.0992 | - |
|
445 |
+
| 0.0811 | 3200 | 0.0733 | - |
|
446 |
+
| 0.0836 | 3300 | 0.0878 | - |
|
447 |
+
| 0.0861 | 3400 | 0.0757 | - |
|
448 |
+
| 0.0887 | 3500 | 0.0476 | - |
|
449 |
+
| 0.0912 | 3600 | 0.0741 | - |
|
450 |
+
| 0.0937 | 3700 | 0.0766 | - |
|
451 |
+
| 0.0963 | 3800 | 0.0736 | - |
|
452 |
+
| 0.0988 | 3900 | 0.0673 | - |
|
453 |
+
| 0.1013 | 4000 | 0.0718 | 0.0566 |
|
454 |
+
| 0.1039 | 4100 | 0.0649 | - |
|
455 |
+
| 0.1064 | 4200 | 0.0767 | - |
|
456 |
+
| 0.1089 | 4300 | 0.073 | - |
|
457 |
+
| 0.1115 | 4400 | 0.0745 | - |
|
458 |
+
| 0.1140 | 4500 | 0.0692 | - |
|
459 |
+
| 0.1165 | 4600 | 0.0652 | - |
|
460 |
+
| 0.1191 | 4700 | 0.077 | - |
|
461 |
+
| 0.1216 | 4800 | 0.0749 | - |
|
462 |
+
| 0.1241 | 4900 | 0.0493 | - |
|
463 |
+
| 0.1267 | 5000 | 0.0653 | 0.0533 |
|
464 |
+
| 0.1292 | 5100 | 0.073 | - |
|
465 |
+
| 0.1317 | 5200 | 0.0652 | - |
|
466 |
+
| 0.1343 | 5300 | 0.0639 | - |
|
467 |
+
| 0.1368 | 5400 | 0.0549 | - |
|
468 |
+
| 0.1393 | 5500 | 0.0731 | - |
|
469 |
+
| 0.1419 | 5600 | 0.0832 | - |
|
470 |
+
| 0.1444 | 5700 | 0.0687 | - |
|
471 |
+
| 0.1469 | 5800 | 0.0711 | - |
|
472 |
+
| 0.1495 | 5900 | 0.0709 | - |
|
473 |
+
| 0.1520 | 6000 | 0.0547 | 0.0626 |
|
474 |
+
| 0.1545 | 6100 | 0.084 | - |
|
475 |
+
| 0.1571 | 6200 | 0.0743 | - |
|
476 |
+
| 0.1596 | 6300 | 0.0706 | - |
|
477 |
+
| 0.1621 | 6400 | 0.0664 | - |
|
478 |
+
| 0.1647 | 6500 | 0.0682 | - |
|
479 |
+
| 0.1672 | 6600 | 0.0534 | - |
|
480 |
+
| 0.1697 | 6700 | 0.0642 | - |
|
481 |
+
| 0.1723 | 6800 | 0.0624 | - |
|
482 |
+
| 0.1748 | 6900 | 0.0648 | - |
|
483 |
+
| 0.1773 | 7000 | 0.0697 | 0.0509 |
|
484 |
+
| 0.1799 | 7100 | 0.0784 | - |
|
485 |
+
| 0.1824 | 7200 | 0.0871 | - |
|
486 |
+
| 0.1849 | 7300 | 0.0711 | - |
|
487 |
+
| 0.1875 | 7400 | 0.0718 | - |
|
488 |
+
| 0.1900 | 7500 | 0.0543 | - |
|
489 |
+
| 0.1925 | 7600 | 0.0676 | - |
|
490 |
+
| 0.1951 | 7700 | 0.0724 | - |
|
491 |
+
| 0.1976 | 7800 | 0.0579 | - |
|
492 |
+
| 0.2001 | 7900 | 0.0781 | - |
|
493 |
+
| 0.2027 | 8000 | 0.0909 | 0.0736 |
|
494 |
+
| 0.2052 | 8100 | 0.0653 | - |
|
495 |
+
| 0.2077 | 8200 | 0.0535 | - |
|
496 |
+
| 0.2103 | 8300 | 0.0801 | - |
|
497 |
+
| 0.2128 | 8400 | 0.0794 | - |
|
498 |
+
| 0.2153 | 8500 | 0.0615 | - |
|
499 |
+
| 0.2179 | 8600 | 0.0646 | - |
|
500 |
+
| 0.2204 | 8700 | 0.0497 | - |
|
501 |
+
| 0.2229 | 8800 | 0.06 | - |
|
502 |
+
| 0.2255 | 8900 | 0.0495 | - |
|
503 |
+
| 0.2280 | 9000 | 0.0685 | 0.0450 |
|
504 |
+
| 0.2305 | 9100 | 0.0606 | - |
|
505 |
+
| 0.2331 | 9200 | 0.0577 | - |
|
506 |
+
| 0.2356 | 9300 | 0.0464 | - |
|
507 |
+
| 0.2381 | 9400 | 0.0622 | - |
|
508 |
+
| 0.2407 | 9500 | 0.0567 | - |
|
509 |
+
| 0.2432 | 9600 | 0.0545 | - |
|
510 |
+
| 0.2457 | 9700 | 0.0455 | - |
|
511 |
+
| 0.2483 | 9800 | 0.0642 | - |
|
512 |
+
| 0.2508 | 9900 | 0.0612 | - |
|
513 |
+
| 0.2533 | 10000 | 0.0658 | 0.0310 |
|
514 |
+
| 0.2559 | 10100 | 0.0618 | - |
|
515 |
+
| 0.2584 | 10200 | 0.052 | - |
|
516 |
+
| 0.2609 | 10300 | 0.0504 | - |
|
517 |
+
| 0.2635 | 10400 | 0.0593 | - |
|
518 |
+
| 0.2660 | 10500 | 0.0534 | - |
|
519 |
+
| 0.2685 | 10600 | 0.0555 | - |
|
520 |
+
| 0.2711 | 10700 | 0.0583 | - |
|
521 |
+
| 0.2736 | 10800 | 0.0472 | - |
|
522 |
+
| 0.2761 | 10900 | 0.0591 | - |
|
523 |
+
| 0.2787 | 11000 | 0.039 | 0.0300 |
|
524 |
+
| 0.2812 | 11100 | 0.0446 | - |
|
525 |
+
| 0.2837 | 11200 | 0.0375 | - |
|
526 |
+
| 0.2863 | 11300 | 0.0515 | - |
|
527 |
+
| 0.2888 | 11400 | 0.0577 | - |
|
528 |
+
| 0.2913 | 11500 | 0.046 | - |
|
529 |
+
| 0.2939 | 11600 | 0.0518 | - |
|
530 |
+
| 0.2964 | 11700 | 0.055 | - |
|
531 |
+
| 0.2989 | 11800 | 0.0492 | - |
|
532 |
+
| 0.3015 | 11900 | 0.0513 | - |
|
533 |
+
| 0.3040 | 12000 | 0.0442 | 0.0278 |
|
534 |
+
| 0.3065 | 12100 | 0.0675 | - |
|
535 |
+
| 0.3091 | 12200 | 0.0526 | - |
|
536 |
+
| 0.3116 | 12300 | 0.0688 | - |
|
537 |
+
| 0.3141 | 12400 | 0.0589 | - |
|
538 |
+
| 0.3167 | 12500 | 0.0602 | - |
|
539 |
+
| 0.3192 | 12600 | 0.0551 | - |
|
540 |
+
| 0.3217 | 12700 | 0.0681 | - |
|
541 |
+
| 0.3243 | 12800 | 0.0522 | - |
|
542 |
+
| 0.3268 | 12900 | 0.047 | - |
|
543 |
+
| 0.3293 | 13000 | 0.0376 | 0.0282 |
|
544 |
+
| 0.3319 | 13100 | 0.0396 | - |
|
545 |
+
| 0.3344 | 13200 | 0.0467 | - |
|
546 |
+
| 0.3369 | 13300 | 0.0498 | - |
|
547 |
+
| 0.3395 | 13400 | 0.0402 | - |
|
548 |
+
| 0.3420 | 13500 | 0.0398 | - |
|
549 |
+
| 0.3445 | 13600 | 0.041 | - |
|
550 |
+
| 0.3471 | 13700 | 0.0516 | - |
|
551 |
+
| 0.3496 | 13800 | 0.0518 | - |
|
552 |
+
| 0.3521 | 13900 | 0.0413 | - |
|
553 |
+
| 0.3547 | 14000 | 0.0463 | 0.0199 |
|
554 |
+
| 0.3572 | 14100 | 0.0442 | - |
|
555 |
+
| 0.3597 | 14200 | 0.0695 | - |
|
556 |
+
| 0.3623 | 14300 | 0.0595 | - |
|
557 |
+
| 0.3648 | 14400 | 0.0435 | - |
|
558 |
+
| 0.3673 | 14500 | 0.0372 | - |
|
559 |
+
| 0.3699 | 14600 | 0.0398 | - |
|
560 |
+
| 0.3724 | 14700 | 0.0357 | - |
|
561 |
+
| 0.3749 | 14800 | 0.0467 | - |
|
562 |
+
| 0.3775 | 14900 | 0.0611 | - |
|
563 |
+
| 0.3800 | 15000 | 0.054 | 0.0233 |
|
564 |
+
| 0.3825 | 15100 | 0.0411 | - |
|
565 |
+
| 0.3851 | 15200 | 0.0485 | - |
|
566 |
+
| 0.3876 | 15300 | 0.0388 | - |
|
567 |
+
| 0.3901 | 15400 | 0.0474 | - |
|
568 |
+
| 0.3927 | 15500 | 0.0525 | - |
|
569 |
+
| 0.3952 | 15600 | 0.0568 | - |
|
570 |
+
| 0.3977 | 15700 | 0.0414 | - |
|
571 |
+
| 0.4003 | 15800 | 0.0375 | - |
|
572 |
+
| 0.4028 | 15900 | 0.0606 | - |
|
573 |
+
| 0.4053 | 16000 | 0.0495 | 0.0238 |
|
574 |
+
| 0.4079 | 16100 | 0.0407 | - |
|
575 |
+
| 0.4104 | 16200 | 0.0383 | - |
|
576 |
+
| 0.4129 | 16300 | 0.0318 | - |
|
577 |
+
| 0.4155 | 16400 | 0.0503 | - |
|
578 |
+
| 0.4180 | 16500 | 0.0386 | - |
|
579 |
+
| 0.4205 | 16600 | 0.0397 | - |
|
580 |
+
| 0.4231 | 16700 | 0.0409 | - |
|
581 |
+
| 0.4256 | 16800 | 0.0484 | - |
|
582 |
+
| 0.4281 | 16900 | 0.0514 | - |
|
583 |
+
| 0.4307 | 17000 | 0.0359 | 0.0216 |
|
584 |
+
| 0.4332 | 17100 | 0.0411 | - |
|
585 |
+
| 0.4357 | 17200 | 0.0372 | - |
|
586 |
+
| 0.4383 | 17300 | 0.0489 | - |
|
587 |
+
| 0.4408 | 17400 | 0.0364 | - |
|
588 |
+
| 0.4433 | 17500 | 0.0517 | - |
|
589 |
+
| 0.4459 | 17600 | 0.0422 | - |
|
590 |
+
| 0.4484 | 17700 | 0.0334 | - |
|
591 |
+
| 0.4509 | 17800 | 0.0532 | - |
|
592 |
+
| 0.4535 | 17900 | 0.0384 | - |
|
593 |
+
| 0.4560 | 18000 | 0.03 | 0.0200 |
|
594 |
+
| 0.4585 | 18100 | 0.034 | - |
|
595 |
+
| 0.4611 | 18200 | 0.0429 | - |
|
596 |
+
| 0.4636 | 18300 | 0.0448 | - |
|
597 |
+
| 0.4661 | 18400 | 0.03 | - |
|
598 |
+
| 0.4687 | 18500 | 0.0338 | - |
|
599 |
+
| 0.4712 | 18600 | 0.0436 | - |
|
600 |
+
| 0.4737 | 18700 | 0.0271 | - |
|
601 |
+
| 0.4763 | 18800 | 0.0516 | - |
|
602 |
+
| 0.4788 | 18900 | 0.0358 | - |
|
603 |
+
| 0.4813 | 19000 | 0.046 | 0.0255 |
|
604 |
+
| 0.4839 | 19100 | 0.0367 | - |
|
605 |
+
| 0.4864 | 19200 | 0.032 | - |
|
606 |
+
| 0.4889 | 19300 | 0.0363 | - |
|
607 |
+
| 0.4915 | 19400 | 0.0352 | - |
|
608 |
+
| 0.4940 | 19500 | 0.041 | - |
|
609 |
+
| 0.4965 | 19600 | 0.0508 | - |
|
610 |
+
| 0.4991 | 19700 | 0.0454 | - |
|
611 |
+
| 0.5016 | 19800 | 0.0459 | - |
|
612 |
+
| 0.5041 | 19900 | 0.0295 | - |
|
613 |
+
| 0.5066 | 20000 | 0.0415 | 0.0228 |
|
614 |
+
| 0.5092 | 20100 | 0.0422 | - |
|
615 |
+
| 0.5117 | 20200 | 0.0317 | - |
|
616 |
+
| 0.5142 | 20300 | 0.0263 | - |
|
617 |
+
| 0.5168 | 20400 | 0.0568 | - |
|
618 |
+
| 0.5193 | 20500 | 0.0339 | - |
|
619 |
+
| 0.5218 | 20600 | 0.0295 | - |
|
620 |
+
| 0.5244 | 20700 | 0.042 | - |
|
621 |
+
| 0.5269 | 20800 | 0.0343 | - |
|
622 |
+
| 0.5294 | 20900 | 0.0322 | - |
|
623 |
+
| 0.5320 | 21000 | 0.0328 | 0.0204 |
|
624 |
+
| 0.5345 | 21100 | 0.0407 | - |
|
625 |
+
| 0.5370 | 21200 | 0.0306 | - |
|
626 |
+
| 0.5396 | 21300 | 0.0295 | - |
|
627 |
+
| 0.5421 | 21400 | 0.0329 | - |
|
628 |
+
| 0.5446 | 21500 | 0.0297 | - |
|
629 |
+
| 0.5472 | 21600 | 0.0298 | - |
|
630 |
+
| 0.5497 | 21700 | 0.0261 | - |
|
631 |
+
| 0.5522 | 21800 | 0.0429 | - |
|
632 |
+
| 0.5548 | 21900 | 0.039 | - |
|
633 |
+
| 0.5573 | 22000 | 0.0336 | 0.0151 |
|
634 |
+
| 0.5598 | 22100 | 0.0417 | - |
|
635 |
+
| 0.5624 | 22200 | 0.0424 | - |
|
636 |
+
| 0.5649 | 22300 | 0.0447 | - |
|
637 |
+
| 0.5674 | 22400 | 0.0482 | - |
|
638 |
+
| 0.5700 | 22500 | 0.0253 | - |
|
639 |
+
| 0.5725 | 22600 | 0.0412 | - |
|
640 |
+
| 0.5750 | 22700 | 0.0425 | - |
|
641 |
+
| 0.5776 | 22800 | 0.0304 | - |
|
642 |
+
| 0.5801 | 22900 | 0.0302 | - |
|
643 |
+
| 0.5826 | 23000 | 0.0275 | 0.0144 |
|
644 |
+
| 0.5852 | 23100 | 0.0255 | - |
|
645 |
+
| 0.5877 | 23200 | 0.0266 | - |
|
646 |
+
| 0.5902 | 23300 | 0.038 | - |
|
647 |
+
| 0.5928 | 23400 | 0.0254 | - |
|
648 |
+
| 0.5953 | 23500 | 0.0486 | - |
|
649 |
+
| 0.5978 | 23600 | 0.0325 | - |
|
650 |
+
| 0.6004 | 23700 | 0.041 | - |
|
651 |
+
| 0.6029 | 23800 | 0.0307 | - |
|
652 |
+
| 0.6054 | 23900 | 0.037 | - |
|
653 |
+
| 0.6080 | 24000 | 0.0377 | 0.0194 |
|
654 |
+
| 0.6105 | 24100 | 0.0331 | - |
|
655 |
+
| 0.6130 | 24200 | 0.0386 | - |
|
656 |
+
| 0.6156 | 24300 | 0.0184 | - |
|
657 |
+
| 0.6181 | 24400 | 0.0244 | - |
|
658 |
+
| 0.6206 | 24500 | 0.0279 | - |
|
659 |
+
| 0.6232 | 24600 | 0.0351 | - |
|
660 |
+
| 0.6257 | 24700 | 0.0577 | - |
|
661 |
+
| 0.6282 | 24800 | 0.0434 | - |
|
662 |
+
| 0.6308 | 24900 | 0.0223 | - |
|
663 |
+
| 0.6333 | 25000 | 0.0264 | 0.0151 |
|
664 |
+
| 0.6358 | 25100 | 0.0378 | - |
|
665 |
+
| 0.6384 | 25200 | 0.0212 | - |
|
666 |
+
| 0.6409 | 25300 | 0.0245 | - |
|
667 |
+
| 0.6434 | 25400 | 0.0321 | - |
|
668 |
+
| 0.6460 | 25500 | 0.0391 | - |
|
669 |
+
| 0.6485 | 25600 | 0.0276 | - |
|
670 |
+
| 0.6510 | 25700 | 0.0253 | - |
|
671 |
+
| 0.6536 | 25800 | 0.0295 | - |
|
672 |
+
| 0.6561 | 25900 | 0.0225 | - |
|
673 |
+
| 0.6586 | 26000 | 0.0312 | 0.0133 |
|
674 |
+
| 0.6612 | 26100 | 0.0367 | - |
|
675 |
+
| 0.6637 | 26200 | 0.029 | - |
|
676 |
+
| 0.6662 | 26300 | 0.0311 | - |
|
677 |
+
| 0.6688 | 26400 | 0.0383 | - |
|
678 |
+
| 0.6713 | 26500 | 0.0357 | - |
|
679 |
+
| 0.6738 | 26600 | 0.0259 | - |
|
680 |
+
| 0.6764 | 26700 | 0.0277 | - |
|
681 |
+
| 0.6789 | 26800 | 0.0278 | - |
|
682 |
+
| 0.6814 | 26900 | 0.0242 | - |
|
683 |
+
| 0.6840 | 27000 | 0.0288 | 0.0183 |
|
684 |
+
| 0.6865 | 27100 | 0.0352 | - |
|
685 |
+
| 0.6890 | 27200 | 0.0298 | - |
|
686 |
+
| 0.6916 | 27300 | 0.0448 | - |
|
687 |
+
| 0.6941 | 27400 | 0.0299 | - |
|
688 |
+
| 0.6966 | 27500 | 0.0385 | - |
|
689 |
+
| 0.6992 | 27600 | 0.0365 | - |
|
690 |
+
| 0.7017 | 27700 | 0.022 | - |
|
691 |
+
| 0.7042 | 27800 | 0.0339 | - |
|
692 |
+
| 0.7068 | 27900 | 0.0371 | - |
|
693 |
+
| 0.7093 | 28000 | 0.0322 | 0.0183 |
|
694 |
+
| 0.7118 | 28100 | 0.0365 | - |
|
695 |
+
| 0.7144 | 28200 | 0.0271 | - |
|
696 |
+
| 0.7169 | 28300 | 0.0238 | - |
|
697 |
+
| 0.7194 | 28400 | 0.033 | - |
|
698 |
+
| 0.7220 | 28500 | 0.0225 | - |
|
699 |
+
| 0.7245 | 28600 | 0.022 | - |
|
700 |
+
| 0.7270 | 28700 | 0.0132 | - |
|
701 |
+
| 0.7296 | 28800 | 0.0304 | - |
|
702 |
+
| 0.7321 | 28900 | 0.0357 | - |
|
703 |
+
| 0.7346 | 29000 | 0.025 | 0.0149 |
|
704 |
+
| 0.7372 | 29100 | 0.0251 | - |
|
705 |
+
| 0.7397 | 29200 | 0.0238 | - |
|
706 |
+
| 0.7422 | 29300 | 0.0337 | - |
|
707 |
+
| 0.7448 | 29400 | 0.0277 | - |
|
708 |
+
| 0.7473 | 29500 | 0.02 | - |
|
709 |
+
| 0.7498 | 29600 | 0.0216 | - |
|
710 |
+
| 0.7524 | 29700 | 0.0203 | - |
|
711 |
+
| 0.7549 | 29800 | 0.0216 | - |
|
712 |
+
| 0.7574 | 29900 | 0.0317 | - |
|
713 |
+
| 0.7600 | 30000 | 0.0274 | 0.0116 |
|
714 |
+
| 0.7625 | 30100 | 0.0284 | - |
|
715 |
+
| 0.7650 | 30200 | 0.0407 | - |
|
716 |
+
| 0.7676 | 30300 | 0.0326 | - |
|
717 |
+
| 0.7701 | 30400 | 0.0207 | - |
|
718 |
+
| 0.7726 | 30500 | 0.0284 | - |
|
719 |
+
| 0.7752 | 30600 | 0.0386 | - |
|
720 |
+
| 0.7777 | 30700 | 0.031 | - |
|
721 |
+
| 0.7802 | 30800 | 0.0215 | - |
|
722 |
+
| 0.7828 | 30900 | 0.0243 | - |
|
723 |
+
| 0.7853 | 31000 | 0.0248 | 0.0132 |
|
724 |
+
| 0.7878 | 31100 | 0.0366 | - |
|
725 |
+
| 0.7904 | 31200 | 0.0248 | - |
|
726 |
+
| 0.7929 | 31300 | 0.0336 | - |
|
727 |
+
| 0.7954 | 31400 | 0.0316 | - |
|
728 |
+
| 0.7980 | 31500 | 0.0252 | - |
|
729 |
+
| 0.8005 | 31600 | 0.0236 | - |
|
730 |
+
| 0.8030 | 31700 | 0.0277 | - |
|
731 |
+
| 0.8056 | 31800 | 0.0256 | - |
|
732 |
+
| 0.8081 | 31900 | 0.0462 | - |
|
733 |
+
| 0.8106 | 32000 | 0.0322 | 0.0155 |
|
734 |
+
| 0.8132 | 32100 | 0.0159 | - |
|
735 |
+
| 0.8157 | 32200 | 0.0216 | - |
|
736 |
+
| 0.8182 | 32300 | 0.018 | - |
|
737 |
+
| 0.8208 | 32400 | 0.0232 | - |
|
738 |
+
| 0.8233 | 32500 | 0.024 | - |
|
739 |
+
| 0.8258 | 32600 | 0.0254 | - |
|
740 |
+
| 0.8284 | 32700 | 0.0334 | - |
|
741 |
+
| 0.8309 | 32800 | 0.0204 | - |
|
742 |
+
| 0.8334 | 32900 | 0.0352 | - |
|
743 |
+
| 0.8360 | 33000 | 0.024 | 0.0180 |
|
744 |
+
| 0.8385 | 33100 | 0.0368 | - |
|
745 |
+
| 0.8410 | 33200 | 0.0243 | - |
|
746 |
+
| 0.8436 | 33300 | 0.0196 | - |
|
747 |
+
| 0.8461 | 33400 | 0.0264 | - |
|
748 |
+
| 0.8486 | 33500 | 0.026 | - |
|
749 |
+
| 0.8512 | 33600 | 0.0201 | - |
|
750 |
+
| 0.8537 | 33700 | 0.0245 | - |
|
751 |
+
| 0.8562 | 33800 | 0.0205 | - |
|
752 |
+
| 0.8588 | 33900 | 0.0244 | - |
|
753 |
+
| 0.8613 | 34000 | 0.0174 | 0.0211 |
|
754 |
+
| 0.8638 | 34100 | 0.019 | - |
|
755 |
+
| 0.8664 | 34200 | 0.031 | - |
|
756 |
+
| 0.8689 | 34300 | 0.0257 | - |
|
757 |
+
| 0.8714 | 34400 | 0.0195 | - |
|
758 |
+
| 0.8740 | 34500 | 0.0274 | - |
|
759 |
+
| 0.8765 | 34600 | 0.0197 | - |
|
760 |
+
| 0.8790 | 34700 | 0.0154 | - |
|
761 |
+
| 0.8816 | 34800 | 0.0233 | - |
|
762 |
+
| 0.8841 | 34900 | 0.0314 | - |
|
763 |
+
| 0.8866 | 35000 | 0.0223 | 0.0172 |
|
764 |
+
| 0.8892 | 35100 | 0.0264 | - |
|
765 |
+
| 0.8917 | 35200 | 0.0214 | - |
|
766 |
+
| 0.8942 | 35300 | 0.0264 | - |
|
767 |
+
| 0.8968 | 35400 | 0.0194 | - |
|
768 |
+
| 0.8993 | 35500 | 0.0221 | - |
|
769 |
+
| 0.9018 | 35600 | 0.0185 | - |
|
770 |
+
| 0.9044 | 35700 | 0.029 | - |
|
771 |
+
| 0.9069 | 35800 | 0.0188 | - |
|
772 |
+
| 0.9094 | 35900 | 0.0407 | - |
|
773 |
+
| 0.9120 | 36000 | 0.0251 | 0.0188 |
|
774 |
+
| 0.9145 | 36100 | 0.0295 | - |
|
775 |
+
| 0.9170 | 36200 | 0.0233 | - |
|
776 |
+
| 0.9196 | 36300 | 0.0265 | - |
|
777 |
+
| 0.9221 | 36400 | 0.027 | - |
|
778 |
+
| 0.9246 | 36500 | 0.022 | - |
|
779 |
+
| 0.9272 | 36600 | 0.0174 | - |
|
780 |
+
| 0.9297 | 36700 | 0.0204 | - |
|
781 |
+
| 0.9322 | 36800 | 0.0314 | - |
|
782 |
+
| 0.9348 | 36900 | 0.0256 | - |
|
783 |
+
| 0.9373 | 37000 | 0.0139 | 0.0129 |
|
784 |
+
| 0.9398 | 37100 | 0.0237 | - |
|
785 |
+
| 0.9424 | 37200 | 0.0235 | - |
|
786 |
+
| 0.9449 | 37300 | 0.0202 | - |
|
787 |
+
| 0.9474 | 37400 | 0.0178 | - |
|
788 |
+
| 0.9500 | 37500 | 0.0225 | - |
|
789 |
+
| 0.9525 | 37600 | 0.0224 | - |
|
790 |
+
| 0.9550 | 37700 | 0.0259 | - |
|
791 |
+
| 0.9576 | 37800 | 0.0215 | - |
|
792 |
+
| 0.9601 | 37900 | 0.0197 | - |
|
793 |
+
| 0.9626 | 38000 | 0.0208 | 0.0108 |
|
794 |
+
| 0.9652 | 38100 | 0.0296 | - |
|
795 |
+
| 0.9677 | 38200 | 0.019 | - |
|
796 |
+
| 0.9702 | 38300 | 0.0185 | - |
|
797 |
+
| 0.9728 | 38400 | 0.0271 | - |
|
798 |
+
| 0.9753 | 38500 | 0.0336 | - |
|
799 |
+
| 0.9778 | 38600 | 0.0209 | - |
|
800 |
+
| 0.9804 | 38700 | 0.0321 | - |
|
801 |
+
| 0.9829 | 38800 | 0.0138 | - |
|
802 |
+
| 0.9854 | 38900 | 0.0185 | - |
|
803 |
+
| 0.9880 | 39000 | 0.0226 | 0.0119 |
|
804 |
+
| 0.9905 | 39100 | 0.0201 | - |
|
805 |
+
| 0.9930 | 39200 | 0.0183 | - |
|
806 |
+
| 0.9956 | 39300 | 0.0253 | - |
|
807 |
+
| 0.9981 | 39400 | 0.0304 | - |
|
808 |
+
| 1.0006 | 39500 | 0.0163 | - |
|
809 |
+
| 1.0032 | 39600 | 0.0291 | - |
|
810 |
+
| 1.0057 | 39700 | 0.0202 | - |
|
811 |
+
| 1.0082 | 39800 | 0.0125 | - |
|
812 |
+
| 1.0108 | 39900 | 0.0171 | - |
|
813 |
+
| 1.0133 | 40000 | 0.0159 | 0.0169 |
|
814 |
+
| 1.0158 | 40100 | 0.0188 | - |
|
815 |
+
| 1.0184 | 40200 | 0.024 | - |
|
816 |
+
| 1.0209 | 40300 | 0.0269 | - |
|
817 |
+
| 1.0234 | 40400 | 0.0286 | - |
|
818 |
+
| 1.0260 | 40500 | 0.0194 | - |
|
819 |
+
| 1.0285 | 40600 | 0.0174 | - |
|
820 |
+
| 1.0310 | 40700 | 0.0241 | - |
|
821 |
+
| 1.0336 | 40800 | 0.0198 | - |
|
822 |
+
| 1.0361 | 40900 | 0.0214 | - |
|
823 |
+
| 1.0386 | 41000 | 0.0182 | 0.0138 |
|
824 |
+
| 1.0412 | 41100 | 0.0148 | - |
|
825 |
+
| 1.0437 | 41200 | 0.0161 | - |
|
826 |
+
| 1.0462 | 41300 | 0.0234 | - |
|
827 |
+
| 1.0488 | 41400 | 0.0177 | - |
|
828 |
+
| 1.0513 | 41500 | 0.0105 | - |
|
829 |
+
| 1.0538 | 41600 | 0.0201 | - |
|
830 |
+
| 1.0564 | 41700 | 0.0211 | - |
|
831 |
+
| 1.0589 | 41800 | 0.0157 | - |
|
832 |
+
| 1.0614 | 41900 | 0.0164 | - |
|
833 |
+
| 1.0640 | 42000 | 0.0146 | 0.0080 |
|
834 |
+
| 1.0665 | 42100 | 0.0223 | - |
|
835 |
+
| 1.0690 | 42200 | 0.0269 | - |
|
836 |
+
| 1.0716 | 42300 | 0.0218 | - |
|
837 |
+
| 1.0741 | 42400 | 0.0294 | - |
|
838 |
+
| 1.0766 | 42500 | 0.0166 | - |
|
839 |
+
| 1.0792 | 42600 | 0.0173 | - |
|
840 |
+
| 1.0817 | 42700 | 0.015 | - |
|
841 |
+
| 1.0842 | 42800 | 0.015 | - |
|
842 |
+
| 1.0868 | 42900 | 0.0166 | - |
|
843 |
+
| 1.0893 | 43000 | 0.0123 | 0.0088 |
|
844 |
+
| 1.0918 | 43100 | 0.0137 | - |
|
845 |
+
| 1.0944 | 43200 | 0.01 | - |
|
846 |
+
| 1.0969 | 43300 | 0.0156 | - |
|
847 |
+
| 1.0994 | 43400 | 0.0126 | - |
|
848 |
+
| 1.1020 | 43500 | 0.0197 | - |
|
849 |
+
| 1.1045 | 43600 | 0.014 | - |
|
850 |
+
| 1.1070 | 43700 | 0.0154 | - |
|
851 |
+
| 1.1096 | 43800 | 0.0214 | - |
|
852 |
+
| 1.1121 | 43900 | 0.0157 | - |
|
853 |
+
| 1.1146 | 44000 | 0.0151 | 0.0093 |
|
854 |
+
| 1.1172 | 44100 | 0.014 | - |
|
855 |
+
| 1.1197 | 44200 | 0.0138 | - |
|
856 |
+
| 1.1222 | 44300 | 0.0126 | - |
|
857 |
+
| 1.1248 | 44400 | 0.0084 | - |
|
858 |
+
| 1.1273 | 44500 | 0.0124 | - |
|
859 |
+
| 1.1298 | 44600 | 0.0117 | - |
|
860 |
+
| 1.1324 | 44700 | 0.0098 | - |
|
861 |
+
| 1.1349 | 44800 | 0.0099 | - |
|
862 |
+
| 1.1374 | 44900 | 0.0115 | - |
|
863 |
+
| 1.1400 | 45000 | 0.0188 | 0.0051 |
|
864 |
+
| 1.1425 | 45100 | 0.0129 | - |
|
865 |
+
| 1.1450 | 45200 | 0.0128 | - |
|
866 |
+
| 1.1476 | 45300 | 0.015 | - |
|
867 |
+
| 1.1501 | 45400 | 0.0106 | - |
|
868 |
+
| 1.1526 | 45500 | 0.0115 | - |
|
869 |
+
| 1.1552 | 45600 | 0.0144 | - |
|
870 |
+
| 1.1577 | 45700 | 0.0144 | - |
|
871 |
+
| 1.1602 | 45800 | 0.0078 | - |
|
872 |
+
| 1.1628 | 45900 | 0.0143 | - |
|
873 |
+
| 1.1653 | 46000 | 0.0122 | 0.0089 |
|
874 |
+
| 1.1678 | 46100 | 0.0059 | - |
|
875 |
+
| 1.1704 | 46200 | 0.0119 | - |
|
876 |
+
| 1.1729 | 46300 | 0.0103 | - |
|
877 |
+
| 1.1754 | 46400 | 0.0083 | - |
|
878 |
+
| 1.1780 | 46500 | 0.0148 | - |
|
879 |
+
| 1.1805 | 46600 | 0.0097 | - |
|
880 |
+
| 1.1830 | 46700 | 0.0067 | - |
|
881 |
+
| 1.1856 | 46800 | 0.0116 | - |
|
882 |
+
| 1.1881 | 46900 | 0.0124 | - |
|
883 |
+
| 1.1906 | 47000 | 0.0063 | 0.0125 |
|
884 |
+
| 1.1932 | 47100 | 0.007 | - |
|
885 |
+
| 1.1957 | 47200 | 0.0095 | - |
|
886 |
+
| 1.1982 | 47300 | 0.0072 | - |
|
887 |
+
| 1.2008 | 47400 | 0.0124 | - |
|
888 |
+
| 1.2033 | 47500 | 0.0109 | - |
|
889 |
+
| 1.2058 | 47600 | 0.0108 | - |
|
890 |
+
| 1.2084 | 47700 | 0.0057 | - |
|
891 |
+
| 1.2109 | 47800 | 0.0133 | - |
|
892 |
+
| 1.2134 | 47900 | 0.0095 | - |
|
893 |
+
| 1.2160 | 48000 | 0.0057 | 0.0107 |
|
894 |
+
| 1.2185 | 48100 | 0.0085 | - |
|
895 |
+
| 1.2210 | 48200 | 0.0037 | - |
|
896 |
+
| 1.2236 | 48300 | 0.0077 | - |
|
897 |
+
| 1.2261 | 48400 | 0.0128 | - |
|
898 |
+
| 1.2286 | 48500 | 0.0124 | - |
|
899 |
+
| 1.2312 | 48600 | 0.0081 | - |
|
900 |
+
| 1.2337 | 48700 | 0.008 | - |
|
901 |
+
| 1.2362 | 48800 | 0.0051 | - |
|
902 |
+
| 1.2388 | 48900 | 0.0101 | - |
|
903 |
+
| 1.2413 | 49000 | 0.0059 | 0.0124 |
|
904 |
+
| 1.2438 | 49100 | 0.0063 | - |
|
905 |
+
| 1.2464 | 49200 | 0.0075 | - |
|
906 |
+
| 1.2489 | 49300 | 0.0064 | - |
|
907 |
+
| 1.2514 | 49400 | 0.0065 | - |
|
908 |
+
| 1.2540 | 49500 | 0.0056 | - |
|
909 |
+
| 1.2565 | 49600 | 0.0098 | - |
|
910 |
+
| 1.2590 | 49700 | 0.0062 | - |
|
911 |
+
| 1.2616 | 49800 | 0.0067 | - |
|
912 |
+
| 1.2641 | 49900 | 0.0046 | - |
|
913 |
+
| 1.2666 | 50000 | 0.0088 | 0.0114 |
|
914 |
+
| 1.2692 | 50100 | 0.005 | - |
|
915 |
+
| 1.2717 | 50200 | 0.0083 | - |
|
916 |
+
| 1.2742 | 50300 | 0.0073 | - |
|
917 |
+
| 1.2768 | 50400 | 0.0084 | - |
|
918 |
+
| 1.2793 | 50500 | 0.0044 | - |
|
919 |
+
| 1.2818 | 50600 | 0.0052 | - |
|
920 |
+
| 1.2844 | 50700 | 0.0045 | - |
|
921 |
+
| 1.2869 | 50800 | 0.0085 | - |
|
922 |
+
| 1.2894 | 50900 | 0.0057 | - |
|
923 |
+
| 1.2920 | 51000 | 0.0048 | 0.0111 |
|
924 |
+
| 1.2945 | 51100 | 0.0059 | - |
|
925 |
+
| 1.2970 | 51200 | 0.0065 | - |
|
926 |
+
| 1.2996 | 51300 | 0.0057 | - |
|
927 |
+
| 1.3021 | 51400 | 0.0059 | - |
|
928 |
+
| 1.3046 | 51500 | 0.0056 | - |
|
929 |
+
| 1.3072 | 51600 | 0.0124 | - |
|
930 |
+
| 1.3097 | 51700 | 0.0067 | - |
|
931 |
+
| 1.3122 | 51800 | 0.011 | - |
|
932 |
+
| 1.3148 | 51900 | 0.0078 | - |
|
933 |
+
| 1.3173 | 52000 | 0.0068 | 0.0110 |
|
934 |
+
| 1.3198 | 52100 | 0.006 | - |
|
935 |
+
| 1.3224 | 52200 | 0.0084 | - |
|
936 |
+
| 1.3249 | 52300 | 0.0064 | - |
|
937 |
+
| 1.3274 | 52400 | 0.0055 | - |
|
938 |
+
| 1.3300 | 52500 | 0.0032 | - |
|
939 |
+
| 1.3325 | 52600 | 0.0049 | - |
|
940 |
+
| 1.3350 | 52700 | 0.0068 | - |
|
941 |
+
| 1.3376 | 52800 | 0.0067 | - |
|
942 |
+
| 1.3401 | 52900 | 0.006 | - |
|
943 |
+
| 1.3426 | 53000 | 0.0058 | 0.0098 |
|
944 |
+
| 1.3452 | 53100 | 0.0046 | - |
|
945 |
+
| 1.3477 | 53200 | 0.0055 | - |
|
946 |
+
| 1.3502 | 53300 | 0.0074 | - |
|
947 |
+
| 1.3528 | 53400 | 0.0029 | - |
|
948 |
+
| 1.3553 | 53500 | 0.0071 | - |
|
949 |
+
| 1.3578 | 53600 | 0.0074 | - |
|
950 |
+
| 1.3604 | 53700 | 0.0068 | - |
|
951 |
+
| 1.3629 | 53800 | 0.0066 | - |
|
952 |
+
| 1.3654 | 53900 | 0.0077 | - |
|
953 |
+
| 1.3680 | 54000 | 0.0069 | 0.0107 |
|
954 |
+
| 1.3705 | 54100 | 0.0039 | - |
|
955 |
+
| 1.3730 | 54200 | 0.0051 | - |
|
956 |
+
| 1.3756 | 54300 | 0.0038 | - |
|
957 |
+
| 1.3781 | 54400 | 0.0073 | - |
|
958 |
+
| 1.3806 | 54500 | 0.0087 | - |
|
959 |
+
| 1.3832 | 54600 | 0.0053 | - |
|
960 |
+
| 1.3857 | 54700 | 0.0054 | - |
|
961 |
+
| 1.3882 | 54800 | 0.0091 | - |
|
962 |
+
| 1.3908 | 54900 | 0.0067 | - |
|
963 |
+
| 1.3933 | 55000 | 0.0071 | 0.0094 |
|
964 |
+
| 1.3958 | 55100 | 0.0056 | - |
|
965 |
+
| 1.3984 | 55200 | 0.0043 | - |
|
966 |
+
| 1.4009 | 55300 | 0.0059 | - |
|
967 |
+
| 1.4034 | 55400 | 0.007 | - |
|
968 |
+
| 1.4060 | 55500 | 0.0064 | - |
|
969 |
+
| 1.4085 | 55600 | 0.006 | - |
|
970 |
+
| 1.4110 | 55700 | 0.0031 | - |
|
971 |
+
| 1.4136 | 55800 | 0.0058 | - |
|
972 |
+
| 1.4161 | 55900 | 0.0056 | - |
|
973 |
+
| 1.4186 | 56000 | 0.0052 | 0.0096 |
|
974 |
+
| 1.4212 | 56100 | 0.0045 | - |
|
975 |
+
| 1.4237 | 56200 | 0.0046 | - |
|
976 |
+
| 1.4262 | 56300 | 0.0044 | - |
|
977 |
+
| 1.4288 | 56400 | 0.0076 | - |
|
978 |
+
| 1.4313 | 56500 | 0.0029 | - |
|
979 |
+
| 1.4338 | 56600 | 0.005 | - |
|
980 |
+
| 1.4364 | 56700 | 0.0042 | - |
|
981 |
+
| 1.4389 | 56800 | 0.0066 | - |
|
982 |
+
| 1.4414 | 56900 | 0.0119 | - |
|
983 |
+
| 1.4440 | 57000 | 0.0033 | 0.0076 |
|
984 |
+
| 1.4465 | 57100 | 0.0076 | - |
|
985 |
+
| 1.4490 | 57200 | 0.0058 | - |
|
986 |
+
| 1.4516 | 57300 | 0.0054 | - |
|
987 |
+
| 1.4541 | 57400 | 0.0039 | - |
|
988 |
+
| 1.4566 | 57500 | 0.0057 | - |
|
989 |
+
| 1.4592 | 57600 | 0.008 | - |
|
990 |
+
| 1.4617 | 57700 | 0.0082 | - |
|
991 |
+
| 1.4642 | 57800 | 0.0041 | - |
|
992 |
+
| 1.4668 | 57900 | 0.0037 | - |
|
993 |
+
| 1.4693 | 58000 | 0.0048 | 0.0078 |
|
994 |
+
| 1.4718 | 58100 | 0.0041 | - |
|
995 |
+
| 1.4744 | 58200 | 0.0049 | - |
|
996 |
+
| 1.4769 | 58300 | 0.0085 | - |
|
997 |
+
| 1.4794 | 58400 | 0.0036 | - |
|
998 |
+
| 1.4820 | 58500 | 0.0061 | - |
|
999 |
+
| 1.4845 | 58600 | 0.0039 | - |
|
1000 |
+
| 1.4870 | 58700 | 0.0049 | - |
|
1001 |
+
| 1.4896 | 58800 | 0.0027 | - |
|
1002 |
+
| 1.4921 | 58900 | 0.003 | - |
|
1003 |
+
| 1.4946 | 59000 | 0.006 | 0.0097 |
|
1004 |
+
| 1.4972 | 59100 | 0.0068 | - |
|
1005 |
+
| 1.4997 | 59200 | 0.0083 | - |
|
1006 |
+
| 1.5022 | 59300 | 0.0066 | - |
|
1007 |
+
| 1.5047 | 59400 | 0.0049 | - |
|
1008 |
+
| 1.5073 | 59500 | 0.0034 | - |
|
1009 |
+
| 1.5098 | 59600 | 0.0044 | - |
|
1010 |
+
| 1.5123 | 59700 | 0.0036 | - |
|
1011 |
+
| 1.5149 | 59800 | 0.0041 | - |
|
1012 |
+
| 1.5174 | 59900 | 0.006 | - |
|
1013 |
+
| 1.5199 | 60000 | 0.0063 | 0.0099 |
|
1014 |
+
| 1.5225 | 60100 | 0.0028 | - |
|
1015 |
+
| 1.5250 | 60200 | 0.0045 | - |
|
1016 |
+
| 1.5275 | 60300 | 0.0056 | - |
|
1017 |
+
| 1.5301 | 60400 | 0.0046 | - |
|
1018 |
+
| 1.5326 | 60500 | 0.0053 | - |
|
1019 |
+
| 1.5351 | 60600 | 0.0044 | - |
|
1020 |
+
| 1.5377 | 60700 | 0.0053 | - |
|
1021 |
+
| 1.5402 | 60800 | 0.0044 | - |
|
1022 |
+
| 1.5427 | 60900 | 0.0034 | - |
|
1023 |
+
| 1.5453 | 61000 | 0.0033 | 0.0073 |
|
1024 |
+
| 1.5478 | 61100 | 0.005 | - |
|
1025 |
+
| 1.5503 | 61200 | 0.0027 | - |
|
1026 |
+
| 1.5529 | 61300 | 0.0049 | - |
|
1027 |
+
| 1.5554 | 61400 | 0.0048 | - |
|
1028 |
+
| 1.5579 | 61500 | 0.0032 | - |
|
1029 |
+
| 1.5605 | 61600 | 0.0043 | - |
|
1030 |
+
| 1.5630 | 61700 | 0.0049 | - |
|
1031 |
+
| 1.5655 | 61800 | 0.0062 | - |
|
1032 |
+
| 1.5681 | 61900 | 0.0076 | - |
|
1033 |
+
| 1.5706 | 62000 | 0.006 | 0.0053 |
|
1034 |
+
| 1.5731 | 62100 | 0.0078 | - |
|
1035 |
+
| 1.5757 | 62200 | 0.0033 | - |
|
1036 |
+
| 1.5782 | 62300 | 0.0031 | - |
|
1037 |
+
| 1.5807 | 62400 | 0.0038 | - |
|
1038 |
+
| 1.5833 | 62500 | 0.0026 | - |
|
1039 |
+
| 1.5858 | 62600 | 0.0036 | - |
|
1040 |
+
| 1.5883 | 62700 | 0.0034 | - |
|
1041 |
+
| 1.5909 | 62800 | 0.0076 | - |
|
1042 |
+
| 1.5934 | 62900 | 0.0039 | - |
|
1043 |
+
| 1.5959 | 63000 | 0.006 | 0.0073 |
|
1044 |
+
| 1.5985 | 63100 | 0.0055 | - |
|
1045 |
+
| 1.6010 | 63200 | 0.0046 | - |
|
1046 |
+
| 1.6035 | 63300 | 0.0042 | - |
|
1047 |
+
| 1.6061 | 63400 | 0.0061 | - |
|
1048 |
+
| 1.6086 | 63500 | 0.003 | - |
|
1049 |
+
| 1.6111 | 63600 | 0.0034 | - |
|
1050 |
+
| 1.6137 | 63700 | 0.0058 | - |
|
1051 |
+
| 1.6162 | 63800 | 0.0036 | - |
|
1052 |
+
| 1.6187 | 63900 | 0.0015 | - |
|
1053 |
+
| 1.6213 | 64000 | 0.0052 | 0.0076 |
|
1054 |
+
| 1.6238 | 64100 | 0.0047 | - |
|
1055 |
+
| 1.6263 | 64200 | 0.0083 | - |
|
1056 |
+
| 1.6289 | 64300 | 0.0035 | - |
|
1057 |
+
| 1.6314 | 64400 | 0.0025 | - |
|
1058 |
+
| 1.6339 | 64500 | 0.0052 | - |
|
1059 |
+
| 1.6365 | 64600 | 0.0029 | - |
|
1060 |
+
| 1.6390 | 64700 | 0.0019 | - |
|
1061 |
+
| 1.6415 | 64800 | 0.0036 | - |
|
1062 |
+
| 1.6441 | 64900 | 0.002 | - |
|
1063 |
+
| 1.6466 | 65000 | 0.007 | 0.0074 |
|
1064 |
+
| 1.6491 | 65100 | 0.0038 | - |
|
1065 |
+
| 1.6517 | 65200 | 0.0051 | - |
|
1066 |
+
| 1.6542 | 65300 | 0.0027 | - |
|
1067 |
+
| 1.6567 | 65400 | 0.003 | - |
|
1068 |
+
| 1.6593 | 65500 | 0.0045 | - |
|
1069 |
+
| 1.6618 | 65600 | 0.0067 | - |
|
1070 |
+
| 1.6643 | 65700 | 0.003 | - |
|
1071 |
+
| 1.6669 | 65800 | 0.0033 | - |
|
1072 |
+
| 1.6694 | 65900 | 0.0043 | - |
|
1073 |
+
| 1.6719 | 66000 | 0.0025 | 0.0071 |
|
1074 |
+
| 1.6745 | 66100 | 0.0025 | - |
|
1075 |
+
| 1.6770 | 66200 | 0.0057 | - |
|
1076 |
+
| 1.6795 | 66300 | 0.0029 | - |
|
1077 |
+
| 1.6821 | 66400 | 0.0016 | - |
|
1078 |
+
| 1.6846 | 66500 | 0.0055 | - |
|
1079 |
+
| 1.6871 | 66600 | 0.0029 | - |
|
1080 |
+
| 1.6897 | 66700 | 0.0031 | - |
|
1081 |
+
| 1.6922 | 66800 | 0.006 | - |
|
1082 |
+
| 1.6947 | 66900 | 0.003 | - |
|
1083 |
+
| 1.6973 | 67000 | 0.0042 | 0.0072 |
|
1084 |
+
| 1.6998 | 67100 | 0.0049 | - |
|
1085 |
+
| 1.7023 | 67200 | 0.0018 | - |
|
1086 |
+
| 1.7049 | 67300 | 0.0043 | - |
|
1087 |
+
| 1.7074 | 67400 | 0.007 | - |
|
1088 |
+
| 1.7099 | 67500 | 0.0025 | - |
|
1089 |
+
| 1.7125 | 67600 | 0.0051 | - |
|
1090 |
+
| 1.7150 | 67700 | 0.0056 | - |
|
1091 |
+
| 1.7175 | 67800 | 0.003 | - |
|
1092 |
+
| 1.7201 | 67900 | 0.0041 | - |
|
1093 |
+
| 1.7226 | 68000 | 0.0025 | 0.0082 |
|
1094 |
+
| 1.7251 | 68100 | 0.0018 | - |
|
1095 |
+
| 1.7277 | 68200 | 0.0034 | - |
|
1096 |
+
| 1.7302 | 68300 | 0.0065 | - |
|
1097 |
+
| 1.7327 | 68400 | 0.0047 | - |
|
1098 |
+
| 1.7353 | 68500 | 0.0052 | - |
|
1099 |
+
| 1.7378 | 68600 | 0.0013 | - |
|
1100 |
+
| 1.7403 | 68700 | 0.0063 | - |
|
1101 |
+
| 1.7429 | 68800 | 0.0047 | - |
|
1102 |
+
| 1.7454 | 68900 | 0.004 | - |
|
1103 |
+
| 1.7479 | 69000 | 0.0026 | 0.0077 |
|
1104 |
+
| 1.7505 | 69100 | 0.0032 | - |
|
1105 |
+
| 1.7530 | 69200 | 0.0031 | - |
|
1106 |
+
| 1.7555 | 69300 | 0.0024 | - |
|
1107 |
+
| 1.7581 | 69400 | 0.0022 | - |
|
1108 |
+
| 1.7606 | 69500 | 0.0029 | - |
|
1109 |
+
| 1.7631 | 69600 | 0.0055 | - |
|
1110 |
+
| 1.7657 | 69700 | 0.0031 | - |
|
1111 |
+
| 1.7682 | 69800 | 0.004 | - |
|
1112 |
+
| 1.7707 | 69900 | 0.0032 | - |
|
1113 |
+
| 1.7733 | 70000 | 0.0034 | 0.0067 |
|
1114 |
+
| 1.7758 | 70100 | 0.007 | - |
|
1115 |
+
| 1.7783 | 70200 | 0.0049 | - |
|
1116 |
+
| 1.7809 | 70300 | 0.0023 | - |
|
1117 |
+
| 1.7834 | 70400 | 0.0028 | - |
|
1118 |
+
| 1.7859 | 70500 | 0.0048 | - |
|
1119 |
+
| 1.7885 | 70600 | 0.0042 | - |
|
1120 |
+
| 1.7910 | 70700 | 0.006 | - |
|
1121 |
+
| 1.7935 | 70800 | 0.006 | - |
|
1122 |
+
| 1.7961 | 70900 | 0.0044 | - |
|
1123 |
+
| 1.7986 | 71000 | 0.0036 | 0.0063 |
|
1124 |
+
| 1.8011 | 71100 | 0.0025 | - |
|
1125 |
+
| 1.8037 | 71200 | 0.0027 | - |
|
1126 |
+
| 1.8062 | 71300 | 0.0033 | - |
|
1127 |
+
| 1.8087 | 71400 | 0.0045 | - |
|
1128 |
+
| 1.8113 | 71500 | 0.0037 | - |
|
1129 |
+
| 1.8138 | 71600 | 0.0023 | - |
|
1130 |
+
| 1.8163 | 71700 | 0.0021 | - |
|
1131 |
+
| 1.8189 | 71800 | 0.0019 | - |
|
1132 |
+
| 1.8214 | 71900 | 0.0046 | - |
|
1133 |
+
| 1.8239 | 72000 | 0.0029 | 0.0065 |
|
1134 |
+
| 1.8265 | 72100 | 0.0061 | - |
|
1135 |
+
| 1.8290 | 72200 | 0.005 | - |
|
1136 |
+
| 1.8315 | 72300 | 0.0036 | - |
|
1137 |
+
| 1.8341 | 72400 | 0.0057 | - |
|
1138 |
+
| 1.8366 | 72500 | 0.0049 | - |
|
1139 |
+
| 1.8391 | 72600 | 0.0068 | - |
|
1140 |
+
| 1.8417 | 72700 | 0.0026 | - |
|
1141 |
+
| 1.8442 | 72800 | 0.0032 | - |
|
1142 |
+
| 1.8467 | 72900 | 0.0036 | - |
|
1143 |
+
| 1.8493 | 73000 | 0.0026 | 0.0066 |
|
1144 |
+
| 1.8518 | 73100 | 0.0024 | - |
|
1145 |
+
| 1.8543 | 73200 | 0.0014 | - |
|
1146 |
+
| 1.8569 | 73300 | 0.0022 | - |
|
1147 |
+
| 1.8594 | 73400 | 0.0039 | - |
|
1148 |
+
| 1.8619 | 73500 | 0.0019 | - |
|
1149 |
+
| 1.8645 | 73600 | 0.0016 | - |
|
1150 |
+
| 1.8670 | 73700 | 0.0034 | - |
|
1151 |
+
| 1.8695 | 73800 | 0.004 | - |
|
1152 |
+
| 1.8721 | 73900 | 0.0014 | - |
|
1153 |
+
| 1.8746 | 74000 | 0.004 | 0.0062 |
|
1154 |
+
| 1.8771 | 74100 | 0.0014 | - |
|
1155 |
+
| 1.8797 | 74200 | 0.0025 | - |
|
1156 |
+
| 1.8822 | 74300 | 0.0025 | - |
|
1157 |
+
| 1.8847 | 74400 | 0.0037 | - |
|
1158 |
+
| 1.8873 | 74500 | 0.0038 | - |
|
1159 |
+
| 1.8898 | 74600 | 0.0029 | - |
|
1160 |
+
| 1.8923 | 74700 | 0.0037 | - |
|
1161 |
+
| 1.8949 | 74800 | 0.0026 | - |
|
1162 |
+
| 1.8974 | 74900 | 0.0019 | - |
|
1163 |
+
| 1.8999 | 75000 | 0.0013 | 0.0062 |
|
1164 |
+
| 1.9025 | 75100 | 0.0027 | - |
|
1165 |
+
| 1.9050 | 75200 | 0.0028 | - |
|
1166 |
+
| 1.9075 | 75300 | 0.0014 | - |
|
1167 |
+
| 1.9101 | 75400 | 0.0067 | - |
|
1168 |
+
| 1.9126 | 75500 | 0.0023 | - |
|
1169 |
+
| 1.9151 | 75600 | 0.0024 | - |
|
1170 |
+
| 1.9177 | 75700 | 0.0021 | - |
|
1171 |
+
| 1.9202 | 75800 | 0.0062 | - |
|
1172 |
+
| 1.9227 | 75900 | 0.0104 | - |
|
1173 |
+
| 1.9253 | 76000 | 0.0021 | 0.0064 |
|
1174 |
+
| 1.9278 | 76100 | 0.0023 | - |
|
1175 |
+
| 1.9303 | 76200 | 0.0059 | - |
|
1176 |
+
| 1.9329 | 76300 | 0.0055 | - |
|
1177 |
+
| 1.9354 | 76400 | 0.002 | - |
|
1178 |
+
| 1.9379 | 76500 | 0.0029 | - |
|
1179 |
+
| 1.9405 | 76600 | 0.0028 | - |
|
1180 |
+
| 1.9430 | 76700 | 0.0021 | - |
|
1181 |
+
| 1.9455 | 76800 | 0.0037 | - |
|
1182 |
+
| 1.9481 | 76900 | 0.0019 | - |
|
1183 |
+
| 1.9506 | 77000 | 0.0027 | 0.0062 |
|
1184 |
+
| 1.9531 | 77100 | 0.0039 | - |
|
1185 |
+
| 1.9557 | 77200 | 0.0027 | - |
|
1186 |
+
| 1.9582 | 77300 | 0.0034 | - |
|
1187 |
+
| 1.9607 | 77400 | 0.005 | - |
|
1188 |
+
| 1.9633 | 77500 | 0.0022 | - |
|
1189 |
+
| 1.9658 | 77600 | 0.0072 | - |
|
1190 |
+
| 1.9683 | 77700 | 0.0025 | - |
|
1191 |
+
| 1.9709 | 77800 | 0.0019 | - |
|
1192 |
+
| 1.9734 | 77900 | 0.0034 | - |
|
1193 |
+
| 1.9759 | 78000 | 0.0068 | 0.0060 |
|
1194 |
+
| 1.9785 | 78100 | 0.0042 | - |
|
1195 |
+
| 1.9810 | 78200 | 0.0041 | - |
|
1196 |
+
| 1.9835 | 78300 | 0.0018 | - |
|
1197 |
+
| 1.9861 | 78400 | 0.0019 | - |
|
1198 |
+
| 1.9886 | 78500 | 0.0029 | - |
|
1199 |
+
| 1.9911 | 78600 | 0.0039 | - |
|
1200 |
+
| 1.9937 | 78700 | 0.0023 | - |
|
1201 |
+
| 1.9962 | 78800 | 0.0092 | - |
|
1202 |
+
| 1.9987 | 78900 | 0.0018 | - |
|
1203 |
+
|
1204 |
+
</details>
|
1205 |
+
|
1206 |
+
### Framework Versions
|
1207 |
+
- Python: 3.11.10
|
1208 |
+
- Sentence Transformers: 3.3.1
|
1209 |
+
- Transformers: 4.46.3
|
1210 |
+
- PyTorch: 2.5.1+cu124
|
1211 |
+
- Accelerate: 1.1.1
|
1212 |
+
- Datasets: 3.1.0
|
1213 |
+
- Tokenizers: 0.20.3
|
1214 |
+
|
1215 |
+
## Citation
|
1216 |
+
|
1217 |
+
### BibTeX
|
1218 |
+
|
1219 |
+
#### Sentence Transformers
|
1220 |
+
```bibtex
|
1221 |
+
@inproceedings{reimers-2019-sentence-bert,
|
1222 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
1223 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
1224 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
1225 |
+
month = "11",
|
1226 |
+
year = "2019",
|
1227 |
+
publisher = "Association for Computational Linguistics",
|
1228 |
+
url = "https://arxiv.org/abs/1908.10084",
|
1229 |
+
}
|
1230 |
+
```
|
1231 |
+
|
1232 |
+
#### MultipleNegativesRankingLoss
|
1233 |
+
```bibtex
|
1234 |
+
@misc{henderson2017efficient,
|
1235 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
1236 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
1237 |
+
year={2017},
|
1238 |
+
eprint={1705.00652},
|
1239 |
+
archivePrefix={arXiv},
|
1240 |
+
primaryClass={cs.CL}
|
1241 |
+
}
|
1242 |
+
```
|
1243 |
+
|
1244 |
+
<!--
|
1245 |
+
## Glossary
|
1246 |
+
|
1247 |
+
*Clearly define terms in order to be accessible across audiences.*
|
1248 |
+
-->
|
1249 |
+
|
1250 |
+
<!--
|
1251 |
+
## Model Card Authors
|
1252 |
+
|
1253 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
1254 |
+
-->
|
1255 |
+
|
1256 |
+
<!--
|
1257 |
+
## Model Card Contact
|
1258 |
+
|
1259 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
1260 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,31 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "models/phobert-base-v2-st",
|
3 |
+
"architectures": [
|
4 |
+
"BertModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"directionality": "bidi",
|
9 |
+
"hidden_act": "gelu",
|
10 |
+
"hidden_dropout_prob": 0.1,
|
11 |
+
"hidden_size": 768,
|
12 |
+
"initializer_range": 0.02,
|
13 |
+
"intermediate_size": 3072,
|
14 |
+
"layer_norm_eps": 1e-12,
|
15 |
+
"max_position_embeddings": 512,
|
16 |
+
"model_type": "bert",
|
17 |
+
"num_attention_heads": 12,
|
18 |
+
"num_hidden_layers": 12,
|
19 |
+
"pad_token_id": 0,
|
20 |
+
"pooler_fc_size": 768,
|
21 |
+
"pooler_num_attention_heads": 12,
|
22 |
+
"pooler_num_fc_layers": 3,
|
23 |
+
"pooler_size_per_head": 128,
|
24 |
+
"pooler_type": "first_token_transform",
|
25 |
+
"position_embedding_type": "absolute",
|
26 |
+
"torch_dtype": "float32",
|
27 |
+
"transformers_version": "4.46.3",
|
28 |
+
"type_vocab_size": 2,
|
29 |
+
"use_cache": true,
|
30 |
+
"vocab_size": 75000
|
31 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.3.1",
|
4 |
+
"transformers": "4.46.3",
|
5 |
+
"pytorch": "2.5.1+cu124"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:80ecacab504a0625779cbe2dee9aea00f3e17383a7d5068ae8ccd8d573d6e9fe
|
3 |
+
size 574587752
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,37 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"cls_token": {
|
3 |
+
"content": "[CLS]",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"mask_token": {
|
10 |
+
"content": "[MASK]",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"pad_token": {
|
17 |
+
"content": "[PAD]",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"sep_token": {
|
24 |
+
"content": "[SEP]",
|
25 |
+
"lstrip": false,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"unk_token": {
|
31 |
+
"content": "[UNK]",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
}
|
37 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,62 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "[UNK]",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "[CLS]",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "[SEP]",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "[PAD]",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"4": {
|
36 |
+
"content": "[MASK]",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"clean_up_tokenization_spaces": false,
|
45 |
+
"cls_token": "[CLS]",
|
46 |
+
"do_lower_case": false,
|
47 |
+
"mask_token": "[MASK]",
|
48 |
+
"max_length": 512,
|
49 |
+
"model_max_length": 512,
|
50 |
+
"pad_to_multiple_of": null,
|
51 |
+
"pad_token": "[PAD]",
|
52 |
+
"pad_token_type_id": 0,
|
53 |
+
"padding_side": "right",
|
54 |
+
"sep_token": "[SEP]",
|
55 |
+
"stride": 0,
|
56 |
+
"strip_accents": null,
|
57 |
+
"tokenize_chinese_chars": true,
|
58 |
+
"tokenizer_class": "DistilBertTokenizer",
|
59 |
+
"truncation_side": "right",
|
60 |
+
"truncation_strategy": "longest_first",
|
61 |
+
"unk_token": "[UNK]"
|
62 |
+
}
|
vocab.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|