SentenceTransformer based on nampham1106/bkcare-embedding

This is a sentence-transformers model finetuned from nampham1106/bkcare-embedding on the dataset_full_fixed dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("bkcare-embed-v2")
# Run inference
sentences = [
    'Chào em, Carcinoma tuyến vú là một dạng ung thư vú. Giai đoạn đầu của ung thư vú triệu chứng có thể mờ nhạt, dễ lầm lẫn với các bệnh lý khác, trong đó có áp-xe vú. Tuy nhiên khi BS đã kết luận mẹ của em bị carcinoma tuyến vú tức là đã có kết quả giải phẫu bệnh học - kết quả này gần như là chắc chắn ung thư. Mặc dù bệnh lý ung thư có thể nguy hiểm tới tính mạng, nhưng với những tiến bộ của y học, hiệu quả điều trị ung thư vú đã cải thiện rất nhiều. Nếu phát hiện sớm, điều trị phù hợp, đúng liệu trình thì bệnh vẫn có thể khỏi hoàn toàn. Phương pháp điều trị hiện nay chủ yếu là phẫu thuật, xạ trị, hoá trị, liệu pháp trúng đích, tuỳ vào lựa chọn và quyết định của BS điều trị, dựa trên mức độ nặng của bệnh. Do đó, em nên động viên, hỗ trợ mẹ tiếp tục điều trị và tuân thủ theo chuyên khoa tại BV Ung Bướu để bệnh mau khỏi em nhé! Thân mến.',
    'BS ơi,\r\n\r\nMẹ cháu năm nay 39 tuổi. Hôm qua mẹ cháu đi khám bệnh, BS nói mẹ cháu bị Carcinôm ung thư tuyến vú bên phải và có bướu ác tính kích thước 30mm. BS cho cháu hỏi là bệnh này có nguy hiểm đến người và có cách nào để điều trị không ạ?',
    'Dạ thưa bác sĩ, vừa qua em có ăn cá lóc bị dính xương nhỏ của cá vào khe nhỏ giữa hai răng. Lấy đèn soi vào hoặc dùng tay thì không thấy được xương nhưng khi dùng lưỡi cà thì cảm nhận được xương ạ.Em nghĩ là xương này nhỏ và dính hơi sâu. Giờ em muốn xin ý kiến của bác sĩ ạ. Em phải là sao bây giờ em thực sự rất lo lắng. Mong sớm nhận được phản hồi từ bác sĩ',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric Value
cosine_accuracy@1 0.5919
cosine_accuracy@3 0.7226
cosine_accuracy@5 0.7732
cosine_accuracy@10 0.8282
cosine_precision@1 0.5919
cosine_precision@3 0.2409
cosine_precision@5 0.1546
cosine_precision@10 0.0828
cosine_recall@1 0.5919
cosine_recall@3 0.7226
cosine_recall@5 0.7732
cosine_recall@10 0.8282
cosine_ndcg@10 0.7073
cosine_mrr@10 0.6689
cosine_map@100 0.675

Training Details

Training Dataset

dataset_full_fixed

  • Dataset: dataset_full_fixed at ef2e7fd
  • Size: 54,755 training samples
  • Columns: positive and query
  • Approximate statistics based on the first 1000 samples:
    positive query
    type string string
    details
    • min: 30 tokens
    • mean: 186.53 tokens
    • max: 256 tokens
    • min: 5 tokens
    • mean: 80.02 tokens
    • max: 256 tokens
  • Samples:
    positive query
    Mô tả ngắn:
    Thuốc Furosemide 20mg/2ml được sản xuất bởi Công ty Cổ phần Dược phẩm Trung ương Vidipha, có thành phần chính là Furosemid. Thuốc Furosemide được chỉ định trong các trường hợp phù phổi cấp; phù do tim, gan, thận và các loại phù khác.
    Thuốc Furosemide 20mg/2ml được bào chế dưới dạng dung dịch tiêm. Hộp 10 ống 2ml; hộp 50 ống 2ml.
    Thành phần:
    Furosemide: 20
    Chỉ định:
    Thuốc Furosemide 20mg/2ml được chỉ định dùng trong các trường hợp sau:
    Điều trị phù phổi cấp. Phù do tim, gan, thận và các loại phù khác.
    Dung dịch tiêm Furosemide 20mg Vidipha điều trị phù phổi cấp, phù do tim, gan, thận (5 vỉ x 10 ống)
    Xin chào bạn, Trong bệnh lý tuyến giáp có 2 vấn đề liên quan đến quyết định điều trị (phẫu thuật hay dùng thuốc) đó là: - Kích thước và bản chất khối u: lành tính hay ác, có làm khó thở, nuốt khó, quá to ảnh hưởng thẩm mỹ? - Chức năng tuyến giáp: cường hay suy? Hiện tại kết quả sinh thiết ra nhóm tế bào không điển hình, nghĩa là chưa thể loại trừ đây là khối u ác tính. Bạn nên tái khám chuyên khoa bệnh lý tuyến giáp để được sinh thiết lần 2 sau đó mới quyết định điều trị nhé bạn. Thân ái chào bạn. Chào bác sĩ.Tôi nữ, 20 tuổi. Tôi đi kiểm tra sức khỏe, qua siêu âm tuyến giáp có 1 nhân giảm âm, bên trong có nhiều nốt vôi hóa kích thước 10×8mm. Kết luận nhân đặc thùy phải (TIRADS 5). Chọc sinh thiết BS kết luận: hình ảnh tế bào không điển hình - AUS (nhóm 3, Bethesda).Vậy theo BS tôi phải làm gì, có nên mổ không? Xét nghiệm các chỉ số TSH, T4; FT3; FT4 không có gì bất thường.
    Chào con, Năm nay con đã 20 tuổi rồi mà rốn con bị thì nguyên nhân thường hay gặp là do tồn tại ống niệu rốn. Tức là, ống thông từ rốn vào bàng quang và nước tiểu sẽ theo đó ra rốn. Tuy nhiên, hiện tượng nước tiểu chảy ra rốn có tỉ lệ thấp và chủ yếu là tiết dịch gây viêm. Khi còn tồn tại ống niệu rốn thì bắt buộc phải cắt bỏ ống niệu rốn để tránh gây viêm nhiễm và nhiễm trùng niệu thường xuyên. Cho nên, con nên đến khám tại các BV có chuyên khoa Niệu. Nếu muốn, con cũng có thể đến BV Nhân Dân 115, BS sẽ mổ để cắt ống niệu rốn này thì sẽ hết. Còn nếu khi kiểm tra chụp CT không phải do ống niệu rốn, mà chỉ do tại vùng rốn bị viêm nhiễm thì có thể điều trị ngoài da tại chỗ. Thân mến. ThS.BS Trương Hoàng Minh Trưởng khoa Ngoại niệu - Ghép thận - BV Nhân dân 115 Thưa BS,


    Rốn của con bị chảy dịch trắng trong hơn 1 tháng rồi, hơi ngứa quanh rốn, có mùi hôi nữa. Con đã được BS ngoại khoa chẩn đoán nói con bị nấm nên cho toa thuốc, mua thuốc thoa vào nhưng con thấy càng thoa càng nặng hơn.


    Giờ phải con phải làm gì, BS giúp con với. Con cảm ơn ạ!
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 100
  • per_device_eval_batch_size: 1
  • learning_rate: 1e-06
  • num_train_epochs: 10
  • lr_scheduler_type: constant_with_warmup
  • warmup_ratio: 0.1
  • bf16: True
  • tf32: False
  • load_best_model_at_end: True
  • optim: adamw_torch_fused
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 100
  • per_device_eval_batch_size: 1
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 1e-06
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 10
  • max_steps: -1
  • lr_scheduler_type: constant_with_warmup
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: False
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss dim_768_cosine_ndcg@10
0.0228 10 0.9989 -
0.0456 20 1.0333 -
0.0683 30 1.0062 -
0.0911 40 0.9696 -
0.1139 50 1.0362 -
0.1367 60 1.0471 -
0.1595 70 0.8924 -
0.1822 80 1.0582 -
0.2050 90 0.9905 -
0.2278 100 0.8518 -
0.2506 110 0.9854 -
0.2733 120 0.9163 -
0.2961 130 0.8787 -
0.3189 140 0.9094 -
0.3417 150 0.9724 -
0.3645 160 0.8363 -
0.3872 170 0.8265 -
0.4100 180 0.8899 -
0.4328 190 0.8546 -
0.4556 200 0.8407 -
0.4784 210 0.8777 -
0.5011 220 0.8295 -
0.5239 230 0.8217 -
0.5467 240 0.8917 -
0.5695 250 0.8631 -
0.5923 260 0.8022 -
0.6150 270 0.8425 -
0.6378 280 0.8106 -
0.6606 290 0.7096 -
0.6834 300 0.7938 -
0.7062 310 0.7367 -
0.7289 320 0.6911 -
0.7517 330 0.6833 -
0.7745 340 0.7389 -
0.7973 350 0.6942 -
0.8200 360 0.7545 -
0.8428 370 0.6991 -
0.8656 380 0.7249 -
0.8884 390 0.7679 -
0.9112 400 0.7172 -
0.9339 410 0.6802 -
0.9567 420 0.6891 -
0.9795 430 0.7469 -
1.0 439 - 0.6071
1.0023 440 0.6505 -
1.0251 450 0.7397 -
1.0478 460 0.7063 -
1.0706 470 0.7554 -
1.0934 480 0.6036 -
1.1162 490 0.6389 -
1.1390 500 0.6777 -
1.1617 510 0.6257 -
1.1845 520 0.6398 -
1.2073 530 0.6497 -
1.2301 540 0.6195 -
1.2528 550 0.6015 -
1.2756 560 0.6437 -
1.2984 570 0.6434 -
1.3212 580 0.6806 -
1.3440 590 0.6205 -
1.3667 600 0.7032 -
1.3895 610 0.6713 -
1.4123 620 0.6524 -
1.4351 630 0.6388 -
1.4579 640 0.6062 -
1.4806 650 0.6243 -
1.5034 660 0.6477 -
1.5262 670 0.5823 -
1.5490 680 0.5977 -
1.5718 690 0.5676 -
1.5945 700 0.6642 -
1.6173 710 0.658 -
1.6401 720 0.5934 -
1.6629 730 0.6148 -
1.6856 740 0.6599 -
1.7084 750 0.5609 -
1.7312 760 0.4937 -
1.7540 770 0.5627 -
1.7768 780 0.6012 -
1.7995 790 0.6266 -
1.8223 800 0.5615 -
1.8451 810 0.5742 -
1.8679 820 0.643 -
1.8907 830 0.6061 -
1.9134 840 0.6218 -
1.9362 850 0.532 -
1.9590 860 0.5468 -
1.9818 870 0.5727 -
2.0 878 - 0.6380
2.0046 880 0.4803 -
2.0273 890 0.5546 -
2.0501 900 0.5691 -
2.0729 910 0.5638 -
2.0957 920 0.5843 -
2.1185 930 0.5001 -
2.1412 940 0.5742 -
2.1640 950 0.5604 -
2.1868 960 0.5366 -
2.2096 970 0.5436 -
2.2323 980 0.5202 -
2.2551 990 0.5237 -
2.2779 1000 0.5886 -
2.3007 1010 0.5477 -
2.3235 1020 0.4857 -
2.3462 1030 0.58 -
2.3690 1040 0.5862 -
2.3918 1050 0.5643 -
2.4146 1060 0.6135 -
2.4374 1070 0.553 -
2.4601 1080 0.4849 -
2.4829 1090 0.5567 -
2.5057 1100 0.571 -
2.5285 1110 0.567 -
2.5513 1120 0.5381 -
2.5740 1130 0.4538 -
2.5968 1140 0.5648 -
2.6196 1150 0.4741 -
2.6424 1160 0.5142 -
2.6651 1170 0.4587 -
2.6879 1180 0.6125 -
2.7107 1190 0.5498 -
2.7335 1200 0.5399 -
2.7563 1210 0.5067 -
2.7790 1220 0.5465 -
2.8018 1230 0.4679 -
2.8246 1240 0.5465 -
2.8474 1250 0.4803 -
2.8702 1260 0.4996 -
2.8929 1270 0.4747 -
2.9157 1280 0.4839 -
2.9385 1290 0.4929 -
2.9613 1300 0.4994 -
2.9841 1310 0.5419 -
3.0 1317 - 0.6558
3.0068 1320 0.4823 -
3.0296 1330 0.4786 -
3.0524 1340 0.4906 -
3.0752 1350 0.4811 -
3.0979 1360 0.4865 -
3.1207 1370 0.4496 -
3.1435 1380 0.5705 -
3.1663 1390 0.45 -
3.1891 1400 0.4798 -
3.2118 1410 0.4373 -
3.2346 1420 0.509 -
3.2574 1430 0.4957 -
3.2802 1440 0.487 -
3.3030 1450 0.4149 -
3.3257 1460 0.5687 -
3.3485 1470 0.4731 -
3.3713 1480 0.6033 -
3.3941 1490 0.4797 -
3.4169 1500 0.5031 -
3.4396 1510 0.5027 -
3.4624 1520 0.4566 -
3.4852 1530 0.5505 -
3.5080 1540 0.4788 -
3.5308 1550 0.47 -
3.5535 1560 0.4779 -
3.5763 1570 0.4655 -
3.5991 1580 0.4044 -
3.6219 1590 0.5332 -
3.6446 1600 0.4725 -
3.6674 1610 0.4421 -
3.6902 1620 0.4982 -
3.7130 1630 0.433 -
3.7358 1640 0.4541 -
3.7585 1650 0.5052 -
3.7813 1660 0.4511 -
3.8041 1670 0.463 -
3.8269 1680 0.5441 -
3.8497 1690 0.4385 -
3.8724 1700 0.5345 -
3.8952 1710 0.4664 -
3.9180 1720 0.444 -
3.9408 1730 0.475 -
3.9636 1740 0.4307 -
3.9863 1750 0.5149 -
4.0 1756 - 0.6687
4.0091 1760 0.3887 -
4.0319 1770 0.4612 -
4.0547 1780 0.4067 -
4.0774 1790 0.4683 -
4.1002 1800 0.4434 -
4.1230 1810 0.4547 -
4.1458 1820 0.4422 -
4.1686 1830 0.454 -
4.1913 1840 0.4411 -
4.2141 1850 0.4554 -
4.2369 1860 0.4342 -
4.2597 1870 0.4318 -
4.2825 1880 0.4705 -
4.3052 1890 0.448 -
4.3280 1900 0.431 -
4.3508 1910 0.4405 -
4.3736 1920 0.4187 -
4.3964 1930 0.4695 -
4.4191 1940 0.4058 -
4.4419 1950 0.4759 -
4.4647 1960 0.451 -
4.4875 1970 0.4299 -
4.5103 1980 0.4647 -
4.5330 1990 0.4278 -
4.5558 2000 0.4514 -
4.5786 2010 0.4096 -
4.6014 2020 0.4292 -
4.6241 2030 0.444 -
4.6469 2040 0.4291 -
4.6697 2050 0.4237 -
4.6925 2060 0.4528 -
4.7153 2070 0.4479 -
4.7380 2080 0.4066 -
4.7608 2090 0.4077 -
4.7836 2100 0.4503 -
4.8064 2110 0.4875 -
4.8292 2120 0.4618 -
4.8519 2130 0.4684 -
4.8747 2140 0.4479 -
4.8975 2150 0.3566 -
4.9203 2160 0.4134 -
4.9431 2170 0.4066 -
4.9658 2180 0.3589 -
4.9886 2190 0.3954 -
5.0 2195 - 0.6789
5.0114 2200 0.3449 -
5.0342 2210 0.3767 -
5.0569 2220 0.4291 -
5.0797 2230 0.3908 -
5.1025 2240 0.4425 -
5.1253 2250 0.4463 -
5.1481 2260 0.4492 -
5.1708 2270 0.3787 -
5.1936 2280 0.4137 -
5.2164 2290 0.4027 -
5.2392 2300 0.386 -
5.2620 2310 0.3876 -
5.2847 2320 0.4165 -
5.3075 2330 0.4393 -
5.3303 2340 0.3972 -
5.3531 2350 0.4227 -
5.3759 2360 0.4256 -
5.3986 2370 0.3557 -
5.4214 2380 0.4445 -
5.4442 2390 0.4285 -
5.4670 2400 0.4768 -
5.4897 2410 0.4001 -
5.5125 2420 0.3527 -
5.5353 2430 0.417 -
5.5581 2440 0.3905 -
5.5809 2450 0.3816 -
5.6036 2460 0.4391 -
5.6264 2470 0.4173 -
5.6492 2480 0.3672 -
5.6720 2490 0.466 -
5.6948 2500 0.3907 -
5.7175 2510 0.3661 -
5.7403 2520 0.4072 -
5.7631 2530 0.3964 -
5.7859 2540 0.3898 -
5.8087 2550 0.4864 -
5.8314 2560 0.4032 -
5.8542 2570 0.4268 -
5.8770 2580 0.3882 -
5.8998 2590 0.4505 -
5.9226 2600 0.3759 -
5.9453 2610 0.4075 -
5.9681 2620 0.4388 -
5.9909 2630 0.3182 -
6.0 2634 - 0.6866
6.0137 2640 0.3663 -
6.0364 2650 0.3509 -
6.0592 2660 0.4189 -
6.0820 2670 0.4183 -
6.1048 2680 0.374 -
6.1276 2690 0.3875 -
6.1503 2700 0.4251 -
6.1731 2710 0.395 -
6.1959 2720 0.3384 -
6.2187 2730 0.4093 -
6.2415 2740 0.3617 -
6.2642 2750 0.3918 -
6.2870 2760 0.4355 -
6.3098 2770 0.381 -
6.3326 2780 0.4113 -
6.3554 2790 0.4393 -
6.3781 2800 0.3888 -
6.4009 2810 0.3992 -
6.4237 2820 0.3958 -
6.4465 2830 0.4022 -
6.4692 2840 0.3321 -
6.4920 2850 0.3608 -
6.5148 2860 0.4077 -
6.5376 2870 0.3666 -
6.5604 2880 0.3961 -
6.5831 2890 0.3266 -
6.6059 2900 0.4062 -
6.6287 2910 0.3575 -
6.6515 2920 0.3821 -
6.6743 2930 0.3442 -
6.6970 2940 0.3539 -
6.7198 2950 0.4285 -
6.7426 2960 0.3527 -
6.7654 2970 0.3939 -
6.7882 2980 0.4048 -
6.8109 2990 0.3887 -
6.8337 3000 0.3302 -
6.8565 3010 0.3799 -
6.8793 3020 0.3477 -
6.9021 3030 0.3547 -
6.9248 3040 0.3973 -
6.9476 3050 0.4175 -
6.9704 3060 0.3686 -
6.9932 3070 0.3797 -
7.0 3073 - 0.6937
7.0159 3080 0.3239 -
7.0387 3090 0.3862 -
7.0615 3100 0.3581 -
7.0843 3110 0.33 -
7.1071 3120 0.3081 -
7.1298 3130 0.2824 -
7.1526 3140 0.3436 -
7.1754 3150 0.3271 -
7.1982 3160 0.3927 -
7.2210 3170 0.3902 -
7.2437 3180 0.3301 -
7.2665 3190 0.339 -
7.2893 3200 0.3435 -
7.3121 3210 0.3257 -
7.3349 3220 0.3703 -
7.3576 3230 0.3438 -
7.3804 3240 0.3755 -
7.4032 3250 0.3273 -
7.4260 3260 0.3604 -
7.4487 3270 0.403 -
7.4715 3280 0.3501 -
7.4943 3290 0.3603 -
7.5171 3300 0.3754 -
7.5399 3310 0.364 -
7.5626 3320 0.346 -
7.5854 3330 0.3669 -
7.6082 3340 0.3559 -
7.6310 3350 0.403 -
7.6538 3360 0.3882 -
7.6765 3370 0.3798 -
7.6993 3380 0.3583 -
7.7221 3390 0.452 -
7.7449 3400 0.3798 -
7.7677 3410 0.3794 -
7.7904 3420 0.299 -
7.8132 3430 0.3936 -
7.8360 3440 0.3397 -
7.8588 3450 0.3633 -
7.8815 3460 0.3563 -
7.9043 3470 0.3619 -
7.9271 3480 0.4316 -
7.9499 3490 0.3443 -
7.9727 3500 0.3628 -
7.9954 3510 0.3721 -
8.0 3512 - 0.6983
8.0182 3520 0.2989 -
8.0410 3530 0.3334 -
8.0638 3540 0.3162 -
8.0866 3550 0.3883 -
8.1093 3560 0.3388 -
8.1321 3570 0.3785 -
8.1549 3580 0.296 -
8.1777 3590 0.3524 -
8.2005 3600 0.3322 -
8.2232 3610 0.365 -
8.2460 3620 0.3198 -
8.2688 3630 0.3413 -
8.2916 3640 0.3255 -
8.3144 3650 0.3551 -
8.3371 3660 0.3718 -
8.3599 3670 0.354 -
8.3827 3680 0.4118 -
8.4055 3690 0.3216 -
8.4282 3700 0.3199 -
8.4510 3710 0.3546 -
8.4738 3720 0.3525 -
8.4966 3730 0.3959 -
8.5194 3740 0.3459 -
8.5421 3750 0.3203 -
8.5649 3760 0.4215 -
8.5877 3770 0.3515 -
8.6105 3780 0.3598 -
8.6333 3790 0.3271 -
8.6560 3800 0.3928 -
8.6788 3810 0.3475 -
8.7016 3820 0.3707 -
8.7244 3830 0.3852 -
8.7472 3840 0.3078 -
8.7699 3850 0.3086 -
8.7927 3860 0.3622 -
8.8155 3870 0.3507 -
8.8383 3880 0.3099 -
8.8610 3890 0.334 -
8.8838 3900 0.3144 -
8.9066 3910 0.3233 -
8.9294 3920 0.3535 -
8.9522 3930 0.3528 -
8.9749 3940 0.3015 -
8.9977 3950 0.3112 -
9.0 3951 - 0.7042
9.0205 3960 0.3452 -
9.0433 3970 0.3322 -
9.0661 3980 0.3534 -
9.0888 3990 0.3321 -
9.1116 4000 0.3542 -
9.1344 4010 0.3443 -
9.1572 4020 0.3232 -
9.1800 4030 0.3093 -
9.2027 4040 0.3463 -
9.2255 4050 0.3053 -
9.2483 4060 0.3676 -
9.2711 4070 0.2879 -
9.2938 4080 0.3557 -
9.3166 4090 0.2559 -
9.3394 4100 0.2881 -
9.3622 4110 0.3056 -
9.3850 4120 0.2713 -
9.4077 4130 0.3595 -
9.4305 4140 0.3603 -
9.4533 4150 0.3764 -
9.4761 4160 0.3402 -
9.4989 4170 0.3178 -
9.5216 4180 0.3541 -
9.5444 4190 0.3726 -
9.5672 4200 0.328 -
9.5900 4210 0.3083 -
9.6128 4220 0.3347 -
9.6355 4230 0.3288 -
9.6583 4240 0.3199 -
9.6811 4250 0.3195 -
9.7039 4260 0.336 -
9.7267 4270 0.3349 -
9.7494 4280 0.3225 -
9.7722 4290 0.3045 -
9.7950 4300 0.3125 -
9.8178 4310 0.2838 -
9.8405 4320 0.3088 -
9.8633 4330 0.365 -
9.8861 4340 0.3454 -
9.9089 4350 0.3344 -
9.9317 4360 0.288 -
9.9544 4370 0.2991 -
9.9772 4380 0.3493 -
10.0 4390 0.2892 0.7073
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.10.16
  • Sentence Transformers: 3.4.1
  • Transformers: 4.49.0
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.5.2
  • Datasets: 3.3.2
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
5
Safetensors
Model size
135M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for thang1943/bkcare-embed-v2

Finetuned
(1)
this model

Dataset used to train thang1943/bkcare-embed-v2

Evaluation results