SentenceTransformer based on nampham1106/bkcare-embedding
This is a sentence-transformers model finetuned from nampham1106/bkcare-embedding on the dataset_full_fixed dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: nampham1106/bkcare-embedding
- Maximum Sequence Length: 256 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
- Training Dataset:
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("bkcare-embed-v2")
# Run inference
sentences = [
'Chào em, Carcinoma tuyến vú là một dạng ung thư vú. Giai đoạn đầu của ung thư vú triệu chứng có thể mờ nhạt, dễ lầm lẫn với các bệnh lý khác, trong đó có áp-xe vú. Tuy nhiên khi BS đã kết luận mẹ của em bị carcinoma tuyến vú tức là đã có kết quả giải phẫu bệnh học - kết quả này gần như là chắc chắn ung thư. Mặc dù bệnh lý ung thư có thể nguy hiểm tới tính mạng, nhưng với những tiến bộ của y học, hiệu quả điều trị ung thư vú đã cải thiện rất nhiều. Nếu phát hiện sớm, điều trị phù hợp, đúng liệu trình thì bệnh vẫn có thể khỏi hoàn toàn. Phương pháp điều trị hiện nay chủ yếu là phẫu thuật, xạ trị, hoá trị, liệu pháp trúng đích, tuỳ vào lựa chọn và quyết định của BS điều trị, dựa trên mức độ nặng của bệnh. Do đó, em nên động viên, hỗ trợ mẹ tiếp tục điều trị và tuân thủ theo chuyên khoa tại BV Ung Bướu để bệnh mau khỏi em nhé! Thân mến.',
'BS ơi,\r\n\r\nMẹ cháu năm nay 39 tuổi. Hôm qua mẹ cháu đi khám bệnh, BS nói mẹ cháu bị Carcinôm ung thư tuyến vú bên phải và có bướu ác tính kích thước 30mm. BS cho cháu hỏi là bệnh này có nguy hiểm đến người và có cách nào để điều trị không ạ?',
'Dạ thưa bác sĩ, vừa qua em có ăn cá lóc bị dính xương nhỏ của cá vào khe nhỏ giữa hai răng. Lấy đèn soi vào hoặc dùng tay thì không thấy được xương nhưng khi dùng lưỡi cà thì cảm nhận được xương ạ.Em nghĩ là xương này nhỏ và dính hơi sâu. Giờ em muốn xin ý kiến của bác sĩ ạ. Em phải là sao bây giờ em thực sự rất lo lắng. Mong sớm nhận được phản hồi từ bác sĩ',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Information Retrieval
- Dataset:
dim_768
- Evaluated with
InformationRetrievalEvaluator
Metric | Value |
---|---|
cosine_accuracy@1 | 0.5919 |
cosine_accuracy@3 | 0.7226 |
cosine_accuracy@5 | 0.7732 |
cosine_accuracy@10 | 0.8282 |
cosine_precision@1 | 0.5919 |
cosine_precision@3 | 0.2409 |
cosine_precision@5 | 0.1546 |
cosine_precision@10 | 0.0828 |
cosine_recall@1 | 0.5919 |
cosine_recall@3 | 0.7226 |
cosine_recall@5 | 0.7732 |
cosine_recall@10 | 0.8282 |
cosine_ndcg@10 | 0.7073 |
cosine_mrr@10 | 0.6689 |
cosine_map@100 | 0.675 |
Training Details
Training Dataset
dataset_full_fixed
- Dataset: dataset_full_fixed at ef2e7fd
- Size: 54,755 training samples
- Columns:
positive
andquery
- Approximate statistics based on the first 1000 samples:
positive query type string string details - min: 30 tokens
- mean: 186.53 tokens
- max: 256 tokens
- min: 5 tokens
- mean: 80.02 tokens
- max: 256 tokens
- Samples:
positive query Mô tả ngắn:
Thuốc Furosemide 20mg/2ml được sản xuất bởi Công ty Cổ phần Dược phẩm Trung ương Vidipha, có thành phần chính là Furosemid. Thuốc Furosemide được chỉ định trong các trường hợp phù phổi cấp; phù do tim, gan, thận và các loại phù khác.
Thuốc Furosemide 20mg/2ml được bào chế dưới dạng dung dịch tiêm. Hộp 10 ống 2ml; hộp 50 ống 2ml.
Thành phần:
Furosemide: 20
Chỉ định:
Thuốc Furosemide 20mg/2ml được chỉ định dùng trong các trường hợp sau:
Điều trị phù phổi cấp. Phù do tim, gan, thận và các loại phù khác.Dung dịch tiêm Furosemide 20mg Vidipha điều trị phù phổi cấp, phù do tim, gan, thận (5 vỉ x 10 ống)
Xin chào bạn, Trong bệnh lý tuyến giáp có 2 vấn đề liên quan đến quyết định điều trị (phẫu thuật hay dùng thuốc) đó là: - Kích thước và bản chất khối u: lành tính hay ác, có làm khó thở, nuốt khó, quá to ảnh hưởng thẩm mỹ? - Chức năng tuyến giáp: cường hay suy? Hiện tại kết quả sinh thiết ra nhóm tế bào không điển hình, nghĩa là chưa thể loại trừ đây là khối u ác tính. Bạn nên tái khám chuyên khoa bệnh lý tuyến giáp để được sinh thiết lần 2 sau đó mới quyết định điều trị nhé bạn. Thân ái chào bạn.
Chào bác sĩ.Tôi nữ, 20 tuổi. Tôi đi kiểm tra sức khỏe, qua siêu âm tuyến giáp có 1 nhân giảm âm, bên trong có nhiều nốt vôi hóa kích thước 10×8mm. Kết luận nhân đặc thùy phải (TIRADS 5). Chọc sinh thiết BS kết luận: hình ảnh tế bào không điển hình - AUS (nhóm 3, Bethesda).Vậy theo BS tôi phải làm gì, có nên mổ không? Xét nghiệm các chỉ số TSH, T4; FT3; FT4 không có gì bất thường.
Chào con, Năm nay con đã 20 tuổi rồi mà rốn con bị thì nguyên nhân thường hay gặp là do tồn tại ống niệu rốn. Tức là, ống thông từ rốn vào bàng quang và nước tiểu sẽ theo đó ra rốn. Tuy nhiên, hiện tượng nước tiểu chảy ra rốn có tỉ lệ thấp và chủ yếu là tiết dịch gây viêm. Khi còn tồn tại ống niệu rốn thì bắt buộc phải cắt bỏ ống niệu rốn để tránh gây viêm nhiễm và nhiễm trùng niệu thường xuyên. Cho nên, con nên đến khám tại các BV có chuyên khoa Niệu. Nếu muốn, con cũng có thể đến BV Nhân Dân 115, BS sẽ mổ để cắt ống niệu rốn này thì sẽ hết. Còn nếu khi kiểm tra chụp CT không phải do ống niệu rốn, mà chỉ do tại vùng rốn bị viêm nhiễm thì có thể điều trị ngoài da tại chỗ. Thân mến. ThS.BS Trương Hoàng Minh Trưởng khoa Ngoại niệu - Ghép thận - BV Nhân dân 115
Thưa BS,
Rốn của con bị chảy dịch trắng trong hơn 1 tháng rồi, hơi ngứa quanh rốn, có mùi hôi nữa. Con đã được BS ngoại khoa chẩn đoán nói con bị nấm nên cho toa thuốc, mua thuốc thoa vào nhưng con thấy càng thoa càng nặng hơn.
Giờ phải con phải làm gì, BS giúp con với. Con cảm ơn ạ! - Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: epochper_device_train_batch_size
: 100per_device_eval_batch_size
: 1learning_rate
: 1e-06num_train_epochs
: 10lr_scheduler_type
: constant_with_warmupwarmup_ratio
: 0.1bf16
: Truetf32
: Falseload_best_model_at_end
: Trueoptim
: adamw_torch_fusedbatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: epochprediction_loss_only
: Trueper_device_train_batch_size
: 100per_device_eval_batch_size
: 1per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 1e-06weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 10max_steps
: -1lr_scheduler_type
: constant_with_warmuplr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Truefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Falselocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torch_fusedoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 |
---|---|---|---|
0.0228 | 10 | 0.9989 | - |
0.0456 | 20 | 1.0333 | - |
0.0683 | 30 | 1.0062 | - |
0.0911 | 40 | 0.9696 | - |
0.1139 | 50 | 1.0362 | - |
0.1367 | 60 | 1.0471 | - |
0.1595 | 70 | 0.8924 | - |
0.1822 | 80 | 1.0582 | - |
0.2050 | 90 | 0.9905 | - |
0.2278 | 100 | 0.8518 | - |
0.2506 | 110 | 0.9854 | - |
0.2733 | 120 | 0.9163 | - |
0.2961 | 130 | 0.8787 | - |
0.3189 | 140 | 0.9094 | - |
0.3417 | 150 | 0.9724 | - |
0.3645 | 160 | 0.8363 | - |
0.3872 | 170 | 0.8265 | - |
0.4100 | 180 | 0.8899 | - |
0.4328 | 190 | 0.8546 | - |
0.4556 | 200 | 0.8407 | - |
0.4784 | 210 | 0.8777 | - |
0.5011 | 220 | 0.8295 | - |
0.5239 | 230 | 0.8217 | - |
0.5467 | 240 | 0.8917 | - |
0.5695 | 250 | 0.8631 | - |
0.5923 | 260 | 0.8022 | - |
0.6150 | 270 | 0.8425 | - |
0.6378 | 280 | 0.8106 | - |
0.6606 | 290 | 0.7096 | - |
0.6834 | 300 | 0.7938 | - |
0.7062 | 310 | 0.7367 | - |
0.7289 | 320 | 0.6911 | - |
0.7517 | 330 | 0.6833 | - |
0.7745 | 340 | 0.7389 | - |
0.7973 | 350 | 0.6942 | - |
0.8200 | 360 | 0.7545 | - |
0.8428 | 370 | 0.6991 | - |
0.8656 | 380 | 0.7249 | - |
0.8884 | 390 | 0.7679 | - |
0.9112 | 400 | 0.7172 | - |
0.9339 | 410 | 0.6802 | - |
0.9567 | 420 | 0.6891 | - |
0.9795 | 430 | 0.7469 | - |
1.0 | 439 | - | 0.6071 |
1.0023 | 440 | 0.6505 | - |
1.0251 | 450 | 0.7397 | - |
1.0478 | 460 | 0.7063 | - |
1.0706 | 470 | 0.7554 | - |
1.0934 | 480 | 0.6036 | - |
1.1162 | 490 | 0.6389 | - |
1.1390 | 500 | 0.6777 | - |
1.1617 | 510 | 0.6257 | - |
1.1845 | 520 | 0.6398 | - |
1.2073 | 530 | 0.6497 | - |
1.2301 | 540 | 0.6195 | - |
1.2528 | 550 | 0.6015 | - |
1.2756 | 560 | 0.6437 | - |
1.2984 | 570 | 0.6434 | - |
1.3212 | 580 | 0.6806 | - |
1.3440 | 590 | 0.6205 | - |
1.3667 | 600 | 0.7032 | - |
1.3895 | 610 | 0.6713 | - |
1.4123 | 620 | 0.6524 | - |
1.4351 | 630 | 0.6388 | - |
1.4579 | 640 | 0.6062 | - |
1.4806 | 650 | 0.6243 | - |
1.5034 | 660 | 0.6477 | - |
1.5262 | 670 | 0.5823 | - |
1.5490 | 680 | 0.5977 | - |
1.5718 | 690 | 0.5676 | - |
1.5945 | 700 | 0.6642 | - |
1.6173 | 710 | 0.658 | - |
1.6401 | 720 | 0.5934 | - |
1.6629 | 730 | 0.6148 | - |
1.6856 | 740 | 0.6599 | - |
1.7084 | 750 | 0.5609 | - |
1.7312 | 760 | 0.4937 | - |
1.7540 | 770 | 0.5627 | - |
1.7768 | 780 | 0.6012 | - |
1.7995 | 790 | 0.6266 | - |
1.8223 | 800 | 0.5615 | - |
1.8451 | 810 | 0.5742 | - |
1.8679 | 820 | 0.643 | - |
1.8907 | 830 | 0.6061 | - |
1.9134 | 840 | 0.6218 | - |
1.9362 | 850 | 0.532 | - |
1.9590 | 860 | 0.5468 | - |
1.9818 | 870 | 0.5727 | - |
2.0 | 878 | - | 0.6380 |
2.0046 | 880 | 0.4803 | - |
2.0273 | 890 | 0.5546 | - |
2.0501 | 900 | 0.5691 | - |
2.0729 | 910 | 0.5638 | - |
2.0957 | 920 | 0.5843 | - |
2.1185 | 930 | 0.5001 | - |
2.1412 | 940 | 0.5742 | - |
2.1640 | 950 | 0.5604 | - |
2.1868 | 960 | 0.5366 | - |
2.2096 | 970 | 0.5436 | - |
2.2323 | 980 | 0.5202 | - |
2.2551 | 990 | 0.5237 | - |
2.2779 | 1000 | 0.5886 | - |
2.3007 | 1010 | 0.5477 | - |
2.3235 | 1020 | 0.4857 | - |
2.3462 | 1030 | 0.58 | - |
2.3690 | 1040 | 0.5862 | - |
2.3918 | 1050 | 0.5643 | - |
2.4146 | 1060 | 0.6135 | - |
2.4374 | 1070 | 0.553 | - |
2.4601 | 1080 | 0.4849 | - |
2.4829 | 1090 | 0.5567 | - |
2.5057 | 1100 | 0.571 | - |
2.5285 | 1110 | 0.567 | - |
2.5513 | 1120 | 0.5381 | - |
2.5740 | 1130 | 0.4538 | - |
2.5968 | 1140 | 0.5648 | - |
2.6196 | 1150 | 0.4741 | - |
2.6424 | 1160 | 0.5142 | - |
2.6651 | 1170 | 0.4587 | - |
2.6879 | 1180 | 0.6125 | - |
2.7107 | 1190 | 0.5498 | - |
2.7335 | 1200 | 0.5399 | - |
2.7563 | 1210 | 0.5067 | - |
2.7790 | 1220 | 0.5465 | - |
2.8018 | 1230 | 0.4679 | - |
2.8246 | 1240 | 0.5465 | - |
2.8474 | 1250 | 0.4803 | - |
2.8702 | 1260 | 0.4996 | - |
2.8929 | 1270 | 0.4747 | - |
2.9157 | 1280 | 0.4839 | - |
2.9385 | 1290 | 0.4929 | - |
2.9613 | 1300 | 0.4994 | - |
2.9841 | 1310 | 0.5419 | - |
3.0 | 1317 | - | 0.6558 |
3.0068 | 1320 | 0.4823 | - |
3.0296 | 1330 | 0.4786 | - |
3.0524 | 1340 | 0.4906 | - |
3.0752 | 1350 | 0.4811 | - |
3.0979 | 1360 | 0.4865 | - |
3.1207 | 1370 | 0.4496 | - |
3.1435 | 1380 | 0.5705 | - |
3.1663 | 1390 | 0.45 | - |
3.1891 | 1400 | 0.4798 | - |
3.2118 | 1410 | 0.4373 | - |
3.2346 | 1420 | 0.509 | - |
3.2574 | 1430 | 0.4957 | - |
3.2802 | 1440 | 0.487 | - |
3.3030 | 1450 | 0.4149 | - |
3.3257 | 1460 | 0.5687 | - |
3.3485 | 1470 | 0.4731 | - |
3.3713 | 1480 | 0.6033 | - |
3.3941 | 1490 | 0.4797 | - |
3.4169 | 1500 | 0.5031 | - |
3.4396 | 1510 | 0.5027 | - |
3.4624 | 1520 | 0.4566 | - |
3.4852 | 1530 | 0.5505 | - |
3.5080 | 1540 | 0.4788 | - |
3.5308 | 1550 | 0.47 | - |
3.5535 | 1560 | 0.4779 | - |
3.5763 | 1570 | 0.4655 | - |
3.5991 | 1580 | 0.4044 | - |
3.6219 | 1590 | 0.5332 | - |
3.6446 | 1600 | 0.4725 | - |
3.6674 | 1610 | 0.4421 | - |
3.6902 | 1620 | 0.4982 | - |
3.7130 | 1630 | 0.433 | - |
3.7358 | 1640 | 0.4541 | - |
3.7585 | 1650 | 0.5052 | - |
3.7813 | 1660 | 0.4511 | - |
3.8041 | 1670 | 0.463 | - |
3.8269 | 1680 | 0.5441 | - |
3.8497 | 1690 | 0.4385 | - |
3.8724 | 1700 | 0.5345 | - |
3.8952 | 1710 | 0.4664 | - |
3.9180 | 1720 | 0.444 | - |
3.9408 | 1730 | 0.475 | - |
3.9636 | 1740 | 0.4307 | - |
3.9863 | 1750 | 0.5149 | - |
4.0 | 1756 | - | 0.6687 |
4.0091 | 1760 | 0.3887 | - |
4.0319 | 1770 | 0.4612 | - |
4.0547 | 1780 | 0.4067 | - |
4.0774 | 1790 | 0.4683 | - |
4.1002 | 1800 | 0.4434 | - |
4.1230 | 1810 | 0.4547 | - |
4.1458 | 1820 | 0.4422 | - |
4.1686 | 1830 | 0.454 | - |
4.1913 | 1840 | 0.4411 | - |
4.2141 | 1850 | 0.4554 | - |
4.2369 | 1860 | 0.4342 | - |
4.2597 | 1870 | 0.4318 | - |
4.2825 | 1880 | 0.4705 | - |
4.3052 | 1890 | 0.448 | - |
4.3280 | 1900 | 0.431 | - |
4.3508 | 1910 | 0.4405 | - |
4.3736 | 1920 | 0.4187 | - |
4.3964 | 1930 | 0.4695 | - |
4.4191 | 1940 | 0.4058 | - |
4.4419 | 1950 | 0.4759 | - |
4.4647 | 1960 | 0.451 | - |
4.4875 | 1970 | 0.4299 | - |
4.5103 | 1980 | 0.4647 | - |
4.5330 | 1990 | 0.4278 | - |
4.5558 | 2000 | 0.4514 | - |
4.5786 | 2010 | 0.4096 | - |
4.6014 | 2020 | 0.4292 | - |
4.6241 | 2030 | 0.444 | - |
4.6469 | 2040 | 0.4291 | - |
4.6697 | 2050 | 0.4237 | - |
4.6925 | 2060 | 0.4528 | - |
4.7153 | 2070 | 0.4479 | - |
4.7380 | 2080 | 0.4066 | - |
4.7608 | 2090 | 0.4077 | - |
4.7836 | 2100 | 0.4503 | - |
4.8064 | 2110 | 0.4875 | - |
4.8292 | 2120 | 0.4618 | - |
4.8519 | 2130 | 0.4684 | - |
4.8747 | 2140 | 0.4479 | - |
4.8975 | 2150 | 0.3566 | - |
4.9203 | 2160 | 0.4134 | - |
4.9431 | 2170 | 0.4066 | - |
4.9658 | 2180 | 0.3589 | - |
4.9886 | 2190 | 0.3954 | - |
5.0 | 2195 | - | 0.6789 |
5.0114 | 2200 | 0.3449 | - |
5.0342 | 2210 | 0.3767 | - |
5.0569 | 2220 | 0.4291 | - |
5.0797 | 2230 | 0.3908 | - |
5.1025 | 2240 | 0.4425 | - |
5.1253 | 2250 | 0.4463 | - |
5.1481 | 2260 | 0.4492 | - |
5.1708 | 2270 | 0.3787 | - |
5.1936 | 2280 | 0.4137 | - |
5.2164 | 2290 | 0.4027 | - |
5.2392 | 2300 | 0.386 | - |
5.2620 | 2310 | 0.3876 | - |
5.2847 | 2320 | 0.4165 | - |
5.3075 | 2330 | 0.4393 | - |
5.3303 | 2340 | 0.3972 | - |
5.3531 | 2350 | 0.4227 | - |
5.3759 | 2360 | 0.4256 | - |
5.3986 | 2370 | 0.3557 | - |
5.4214 | 2380 | 0.4445 | - |
5.4442 | 2390 | 0.4285 | - |
5.4670 | 2400 | 0.4768 | - |
5.4897 | 2410 | 0.4001 | - |
5.5125 | 2420 | 0.3527 | - |
5.5353 | 2430 | 0.417 | - |
5.5581 | 2440 | 0.3905 | - |
5.5809 | 2450 | 0.3816 | - |
5.6036 | 2460 | 0.4391 | - |
5.6264 | 2470 | 0.4173 | - |
5.6492 | 2480 | 0.3672 | - |
5.6720 | 2490 | 0.466 | - |
5.6948 | 2500 | 0.3907 | - |
5.7175 | 2510 | 0.3661 | - |
5.7403 | 2520 | 0.4072 | - |
5.7631 | 2530 | 0.3964 | - |
5.7859 | 2540 | 0.3898 | - |
5.8087 | 2550 | 0.4864 | - |
5.8314 | 2560 | 0.4032 | - |
5.8542 | 2570 | 0.4268 | - |
5.8770 | 2580 | 0.3882 | - |
5.8998 | 2590 | 0.4505 | - |
5.9226 | 2600 | 0.3759 | - |
5.9453 | 2610 | 0.4075 | - |
5.9681 | 2620 | 0.4388 | - |
5.9909 | 2630 | 0.3182 | - |
6.0 | 2634 | - | 0.6866 |
6.0137 | 2640 | 0.3663 | - |
6.0364 | 2650 | 0.3509 | - |
6.0592 | 2660 | 0.4189 | - |
6.0820 | 2670 | 0.4183 | - |
6.1048 | 2680 | 0.374 | - |
6.1276 | 2690 | 0.3875 | - |
6.1503 | 2700 | 0.4251 | - |
6.1731 | 2710 | 0.395 | - |
6.1959 | 2720 | 0.3384 | - |
6.2187 | 2730 | 0.4093 | - |
6.2415 | 2740 | 0.3617 | - |
6.2642 | 2750 | 0.3918 | - |
6.2870 | 2760 | 0.4355 | - |
6.3098 | 2770 | 0.381 | - |
6.3326 | 2780 | 0.4113 | - |
6.3554 | 2790 | 0.4393 | - |
6.3781 | 2800 | 0.3888 | - |
6.4009 | 2810 | 0.3992 | - |
6.4237 | 2820 | 0.3958 | - |
6.4465 | 2830 | 0.4022 | - |
6.4692 | 2840 | 0.3321 | - |
6.4920 | 2850 | 0.3608 | - |
6.5148 | 2860 | 0.4077 | - |
6.5376 | 2870 | 0.3666 | - |
6.5604 | 2880 | 0.3961 | - |
6.5831 | 2890 | 0.3266 | - |
6.6059 | 2900 | 0.4062 | - |
6.6287 | 2910 | 0.3575 | - |
6.6515 | 2920 | 0.3821 | - |
6.6743 | 2930 | 0.3442 | - |
6.6970 | 2940 | 0.3539 | - |
6.7198 | 2950 | 0.4285 | - |
6.7426 | 2960 | 0.3527 | - |
6.7654 | 2970 | 0.3939 | - |
6.7882 | 2980 | 0.4048 | - |
6.8109 | 2990 | 0.3887 | - |
6.8337 | 3000 | 0.3302 | - |
6.8565 | 3010 | 0.3799 | - |
6.8793 | 3020 | 0.3477 | - |
6.9021 | 3030 | 0.3547 | - |
6.9248 | 3040 | 0.3973 | - |
6.9476 | 3050 | 0.4175 | - |
6.9704 | 3060 | 0.3686 | - |
6.9932 | 3070 | 0.3797 | - |
7.0 | 3073 | - | 0.6937 |
7.0159 | 3080 | 0.3239 | - |
7.0387 | 3090 | 0.3862 | - |
7.0615 | 3100 | 0.3581 | - |
7.0843 | 3110 | 0.33 | - |
7.1071 | 3120 | 0.3081 | - |
7.1298 | 3130 | 0.2824 | - |
7.1526 | 3140 | 0.3436 | - |
7.1754 | 3150 | 0.3271 | - |
7.1982 | 3160 | 0.3927 | - |
7.2210 | 3170 | 0.3902 | - |
7.2437 | 3180 | 0.3301 | - |
7.2665 | 3190 | 0.339 | - |
7.2893 | 3200 | 0.3435 | - |
7.3121 | 3210 | 0.3257 | - |
7.3349 | 3220 | 0.3703 | - |
7.3576 | 3230 | 0.3438 | - |
7.3804 | 3240 | 0.3755 | - |
7.4032 | 3250 | 0.3273 | - |
7.4260 | 3260 | 0.3604 | - |
7.4487 | 3270 | 0.403 | - |
7.4715 | 3280 | 0.3501 | - |
7.4943 | 3290 | 0.3603 | - |
7.5171 | 3300 | 0.3754 | - |
7.5399 | 3310 | 0.364 | - |
7.5626 | 3320 | 0.346 | - |
7.5854 | 3330 | 0.3669 | - |
7.6082 | 3340 | 0.3559 | - |
7.6310 | 3350 | 0.403 | - |
7.6538 | 3360 | 0.3882 | - |
7.6765 | 3370 | 0.3798 | - |
7.6993 | 3380 | 0.3583 | - |
7.7221 | 3390 | 0.452 | - |
7.7449 | 3400 | 0.3798 | - |
7.7677 | 3410 | 0.3794 | - |
7.7904 | 3420 | 0.299 | - |
7.8132 | 3430 | 0.3936 | - |
7.8360 | 3440 | 0.3397 | - |
7.8588 | 3450 | 0.3633 | - |
7.8815 | 3460 | 0.3563 | - |
7.9043 | 3470 | 0.3619 | - |
7.9271 | 3480 | 0.4316 | - |
7.9499 | 3490 | 0.3443 | - |
7.9727 | 3500 | 0.3628 | - |
7.9954 | 3510 | 0.3721 | - |
8.0 | 3512 | - | 0.6983 |
8.0182 | 3520 | 0.2989 | - |
8.0410 | 3530 | 0.3334 | - |
8.0638 | 3540 | 0.3162 | - |
8.0866 | 3550 | 0.3883 | - |
8.1093 | 3560 | 0.3388 | - |
8.1321 | 3570 | 0.3785 | - |
8.1549 | 3580 | 0.296 | - |
8.1777 | 3590 | 0.3524 | - |
8.2005 | 3600 | 0.3322 | - |
8.2232 | 3610 | 0.365 | - |
8.2460 | 3620 | 0.3198 | - |
8.2688 | 3630 | 0.3413 | - |
8.2916 | 3640 | 0.3255 | - |
8.3144 | 3650 | 0.3551 | - |
8.3371 | 3660 | 0.3718 | - |
8.3599 | 3670 | 0.354 | - |
8.3827 | 3680 | 0.4118 | - |
8.4055 | 3690 | 0.3216 | - |
8.4282 | 3700 | 0.3199 | - |
8.4510 | 3710 | 0.3546 | - |
8.4738 | 3720 | 0.3525 | - |
8.4966 | 3730 | 0.3959 | - |
8.5194 | 3740 | 0.3459 | - |
8.5421 | 3750 | 0.3203 | - |
8.5649 | 3760 | 0.4215 | - |
8.5877 | 3770 | 0.3515 | - |
8.6105 | 3780 | 0.3598 | - |
8.6333 | 3790 | 0.3271 | - |
8.6560 | 3800 | 0.3928 | - |
8.6788 | 3810 | 0.3475 | - |
8.7016 | 3820 | 0.3707 | - |
8.7244 | 3830 | 0.3852 | - |
8.7472 | 3840 | 0.3078 | - |
8.7699 | 3850 | 0.3086 | - |
8.7927 | 3860 | 0.3622 | - |
8.8155 | 3870 | 0.3507 | - |
8.8383 | 3880 | 0.3099 | - |
8.8610 | 3890 | 0.334 | - |
8.8838 | 3900 | 0.3144 | - |
8.9066 | 3910 | 0.3233 | - |
8.9294 | 3920 | 0.3535 | - |
8.9522 | 3930 | 0.3528 | - |
8.9749 | 3940 | 0.3015 | - |
8.9977 | 3950 | 0.3112 | - |
9.0 | 3951 | - | 0.7042 |
9.0205 | 3960 | 0.3452 | - |
9.0433 | 3970 | 0.3322 | - |
9.0661 | 3980 | 0.3534 | - |
9.0888 | 3990 | 0.3321 | - |
9.1116 | 4000 | 0.3542 | - |
9.1344 | 4010 | 0.3443 | - |
9.1572 | 4020 | 0.3232 | - |
9.1800 | 4030 | 0.3093 | - |
9.2027 | 4040 | 0.3463 | - |
9.2255 | 4050 | 0.3053 | - |
9.2483 | 4060 | 0.3676 | - |
9.2711 | 4070 | 0.2879 | - |
9.2938 | 4080 | 0.3557 | - |
9.3166 | 4090 | 0.2559 | - |
9.3394 | 4100 | 0.2881 | - |
9.3622 | 4110 | 0.3056 | - |
9.3850 | 4120 | 0.2713 | - |
9.4077 | 4130 | 0.3595 | - |
9.4305 | 4140 | 0.3603 | - |
9.4533 | 4150 | 0.3764 | - |
9.4761 | 4160 | 0.3402 | - |
9.4989 | 4170 | 0.3178 | - |
9.5216 | 4180 | 0.3541 | - |
9.5444 | 4190 | 0.3726 | - |
9.5672 | 4200 | 0.328 | - |
9.5900 | 4210 | 0.3083 | - |
9.6128 | 4220 | 0.3347 | - |
9.6355 | 4230 | 0.3288 | - |
9.6583 | 4240 | 0.3199 | - |
9.6811 | 4250 | 0.3195 | - |
9.7039 | 4260 | 0.336 | - |
9.7267 | 4270 | 0.3349 | - |
9.7494 | 4280 | 0.3225 | - |
9.7722 | 4290 | 0.3045 | - |
9.7950 | 4300 | 0.3125 | - |
9.8178 | 4310 | 0.2838 | - |
9.8405 | 4320 | 0.3088 | - |
9.8633 | 4330 | 0.365 | - |
9.8861 | 4340 | 0.3454 | - |
9.9089 | 4350 | 0.3344 | - |
9.9317 | 4360 | 0.288 | - |
9.9544 | 4370 | 0.2991 | - |
9.9772 | 4380 | 0.3493 | - |
10.0 | 4390 | 0.2892 | 0.7073 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.10.16
- Sentence Transformers: 3.4.1
- Transformers: 4.49.0
- PyTorch: 2.6.0+cu124
- Accelerate: 1.5.2
- Datasets: 3.3.2
- Tokenizers: 0.21.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 5
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
Model tree for thang1943/bkcare-embed-v2
Base model
nampham1106/bkcare-embeddingDataset used to train thang1943/bkcare-embed-v2
Evaluation results
- Cosine Accuracy@1 on dim 768self-reported0.592
- Cosine Accuracy@3 on dim 768self-reported0.723
- Cosine Accuracy@5 on dim 768self-reported0.773
- Cosine Accuracy@10 on dim 768self-reported0.828
- Cosine Precision@1 on dim 768self-reported0.592
- Cosine Precision@3 on dim 768self-reported0.241
- Cosine Precision@5 on dim 768self-reported0.155
- Cosine Precision@10 on dim 768self-reported0.083
- Cosine Recall@1 on dim 768self-reported0.592
- Cosine Recall@3 on dim 768self-reported0.723