SentenceTransformer based on BookingCare/multilingual-e5-base-v2
This is a sentence-transformers model finetuned from BookingCare/multilingual-e5-base-v2. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: BookingCare/multilingual-e5-base-v2
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 768 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("BookingCare/multilingual-base-e5-v3")
# Run inference
sentences = [
'Các triệu chứng tụ máu nội sọ',
' Khi bị\nchấn thương sọ não\n, các dấu hiệu của\nxuất hiện ngay sau khi bị chấn thương ở đầu hoặc có thể mất vài tuần chúng mới xuất hiện các triệu chứng này. chấn thương sọ não tụ máu nội sọ Tuy nhiên do thời gian tăng lên đồng nghĩa áp lực lên não cũng tăng lên, do đó tạo ra các dấu hiệu xuất hiện luôn của tụ máu nội sọ: Đau đầu\ntăng dữ dội Đau đầu Buồn nôn và nôn mửa Ý thức bị mất dần, buồn ngủ Hoa mắt chóng mặt Có sự lo lắng và hoang mang Đồng tử hai bên kích thước không bằng nhau Nói ngọng và lắp Các động tác cử động bị liệt Khi lượng máu quá nhiều tràn vào các khoang của não hoặc không gian hẹp giữa não và hộp sọ thì sẽ xuất hiện các triệu chứng: Sự hoang mang Kích thước đồng tử không bằng nhau Nói lắp Mất cử động (liệt) ở bên đối diện của cơ thể do chấn thương đầu Khi trong não có nhiều lượng máu tràn vào các không gian khe hẹp giữa não và hộp sọ thì xuất hiện các triệu chứng dấu hiệu như: Hôn mê,\nco giật\n, vô thức. co giật',
' Trừ trường hợp\nnằm ngoài tầm kiểm soát, chẳng hạn viêm ruột thừa, bạn có thể thay đổi một vài thói quen trong cuộc sống hàng ngày để hạn chế số lần bị đau bụng. Các chuyên gia đã đưa ra một số lời khuyên như sau: nguyên nhân đau bụng Ăn chậm nhai kỹ Thói quen cắn miếng lớn và không nhai kỹ khi ăn có thể khiến bạn nuốt phải không khí, làm tăng thêm khí cho dạ dày và dẫn đến đau bụng. Do đó nên dành thời gian ăn chậm và nhai kỹ. Điều này cũng giúp não bộ có thời gian để nhận ra tín hiệu đã no, tránh ăn quá nhiều - một lý do khả dĩ gây\nđau dạ dày\n. đau dạ dày Chia nhỏ các bữa ăn Một số người bị đau bụng giữa các bữa ăn, nguyên nhân là do không có chất đệm cho axit trong dạ dày. Nếu gặp trường hợp này, hãy chia thành nhiều bữa nhỏ và ăn nhẹ trong suốt cả ngày để dạ dày không bị trống rỗng một khoảng thời gian dài. Lựa chọn thực phẩm lành mạnh Thực phẩm béo, chiên, hoặc cay có thể là nguyên nhân của những cơn đau bụng. Chúng có khả năng làm chậm quá trình tiêu hóa, tàn phá ruột của bạn và khiến bạn dễ bị táo bón. Do đó, nên chọn thực phẩm bổ dưỡng, ưu tiên rau và chất xơ, rất tốt cho hệ tiêu hóa và dạ dày. Lắng nghe cơ thể Nếu nhận thấy dạ dày của mình luôn bị co thắt sau khi uống một ly sữa hoặc ăn một món nào đó, hãy đi khám và trình bày với bác sĩ. Bạn có thể gặp chứng không dung nạp thực phẩm. Nếu bác sĩ tìm được vấn đề trong chế độ ăn uống của bạn, họ sẽ giúp bạn xây dựng một thực đơn phù hợp với sức khỏe hơn. Uống nhiều nước, ít soda Nước giúp giữ cho thức ăn di chuyển trong ruột dễ dàng. Hãy uống nước thường xuyên ngay cả khi không khác. Không uống soda vì cacbonat có thể gây đau dạ dày và đầy hơi thải khí. Ngoài ra, đồ uống có cồn và cafein cũng có thể gây rắc rối cho hệ tiêu hóa của một số người, vì vậy hãy hạn chế dùng nếu bạn thường xuyên bị đau bụng. Rửa tay Một nguyên nhân phổ biến của đau bụng là viêm dạ dày - ruột, đôi khi là do virus gây ra. Tình trạng này cũng có thể dẫn đến tiêu chảy, buồn nôn, sốt hoặc đau đầu. Do đó cách tốt nhất để ngăn ngừa sự lây lan của vi khuẩn là rửa tay thường xuyên, đặc biệt là trước khi ăn, sau khi đi vệ sinh và khi ở những nơi công cộng. Kiểm soát căng thẳng Khi căng thẳng, có người tim đập mạnh, có người đổ mồ hôi tay và rất nhiều người bị đau dạ dày. Họ có thể cảm thấy dạ dày quặn lên hoặc dường như bị bóp chặt lại. Vì vậy nên tránh xa những tình huống căng thẳng hết mức có thể. Giảm bớt stress bằng cách tập thể dục, thiền, làm việc yêu thích hoặc đi chơi với bạn bè. Đau bụng có nhiều mức độ từ âm ỉ đến đau nhói, xuất hiện trong một thời gian ngắn hoặc kéo dài đến hàng giờ. Tình trạng này có thể đi kèm với buồn nôn, đầy hơi hoặc tiêu chảy hay táo bón. Bạn có thể ngăn ngừa đau bụng nếu xuất phát từ những nguyên nhân thông thường. Một số\nđòi hỏi cần dùng thuốc, phẫu thuật hoặc một biện pháp điều trị khác. Nếu cảm thấy đau bụng dữ dội hoặc liên tục, hãy đến bệnh viện khám ngay lập tức. nguyên nhân gây đau bụng Kiểm tra sức khỏe định kỳ giúp phát hiện sớm bệnh tật, từ đó có kế hoạch điều trị đạt kết quả tối ưu. Hiện Bệnh viện Đa khoa Quốc tế Vinmec có các gói\nKhám sức khỏe tổng quát\nphù hợp với từng độ tuổi, giới tính và nhu cầu riêng của quý khách hàng với chính sách giá hợp lý, bao gồm: Khám sức khỏe tổng quát Gói khám sức khỏe tổng quát kim cương Gói khám sức khỏe tổng quát Vip Gói khám sức khỏe tổng quát đặc biệt Gói khám sức khỏe tổng quát toàn diện Gói khám sức khỏe tổng quát tiêu chuẩn Kết quả khám của người bệnh sẽ được trả về tận nhà. Sau khi nhận được kết quả khám sức khỏe tổng quát, nếu phát hiện các bệnh lý cần khám và điều trị chuyên sâu, Quý khách có thể sử dụng dịch vụ từ các chuyên khoa khác ngay tại Bệnh viện với chất lượng điều trị và dịch vụ khách hàng vượt trội. Để đặt lịch khám tại viện, Quý khách vui lòng bấm số\nHOTLINE\nhoặc đặt lịch trực tiếp\nTẠI ĐÂY\n.\nTải và đặt lịch khám tự động trên\nứng dụng MyVinmec\nđể quản lý, theo dõi lịch và đặt hẹn mọi lúc mọi nơi ngay trên ứng dụng. HOTLINE TẠI ĐÂY Nguồn tham khảo: Webmd.com Đau bụng Đau dạ dày Viêm ruột thừa Hội chứng ruột kích thích Nguyên nhân đau bụng Đau bụng kéo dài',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Information Retrieval
- Dataset:
healthcare-dev
- Evaluated with
InformationRetrievalEvaluator
Metric | Value |
---|---|
cosine_accuracy@1 | 0.8522 |
cosine_accuracy@3 | 0.9304 |
cosine_accuracy@5 | 0.9453 |
cosine_accuracy@10 | 0.964 |
cosine_precision@1 | 0.8522 |
cosine_precision@3 | 0.3101 |
cosine_precision@5 | 0.1891 |
cosine_precision@10 | 0.0964 |
cosine_recall@1 | 0.8522 |
cosine_recall@3 | 0.9304 |
cosine_recall@5 | 0.9453 |
cosine_recall@10 | 0.964 |
cosine_ndcg@10 | 0.9108 |
cosine_mrr@10 | 0.8935 |
cosine_map@100 | 0.8947 |
dot_accuracy@1 | 0.8522 |
dot_accuracy@3 | 0.9304 |
dot_accuracy@5 | 0.9453 |
dot_accuracy@10 | 0.964 |
dot_precision@1 | 0.8522 |
dot_precision@3 | 0.3101 |
dot_precision@5 | 0.1891 |
dot_precision@10 | 0.0964 |
dot_recall@1 | 0.8522 |
dot_recall@3 | 0.9304 |
dot_recall@5 | 0.9453 |
dot_recall@10 | 0.964 |
dot_ndcg@10 | 0.9108 |
dot_mrr@10 | 0.8935 |
dot_map@100 | 0.8947 |
Information Retrieval
- Dataset:
healthcare-test
- Evaluated with
InformationRetrievalEvaluator
Metric | Value |
---|---|
cosine_accuracy@1 | 0.6686 |
cosine_accuracy@3 | 0.8163 |
cosine_accuracy@5 | 0.859 |
cosine_accuracy@10 | 0.8936 |
cosine_precision@1 | 0.6686 |
cosine_precision@3 | 0.2721 |
cosine_precision@5 | 0.1718 |
cosine_precision@10 | 0.0894 |
cosine_recall@1 | 0.6686 |
cosine_recall@3 | 0.8163 |
cosine_recall@5 | 0.859 |
cosine_recall@10 | 0.8936 |
cosine_ndcg@10 | 0.7846 |
cosine_mrr@10 | 0.7492 |
cosine_map@100 | 0.7522 |
dot_accuracy@1 | 0.6686 |
dot_accuracy@3 | 0.8163 |
dot_accuracy@5 | 0.859 |
dot_accuracy@10 | 0.8936 |
dot_precision@1 | 0.6686 |
dot_precision@3 | 0.2721 |
dot_precision@5 | 0.1718 |
dot_precision@10 | 0.0894 |
dot_recall@1 | 0.6686 |
dot_recall@3 | 0.8163 |
dot_recall@5 | 0.859 |
dot_recall@10 | 0.8936 |
dot_ndcg@10 | 0.7846 |
dot_mrr@10 | 0.7492 |
dot_map@100 | 0.7522 |
Training Details
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: stepsper_device_train_batch_size
: 5per_device_eval_batch_size
: 6learning_rate
: 3.0692519709098972e-06num_train_epochs
: 1warmup_ratio
: 0.04970511867965379fp16
: Truebatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 5per_device_eval_batch_size
: 6per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonelearning_rate
: 3.0692519709098972e-06weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.04970511867965379warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falsebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss | Validation Loss | healthcare-dev_cosine_map@100 | healthcare-test_cosine_map@100 |
---|---|---|---|---|---|
0 | 0 | - | - | 0.8374 | - |
0.0126 | 100 | 0.1382 | 0.1186 | 0.8455 | - |
0.0251 | 200 | 0.1174 | 0.1050 | 0.8580 | - |
0.0377 | 300 | 0.0996 | 0.0976 | 0.8604 | - |
0.0502 | 400 | 0.1109 | 0.0921 | 0.8737 | - |
0.0628 | 500 | 0.079 | 0.0893 | 0.8779 | - |
0.0753 | 600 | 0.0887 | 0.0826 | 0.8782 | - |
0.0879 | 700 | 0.1012 | 0.0786 | 0.8865 | - |
0.1004 | 800 | 0.0872 | 0.0755 | 0.8835 | - |
0.1130 | 900 | 0.07 | 0.0771 | 0.8841 | - |
0.1255 | 1000 | 0.0845 | 0.0746 | 0.8811 | - |
0.1381 | 1100 | 0.0974 | 0.0716 | 0.8806 | - |
0.1507 | 1200 | 0.0883 | 0.0707 | 0.8814 | - |
0.1632 | 1300 | 0.0564 | 0.0719 | 0.8877 | - |
0.1758 | 1400 | 0.063 | 0.0710 | 0.8855 | - |
0.1883 | 1500 | 0.0762 | 0.0678 | 0.8878 | - |
0.2009 | 1600 | 0.0775 | 0.0694 | 0.8878 | - |
0.2134 | 1700 | 0.064 | 0.0704 | 0.8859 | - |
0.2260 | 1800 | 0.1024 | 0.0681 | 0.8888 | - |
0.2385 | 1900 | 0.0655 | 0.0649 | 0.8874 | - |
0.2511 | 2000 | 0.0753 | 0.0630 | 0.8871 | - |
0.2637 | 2100 | 0.0496 | 0.0642 | 0.8847 | - |
0.2762 | 2200 | 0.0641 | 0.0609 | 0.8847 | - |
0.2888 | 2300 | 0.0745 | 0.0604 | 0.8867 | - |
0.3013 | 2400 | 0.0532 | 0.0619 | 0.8870 | - |
0.3139 | 2500 | 0.0729 | 0.0572 | 0.8885 | - |
0.3264 | 2600 | 0.0752 | 0.0566 | 0.8891 | - |
0.3390 | 2700 | 0.0792 | 0.0565 | 0.8902 | - |
0.3515 | 2800 | 0.0506 | 0.0590 | 0.8903 | - |
0.3641 | 2900 | 0.087 | 0.0604 | 0.8886 | - |
0.3766 | 3000 | 0.0521 | 0.0617 | 0.8890 | - |
0.3892 | 3100 | 0.0459 | 0.0585 | 0.8904 | - |
0.4018 | 3200 | 0.0583 | 0.0574 | 0.8919 | - |
0.4143 | 3300 | 0.0477 | 0.0574 | 0.8908 | - |
0.4269 | 3400 | 0.0686 | 0.0578 | 0.8905 | - |
0.4394 | 3500 | 0.0587 | 0.0578 | 0.8880 | - |
0.4520 | 3600 | 0.065 | 0.0573 | 0.8894 | - |
0.4645 | 3700 | 0.0635 | 0.0574 | 0.8897 | - |
0.4771 | 3800 | 0.0521 | 0.0553 | 0.8897 | - |
0.4896 | 3900 | 0.081 | 0.0557 | 0.8898 | - |
0.5022 | 4000 | 0.0358 | 0.0578 | 0.8879 | - |
0.5148 | 4100 | 0.0707 | 0.0547 | 0.8887 | - |
0.5273 | 4200 | 0.0686 | 0.0566 | 0.8874 | - |
0.5399 | 4300 | 0.0551 | 0.0554 | 0.8867 | - |
0.5524 | 4400 | 0.0341 | 0.0546 | 0.8844 | - |
0.5650 | 4500 | 0.0617 | 0.0530 | 0.8866 | - |
0.5775 | 4600 | 0.0593 | 0.0524 | 0.8900 | - |
0.5901 | 4700 | 0.0471 | 0.0522 | 0.8905 | - |
0.6026 | 4800 | 0.0536 | 0.0523 | 0.8903 | - |
0.6152 | 4900 | 0.0417 | 0.0518 | 0.8905 | - |
0.6277 | 5000 | 0.0691 | 0.0503 | 0.8918 | - |
0.6403 | 5100 | 0.0562 | 0.0521 | 0.8905 | - |
0.6529 | 5200 | 0.064 | 0.0506 | 0.8903 | - |
0.6654 | 5300 | 0.0687 | 0.0511 | 0.8914 | - |
0.6780 | 5400 | 0.0678 | 0.0525 | 0.8898 | - |
0.6905 | 5500 | 0.0497 | 0.0533 | 0.8904 | - |
0.7031 | 5600 | 0.0645 | 0.0527 | 0.8914 | - |
0.7156 | 5700 | 0.0515 | 0.0522 | 0.8921 | - |
0.7282 | 5800 | 0.0546 | 0.0515 | 0.8942 | - |
0.7407 | 5900 | 0.0669 | 0.0507 | 0.8936 | - |
0.7533 | 6000 | 0.0593 | 0.0497 | 0.8933 | - |
0.7659 | 6100 | 0.0732 | 0.0495 | 0.8940 | - |
0.7784 | 6200 | 0.0569 | 0.0500 | 0.8927 | - |
0.7910 | 6300 | 0.0473 | 0.0498 | 0.8930 | - |
0.8035 | 6400 | 0.063 | 0.0499 | 0.8935 | - |
0.8161 | 6500 | 0.0508 | 0.0487 | 0.8953 | - |
0.8286 | 6600 | 0.0374 | 0.0493 | 0.8950 | - |
0.8412 | 6700 | 0.0456 | 0.0496 | 0.8946 | - |
0.8537 | 6800 | 0.0595 | 0.0493 | 0.8941 | - |
0.8663 | 6900 | 0.0752 | 0.0492 | 0.8923 | - |
0.8788 | 7000 | 0.074 | 0.0489 | 0.8920 | - |
0.8914 | 7100 | 0.0479 | 0.0488 | 0.8940 | - |
0.9040 | 7200 | 0.0529 | 0.0487 | 0.8958 | - |
0.9165 | 7300 | 0.0474 | 0.0487 | 0.8938 | - |
0.9291 | 7400 | 0.0619 | 0.0487 | 0.8944 | - |
0.9416 | 7500 | 0.0734 | 0.0485 | 0.8954 | - |
0.9542 | 7600 | 0.0554 | 0.0484 | 0.8954 | - |
0.9667 | 7700 | 0.0524 | 0.0484 | 0.8948 | - |
0.9793 | 7800 | 0.0636 | 0.0484 | 0.8947 | - |
0.9918 | 7900 | 0.061 | 0.0484 | 0.8947 | - |
1.0 | 7965 | - | - | - | 0.7522 |
Framework Versions
- Python: 3.10.13
- Sentence Transformers: 3.2.0
- Transformers: 4.41.2
- PyTorch: 2.1.2
- Accelerate: 0.30.1
- Datasets: 2.19.2
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 39
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for BookingCare/multilingual-e5-base-v3
Base model
BookingCare/multilingual-e5-base-v2Evaluation results
- Cosine Accuracy@1 on healthcare devself-reported0.852
- Cosine Accuracy@3 on healthcare devself-reported0.930
- Cosine Accuracy@5 on healthcare devself-reported0.945
- Cosine Accuracy@10 on healthcare devself-reported0.964
- Cosine Precision@1 on healthcare devself-reported0.852
- Cosine Precision@3 on healthcare devself-reported0.310
- Cosine Precision@5 on healthcare devself-reported0.189
- Cosine Precision@10 on healthcare devself-reported0.096
- Cosine Recall@1 on healthcare devself-reported0.852
- Cosine Recall@3 on healthcare devself-reported0.930