vietnamese-bi-encoder-for-SoICT-2024
This is a sentence-transformers model finetuned from bkai-foundation-models/vietnamese-bi-encoder on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: bkai-foundation-models/vietnamese-bi-encoder
- Maximum Sequence Length: 256 tokens
- Output Dimensionality: 768 tokens
- Similarity Function: Cosine Similarity
- Training Dataset:
- json
- Language: vn
- License: apache-2.0
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("maiduchuy321/vietnamese-bi-encoder-for-SoICT-2024")
# Run inference
sentences = [
'1. công_ước này sẽ bắt_đầu có hiệu_lực với điều_kiện tuân_thủ các quy_định của khoản 6 điều này , vào ngày đầu tháng tiếp_theo sau khi hết một hạn kỳ 12 tháng kể từ ngày văn_bản phê_chuẩn , chấp_nhận , chuẩn_y hay gia_nhập thứ mười được đệ_trình kể_cả những văn_bản chứa_đựng một tuyên_bố được làm chiếu theo điều 92. 5. mọi quốc_gia thành_viên của công_ước la - haye 1964 về ký_kết_hợp_đồng mà phê_chuẩn , chấp_nhận hay chuẩn_y công_ước này , hoặc gia_nhập công_ước này và tuyên_bố hay đã tuyên_bố chiếu theo điều 92 rằng họ không bị ràng_buộc bởi phần thứ ba của công_ước sẽ hủy bỏ vào lúc phê_chuẩn , chấp_nhận , chuẩn_y hay gia_nhập , bản công_ước la - haye 1964 về ký_kết_hợp_đồng_bằng cách gửi một thông_cáo với mục_đích đó cho chính_phủ hà_lan. 6. vì mục_đích của điều này , các sự phê_chuẩn , chấp_nhận , chuẩn_y và gia_nhập công_ước này của các quốc_gia thành_viên của công_ước la - haye 1964 về ký_kết_hợp_đồng hay công_ước la - haye 1964 về mua_bán hàng_hóa chỉ bắt_đầu có hiệu_lực kể từ ngày các thông_báo hủy_bỏ của các quốc_gia đó đối_với hai công_ước nói trên cũng sẽ có hiệu_lực. người giữ lưu_chiểu bản công_ước này sẽ thỏa_thuận với chính_phủ hà_lan , vốn là người giữ lưu_chiểu các công_ước 1964 , để đảm_bảo sự phối_hợp cần_thiết về vấn_đề này',
'công_ước viên về mua_bán hàng_hóa quốc_tế năm 1980 sẽ bắt_đầu có hiệu_lực với điều_kiện gì ?',
'đăng_kiểm viên có hành_vi làm sai_lệch kết_quả kiểm_định xe cơ_giới bị phạt tiền như thế_nào ?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Information Retrieval
- Dataset:
dim_768
- Evaluated with
InformationRetrievalEvaluator
Metric | Value |
---|---|
cosine_accuracy@1 | 0.3883 |
cosine_accuracy@3 | 0.6044 |
cosine_accuracy@5 | 0.6909 |
cosine_accuracy@10 | 0.7849 |
cosine_precision@1 | 0.3883 |
cosine_precision@3 | 0.2015 |
cosine_precision@5 | 0.1382 |
cosine_precision@10 | 0.0785 |
cosine_recall@1 | 0.3883 |
cosine_recall@3 | 0.6044 |
cosine_recall@5 | 0.6909 |
cosine_recall@10 | 0.7849 |
cosine_ndcg@10 | 0.5805 |
cosine_mrr@10 | 0.5157 |
cosine_map@100 | 0.5235 |
Training Details
Training Dataset
json
- Dataset: json
- Size: 107,510 training samples
- Columns:
positive
andanchor
- Approximate statistics based on the first 1000 samples:
positive anchor type string string details - min: 2 tokens
- mean: 169.63 tokens
- max: 256 tokens
- min: 5 tokens
- mean: 17.53 tokens
- max: 37 tokens
- Samples:
positive anchor " điều 6. mức hưởng chế_độ ốm_đau 1. mức hưởng chế_độ ốm_đau theo quy_định tại khoản 1 điều 26 và điều 27 của luật bảo_hiểm xã_hội được tính như sau : mức hưởng chế_độ ốm_đau = tiền_lương tháng đóng bảo_hiểm xã_hội của tháng liền kề trước khi nghỉ_việc / 24 ngày x 75 ( % ) x số ngày nghỉ_việc được hưởng chế_độ ốm_đau "
mức hưởng chế_độ ốm_đau được pháp_luật quy_định như thế_nào ?
huấn_luyện , bồi_dưỡng nghiệp_vụ phòng cháy và chữa_cháy. 4. trách_nhiệm tổ_chức huấn_luyện , bồi_dưỡng nghiệp_vụ về phòng cháy và chữa_cháy :. b ) cơ_quan , tổ_chức , cơ_sở hoặc cá_nhân có nhu_cầu được huấn_luyện , bồi_dưỡng nghiệp_vụ phòng cháy và chữa_cháy thì đề_nghị cơ_quan công_an hoặc cơ_sở huấn_luyện , hướng_dẫn về nghiệp_vụ phòng cháy và chữa_cháy đã được xác_nhận đủ điều_kiện kinh_doanh dịch_vụ phòng cháy và chữa_cháy tổ_chức huấn_luyện. kinh_phí tổ_chức huấn_luyện do cơ_quan , tổ_chức , cơ_sở hoặc cá_nhân tham_gia huấn_luyện chịu trách_nhiệm. vi_phạm_quy_định về tuyên_truyền , phổ_biến pháp_luật , kiến_thức và huấn_luyện , bồi_dưỡng nghiệp_vụ phòng cháy và chữa_cháy , cứu nạn , cứu_hộ. 3. phạt tiền từ 1. 500. 000 đồng đến 3. 000. 000 đồng đối_với hành_vi không tổ_chức huấn_luyện , bồi_dưỡng nghiệp_vụ phòng cháy và chữa_cháy , cứu nạn , cứu_hộ theo quy_định
công_ty không thực_hiện bồi_dưỡng nghiệp_vụ phòng cháy chữa_cháy cho người lao_động thì bị xử_phạt như thế_nào ?
" điều 73. điều_kiện trước khi chính_thức hoạt_động 1. doanh_nghiệp bảo_hiểm , doanh_nghiệp tái_bảo_hiểm , chi_nhánh nước_ngoài tại việt nam phải chính_thức hoạt_động trong thời_hạn 12 tháng kể từ ngày được cấp giấy_phép thành_lập và hoạt_động , trừ trường_hợp có sự_kiện bất_khả_kháng hoặc trở_ngại khách_quan. đối_với trường_hợp bất_khả_kháng hoặc trở_ngại khách_quan , doanh_nghiệp bảo_hiểm , doanh_nghiệp tái_bảo_hiểm , chi_nhánh nước_ngoài tại việt nam phải báo_cáo bằng văn_bản và được bộ tài_chính chấp_thuận bằng văn_bản về việc gia_hạn thời_gian chính_thức hoạt_động. thời_gian gia_hạn tối_đa là 12 tháng. 2. doanh_nghiệp bảo_hiểm , doanh_nghiệp tái_bảo_hiểm , chi_nhánh nước_ngoài tại việt nam phải đáp_ứng các quy_định sau đây để chính_thức hoạt_động : a ) chuyển số vốn gửi tại tài_khoản phong_tỏa thành vốn điều_lệ hoặc vốn được cấp. b ) xây_dựng cơ_cấu tổ_chức , bộ_máy quản_lý , kiểm_soát nội_bộ , kiểm_toán nội_bộ , hệ_thống quản_trị rủi_ro phù_hợp với hình_thức hoạt_động theo quy_định của luật này và quy_định khác của pháp_luật có liên_quan. bầu , bổ_nhiệm người đại_diện theo pháp_luật. bầu , bổ_nhiệm các chức_danh đã được bộ tài_chính chấp_thuận về nguyên_tắc quy_định tại khoản 2 điều 70 của luật này. c ) ban_hành các quy_chế quản_lý nội_bộ về tổ_chức hoạt_động , quy_chế nội_bộ về quản_trị rủi_ro và các quy_trình nghiệp_vụ cơ_bản theo quy_định pháp_luật. d ) ký_quỹ đầy_đủ theo quy_định của luật này tại ngân_hàng thương_mại hoạt_động tại việt_nam. đ ) có trụ_sở , cơ_sở vật_chất , kỹ_thuật , hệ_thống công_nghệ phù_hợp với quy_trình nghiệp_vụ về kinh_doanh bảo_hiểm. e ) thực_hiện công_bố nội_dung giấy_phép thành_lập và hoạt_động quy_định tại khoản 2 điều 72 của luật này. 3. doanh_nghiệp bảo_hiểm , doanh_nghiệp tái_bảo_hiểm , chi_nhánh nước_ngoài tại việt nam phải thông_báo cho bộ tài_chính về việc đáp_ứng các quy_định tại khoản 2 điều này ít_nhất 15 ngày trước ngày chính_thức hoạt_động. bộ tài_chính có quyền đình_chỉ việc chính_thức hoạt_động của doanh_nghiệp bảo_hiểm , doanh_nghiệp tái_bảo_hiểm , chi_nhánh nước_ngoài tại việt_nam khi chưa đáp_ứng các quy_định tại khoản 2 điều này. 4. doanh_nghiệp bảo_hiểm , doanh_nghiệp tái_bảo_hiểm , chi_nhánh nước_ngoài tại việt nam không được tiến_hành hoạt_động_kinh_doanh bảo_hiểm trước ngày chính_thức hoạt_động. "
điều_kiện để doanh_nghiệp bảo_hiểm được chính_thức hoạt_động ?
- Loss:
MatryoshkaLoss
with these parameters:{ "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 768 ], "matryoshka_weights": [ 1 ], "n_dims_per_step": -1 }
Evaluation Dataset
json
- Dataset: json
- Size: 11,946 evaluation samples
- Columns:
positive
andanchor
- Approximate statistics based on the first 1000 samples:
positive anchor type string string details - min: 16 tokens
- mean: 165.45 tokens
- max: 256 tokens
- min: 7 tokens
- mean: 17.33 tokens
- max: 40 tokens
- Samples:
positive anchor " điều 15. nguyên_tắc giao_kết_hợp_đồng lao_động 1. tự_nguyện , bình_đẳng , thiện_chí , hợp_tác và trung_thực. 2. tự_do giao_kết_hợp_đồng lao_động nhưng không được trái pháp_luật , thỏa_ước lao_động tập_thể và đạo_đức xã_hội. "
nguyên_tắc giao_kết_hợp_đồng lao_động được đề_cập như thế_nào ?
" 1. mỗi chức_danh công_chức cấp xã được bố_trí từ 01 người trở lên , ủy_ban nhân_dân cấp tỉnh quy_định việc bố_trí tăng thêm người ở một_số chức_danh công_chức cấp xã phù_hợp với yêu_cầu , nhiệm_vụ của từng xã , phường , thị_trấn ( trừ chức_danh trưởng công_an xã và chỉ_huy_trưởng ban chỉ_huy quân_sự cấp xã ) nhưng không vượt quá tổng_số cán_bộ , công_chức cấp xã quy_định tại khoản 1 điều 4 nghị_định số 92 / 2009 / nđ - cp đã được sửa_đổi , bổ_sung tại khoản 1 điều 2 nghị_định 34 / 2019 / nđ - cp. 2. những chức_danh công_chức cấp xã có từ 02 người đảm_nhiệm , khi tuyển_dụng , ghi hồ_sơ lý_lịch và sổ bảo_hiểm xã_hội phải thống_nhất theo đúng tên gọi của chức_danh công_chức cấp xã quy_định tại khoản 2 điều 3 nghị_định số 92 / 2009 / nđ - cp. 3. căn_cứ quyết_định của ủy_ban nhân_dân cấp tỉnh về việc giao số_lượng cán_bộ , công_chức cấp xã , chủ_tịch ủy_ban nhân_dân cấp huyện quyết_định tuyển_dụng , phân_công , điều_động , luân_chuyển và bố_trí người đảm_nhiệm các chức_danh công_chức cấp xã phù_hợp với chuyên_ngành đào_tạo và đáp_ứng các yêu_cầu của vị_trí chức_danh công_chức. "
bố_trí số_lượng công_chức cấp xã được pháp_luật quy_định như thế_nào ?
“ điều 3. giải_thích từ_ngữ … 4. thu phí dịch_vụ sử_dụng đường_bộ theo hình_thức điện_tử không dừng ( sau đây gọi tắt là thu phí điện_tử không dừng ) là hình_thức thu phí dịch_vụ sử_dụng đường_bộ tự_động , phương_tiện giao_thông đường_bộ không cần phải dừng lại để trả phí dịch_vụ sử_dụng đường_bộ khi tới trạm thu phí dịch_vụ sử_dụng đường_bộ. quá_trình tính_toán phí dịch_vụ sử_dụng đường_bộ được thực_hiện tự_động bởi hệ_thống thu phí dịch_vụ sử_dụng đường_bộ theo hình_thức điện_tử không dừng ( sau đây gọi tắt là hệ_thống thu phí điện_tử không dừng ). ”
thu phí điện_tử không dừng là gì ?
- Loss:
MatryoshkaLoss
with these parameters:{ "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 768 ], "matryoshka_weights": [ 1 ], "n_dims_per_step": -1 }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: epochper_device_train_batch_size
: 24per_device_eval_batch_size
: 16gradient_accumulation_steps
: 16learning_rate
: 2e-05num_train_epochs
: 5lr_scheduler_type
: cosinewarmup_ratio
: 0.1fp16
: Trueload_best_model_at_end
: Trueoptim
: adamw_torch_fusedbatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: epochprediction_loss_only
: Trueper_device_train_batch_size
: 24per_device_eval_batch_size
: 16per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 16eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 2e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 5max_steps
: -1lr_scheduler_type
: cosinelr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torch_fusedoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falsebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss | Validation Loss | dim_768_cosine_map@100 |
---|---|---|---|---|
0.0357 | 10 | 0.0982 | - | - |
0.0714 | 20 | 0.0764 | - | - |
0.1071 | 30 | 0.0586 | - | - |
0.1429 | 40 | 0.0484 | - | - |
0.1786 | 50 | 0.0513 | - | - |
0.2143 | 60 | 0.0441 | - | - |
0.25 | 70 | 0.0446 | - | - |
0.2857 | 80 | 0.0445 | - | - |
0.3214 | 90 | 0.0295 | - | - |
0.3571 | 100 | 0.0359 | - | - |
0.3929 | 110 | 0.035 | - | - |
0.4286 | 120 | 0.0364 | - | - |
0.4643 | 130 | 0.0323 | - | - |
0.5 | 140 | 0.0317 | - | - |
0.5357 | 150 | 0.03 | - | - |
0.5714 | 160 | 0.0278 | - | - |
0.6071 | 170 | 0.026 | - | - |
0.6429 | 180 | 0.0324 | - | - |
0.6786 | 190 | 0.0316 | - | - |
0.7143 | 200 | 0.031 | - | - |
0.75 | 210 | 0.0268 | - | - |
0.7857 | 220 | 0.0246 | - | - |
0.8214 | 230 | 0.0266 | - | - |
0.8571 | 240 | 0.0244 | - | - |
0.8929 | 250 | 0.0248 | - | - |
0.9286 | 260 | 0.0267 | - | - |
0.9643 | 270 | 0.0224 | - | - |
1.0 | 280 | 0.0305 | 0.0125 | 0.5116 |
1.0357 | 290 | 0.0284 | - | - |
1.0714 | 300 | 0.0276 | - | - |
1.1071 | 310 | 0.0179 | - | - |
1.1429 | 320 | 0.0179 | - | - |
1.1786 | 330 | 0.0222 | - | - |
1.2143 | 340 | 0.0174 | - | - |
1.25 | 350 | 0.0146 | - | - |
1.2857 | 360 | 0.0181 | - | - |
1.3214 | 370 | 0.0113 | - | - |
1.3571 | 380 | 0.0131 | - | - |
1.3929 | 390 | 0.0097 | - | - |
1.4286 | 400 | 0.0137 | - | - |
1.4643 | 410 | 0.0119 | - | - |
1.5 | 420 | 0.0092 | - | - |
1.5357 | 430 | 0.0103 | - | - |
1.5714 | 440 | 0.0081 | - | - |
1.6071 | 450 | 0.009 | - | - |
1.6429 | 460 | 0.0098 | - | - |
1.6786 | 470 | 0.009 | - | - |
1.7143 | 480 | 0.0098 | - | - |
1.75 | 490 | 0.0104 | - | - |
1.7857 | 500 | 0.0094 | - | - |
1.8214 | 510 | 0.0088 | - | - |
1.8571 | 520 | 0.0104 | - | - |
1.8929 | 530 | 0.0096 | - | - |
1.9286 | 540 | 0.0097 | - | - |
1.9643 | 550 | 0.009 | - | - |
2.0 | 560 | 0.01 | 0.0109 | 0.5177 |
2.0357 | 570 | 0.0106 | - | - |
2.0714 | 580 | 0.0106 | - | - |
2.1071 | 590 | 0.0079 | - | - |
2.1429 | 600 | 0.0079 | - | - |
2.1786 | 610 | 0.0088 | - | - |
2.2143 | 620 | 0.0088 | - | - |
2.25 | 630 | 0.0076 | - | - |
2.2857 | 640 | 0.0077 | - | - |
2.3214 | 650 | 0.0057 | - | - |
2.3571 | 660 | 0.0063 | - | - |
2.3929 | 670 | 0.0052 | - | - |
2.4286 | 680 | 0.0076 | - | - |
2.4643 | 690 | 0.0063 | - | - |
2.5 | 700 | 0.0056 | - | - |
2.5357 | 710 | 0.007 | - | - |
2.5714 | 720 | 0.0053 | - | - |
2.6071 | 730 | 0.0051 | - | - |
2.6429 | 740 | 0.0052 | - | - |
2.6786 | 750 | 0.0055 | - | - |
2.7143 | 760 | 0.0066 | - | - |
2.75 | 770 | 0.0058 | - | - |
2.7857 | 780 | 0.0055 | - | - |
2.8214 | 790 | 0.006 | - | - |
2.8571 | 800 | 0.0058 | - | - |
2.8929 | 810 | 0.0054 | - | - |
2.9286 | 820 | 0.006 | - | - |
2.9643 | 830 | 0.0061 | - | - |
3.0 | 840 | 0.0061 | 0.0105 | 0.5197 |
3.0357 | 850 | 0.0063 | - | - |
3.0714 | 860 | 0.0062 | - | - |
3.1071 | 870 | 0.0058 | - | - |
3.1429 | 880 | 0.0044 | - | - |
3.1786 | 890 | 0.0061 | - | - |
3.2143 | 900 | 0.0052 | - | - |
3.25 | 910 | 0.0052 | - | - |
3.2857 | 920 | 0.005 | - | - |
3.3214 | 930 | 0.0042 | - | - |
3.3571 | 940 | 0.0043 | - | - |
3.3929 | 950 | 0.0046 | - | - |
3.4286 | 960 | 0.0052 | - | - |
3.4643 | 970 | 0.0047 | - | - |
3.5 | 980 | 0.0042 | - | - |
3.5357 | 990 | 0.0053 | - | - |
3.5714 | 1000 | 0.0035 | - | - |
3.6071 | 1010 | 0.0041 | - | - |
3.6429 | 1020 | 0.0037 | - | - |
3.6786 | 1030 | 0.0038 | - | - |
3.7143 | 1040 | 0.005 | - | - |
3.75 | 1050 | 0.004 | - | - |
3.7857 | 1060 | 0.0039 | - | - |
3.8214 | 1070 | 0.0038 | - | - |
3.8571 | 1080 | 0.0042 | - | - |
3.8929 | 1090 | 0.0048 | - | - |
3.9286 | 1100 | 0.0046 | - | - |
3.9643 | 1110 | 0.0051 | - | - |
4.0 | 1120 | 0.0045 | 0.0103 | 0.5245 |
4.0357 | 1130 | 0.0041 | - | - |
4.0714 | 1140 | 0.0048 | - | - |
4.1071 | 1150 | 0.0046 | - | - |
4.1429 | 1160 | 0.0036 | - | - |
4.1786 | 1170 | 0.0056 | - | - |
4.2143 | 1180 | 0.0044 | - | - |
4.25 | 1190 | 0.0046 | - | - |
4.2857 | 1200 | 0.005 | - | - |
4.3214 | 1210 | 0.0035 | - | - |
4.3571 | 1220 | 0.0039 | - | - |
4.3929 | 1230 | 0.0035 | - | - |
4.4286 | 1240 | 0.0047 | - | - |
4.4643 | 1250 | 0.005 | - | - |
4.5 | 1260 | 0.0041 | - | - |
4.5357 | 1270 | 0.0044 | - | - |
4.5714 | 1280 | 0.0033 | - | - |
4.6071 | 1290 | 0.0037 | - | - |
4.6429 | 1300 | 0.0037 | - | - |
4.6786 | 1310 | 0.0033 | - | - |
4.7143 | 1320 | 0.0047 | - | - |
4.75 | 1330 | 0.0032 | - | - |
4.7857 | 1340 | 0.0039 | - | - |
4.8214 | 1350 | 0.0041 | - | - |
4.8571 | 1360 | 0.0038 | - | - |
4.8929 | 1370 | 0.0045 | - | - |
4.9286 | 1380 | 0.0044 | - | - |
4.9643 | 1390 | 0.0044 | - | - |
5.0 | 1400 | 0.0047 | 0.0102 | 0.5235 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.10.14
- Sentence Transformers: 3.2.1
- Transformers: 4.45.1
- PyTorch: 2.4.0
- Accelerate: 0.34.2
- Datasets: 3.0.1
- Tokenizers: 0.20.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MatryoshkaLoss
@misc{kusupati2024matryoshka,
title={Matryoshka Representation Learning},
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
year={2024},
eprint={2205.13147},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 17
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for maiduchuy321/vietnamese-bi-encoder-for-SoICT-2024
Base model
bkai-foundation-models/vietnamese-bi-encoderEvaluation results
- Cosine Accuracy@1 on dim 768self-reported0.388
- Cosine Accuracy@3 on dim 768self-reported0.604
- Cosine Accuracy@5 on dim 768self-reported0.691
- Cosine Accuracy@10 on dim 768self-reported0.785
- Cosine Precision@1 on dim 768self-reported0.388
- Cosine Precision@3 on dim 768self-reported0.201
- Cosine Precision@5 on dim 768self-reported0.138
- Cosine Precision@10 on dim 768self-reported0.078
- Cosine Recall@1 on dim 768self-reported0.388
- Cosine Recall@3 on dim 768self-reported0.604