SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
This is a sentence-transformers model finetuned from Alibaba-NLP/gte-multilingual-base on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: Alibaba-NLP/gte-multilingual-base
- Maximum Sequence Length: 8192 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
- Training Dataset:
- json
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("anhtuansh/gte-multilingual-base-Matryoshka-1e-9k")
# Run inference
sentences = [
'quản_lý nhập_khẩu hàng_hóa bị điều_tra , phục_vụ công_tác điều_tra , áp_dụng biện_pháp phòng_vệ thương_mại .',
'mục_đích của thủ_tục khai_báo là gì ?',
'đơn_vị chúng_tôi đã được cấp chứng_chỉ năng_lực hoạt_động xây_dựng nhưng hiện_nay chúng_tôi thay_đổi người đại_diện pháp_luật của đơn_vị . vậy chúng_tôi có phải làm thủ_tục nào để thay_đổi người đại_diện theo pháp_luật của chúng_tôi trên chứng_chỉ ?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Information Retrieval
- Datasets:
dim_768
anddim_512
- Evaluated with
InformationRetrievalEvaluator
Metric | dim_768 | dim_512 |
---|---|---|
cosine_accuracy@1 | 0.5937 | 0.5817 |
cosine_accuracy@3 | 0.7571 | 0.7549 |
cosine_accuracy@5 | 0.7996 | 0.8017 |
cosine_accuracy@10 | 0.8529 | 0.8519 |
cosine_precision@1 | 0.5937 | 0.5817 |
cosine_precision@3 | 0.2524 | 0.2516 |
cosine_precision@5 | 0.1599 | 0.1603 |
cosine_precision@10 | 0.0853 | 0.0852 |
cosine_recall@1 | 0.5937 | 0.5817 |
cosine_recall@3 | 0.7571 | 0.7549 |
cosine_recall@5 | 0.7996 | 0.8017 |
cosine_recall@10 | 0.8529 | 0.8519 |
cosine_ndcg@10 | 0.7258 | 0.7211 |
cosine_mrr@10 | 0.6849 | 0.6788 |
cosine_map@100 | 0.6892 | 0.6831 |
Training Details
Training Dataset
json
- Dataset: json
- Size: 8,259 training samples
- Columns:
positive
andanchor
- Approximate statistics based on the first 1000 samples:
positive anchor type string string details - min: 5 tokens
- mean: 303.9 tokens
- max: 3209 tokens
- min: 7 tokens
- mean: 56.17 tokens
- max: 578 tokens
- Samples:
positive anchor điểm a , mục 2 phần ii thông_tư số 04 / 1999 / tt - bca ( c13 ) ngày 29 / 4 / 1999 của bộ công_an hướng_dẫn một_số quy_định của nghị_định số 05 / 1999 / nđ - cp ngày 03 / 01 / 1999 của chính_phủ về chứng_minh nhân_dân quy_định các trường_hợp phải đổi cmnd như sau : - quá thời_hạn sử_dụng 15 năm kể từ ngày cấp ; - cmnd rách , nát , không rõ ảnh hoặc một trong các thông_tin đã ghi trên cmnd ; - thay_đổi họ , tên , chữ đệm , ngày , tháng , năm sinh . những thay_đổi này phải có quyết_định của cơ_quan có thẩm_quyền ; - những người đã được cấp giấy cmnd nhưng chuyển nơi đăng_ký hộ_khẩu thường_trú ngoài phạm_vi tỉnh , thành_phố trực_thuộc trung_ương . trường_hợp chuyển nơi thường_trú trong phạm_vi tỉnh , thành_phố mà công_dân có yêu_cầu thì được đổi lại cmnd ; - thay_đổi đặc_điểm nhận_dạng là những trường_hợp đã qua phẫu_thuật thẩm_mỹ , chỉnh_hình hoặc vì lý_do khác đã làm thay_đổi hình_ảnh hoặc đặc_điểm nhận_dạng của họ .
công_dân phải làm thủ_tục đổi chứng_minh nhân_dân khi nào ?
việc thực_hiện thủ_tục tặng cờ thi_đua cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương theo đợt hoặc chuyên_đề được tiến_hành như sau :
bước 1 . vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương tiếp_nhận đề_nghị khen_thưởng của các đơn_vị thực thuộc .
bước 2 . thẩm_định hồ_sơ , xin ý_kiến các cơ_quan liên_quan , báo_cáo hội_đồng thi_đua khen_thưởng cùng cấp , tổng_hợp trình bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố quyết_định khen_thưởng .
bước 3 . khi có quyết_định của bộ_trưởng , thủ_trưởng đơn_vị , chủ_tịch ubnd tỉnh , thành_phố trực_thuộc trung_ương ; vụ , phòng , ban thi_đua – khen_thưởng các bộ , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương thông_báo quyết_định , viết bằng , đóng_dấu và cấp_phát cho đơn_vị trình khen .
bước 4 . các trường_hợp không được khen_thưởng ( không đúng đối_tượng , không đủ tiêu_chuẩn , không đủ hồ_sơ...đề_nghị cho biết trình_tự thực_hiện thủ_tục tặng cờ thi_đua cấp bộ , ban , ngành , đoàn_thể trung_ương , tỉnh , thành_phố trực_thuộc trung_ương theo đợt hoặc chuyên_đề
thời_gian phục_vụ tại_ngũ của hạ_sĩ_quan binh_sĩ được quy_định tại điều 21 luật nvqs năm 2015 , cụ_thể như sau : “ điều 21 . thời_hạn phục_vụ tại_ngũ của hạ_sĩ_quan , binh sĩ1 . thời_hạn phục_vụ tại_ngũ trong thời_bình của hạ_sĩ_quan , binh_sĩ là 24 tháng . 2 . bộ_trưởng bộ quốc_phòng được quyết_định kéo_dài thời_hạn phục_vụ tại_ngũ của hạ_sĩ_quan , binh_sĩ nhưng không quá 06 tháng trong trường_hợp sau đây : a ) để bảo_đảm_nhiệm_vụ sẵn_sàng chiến_đấu ; b ) đang thực_hiện nhiệm_vụ phòng , chống thiên_tai , dịch_bệnh , cứu_hộ , cứu nạn . 3 . thời_hạn phục_vụ của hạ_sĩ_quan , binh_sĩ trong tình_trạng chiến_tranh hoặc tình_trạng khẩn_cấp về quốc_phòng được thực_hiện theo lệnh tổng_động_viên hoặc động_viên cục_bộ . ”
quy_định thời_gian phục_vụ tại_ngũ của hạ_sĩ_quan binh_sĩ như thế_nào ?
- Loss:
MatryoshkaLoss
with these parameters:{ "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 768, 512 ], "matryoshka_weights": [ 1, 1 ], "n_dims_per_step": -1 }
Evaluation Dataset
json
- Dataset: json
- Size: 918 evaluation samples
- Columns:
positive
andanchor
- Approximate statistics based on the first 918 samples:
positive anchor type string string details - min: 5 tokens
- mean: 307.44 tokens
- max: 3463 tokens
- min: 11 tokens
- mean: 55.94 tokens
- max: 383 tokens
- Samples:
positive anchor theo quy_định tại khoản 9 điều 1 nghị_định số 161 / 2018 / nđ - cpngày 29 / 11 / 2018 của chính_phủ sửa_đổi , bổ_sung một_số quy_định về tuyển_dụng công_chức , viên_chức , nâng ngạch công_chức , thăng_hạng viên_chức và thực_hiện chế_độ hợp_đồng một_số loại công_việc trong cơ_quan hành_chính nhà_nước , đơn_vị sự_nghiệp công_lập thì đối_tượng và điểm ưu_tiên trong thi_tuyển hoặc xét tuyển công_chức :
+ anh_hùng lực_lượng vũ_trang , anh_hùng lao_động , thương_binh , người hưởng chính_sách như thương_binh , thương_binh loại b : được cộng 7,5 điểm vào kết_quả điểm thi tại vòng 2 ;
+ người dân_tộc_thiểu_số , sĩ_quan quân_đội , sĩ_quan công_an , quân_nhân chuyên_nghiệp , người làm công_tác cơ_yếu chuyển ngành , con liệt_sĩ , con thương_binh , con bệnh_binh , con của người hưởng chính_sách như thương_binh , con của thương_binh loại b , con của người hoạt_động cách_mạng trước tổng_khởi_nghĩa ( từ ngày 19 / 8 / 1945 trở về trước ) , con_đẻ của người hoạt_động kháng_chiến bị nhiễm chất_độc_hó...đề_nghị cho tôi được biết đối_tượng được hưởng ưu_tiên trong tuyển_dụng công_chức ?
1 . khi phát_hiện tổ_chức , cá_nhân kê_khai hồ_sơ , thông_báo không_trung_thực hoặc vi_phạm_quy_định tại điều 8 nghị_định số 23 / 2019 / nđ - cp , cơ_quan tiếp_nhận thông_báo yêu_cầu tạm dừng hoạt_động triển_lãm bằng văn_bản ( mẫu_số 03 tại phụ_lục ban_hành kèm theo nghị_định số 23 / 2019 / nđ - cp ) . 2 . tổ_chức , cá_nhân phải dừng hoạt_động triển_lãm ngay khi nhận được văn_bản của cơ_quan có thẩm_quyền ; kịp_thời_khắc_phục hậu_quả , đề_xuất phương_án tiếp_tục tổ_chức triển_lãm gửi cơ_quan có thẩm_quyền xem_xét , quyết_định . 3 . kết_quả xem_xét , quyết_định của cơ_quan có thẩm_quyền phải được thể_hiện bằng văn_bản và gửi cho tổ_chức , cá_nhân biết để thực_hiện . thời_hạn gửi văn_bản cho tổ_chức , cá_nhân là 03 ngày , kể từ ngày cơ_quan có thẩm_quyền nhận được văn_bản đề_xuất phương_án tiếp_tục tổ_chức triển_lãm của tổ_chức , cá_nhân .
những lý_do nào khiến hoạt_động triển_lãm bị tạm dừng ?
theo quy_định tại khoản 1 điều 33 luật quản_lý , sử_dụng vũ_khí , vật_liệu nổ và công_cụ hỗ_trợ và điểm a khoản 4 điều 3 thông_tư số 16 / 2018 / tt - bca ngày 15 / 5 / 2018 của bộ công_an quy_định chi_tiết thi_hành một_số điều của luật quản_lý , sử_dụng vũ_khí , vật_liệu nổ và công_cụ hỗ_trợ thì thủ_tục đề_nghị cấp giấy_phép vận_chuyển vũ_khí quân_dụng đối_với cơ_quan , tổ_chức ở trung_ương không thuộc phạm_vi quản_lý của bộ quốc_phòng được thực_hiện như sau : a ) hồ_sơ đề_nghị bao_gồm : văn_bản đề_nghị nêu rõ số_lượng , chủng_loại , nguồn_gốc xuất_xứ của vũ_khí cần vận_chuyển ; nơi đi , nơi đến , thời_gian và tuyến đường vận_chuyển ; họ và tên , địa_chỉ của người chịu trách_nhiệm vận_chuyển , người điều_khiển phương_tiện ; biển kiểm_soát của phương_tiện ; giấy giới_thiệu kèm theo bản_sao thẻ căn_cước công_dân , chứng_minh nhân_dân , hộ_chiếu hoặc chứng_minh công_an nhân_dân của người đến liên_hệ ; b ) hồ_sơ lập thành 01 bộ và nộp tại cục cảnh_sát qlhc về ttxh ; c ) trong thời_hạn 05 n...
thủ_tục cấp giấy_phép vận_chuyển vũ_khí quân_dụng đối_với cơ_quan , tổ_chức ở trung_ương không thuộc phạm_vi quản_lý của bộ quốc_phòng thực_hiện như thế_nào ?
- Loss:
MatryoshkaLoss
with these parameters:{ "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 768, 512 ], "matryoshka_weights": [ 1, 1 ], "n_dims_per_step": -1 }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: epochper_device_train_batch_size
: 2per_device_eval_batch_size
: 2gradient_accumulation_steps
: 2learning_rate
: 2e-05num_train_epochs
: 1lr_scheduler_type
: cosinewarmup_ratio
: 0.1fp16
: Truetf32
: Falseload_best_model_at_end
: Trueoptim
: adamw_torch_fusedbatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: epochprediction_loss_only
: Trueper_device_train_batch_size
: 2per_device_eval_batch_size
: 2per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 2eval_accumulation_steps
: Nonelearning_rate
: 2e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: cosinelr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Falselocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torch_fusedoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseprompts
: Nonebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss | Validation Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 |
---|---|---|---|---|---|
0 | 0 | - | - | 0.5887 | 0.5836 |
0.0048 | 10 | 0.1623 | - | - | - |
0.0097 | 20 | 0.1729 | - | - | - |
0.0145 | 30 | 0.2747 | - | - | - |
0.0194 | 40 | 0.2127 | - | - | - |
0.0242 | 50 | 0.1473 | - | - | - |
0.0291 | 60 | 0.4109 | - | - | - |
0.0339 | 70 | 0.2261 | - | - | - |
0.0387 | 80 | 0.0818 | - | - | - |
0.0436 | 90 | 0.089 | - | - | - |
0.0484 | 100 | 0.0978 | - | - | - |
0.0533 | 110 | 0.0086 | - | - | - |
0.0581 | 120 | 0.1008 | - | - | - |
0.0630 | 130 | 0.2521 | - | - | - |
0.0678 | 140 | 0.0351 | - | - | - |
0.0726 | 150 | 0.0749 | - | - | - |
0.0775 | 160 | 0.1351 | - | - | - |
0.0823 | 170 | 0.0856 | - | - | - |
0.0872 | 180 | 0.0394 | - | - | - |
0.0920 | 190 | 0.2015 | - | - | - |
0.0969 | 200 | 0.026 | - | - | - |
0.1017 | 210 | 0.0287 | - | - | - |
0.1065 | 220 | 0.2549 | - | - | - |
0.1114 | 230 | 0.1615 | - | - | - |
0.1162 | 240 | 0.0181 | - | - | - |
0.1211 | 250 | 0.0582 | - | - | - |
0.1259 | 260 | 0.0537 | - | - | - |
0.1308 | 270 | 0.0404 | - | - | - |
0.1356 | 280 | 0.0307 | - | - | - |
0.1404 | 290 | 0.0316 | - | - | - |
0.1453 | 300 | 0.1625 | - | - | - |
0.1501 | 310 | 0.0104 | - | - | - |
0.1550 | 320 | 0.1477 | - | - | - |
0.1598 | 330 | 0.3662 | - | - | - |
0.1646 | 340 | 0.0763 | - | - | - |
0.1695 | 350 | 0.0291 | - | - | - |
0.1743 | 360 | 0.0858 | - | - | - |
0.1792 | 370 | 0.0131 | - | - | - |
0.1840 | 380 | 0.0255 | - | - | - |
0.1889 | 390 | 0.0596 | - | - | - |
0.1937 | 400 | 0.0939 | - | - | - |
0.1985 | 410 | 0.0197 | - | - | - |
0.2034 | 420 | 0.0289 | - | - | - |
0.2082 | 430 | 0.0709 | - | - | - |
0.2131 | 440 | 0.0148 | - | - | - |
0.2179 | 450 | 0.0281 | - | - | - |
0.2228 | 460 | 0.0657 | - | - | - |
0.2276 | 470 | 0.2965 | - | - | - |
0.2324 | 480 | 0.0691 | - | - | - |
0.2373 | 490 | 0.0017 | - | - | - |
0.2421 | 500 | 0.0045 | - | - | - |
0.2470 | 510 | 0.0076 | - | - | - |
0.2518 | 520 | 0.0996 | - | - | - |
0.2567 | 530 | 0.1027 | - | - | - |
0.2615 | 540 | 0.0192 | - | - | - |
0.2663 | 550 | 0.0048 | - | - | - |
0.2712 | 560 | 0.1203 | - | - | - |
0.2760 | 570 | 0.0541 | - | - | - |
0.2809 | 580 | 0.0596 | - | - | - |
0.2857 | 590 | 0.027 | - | - | - |
0.2906 | 600 | 0.2358 | - | - | - |
0.2954 | 610 | 0.001 | - | - | - |
0.3002 | 620 | 0.0138 | - | - | - |
0.3051 | 630 | 0.0355 | - | - | - |
0.3099 | 640 | 0.1318 | - | - | - |
0.3148 | 650 | 0.0056 | - | - | - |
0.3196 | 660 | 0.0677 | - | - | - |
0.3245 | 670 | 0.0425 | - | - | - |
0.3293 | 680 | 0.003 | - | - | - |
0.3341 | 690 | 0.0608 | - | - | - |
0.3390 | 700 | 0.0024 | - | - | - |
0.3438 | 710 | 0.0327 | - | - | - |
0.3487 | 720 | 0.0021 | - | - | - |
0.3535 | 730 | 0.0504 | - | - | - |
0.3584 | 740 | 0.0012 | - | - | - |
0.3632 | 750 | 0.0383 | - | - | - |
0.3680 | 760 | 0.0127 | - | - | - |
0.3729 | 770 | 0.0073 | - | - | - |
0.3777 | 780 | 0.0223 | - | - | - |
0.3826 | 790 | 0.2714 | - | - | - |
0.3874 | 800 | 0.1781 | - | - | - |
0.3923 | 810 | 0.1457 | - | - | - |
0.3971 | 820 | 0.0428 | - | - | - |
0.4019 | 830 | 0.0663 | - | - | - |
0.4068 | 840 | 0.0746 | - | - | - |
0.4116 | 850 | 0.048 | - | - | - |
0.4165 | 860 | 0.0052 | - | - | - |
0.4213 | 870 | 0.0063 | - | - | - |
0.4262 | 880 | 0.0183 | - | - | - |
0.4310 | 890 | 0.0075 | - | - | - |
0.4358 | 900 | 0.0085 | - | - | - |
0.4407 | 910 | 0.0006 | - | - | - |
0.4455 | 920 | 0.0112 | - | - | - |
0.4504 | 930 | 0.0128 | - | - | - |
0.4552 | 940 | 0.0092 | - | - | - |
0.4600 | 950 | 0.0187 | - | - | - |
0.4649 | 960 | 0.0003 | - | - | - |
0.4697 | 970 | 0.0027 | - | - | - |
0.4746 | 980 | 0.1156 | - | - | - |
0.4794 | 990 | 0.0921 | - | - | - |
0.4843 | 1000 | 0.0676 | - | - | - |
0.4891 | 1010 | 0.0868 | - | - | - |
0.4939 | 1020 | 0.3319 | - | - | - |
0.4988 | 1030 | 0.0227 | - | - | - |
0.5036 | 1040 | 0.0026 | - | - | - |
0.5085 | 1050 | 0.0033 | - | - | - |
0.5133 | 1060 | 0.038 | - | - | - |
0.5182 | 1070 | 0.1247 | - | - | - |
0.5230 | 1080 | 0.0015 | - | - | - |
0.5278 | 1090 | 0.0104 | - | - | - |
0.5327 | 1100 | 0.0118 | - | - | - |
0.5375 | 1110 | 0.0008 | - | - | - |
0.5424 | 1120 | 0.0094 | - | - | - |
0.5472 | 1130 | 0.0324 | - | - | - |
0.5521 | 1140 | 0.0011 | - | - | - |
0.5569 | 1150 | 0.0394 | - | - | - |
0.5617 | 1160 | 0.0096 | - | - | - |
0.5666 | 1170 | 0.0031 | - | - | - |
0.5714 | 1180 | 0.0564 | - | - | - |
0.5763 | 1190 | 0.181 | - | - | - |
0.5811 | 1200 | 0.0401 | - | - | - |
0.5860 | 1210 | 0.0163 | - | - | - |
0.5908 | 1220 | 0.0583 | - | - | - |
0.5956 | 1230 | 0.1254 | - | - | - |
0.6005 | 1240 | 0.0027 | - | - | - |
0.6053 | 1250 | 0.1357 | - | - | - |
0.6102 | 1260 | 0.0036 | - | - | - |
0.6150 | 1270 | 0.0015 | - | - | - |
0.6199 | 1280 | 0.1927 | - | - | - |
0.6247 | 1290 | 0.098 | - | - | - |
0.6295 | 1300 | 0.0119 | - | - | - |
0.6344 | 1310 | 0.0189 | - | - | - |
0.6392 | 1320 | 0.0792 | - | - | - |
0.6441 | 1330 | 0.0084 | - | - | - |
0.6489 | 1340 | 0.0617 | - | - | - |
0.6538 | 1350 | 0.0818 | - | - | - |
0.6586 | 1360 | 0.0264 | - | - | - |
0.6634 | 1370 | 0.0004 | - | - | - |
0.6683 | 1380 | 0.0472 | - | - | - |
0.6731 | 1390 | 0.0013 | - | - | - |
0.6780 | 1400 | 0.0117 | - | - | - |
0.6828 | 1410 | 0.0213 | - | - | - |
0.6877 | 1420 | 0.1806 | - | - | - |
0.6925 | 1430 | 0.0278 | - | - | - |
0.6973 | 1440 | 0.0053 | - | - | - |
0.7022 | 1450 | 0.1247 | - | - | - |
0.7070 | 1460 | 0.002 | - | - | - |
0.7119 | 1470 | 0.0235 | - | - | - |
0.7167 | 1480 | 0.0044 | - | - | - |
0.7215 | 1490 | 0.029 | - | - | - |
0.7264 | 1500 | 0.004 | - | - | - |
0.7312 | 1510 | 0.001 | - | - | - |
0.7361 | 1520 | 0.003 | - | - | - |
0.7409 | 1530 | 0.0004 | - | - | - |
0.7458 | 1540 | 0.0027 | - | - | - |
0.7506 | 1550 | 0.0018 | - | - | - |
0.7554 | 1560 | 0.004 | - | - | - |
0.7603 | 1570 | 0.0071 | - | - | - |
0.7651 | 1580 | 0.0358 | - | - | - |
0.7700 | 1590 | 0.0015 | - | - | - |
0.7748 | 1600 | 0.0409 | - | - | - |
0.7797 | 1610 | 0.0561 | - | - | - |
0.7845 | 1620 | 0.0311 | - | - | - |
0.7893 | 1630 | 0.0132 | - | - | - |
0.7942 | 1640 | 0.0026 | - | - | - |
0.7990 | 1650 | 0.0925 | - | - | - |
0.8039 | 1660 | 0.0062 | - | - | - |
0.8087 | 1670 | 0.0041 | - | - | - |
0.8136 | 1680 | 0.0014 | - | - | - |
0.8184 | 1690 | 0.0135 | - | - | - |
0.8232 | 1700 | 0.0033 | - | - | - |
0.8281 | 1710 | 0.0003 | - | - | - |
0.8329 | 1720 | 0.0355 | - | - | - |
0.8378 | 1730 | 0.0035 | - | - | - |
0.8426 | 1740 | 0.0018 | - | - | - |
0.8475 | 1750 | 0.0249 | - | - | - |
0.8523 | 1760 | 0.0217 | - | - | - |
0.8571 | 1770 | 0.0883 | - | - | - |
0.8620 | 1780 | 0.0063 | - | - | - |
0.8668 | 1790 | 0.0067 | - | - | - |
0.8717 | 1800 | 0.0127 | - | - | - |
0.8765 | 1810 | 0.0019 | - | - | - |
0.8814 | 1820 | 0.0023 | - | - | - |
0.8862 | 1830 | 0.0246 | - | - | - |
0.8910 | 1840 | 0.0044 | - | - | - |
0.8959 | 1850 | 0.0086 | - | - | - |
0.9007 | 1860 | 0.0323 | - | - | - |
0.9056 | 1870 | 0.013 | - | - | - |
0.9104 | 1880 | 0.002 | - | - | - |
0.9153 | 1890 | 0.0053 | - | - | - |
0.9201 | 1900 | 0.0009 | - | - | - |
0.9249 | 1910 | 0.0082 | - | - | - |
0.9298 | 1920 | 0.0008 | - | - | - |
0.9346 | 1930 | 0.0079 | - | - | - |
0.9395 | 1940 | 0.0031 | - | - | - |
0.9443 | 1950 | 0.0039 | - | - | - |
0.9492 | 1960 | 0.0261 | - | - | - |
0.9540 | 1970 | 0.0006 | - | - | - |
0.9588 | 1980 | 0.0063 | - | - | - |
0.9637 | 1990 | 0.0132 | - | - | - |
0.9685 | 2000 | 0.0061 | - | - | - |
0.9734 | 2010 | 0.0008 | - | - | - |
0.9782 | 2020 | 0.0341 | - | - | - |
0.9831 | 2030 | 0.0054 | - | - | - |
0.9879 | 2040 | 0.0001 | - | - | - |
0.9927 | 2050 | 0.0367 | - | - | - |
0.9976 | 2060 | 0.0046 | - | - | - |
1.0 | 2065 | - | 0.0276 | 0.7258 | 0.7211 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.10.14
- Sentence Transformers: 3.3.1
- Transformers: 4.41.2
- PyTorch: 2.4.0
- Accelerate: 0.29.3
- Datasets: 2.19.1
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MatryoshkaLoss
@misc{kusupati2024matryoshka,
title={Matryoshka Representation Learning},
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
year={2024},
eprint={2205.13147},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 15
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for anhtuansh/gte-multilingual-base-Matryoshka-1e-9k
Base model
Alibaba-NLP/gte-multilingual-baseEvaluation results
- Cosine Accuracy@1 on dim 768self-reported0.594
- Cosine Accuracy@3 on dim 768self-reported0.757
- Cosine Accuracy@5 on dim 768self-reported0.800
- Cosine Accuracy@10 on dim 768self-reported0.853
- Cosine Precision@1 on dim 768self-reported0.594
- Cosine Precision@3 on dim 768self-reported0.252
- Cosine Precision@5 on dim 768self-reported0.160
- Cosine Precision@10 on dim 768self-reported0.085
- Cosine Recall@1 on dim 768self-reported0.594
- Cosine Recall@3 on dim 768self-reported0.757