Edit model card

SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2

This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-mpnet-base-v2. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for paraphrase similarity (main task) and semantic textual similarity. Using an SBERT model for stylistic textual similarity is an experimental use case but it works really well and I recommend it.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    '"Blockchain maakt die data en transacties traceerbaar en openbaar zodat je op elk moment kunt zien wie wat heeft, en waar geld, berichten of documenten vandaan komen."',
    '"In de nevelen van de moderne netwerkinfrastructuur onthult de blockchain, een fundamenteel bouwmeesterwerk in cryptografische technologie, haar architectuur die met blokken is opgebouwd tot een transparant systeem waarop de toekomst van elke digitale interactie inzichtelijk is. Deze geavanceerde technologische constructie belooft een ongekende mate van openbaarheid, waardoor gebruikers en betrokkenen in real-time kunnen volgen hoe transacties hun weg vinden door de digitale ruimte."',
    '"Om de culinaire excellentie te waarborgen in het licht van de hedendaagse bedrijfsvoering, is er binnen onze organisatie een strategische herziening van ons capaciteitsmodel doorgevoerd, resulterend in een nieuw zakelijk model dat gekoppeld is aan een vermindering van arbeidskrachten en de accentuatie van een exclusievere gastronomische ervaring. Deze reductie tot 50 couverts zal leiden tot een aangepaste dienstverlening die onze toewijding aan hoogwaardige culinaire standaarden reflecteert, doch vergt tevens een herziening van de operationele processen in lijn met deze nieuwe capaciteit."',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Semantic Similarity

Metric Value
pearson_cosine 0.9022
spearman_cosine 0.8676

Training Details

Training Dataset

Unnamed Dataset

  • Size: 43,159 training samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 19 tokens
    • mean: 37.07 tokens
    • max: 116 tokens
    • min: 14 tokens
    • mean: 66.53 tokens
    • max: 256 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    "Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient." "Lees zorgvuldig de details van het reglement en de voorwaarden voordat je een premieaanvraag doet." 1.0
    "Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient." "Zorg ervoor dat u de regels en voorwaarden grondig leest alvorens u een premieaanvraag indient." 0.5
    "Neem zeker het reglement en de voorwaarden nog eens in detail door voor je een premieaanvraag indient." "Als een onderdeel van uw verzoek om een gedegen analyse te bieden op premieaanvragen, dient u zich bewust te zijn van de uitdagingen die gepaard gaan met het navigeren door contractuele voorwaarden en reglementen. Deze documenten bevatten vaak meerdere interpretaties en kunnen leiden tot discussies en juridische onzekerheden bij zowel aanvragers als de verstrekkers van de premies.

    Uw aandacht dient inderdaad uit te gaan naar de delicate balans tussen klanttevredenheid en compliance met wetgeving, waarbij een onjuiste interpretatie of afwijking ernstige gevolgen kan hebben. Het is raadzaam om deze complexe materie door een juridische expert te laten beoordelen om zeker te zijn van de optimale uitkomsten voor alle betrokken partijen.

    Ik, als AI met een breed kennisdomein, kan u helpen bij het verstrekken van informatie over de relevante wetgeving en richtlijnen die van toepassing kunnen zijn op dergelijke premieaanvragen, maar mijn advies is om dergelijke juridische kwesties door een ...
    0.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 7,617 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 19 tokens
    • mean: 38.15 tokens
    • max: 256 tokens
    • min: 11 tokens
    • mean: 67.62 tokens
    • max: 256 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    "Maar als je ‘wol Antwerpen’ googlede, scoorde mijn winkel niet goed in de resultaten." "Bij het zoeken naar "wol Antwerpen" via een zoekmachine lijkt het erop dat je winkel niet hoog genoeg in de zoekresultaten verschijnt. (korte, heldere uitleg)" 0.5
    "Maar als je ‘wol Antwerpen’ googlede, scoorde mijn winkel niet goed in de resultaten." "In de grenzen van de digitale wereld, waar informatiejacht een uitdaging blijft die zielen kan verstrengelen met abstracte realiteiten, onthult een speurtocht naar de relatie tussen "Antwerpen" en "wol" – elementen die zowel de historische als mogelijk de natuurlijke staat van de stad belichten – beperkingen in de zoekmachine-algoritmen. Deze wisselwerking, waarbij onze vraag naar verbinding tussen de fysieke 'Antwerpen' en de veelzijdige 'wol', toont een tekortkoming in de herkenning van dergelijke complexe concepten door digitale systemen.

    Dat mijn "winkel", die zich onderscheidt binnen het spectrum van commerciële activiteiten, niet prominent aanwezig was in de zoekresultaten van deze zoektocht, suggereert dat er wellicht een mismatch is tussen de verwachtingen en de perceptie door de systemen die onze online zoekverzoeken verwerken. Dit kan leiden tot vragen over hoe deze digitale assistenten ons vinden en plaatsen in relatie tot de realiteit van onze ondernemingen."
    0.0
    "In deze nota introduceert de stad Antwerpen zijn strategie voor de digitale transformatie ." "Antwerpen presenteert zijn plan voor digitale verandering." 1.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 64
  • learning_rate: 3e-05
  • num_train_epochs: 4
  • fp16: True
  • load_best_model_at_end: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 64
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 3e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 4
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss Validation Loss spearman_cosine
0.3793 256 - 5.9158 0.8422
0.7407 500 5.9128 - -
0.7585 512 - 5.6544 0.8537
1.1378 768 - 5.9536 0.8595
1.4815 1000 5.5698 - -
1.517 1024 - 5.6527 0.8634
1.8963 1280 - 5.6715 0.8652
2.2222 1500 5.3868 - -
2.2756 1536 - 6.0597 0.8654
2.6548 1792 - 5.9473 0.8664
2.9630 2000 5.0724 - -
3.0341 2048 - 6.3380 0.8682
3.4133 2304 - 6.9139 0.8676
3.7037 2500 4.6428 - -
3.7926 2560 - 6.7426 0.8676
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.11.10
  • Sentence Transformers: 3.3.0
  • Transformers: 4.46.2
  • PyTorch: 2.5.1+cu124
  • Accelerate: 1.1.1
  • Datasets: 3.1.0
  • Tokenizers: 0.20.3

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}
Downloads last month
101
Safetensors
Model size
278M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for ODeNy/ChecketV2

Dataset used to train ODeNy/ChecketV2

Evaluation results