SentenceTransformer based on intfloat/multilingual-e5-base

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-base on the grag-go-idf-pos-neg dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("Lettria/idf-chunk_embedder-contrastive-after_epoch_4")
# Run inference
sentences = [
    'Procédures et démarches: Dépôt du dossier de candidature sur la plateforme des aides régionales (mesdemarches.iledefrance.fr).\nBénéficiaires: Collectivité ou institution - Communes de < 2000 hab, Collectivité ou institution - Communes de 2000 à 10 000 hab, Collectivité ou institution - Communes de 10 000 à 20 000 hab, Collectivité ou institution - Communes de > 20 000 hab, Collectivité ou institution - EPCI, Collectivité ou institution - EPT / Métropole du Grand Paris, Collectivité ou institution - Département, Collectivité ou institution - Bailleurs sociaux, Collectivité ou institution - Autre (GIP, copropriété, EPA...)\nPrécision sure les bénéficiaires: Toutes les structures de droit public ou de droit privé',
    '[Collectivité ou institution - Communes de < 2000 hab] (collectivité)',
    "[petites entreprises innovantes franciliennes](bénéficiaire) --- INCLUT ---> [Professionnel - Créateur d'entreprise](bénéficiaire)",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Semantic Similarity

Metric Value
pearson_cosine 0.4192
spearman_cosine 0.4147

Binary Classification

Metric Value
cosine_accuracy 0.8189
cosine_accuracy_threshold 0.8742
cosine_f1 0.8977
cosine_f1_threshold 0.8425
cosine_precision 0.8168
cosine_recall 0.9962
cosine_ap 0.938

Training Details

Training Dataset

grag-go-idf-pos-neg

  • Dataset: grag-go-idf-pos-neg at ecbf53b
  • Size: 6,260 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string int
    details
    • min: 16 tokens
    • mean: 192.75 tokens
    • max: 414 tokens
    • min: 8 tokens
    • mean: 24.08 tokens
    • max: 79 tokens
    • 0: ~15.70%
    • 1: ~84.30%
  • Samples:
    sentence1 sentence2 label
    Procédures et démarches: Les porteurs de projet peuvent déposer leurs dossiers de candidature toute l’année sur la plateforme des aides régionales mesdemarches.iledefrance.fr. Après examen par les services de la Région, les élus du Conseil régional désignent les initiatives lauréates et le montant de la dotation régionale prévisionnelle.
    Bénéficiaires: Collectivité ou institution - Autre (GIP, copropriété, EPA...), Collectivité ou institution - Bailleurs sociaux, Collectivité ou institution - Communes de 10 000 à 20 000 hab, Collectivité ou institution - Communes de 2000 à 10 000 hab, Collectivité ou institution - Communes de < 2000 hab, Collectivité ou institution - Communes de > 20 000 hab, Collectivité ou institution - Département, Collectivité ou institution - EPCI, Collectivité ou institution - EPT / Métropole du Grand Paris, Collectivité ou institution - Office de tourisme intercommunal, Association - Régie par la loi de 1901, Établissement d'enseignement secondaire, Établissemen...
    [dotation régionale prévisionnelle] (inferred) 1
    Type de project: Pour l'investissement, les dépenses éligibles concernent les aménagements et les rénovations de bâtiments, les constructions et les acquisitions de locaux ainsi que les gros travaux immobiliers.Pour l'équipement, les dépenses éligibles portent sur l'acquisition, la mise en conformité et le renouvellement des équipements destinés à un usage pédagogique, administratif ou destiné aux étudiants. investissement --- CONCERNE ---> gros travaux immobiliers 1
    . Pour les demandes avec devis, transmettez votre demande de versement avec les factures acquittées (dans un délai maximal d'un an). Les factures indiquent un n° de chèque, un règlement CB, un virement,... Le versement prend la forme d'un paiement unique ou d’un paiement en 2 fois. Les dépenses prises en compte en HT portent sur une période maximale de 12 mois. DIM --- ASSURER ---> financement 0
  • Loss: ContrastiveLoss with these parameters:
    {
        "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
        "margin": 0.5,
        "size_average": true
    }
    

Evaluation Dataset

grag-go-idf-pos-neg

  • Dataset: grag-go-idf-pos-neg at ecbf53b
  • Size: 1,662 evaluation samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string int
    details
    • min: 24 tokens
    • mean: 178.38 tokens
    • max: 394 tokens
    • min: 8 tokens
    • mean: 25.03 tokens
    • max: 136 tokens
    • 0: ~19.60%
    • 1: ~80.40%
  • Samples:
    sentence1 sentence2 label
    Type de project: Le Fonds régional pour le tourisme est destiné aux actions ayant l'un de ces objectifs : La création, l’adaptation et le développement de l’offre d’activités et de loisirs ainsi que le renforcement de la sécurisation des sites touristiques et des visiteurs,La digitalisation de l’offre touristique pour accélérer la transformation numérique et favoriser l’innovation,La création d’offres d’hébergements touristiques durables contribuant à l’enrichissement de l’offre touristique régionale,Le soutien aux évènements gastronomiques d’envergure régionale. Afin que les professionnels du tourisme s’adaptent et contribuent à la transition durable de la destination Paris Île-de-France, l’aide régionale est attribuée sur la base de critères d’éco-conditionnalité. Fonds régional pour le tourisme --- DESTINÉ ---> professionnels du tourisme 1
    Type de project: Les projets éligibles doivent être basés sur un projet de développement pluriannuel élaboré par chaque structure bénéficiaire concernée. Le projet de développement s’inscrit dans les orientations de sa fédération.Les formations doivent être professionnalisantes, diplômantes ou continues, en ce qui concerne l’encadrement éducatif et technique et les dirigeants bénévoles et officiels.Une attention particulière est portée sur les formations sur les thématiques de la prévention contre toutes violences, de discrimination et de radicalisation. dépôt des dossiers --- DÉLAI ---> Commission 0
    Type de project: Les thématiques abordées, au titre du programme, comprennent la santé numérique et les risques de dépendance, la protection des données personnelles et la prévention des situations de harcèlement et de cyberharcèlement ; les interventions questionnent aussi les aspects numériques de la vie affective et sexuelle et son corollaire de risques tels que le "sexting", le "Revenge porn", le chantage sexuel et l'impact de la pornographie sur les jeunes.   A la demande des établissements, des focus thématiques peuvent être réalisés sur d'autres sujets comme la prévention des phénomènes de prostitution des mineurs, les problématiques liées aux jeux d'argent et de hasard en ligne ou encore la lutte contre la désinformation à travers une approche d'éducation aux médias et à l'information.   Les établissements bénéficiaires peuvent choisir jusqu'à deux thématiques qu'ils identifient comme prioritaires. [sexting] (risque) 1
  • Loss: ContrastiveLoss with these parameters:
    {
        "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
        "margin": 0.5,
        "size_average": true
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 4
  • gradient_accumulation_steps: 8
  • num_train_epochs: 10
  • warmup_steps: 626

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 4
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 8
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 10
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 626
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss EmbeddingSimEval_spearman_cosine BinaryClassifEval_cosine_ap
0.0051 1 0.0194 - - -
0.0102 2 0.0198 - - -
0.0153 3 0.0146 - - -
0.0204 4 0.017 - - -
0.0256 5 0.0193 - - -
0.0307 6 0.0164 - - -
0.0358 7 0.0188 - - -
0.0409 8 0.0185 - - -
0.0460 9 0.0168 - - -
0.0511 10 0.0148 - - -
0.0562 11 0.0149 - - -
0.0613 12 0.018 - - -
0.0665 13 0.0149 - - -
0.0716 14 0.0189 - - -
0.0767 15 0.0206 - - -
0.0818 16 0.0138 - - -
0.0869 17 0.0193 - - -
0.0920 18 0.0169 - - -
0.0971 19 0.014 - - -
0.1022 20 0.0151 - - -
0.1073 21 0.0157 - - -
0.1125 22 0.0127 - - -
0.1176 23 0.0159 - - -
0.1227 24 0.0184 - - -
0.1278 25 0.0188 - - -
0.1329 26 0.0191 - - -
0.1380 27 0.012 - - -
0.1431 28 0.0142 - - -
0.1482 29 0.0131 - - -
0.1534 30 0.0153 - - -
0.1585 31 0.0123 - - -
0.1636 32 0.0127 - - -
0.1687 33 0.0186 - - -
0.1738 34 0.0112 - - -
0.1789 35 0.0149 - - -
0.1840 36 0.0174 - - -
0.1891 37 0.0115 - - -
0.1942 38 0.0106 - - -
0.1994 39 0.0138 - - -
0.2045 40 0.0161 - - -
0.2096 41 0.0134 - - -
0.2147 42 0.0138 - - -
0.2198 43 0.0083 - - -
0.2249 44 0.0094 - - -
0.2300 45 0.0097 - - -
0.2351 46 0.012 - - -
0.2403 47 0.0131 - - -
0.2454 48 0.0146 - - -
0.2505 49 0.0162 - - -
0.2556 50 0.0113 - - -
0.2607 51 0.0111 - - -
0.2658 52 0.0099 - - -
0.2709 53 0.0128 - - -
0.2760 54 0.0072 - - -
0.2812 55 0.0118 - - -
0.2863 56 0.0069 - - -
0.2914 57 0.0143 - - -
0.2965 58 0.0129 - - -
0.3016 59 0.0103 - - -
0.3067 60 0.0187 - - -
0.3118 61 0.0128 - - -
0.3169 62 0.0138 - - -
0.3220 63 0.021 - - -
0.3272 64 0.0142 - - -
0.3323 65 0.0144 - - -
0.3374 66 0.0164 - - -
0.3425 67 0.0115 - - -
0.3476 68 0.0122 - - -
0.3527 69 0.0125 - - -
0.3578 70 0.0119 - - -
0.3629 71 0.0098 - - -
0.3681 72 0.0112 - - -
0.3732 73 0.011 - - -
0.3783 74 0.0142 - - -
0.3834 75 0.0106 - - -
0.3885 76 0.0186 - - -
0.3936 77 0.011 - - -
0.3987 78 0.0125 - - -
0.4038 79 0.0115 - - -
0.4089 80 0.0155 - - -
0.4141 81 0.0093 - - -
0.4192 82 0.017 - - -
0.4243 83 0.0106 - - -
0.4294 84 0.0115 - - -
0.4345 85 0.0105 - - -
0.4396 86 0.0105 - - -
0.4447 87 0.0117 - - -
0.4498 88 0.0104 - - -
0.4550 89 0.0093 - - -
0.4601 90 0.0125 - - -
0.4652 91 0.012 - - -
0.4703 92 0.0077 - - -
0.4754 93 0.0095 - - -
0.4805 94 0.0087 - - -
0.4856 95 0.0072 - - -
0.4907 96 0.0142 - - -
0.4958 97 0.0053 - - -
0.5010 98 0.0072 - - -
0.5061 99 0.0096 - - -
0.5112 100 0.0082 - - -
0.5163 101 0.0053 - - -
0.5214 102 0.0072 - - -
0.5265 103 0.007 - - -
0.5316 104 0.0088 - - -
0.5367 105 0.0084 - - -
0.5419 106 0.0057 - - -
0.5470 107 0.0092 - - -
0.5521 108 0.0074 - - -
0.5572 109 0.0043 - - -
0.5623 110 0.0092 - - -
0.5674 111 0.0114 - - -
0.5725 112 0.0094 - - -
0.5776 113 0.0073 - - -
0.5827 114 0.0103 - - -
0.5879 115 0.0091 - - -
0.5930 116 0.0064 - - -
0.5981 117 0.011 - - -
0.6032 118 0.0085 - - -
0.6083 119 0.0061 - - -
0.6134 120 0.0036 - - -
0.6185 121 0.0087 - - -
0.6236 122 0.0072 - - -
0.6288 123 0.0028 - - -
0.6339 124 0.0116 - - -
0.6390 125 0.0156 - - -
0.6441 126 0.0048 - - -
0.6492 127 0.0049 - - -
0.6543 128 0.0048 - - -
0.6594 129 0.0021 - - -
0.6645 130 0.0085 - - -
0.6696 131 0.0058 - - -
0.6748 132 0.0067 - - -
0.6799 133 0.0162 - - -
0.6850 134 0.0056 - - -
0.6901 135 0.0035 - - -
0.6952 136 0.0069 - - -
0.7003 137 0.0018 - - -
0.7054 138 0.0026 - - -
0.7105 139 0.0111 - - -
0.7157 140 0.0041 - - -
0.7208 141 0.0098 - - -
0.7259 142 0.0045 - - -
0.7310 143 0.0059 - - -
0.7361 144 0.0068 - - -
0.7412 145 0.0065 - - -
0.7463 146 0.0085 - - -
0.7514 147 0.0077 - - -
0.7565 148 0.0047 - - -
0.7617 149 0.005 - - -
0.7668 150 0.0031 - - -
0.7719 151 0.0042 - - -
0.7770 152 0.0054 - - -
0.7821 153 0.0021 - - -
0.7872 154 0.004 - - -
0.7923 155 0.0027 - - -
0.7974 156 0.0033 - - -
0.8026 157 0.0044 - - -
0.8077 158 0.0063 - - -
0.8128 159 0.0078 - - -
0.8179 160 0.0046 - - -
0.8230 161 0.0076 - - -
0.8281 162 0.0136 - - -
0.8332 163 0.0048 - - -
0.8383 164 0.0049 - - -
0.8435 165 0.0048 - - -
0.8486 166 0.0064 - - -
0.8537 167 0.0038 - - -
0.8588 168 0.0087 - - -
0.8639 169 0.0067 - - -
0.8690 170 0.0011 - - -
0.8741 171 0.0067 - - -
0.8792 172 0.0054 - - -
0.8843 173 0.0069 - - -
0.8895 174 0.0084 - - -
0.8946 175 0.0038 - - -
0.8997 176 0.0029 - - -
0.9048 177 0.002 - - -
0.9099 178 0.0073 - - -
0.9150 179 0.0069 - - -
0.9201 180 0.0042 - - -
0.9252 181 0.0037 - - -
0.9304 182 0.0034 - - -
0.9355 183 0.0038 - - -
0.9406 184 0.0038 - - -
0.9457 185 0.007 - - -
0.9508 186 0.0019 - - -
0.9559 187 0.0073 - - -
0.9610 188 0.0054 - - -
0.9661 189 0.0082 - - -
0.9712 190 0.0058 - - -
0.9764 191 0.0028 - - -
0.9815 192 0.0036 - - -
0.9866 193 0.0046 - - -
0.9917 194 0.0066 - - -
0.9968 195 0.0056 0.0152 0.4893 0.9557
1.0019 196 0.0084 - - -
1.0070 197 0.002 - - -
1.0121 198 0.0053 - - -
1.0173 199 0.0035 - - -
1.0224 200 0.0037 - - -
1.0275 201 0.0068 - - -
1.0326 202 0.0014 - - -
1.0377 203 0.0023 - - -
1.0428 204 0.0047 - - -
1.0479 205 0.004 - - -
1.0530 206 0.0031 - - -
1.0581 207 0.0014 - - -
1.0633 208 0.0011 - - -
1.0684 209 0.0035 - - -
1.0735 210 0.0019 - - -
1.0786 211 0.0071 - - -
1.0837 212 0.0048 - - -
1.0888 213 0.0019 - - -
1.0939 214 0.0013 - - -
1.0990 215 0.0021 - - -
1.1042 216 0.0097 - - -
1.1093 217 0.0054 - - -
1.1144 218 0.0037 - - -
1.1195 219 0.006 - - -
1.1246 220 0.0053 - - -
1.1297 221 0.0051 - - -
1.1348 222 0.0076 - - -
1.1399 223 0.0017 - - -
1.1450 224 0.0147 - - -
1.1502 225 0.0045 - - -
1.1553 226 0.0034 - - -
1.1604 227 0.0029 - - -
1.1655 228 0.0032 - - -
1.1706 229 0.0072 - - -
1.1757 230 0.0067 - - -
1.1808 231 0.0075 - - -
1.1859 232 0.0072 - - -
1.1911 233 0.0024 - - -
1.1962 234 0.0033 - - -
1.2013 235 0.0025 - - -
1.2064 236 0.0019 - - -
1.2115 237 0.0011 - - -
1.2166 238 0.0033 - - -
1.2217 239 0.0051 - - -
1.2268 240 0.0017 - - -
1.2319 241 0.0027 - - -
1.2371 242 0.0023 - - -
1.2422 243 0.0043 - - -
1.2473 244 0.0054 - - -
1.2524 245 0.0033 - - -
1.2575 246 0.0029 - - -
1.2626 247 0.0046 - - -
1.2677 248 0.0018 - - -
1.2728 249 0.0017 - - -
1.2780 250 0.0009 - - -
1.2831 251 0.0062 - - -
1.2882 252 0.0062 - - -
1.2933 253 0.0048 - - -
1.2984 254 0.0017 - - -
1.3035 255 0.0008 - - -
1.3086 256 0.0029 - - -
1.3137 257 0.0008 - - -
1.3188 258 0.0027 - - -
1.3240 259 0.0032 - - -
1.3291 260 0.0025 - - -
1.3342 261 0.0042 - - -
1.3393 262 0.0034 - - -
1.3444 263 0.0016 - - -
1.3495 264 0.0025 - - -
1.3546 265 0.0049 - - -
1.3597 266 0.0009 - - -
1.3649 267 0.001 - - -
1.3700 268 0.0019 - - -
1.3751 269 0.001 - - -
1.3802 270 0.0058 - - -
1.3853 271 0.0079 - - -
1.3904 272 0.0053 - - -
1.3955 273 0.0028 - - -
1.4006 274 0.0016 - - -
1.4058 275 0.0019 - - -
1.4109 276 0.0031 - - -
1.4160 277 0.0013 - - -
1.4211 278 0.0012 - - -
1.4262 279 0.0037 - - -
1.4313 280 0.0014 - - -
1.4364 281 0.0037 - - -
1.4415 282 0.0009 - - -
1.4466 283 0.0012 - - -
1.4518 284 0.001 - - -
1.4569 285 0.005 - - -
1.4620 286 0.004 - - -
1.4671 287 0.0038 - - -
1.4722 288 0.0019 - - -
1.4773 289 0.0023 - - -
1.4824 290 0.0037 - - -
1.4875 291 0.0043 - - -
1.4927 292 0.0012 - - -
1.4978 293 0.0018 - - -
1.5029 294 0.0016 - - -
1.5080 295 0.0014 - - -
1.5131 296 0.0022 - - -
1.5182 297 0.0025 - - -
1.5233 298 0.0014 - - -
1.5284 299 0.0041 - - -
1.5335 300 0.0039 - - -
1.5387 301 0.0013 - - -
1.5438 302 0.0023 - - -
1.5489 303 0.0041 - - -
1.5540 304 0.0019 - - -
1.5591 305 0.0041 - - -
1.5642 306 0.0035 - - -
1.5693 307 0.0009 - - -
1.5744 308 0.001 - - -
1.5796 309 0.0038 - - -
1.5847 310 0.0006 - - -
1.5898 311 0.0017 - - -
1.5949 312 0.0043 - - -
1.6 313 0.0014 - - -
1.6051 314 0.0018 - - -
1.6102 315 0.0022 - - -
1.6153 316 0.0007 - - -
1.6204 317 0.0016 - - -
1.6256 318 0.0075 - - -
1.6307 319 0.0005 - - -
1.6358 320 0.0025 - - -
1.6409 321 0.0006 - - -
1.6460 322 0.0024 - - -
1.6511 323 0.0025 - - -
1.6562 324 0.0011 - - -
1.6613 325 0.0011 - - -
1.6665 326 0.0022 - - -
1.6716 327 0.0021 - - -
1.6767 328 0.0007 - - -
1.6818 329 0.0035 - - -
1.6869 330 0.0006 - - -
1.6920 331 0.0037 - - -
1.6971 332 0.0016 - - -
1.7022 333 0.0026 - - -
1.7073 334 0.0035 - - -
1.7125 335 0.0006 - - -
1.7176 336 0.0009 - - -
1.7227 337 0.0041 - - -
1.7278 338 0.0007 - - -
1.7329 339 0.0013 - - -
1.7380 340 0.0081 - - -
1.7431 341 0.0021 - - -
1.7482 342 0.003 - - -
1.7534 343 0.0033 - - -
1.7585 344 0.0015 - - -
1.7636 345 0.0028 - - -
1.7687 346 0.0025 - - -
1.7738 347 0.0033 - - -
1.7789 348 0.0019 - - -
1.7840 349 0.0052 - - -
1.7891 350 0.0022 - - -
1.7942 351 0.005 - - -
1.7994 352 0.0042 - - -
1.8045 353 0.0017 - - -
1.8096 354 0.0017 - - -
1.8147 355 0.0037 - - -
1.8198 356 0.004 - - -
1.8249 357 0.001 - - -
1.8300 358 0.0022 - - -
1.8351 359 0.003 - - -
1.8403 360 0.0006 - - -
1.8454 361 0.0009 - - -
1.8505 362 0.0009 - - -
1.8556 363 0.001 - - -
1.8607 364 0.0013 - - -
1.8658 365 0.004 - - -
1.8709 366 0.0033 - - -
1.8760 367 0.0016 - - -
1.8812 368 0.0038 - - -
1.8863 369 0.0007 - - -
1.8914 370 0.0003 - - -
1.8965 371 0.0007 - - -
1.9016 372 0.001 - - -
1.9067 373 0.0029 - - -
1.9118 374 0.0046 - - -
1.9169 375 0.0004 - - -
1.9220 376 0.0005 - - -
1.9272 377 0.0002 - - -
1.9323 378 0.0022 - - -
1.9374 379 0.0025 - - -
1.9425 380 0.0004 - - -
1.9476 381 0.0043 - - -
1.9527 382 0.0015 - - -
1.9578 383 0.0012 - - -
1.9629 384 0.0014 - - -
1.9681 385 0.0031 - - -
1.9732 386 0.0006 - - -
1.9783 387 0.0035 - - -
1.9834 388 0.0062 - - -
1.9885 389 0.0022 - - -
1.9936 390 0.0027 - - -
1.9987 391 0.0014 0.0157 0.4887 0.9564
2.0038 392 0.0025 - - -
2.0089 393 0.0021 - - -
2.0141 394 0.0012 - - -
2.0192 395 0.0025 - - -
2.0243 396 0.0014 - - -
2.0294 397 0.0006 - - -
2.0345 398 0.0044 - - -
2.0396 399 0.0006 - - -
2.0447 400 0.0008 - - -
2.0498 401 0.0017 - - -
2.0550 402 0.0007 - - -
2.0601 403 0.001 - - -
2.0652 404 0.0008 - - -
2.0703 405 0.001 - - -
2.0754 406 0.0013 - - -
2.0805 407 0.0008 - - -
2.0856 408 0.0003 - - -
2.0907 409 0.0005 - - -
2.0958 410 0.0003 - - -
2.1010 411 0.0009 - - -
2.1061 412 0.0002 - - -
2.1112 413 0.0007 - - -
2.1163 414 0.0024 - - -
2.1214 415 0.0018 - - -
2.1265 416 0.0024 - - -
2.1316 417 0.001 - - -
2.1367 418 0.0023 - - -
2.1419 419 0.0003 - - -
2.1470 420 0.004 - - -
2.1521 421 0.0004 - - -
2.1572 422 0.0005 - - -
2.1623 423 0.0008 - - -
2.1674 424 0.0014 - - -
2.1725 425 0.0031 - - -
2.1776 426 0.0007 - - -
2.1827 427 0.0022 - - -
2.1879 428 0.0011 - - -
2.1930 429 0.0006 - - -
2.1981 430 0.0015 - - -
2.2032 431 0.0028 - - -
2.2083 432 0.0013 - - -
2.2134 433 0.0002 - - -
2.2185 434 0.0043 - - -
2.2236 435 0.0028 - - -
2.2288 436 0.0013 - - -
2.2339 437 0.0013 - - -
2.2390 438 0.0003 - - -
2.2441 439 0.0015 - - -
2.2492 440 0.0014 - - -
2.2543 441 0.0008 - - -
2.2594 442 0.0041 - - -
2.2645 443 0.0009 - - -
2.2696 444 0.0012 - - -
2.2748 445 0.001 - - -
2.2799 446 0.001 - - -
2.2850 447 0.0012 - - -
2.2901 448 0.0009 - - -
2.2952 449 0.0005 - - -
2.3003 450 0.0018 - - -
2.3054 451 0.0019 - - -
2.3105 452 0.0002 - - -
2.3157 453 0.0021 - - -
2.3208 454 0.0004 - - -
2.3259 455 0.0007 - - -
2.3310 456 0.0034 - - -
2.3361 457 0.0004 - - -
2.3412 458 0.0006 - - -
2.3463 459 0.001 - - -
2.3514 460 0.0019 - - -
2.3565 461 0.0005 - - -
2.3617 462 0.0015 - - -
2.3668 463 0.0067 - - -
2.3719 464 0.0047 - - -
2.3770 465 0.0019 - - -
2.3821 466 0.001 - - -
2.3872 467 0.0005 - - -
2.3923 468 0.0013 - - -
2.3974 469 0.0011 - - -
2.4026 470 0.0013 - - -
2.4077 471 0.0017 - - -
2.4128 472 0.0005 - - -
2.4179 473 0.0006 - - -
2.4230 474 0.0005 - - -
2.4281 475 0.0015 - - -
2.4332 476 0.0012 - - -
2.4383 477 0.0013 - - -
2.4435 478 0.0047 - - -
2.4486 479 0.0005 - - -
2.4537 480 0.0006 - - -
2.4588 481 0.0016 - - -
2.4639 482 0.003 - - -
2.4690 483 0.0002 - - -
2.4741 484 0.0013 - - -
2.4792 485 0.0004 - - -
2.4843 486 0.005 - - -
2.4895 487 0.001 - - -
2.4946 488 0.0007 - - -
2.4997 489 0.002 - - -
2.5048 490 0.0018 - - -
2.5099 491 0.0019 - - -
2.5150 492 0.0009 - - -
2.5201 493 0.001 - - -
2.5252 494 0.0012 - - -
2.5304 495 0.0006 - - -
2.5355 496 0.0008 - - -
2.5406 497 0.0003 - - -
2.5457 498 0.0017 - - -
2.5508 499 0.0011 - - -
2.5559 500 0.0007 - - -
2.5610 501 0.0019 - - -
2.5661 502 0.0016 - - -
2.5712 503 0.0054 - - -
2.5764 504 0.0012 - - -
2.5815 505 0.0014 - - -
2.5866 506 0.0031 - - -
2.5917 507 0.0023 - - -
2.5968 508 0.0017 - - -
2.6019 509 0.0017 - - -
2.6070 510 0.0008 - - -
2.6121 511 0.0007 - - -
2.6173 512 0.001 - - -
2.6224 513 0.0005 - - -
2.6275 514 0.0005 - - -
2.6326 515 0.0007 - - -
2.6377 516 0.0005 - - -
2.6428 517 0.0014 - - -
2.6479 518 0.0034 - - -
2.6530 519 0.0004 - - -
2.6581 520 0.001 - - -
2.6633 521 0.0008 - - -
2.6684 522 0.0043 - - -
2.6735 523 0.0005 - - -
2.6786 524 0.0004 - - -
2.6837 525 0.001 - - -
2.6888 526 0.0004 - - -
2.6939 527 0.0008 - - -
2.6990 528 0.0009 - - -
2.7042 529 0.0002 - - -
2.7093 530 0.0034 - - -
2.7144 531 0.002 - - -
2.7195 532 0.0012 - - -
2.7246 533 0.0015 - - -
2.7297 534 0.0007 - - -
2.7348 535 0.0001 - - -
2.7399 536 0.0018 - - -
2.7450 537 0.0005 - - -
2.7502 538 0.0016 - - -
2.7553 539 0.0007 - - -
2.7604 540 0.0018 - - -
2.7655 541 0.0025 - - -
2.7706 542 0.0004 - - -
2.7757 543 0.0028 - - -
2.7808 544 0.0036 - - -
2.7859 545 0.0033 - - -
2.7911 546 0.0032 - - -
2.7962 547 0.0009 - - -
2.8013 548 0.0007 - - -
2.8064 549 0.0021 - - -
2.8115 550 0.001 - - -
2.8166 551 0.0008 - - -
2.8217 552 0.0022 - - -
2.8268 553 0.0008 - - -
2.8319 554 0.0005 - - -
2.8371 555 0.0005 - - -
2.8422 556 0.0006 - - -
2.8473 557 0.0021 - - -
2.8524 558 0.0007 - - -
2.8575 559 0.0018 - - -
2.8626 560 0.0057 - - -
2.8677 561 0.0034 - - -
2.8728 562 0.0016 - - -
2.8780 563 0.0032 - - -
2.8831 564 0.0028 - - -
2.8882 565 0.0011 - - -
2.8933 566 0.0023 - - -
2.8984 567 0.0033 - - -
2.9035 568 0.0026 - - -
2.9086 569 0.002 - - -
2.9137 570 0.0008 - - -
2.9188 571 0.0012 - - -
2.9240 572 0.0024 - - -
2.9291 573 0.0022 - - -
2.9342 574 0.0012 - - -
2.9393 575 0.0029 - - -
2.9444 576 0.0009 - - -
2.9495 577 0.0004 - - -
2.9546 578 0.0009 - - -
2.9597 579 0.0005 - - -
2.9649 580 0.0007 - - -
2.9700 581 0.0005 - - -
2.9751 582 0.0008 - - -
2.9802 583 0.0007 - - -
2.9853 584 0.0025 - - -
2.9904 585 0.0013 - - -
2.9955 586 0.0004 0.0188 0.4553 0.9505
3.0006 587 0.0008 - - -
3.0058 588 0.0003 - - -
3.0109 589 0.0005 - - -
3.0160 590 0.0002 - - -
3.0211 591 0.0004 - - -
3.0262 592 0.0003 - - -
3.0313 593 0.0004 - - -
3.0364 594 0.0005 - - -
3.0415 595 0.0007 - - -
3.0466 596 0.0003 - - -
3.0518 597 0.001 - - -
3.0569 598 0.0001 - - -
3.0620 599 0.0004 - - -
3.0671 600 0.0003 - - -
3.0722 601 0.0025 - - -
3.0773 602 0.0002 - - -
3.0824 603 0.0001 - - -
3.0875 604 0.0001 - - -
3.0927 605 0.0006 - - -
3.0978 606 0.001 - - -
3.1029 607 0.0015 - - -
3.1080 608 0.0003 - - -
3.1131 609 0.0011 - - -
3.1182 610 0.0005 - - -
3.1233 611 0.0006 - - -
3.1284 612 0.0002 - - -
3.1335 613 0.0006 - - -
3.1387 614 0.0008 - - -
3.1438 615 0.0003 - - -
3.1489 616 0.0033 - - -
3.1540 617 0.0004 - - -
3.1591 618 0.0005 - - -
3.1642 619 0.0019 - - -
3.1693 620 0.0019 - - -
3.1744 621 0.0005 - - -
3.1796 622 0.0027 - - -
3.1847 623 0.0004 - - -
3.1898 624 0.0005 - - -
3.1949 625 0.0007 - - -
3.2 626 0.002 - - -
3.2051 627 0.0012 - - -
3.2102 628 0.0005 - - -
3.2153 629 0.0008 - - -
3.2204 630 0.0003 - - -
3.2256 631 0.0004 - - -
3.2307 632 0.0002 - - -
3.2358 633 0.0016 - - -
3.2409 634 0.0006 - - -
3.2460 635 0.0057 - - -
3.2511 636 0.0003 - - -
3.2562 637 0.0007 - - -
3.2613 638 0.0003 - - -
3.2665 639 0.0002 - - -
3.2716 640 0.0004 - - -
3.2767 641 0.0006 - - -
3.2818 642 0.0001 - - -
3.2869 643 0.0016 - - -
3.2920 644 0.004 - - -
3.2971 645 0.0038 - - -
3.3022 646 0.0008 - - -
3.3073 647 0.0023 - - -
3.3125 648 0.0029 - - -
3.3176 649 0.0005 - - -
3.3227 650 0.004 - - -
3.3278 651 0.0016 - - -
3.3329 652 0.0007 - - -
3.3380 653 0.001 - - -
3.3431 654 0.0005 - - -
3.3482 655 0.0011 - - -
3.3534 656 0.0017 - - -
3.3585 657 0.0014 - - -
3.3636 658 0.0008 - - -
3.3687 659 0.001 - - -
3.3738 660 0.0006 - - -
3.3789 661 0.001 - - -
3.3840 662 0.0006 - - -
3.3891 663 0.0005 - - -
3.3942 664 0.0004 - - -
3.3994 665 0.0008 - - -
3.4045 666 0.0005 - - -
3.4096 667 0.0002 - - -
3.4147 668 0.001 - - -
3.4198 669 0.004 - - -
3.4249 670 0.001 - - -
3.4300 671 0.0015 - - -
3.4351 672 0.0004 - - -
3.4403 673 0.0004 - - -
3.4454 674 0.0004 - - -
3.4505 675 0.0003 - - -
3.4556 676 0.0005 - - -
3.4607 677 0.0001 - - -
3.4658 678 0.0002 - - -
3.4709 679 0.0004 - - -
3.4760 680 0.0001 - - -
3.4812 681 0.0002 - - -
3.4863 682 0.0011 - - -
3.4914 683 0.0002 - - -
3.4965 684 0.0015 - - -
3.5016 685 0.0033 - - -
3.5067 686 0.0021 - - -
3.5118 687 0.0014 - - -
3.5169 688 0.0001 - - -
3.5220 689 0.0002 - - -
3.5272 690 0.0003 - - -
3.5323 691 0.0012 - - -
3.5374 692 0.0001 - - -
3.5425 693 0.0014 - - -
3.5476 694 0.0023 - - -
3.5527 695 0.001 - - -
3.5578 696 0.0004 - - -
3.5629 697 0.0018 - - -
3.5681 698 0.0036 - - -
3.5732 699 0.0007 - - -
3.5783 700 0.002 - - -
3.5834 701 0.0029 - - -
3.5885 702 0.001 - - -
3.5936 703 0.001 - - -
3.5987 704 0.0005 - - -
3.6038 705 0.0008 - - -
3.6089 706 0.0006 - - -
3.6141 707 0.0006 - - -
3.6192 708 0.0006 - - -
3.6243 709 0.0006 - - -
3.6294 710 0.0042 - - -
3.6345 711 0.0009 - - -
3.6396 712 0.0005 - - -
3.6447 713 0.001 - - -
3.6498 714 0.0005 - - -
3.6550 715 0.0003 - - -
3.6601 716 0.0011 - - -
3.6652 717 0.0012 - - -
3.6703 718 0.0004 - - -
3.6754 719 0.0005 - - -
3.6805 720 0.0023 - - -
3.6856 721 0.0011 - - -
3.6907 722 0.0003 - - -
3.6958 723 0.0007 - - -
3.7010 724 0.0005 - - -
3.7061 725 0.0002 - - -
3.7112 726 0.0018 - - -
3.7163 727 0.0004 - - -
3.7214 728 0.0042 - - -
3.7265 729 0.0006 - - -
3.7316 730 0.0003 - - -
3.7367 731 0.0008 - - -
3.7419 732 0.0011 - - -
3.7470 733 0.0005 - - -
3.7521 734 0.004 - - -
3.7572 735 0.0004 - - -
3.7623 736 0.0002 - - -
3.7674 737 0.0007 - - -
3.7725 738 0.0004 - - -
3.7776 739 0.0005 - - -
3.7827 740 0.0004 - - -
3.7879 741 0.0004 - - -
3.7930 742 0.0003 - - -
3.7981 743 0.0011 - - -
3.8032 744 0.0002 - - -
3.8083 745 0.0021 - - -
3.8134 746 0.0001 - - -
3.8185 747 0.0002 - - -
3.8236 748 0.0014 - - -
3.8288 749 0.0002 - - -
3.8339 750 0.0002 - - -
3.8390 751 0.0001 - - -
3.8441 752 0.0003 - - -
3.8492 753 0.0002 - - -
3.8543 754 0.0009 - - -
3.8594 755 0.0002 - - -
3.8645 756 0.0005 - - -
3.8696 757 0.0005 - - -
3.8748 758 0.0003 - - -
3.8799 759 0.0009 - - -
3.8850 760 0.0004 - - -
3.8901 761 0.0003 - - -
3.8952 762 0.001 - - -
3.9003 763 0.0004 - - -
3.9054 764 0.0004 - - -
3.9105 765 0.0002 - - -
3.9157 766 0.0001 - - -
3.9208 767 0.0023 - - -
3.9259 768 0.0002 - - -
3.9310 769 0.0004 - - -
3.9361 770 0.0006 - - -
3.9412 771 0.0016 - - -
3.9463 772 0.0002 - - -
3.9514 773 0.0003 - - -
3.9565 774 0.0029 - - -
3.9617 775 0.0018 - - -
3.9668 776 0.0009 - - -
3.9719 777 0.0012 - - -
3.9770 778 0.0006 - - -
3.9821 779 0.0037 - - -
3.9872 780 0.001 - - -
3.9923 781 0.0014 - - -
3.9974 782 0.001 0.0192 0.4314 0.9432
4.0026 783 0.0004 - - -
4.0077 784 0.0002 - - -
4.0128 785 0.0006 - - -
4.0179 786 0.0009 - - -
4.0230 787 0.0003 - - -
4.0281 788 0.0005 - - -
4.0332 789 0.0009 - - -
4.0383 790 0.0006 - - -
4.0435 791 0.0014 - - -
4.0486 792 0.0003 - - -
4.0537 793 0.0004 - - -
4.0588 794 0.0004 - - -
4.0639 795 0.0005 - - -
4.0690 796 0.0015 - - -
4.0741 797 0.0004 - - -
4.0792 798 0.0007 - - -
4.0843 799 0.0002 - - -
4.0895 800 0.0003 - - -
4.0946 801 0.0002 - - -
4.0997 802 0.0009 - - -
4.1048 803 0.0003 - - -
4.1099 804 0.0009 - - -
4.1150 805 0.0006 - - -
4.1201 806 0.0002 - - -
4.1252 807 0.0006 - - -
4.1304 808 0.0004 - - -
4.1355 809 0.0003 - - -
4.1406 810 0.0009 - - -
4.1457 811 0.0006 - - -
4.1508 812 0.0002 - - -
4.1559 813 0.0021 - - -
4.1610 814 0.0006 - - -
4.1661 815 0.0006 - - -
4.1712 816 0.0003 - - -
4.1764 817 0.0002 - - -
4.1815 818 0.0003 - - -
4.1866 819 0.0006 - - -
4.1917 820 0.0005 - - -
4.1968 821 0.0007 - - -
4.2019 822 0.0005 - - -
4.2070 823 0.0001 - - -
4.2121 824 0.0004 - - -
4.2173 825 0.0006 - - -
4.2224 826 0.0015 - - -
4.2275 827 0.0015 - - -
4.2326 828 0.0008 - - -
4.2377 829 0.0006 - - -
4.2428 830 0.0008 - - -
4.2479 831 0.0008 - - -
4.2530 832 0.0002 - - -
4.2581 833 0.0005 - - -
4.2633 834 0.0003 - - -
4.2684 835 0.0005 - - -
4.2735 836 0.0003 - - -
4.2786 837 0.0004 - - -
4.2837 838 0.0007 - - -
4.2888 839 0.0004 - - -
4.2939 840 0.0004 - - -
4.2990 841 0.0003 - - -
4.3042 842 0.0003 - - -
4.3093 843 0.0002 - - -
4.3144 844 0.0004 - - -
4.3195 845 0.0007 - - -
4.3246 846 0.0002 - - -
4.3297 847 0.0005 - - -
4.3348 848 0.0002 - - -
4.3399 849 0.0003 - - -
4.3450 850 0.0002 - - -
4.3502 851 0.0006 - - -
4.3553 852 0.0002 - - -
4.3604 853 0.0001 - - -
4.3655 854 0.0001 - - -
4.3706 855 0.0003 - - -
4.3757 856 0.0015 - - -
4.3808 857 0.0002 - - -
4.3859 858 0.0006 - - -
4.3911 859 0.0002 - - -
4.3962 860 0.0021 - - -
4.4013 861 0.0003 - - -
4.4064 862 0.0006 - - -
4.4115 863 0.0005 - - -
4.4166 864 0.0051 - - -
4.4217 865 0.0011 - - -
4.4268 866 0.0002 - - -
4.4319 867 0.0003 - - -
4.4371 868 0.0005 - - -
4.4422 869 0.0001 - - -
4.4473 870 0.0002 - - -
4.4524 871 0.0003 - - -
4.4575 872 0.0001 - - -
4.4626 873 0.0007 - - -
4.4677 874 0.0003 - - -
4.4728 875 0.0016 - - -
4.4780 876 0.0002 - - -
4.4831 877 0.0003 - - -
4.4882 878 0.0003 - - -
4.4933 879 0.0004 - - -
4.4984 880 0.0003 - - -
4.5035 881 0.0001 - - -
4.5086 882 0.0001 - - -
4.5137 883 0.0005 - - -
4.5188 884 0.0001 - - -
4.5240 885 0.0004 - - -
4.5291 886 0.0005 - - -
4.5342 887 0.0012 - - -
4.5393 888 0.0015 - - -
4.5444 889 0.0002 - - -
4.5495 890 0.0007 - - -
4.5546 891 0.0018 - - -
4.5597 892 0.0004 - - -
4.5649 893 0.0003 - - -
4.5700 894 0.0002 - - -
4.5751 895 0.0004 - - -
4.5802 896 0.0024 - - -
4.5853 897 0.0043 - - -
4.5904 898 0.0001 - - -
4.5955 899 0.0001 - - -
4.6006 900 0.0005 - - -
4.6058 901 0.0002 - - -
4.6109 902 0.0003 - - -
4.6160 903 0.0012 - - -
4.6211 904 0.0004 - - -
4.6262 905 0.0004 - - -
4.6313 906 0.0004 - - -
4.6364 907 0.0006 - - -
4.6415 908 0.0006 - - -
4.6466 909 0.0007 - - -
4.6518 910 0.0009 - - -
4.6569 911 0.0008 - - -
4.6620 912 0.0029 - - -
4.6671 913 0.0006 - - -
4.6722 914 0.0005 - - -
4.6773 915 0.0031 - - -
4.6824 916 0.0004 - - -
4.6875 917 0.0005 - - -
4.6927 918 0.0005 - - -
4.6978 919 0.0005 - - -
4.7029 920 0.0007 - - -
4.7080 921 0.001 - - -
4.7131 922 0.0004 - - -
4.7182 923 0.0004 - - -
4.7233 924 0.0008 - - -
4.7284 925 0.0003 - - -
4.7335 926 0.0003 - - -
4.7387 927 0.0002 - - -
4.7438 928 0.0003 - - -
4.7489 929 0.0005 - - -
4.7540 930 0.0006 - - -
4.7591 931 0.0006 - - -
4.7642 932 0.0002 - - -
4.7693 933 0.0003 - - -
4.7744 934 0.0002 - - -
4.7796 935 0.0002 - - -
4.7847 936 0.0016 - - -
4.7898 937 0.0002 - - -
4.7949 938 0.0002 - - -
4.8 939 0.0003 - - -
4.8051 940 0.0001 - - -
4.8102 941 0.0 - - -
4.8153 942 0.0001 - - -
4.8204 943 0.0007 - - -
4.8256 944 0.0002 - - -
4.8307 945 0.0005 - - -
4.8358 946 0.0004 - - -
4.8409 947 0.0001 - - -
4.8460 948 0.0003 - - -
4.8511 949 0.0001 - - -
4.8562 950 0.0002 - - -
4.8613 951 0.0001 - - -
4.8665 952 0.0009 - - -
4.8716 953 0.0001 - - -
4.8767 954 0.0002 - - -
4.8818 955 0.0011 - - -
4.8869 956 0.0038 - - -
4.8920 957 0.0002 - - -
4.8971 958 0.0025 - - -
4.9022 959 0.001 - - -
4.9073 960 0.0003 - - -
4.9125 961 0.0001 - - -
4.9176 962 0.0024 - - -
4.9227 963 0.0044 - - -
4.9278 964 0.0001 - - -
4.9329 965 0.001 - - -
4.9380 966 0.0003 - - -
4.9431 967 0.0004 - - -
4.9482 968 0.0002 - - -
4.9534 969 0.0002 - - -
4.9585 970 0.0002 - - -
4.9636 971 0.0005 - - -
4.9687 972 0.0009 - - -
4.9738 973 0.0014 - - -
4.9789 974 0.0008 - - -
4.9840 975 0.0003 - - -
4.9891 976 0.0005 - - -
4.9942 977 0.0004 - - -
4.9994 978 0.0002 0.0198 0.4147 0.9380

Framework Versions

  • Python: 3.11.9
  • Sentence Transformers: 3.3.1
  • Transformers: 4.45.2
  • PyTorch: 2.4.1+cu121
  • Accelerate: 1.2.1
  • Datasets: 3.2.0
  • Tokenizers: 0.20.3

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

ContrastiveLoss

@inproceedings{hadsell2006dimensionality,
    author={Hadsell, R. and Chopra, S. and LeCun, Y.},
    booktitle={2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)},
    title={Dimensionality Reduction by Learning an Invariant Mapping},
    year={2006},
    volume={2},
    number={},
    pages={1735-1742},
    doi={10.1109/CVPR.2006.100}
}
Downloads last month
5
Safetensors
Model size
278M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for Lettria/idf-go_embedder-contrastive-after_epoch_4

Quantized
(27)
this model

Evaluation results