File size: 31,259 Bytes
7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 d5fb2bf 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 7745f05 200b4e0 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 |
---
base_model: Alibaba-NLP/gte-multilingual-base
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_map@100
- dot_accuracy@1
- dot_accuracy@3
- dot_accuracy@5
- dot_accuracy@10
- dot_precision@1
- dot_precision@3
- dot_precision@5
- dot_precision@10
- dot_recall@1
- dot_recall@3
- dot_recall@5
- dot_recall@10
- dot_ndcg@10
- dot_mrr@10
- dot_map@100
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:303863
- loss:CachedGISTEmbedLoss
- legal
- taxation
- fiscalité
- tax
widget:
- source_sentence: >-
Élucider la signification de 'navire de plaisance' d'après l'article 217
undecies du Code général des impôts et détailler les différents types
d'investissements concernés.
sentences:
- >-
Selon l'article 217 undecies du Code général des impôts, pour bénéficier de
la déduction fiscale, les investissements doivent être réalisés sous forme
de souscriptions au capital de sociétés qui gèrent des concessions de
service public local. Ces investissements doivent être spécifiquement
orientés vers des activités productives assignées à ces concessions pour une
durée minimale de cinq ans. En outre, ces concessions doivent opérer
exclusivement dans des secteurs éligibles situés dans les départements ou
collectivités d'outre-mer, contribuant ainsi au développement économique des
territoires ultramarins.
- >-
Dans le contexte de l'article 217 undecies du Code général des impôts, un
'navire de plaisance' désigne une embarcation spécifiquement utilisée pour
des activités de loisir, excluant ainsi toute utilisation professionnelle
telle que la pêche ou le transport. Les investissements pertinents pouvant
bénéficier de cet agrément incluent non seulement l'achat ou la construction
de ces navires, mais aussi leur utilisation dans des activités de tourisme
comme la location sous différentes formes, les voyages organisés et la pêche
de loisir, ainsi que les investissements dans les infrastructures et
équipements nécessaires à ces activités touristiques.
- >-
L'article R. 257 B-1 du Livre des Procédures Fiscales organise les modalités
pratiques relatives à l'information du contribuable quant à la mise en œuvre
d'une compensation fiscale de recouvrement. Cette disposition confère au
contribuable le droit d'être informé en amont de la réalisation de la
compensation. Ce dispositif implique que le comptable public est tenu de
communiquer avec le contribuable, afin de l'éclairer sur le processus et les
conséquences de cette opération. L'information préalable joue un rôle
crucial, car elle accorde au redevable l'opportunité de comprendre les
ajustements à venir sur ses comptes vis-à-vis de l'administration fiscale.
- source_sentence: >-
Énumérer en détail les informations requises par l'article 50-00 G, Annexe
IV du Code général des impôts concernant la déclaration récapitulative
mensuelle que doit établir l'entrepositaire agréé.
sentences:
- >-
Pour se conformer aux dispositions imposées par l'article 50-00 G, Annexe IV
du Code général des impôts, l'entrepositaire agréé est tenu de rédiger une
déclaration récapitulative mensuelle distincte pour chaque entrepôt fiscal
suspensif des droits d'accises qu'il gère. Une telle déclaration doit
comprendre : les noms ou la dénomination de l'entreprise, l'adresse du siège
social ou du principal établissement, le numéro d'identification de
l'entrepôt fiscal, l'adresse de l'entrepôt fiscal, le lieu de tenue de la
comptabilité matières, l'année et le mois concernés par la déclaration, la
date et le lieu d'établissement de la déclaration ainsi que la signature et
le cachet de l'entreprise. Elle doit également indiquer la raison sociale de
la caution ou, le cas échéant, la mention 'Dispense'. Au besoin, elle peut
comporter des mentions relatives aux comptes d'âge ou de vieillissement, les
références aux contrats d'achat qui exigent un visa de l'établissement
mentionné dans l'article L. 621-1 du Code rural et de la pêche maritime, les
numéros d'enregistrement des contrats d'achat et les numéros des
déclarations de transactions soumises aux interprofessions, ainsi que l'avis
de blocage, l'engagement de garantie ou la mainlevée de warrant agricole ou
de l'engagement de garantie, selon l'applicabilité à chaque cas particulier.
- >-
L'intégration de Mayotte dans le champ d'application du Code général des
impôts, rendant ainsi les entreprises mahoraises éligibles au crédit d'impôt
pour investissements productifs outre-mer, a été actée par le législateur au
travers de la loi n° 2010-1487 du 7 décembre 2010. Cette loi a élevé Mayotte
au statut de département, étendant à ce titre l'ensemble des dispositions du
CGI. L'ordonnance n° 2013-837 du 19 septembre 2013 est venue quant à elle
expliciter les adaptations nécessaires au code des douanes et au CGI pour
Mayotte. Conséquence directe de ces textes, les entreprises exerçant à
Mayotte peuvent prétendre au crédit d'impôt en vigueur dès le 1er janvier
2014, conformément à l'article 244 quater W du CGI.
- >-
Le relevé des frais généraux prévu à l'article 54 quater du Code général des
impôts doit comporter les renseignements propres à l'exercice pour lequel il
est fourni et ceux qui se rapportent à l'exercice précédent.
- source_sentence: >-
Quels sont les éléments que doit contenir la demande déposée auprès de la
direction générale des finances publiques pour que les sociétés, compagnies
ou entreprises françaises puissent bénéficier du régime fiscal prévu pour
l'émission de séries spéciales d'obligations à l'étranger ?
sentences:
- >-
Pour le premier exercice comptable de l'entreprise d'une durée de quatorze
mois, le plafond standard d'exonération de 61 000 € est ajusté au prorata de
la durée, donnant un nouveau plafond d'exonération de 71 166 € (61 000 € x
14/12).
- >-
Pour être admises à bénéficier du régime fiscal prévu au 1 de l'article 131
ter du Code général des impôts, les sociétés, compagnies ou entreprises
françaises qui se proposent d'émettre à l'étranger des séries spéciales
d'obligations, doivent déposer au préalable une demande spéciale à la
direction générale des finances publiques. Cette demande indique la date et
les conditions de l'émission ainsi que le nombre, le montant et les numéros
des titres à émettre.
- >-
Pour atténuer certaines contraintes fiscales, les sociétés étrangères
exerçant une activité sur le territoire français ont la possibilité de
restreindre le montant de la retenue à la source, qu'elles sont tenues de
verser en vertu de l'article 115 quinquies du Code général des impôts, à une
somme équivalente à l'impôt définitivement dû. Cette réduction prend en
considération les prévisions de distributions de dividendes et le lieu de
résidence fiscale des actionnaires. Pour bénéficier de ce dispositif,
lesdites sociétés doivent expressément formuler une demande en référence à
la directive pertinente et la joindre à la déclaration n° 2777-D-SD. Cela
implique un suivi rigoureux de l'impact des distributions réelles et des
domiciliations des bénéficiaires afin d'éviter les insuffisances de
versement, sous peine de régularisation ultérieure accompagnée de l'intérêt
de retard selon les articles 1727 et 1729 du même code.
- source_sentence: >-
Expliquez comment est organisé le recouvrement de l'impôt sur la fortune
immobilière en référence aux modalités décrites dans l'article 1658 du Code
général des impôts.
sentences:
- >-
Dans le contexte de la déclaration des revenus fonciers, la société doit
émettre une attestation annuelle qui doit être remise à chaque associé au
plus tard le deuxième jour ouvré après le 1er mai, selon les modalités
fixées par le décret n° 2009-316 du 20 mars 2009. Cette attestation revêt
une importance cruciale puisqu'elle permet aux associés de renseigner
correctement leur déclaration de revenus fonciers via l'imprimé n° 2044
spécial. Elle doit recenser des informations précises : l'identité et
l'adresse de l'associé, la détention des parts au cours de l'année, le
respect des conditions de loyer, le montant de l'amortissement ainsi que le
revenu net foncier qui découle des parts de l'associé, tant dans le régime
de droit commun qu'en incluant la déduction liée à l'amortissement.
- >-
Le recouvrement de l'impôt sur la fortune immobilière s'orchestre
conformément aux dispositions disposées dans l'article 1658 du Code général
des impôts. Cela implique que les techniques, les procédures, ainsi que les
moyens d'exécution prévus pour le recouvrement de cet impôt sont alignés sur
ceux établis pour l'impôt sur le revenu.
- >-
L'article 981 du Code général des impôts établit que les normes régissant
les droits d'enregistrement, sauf spécification contraire, sont adaptées à
la gestion de l'impôt sur la fortune immobilière. Cela signifie que les
méthodes de contrôle, telles que les audits et inspections, ainsi que les
procédures de règlement des contentieux sont extensibles à l'impôt sur la
fortune immobilière. Cette approche garantit une uniformité des pratiques
administratives fiscales, facilitant ainsi une application homogène et
cohérente des lois fiscales relatives à la fortune immobilière.
- source_sentence: >-
Exposer les modalités de dérogation au secret fiscal autorisant le juge à
demander des documents fiscaux nécessaires pour résoudre un litige, en vertu
de l'article L. 143 du Livre des Procédures Fiscales.
sentences:
- >-
Selon les dispositions du Bulletin officiel des finances
publiques-instructions administratives, spécifiquement le
BOI-DJC-SECR-10-20-50, le procureur de la République détient le droit, dans
le contexte de toute investigation judiciaire, qu'elle relève d'une enquête
de flagrance, préliminaire ou autre, de solliciter des renseignements ou
documents essentiels à l'enquête auprès de l'administration fiscale. Cette
sollicitation peut être adressée directement ou via un officier de police
judiciaire agissant sur une réquisition du procureur. Conformément à
l'article L.141 A du Livre des procédures fiscales, le secret fiscal ne
constitue pas un frein légal à la transmission des informations ou documents
exigés par le procureur.
- >-
L'article 199 novovicies du Code général des impôts dispose de modalités de
réduction d'impôt spécifiques pour les transactions d'acquisition et de
construction durant les années 2023 et 2024. En 2023, les bénéfices de cette
réduction s'établissent à 4,5 % pour la première phase triennale et à 2,5 %
pour la seconde. Pour les opérations effectuées en 2024, les réductions
offertes sont de 3 % pendant la première période triennale et de 2 % pour la
suivante. Ces pourcentages se rapportent aux acquisitions non mentionnées au
5° du B du I ainsi qu'aux constructions référencées au 1° du B du I, avec
nécessité que le permis de construire ait été délivré durant l'année
correspondante.
- >-
Conformément aux dispositions de l'article L. 143 du Livre des Procédures
Fiscales, le secret fiscal peut être levé dans le cadre d'un litige par
décision du juge. Cette mesure vise à autoriser la présentation de documents
fiscaux, jugés utiles par le magistrat pour trancher une affaire. La levée
de ce secret est toutefois soumise à une interprétation stricte, de sorte
que seuls les documents réellement susceptibles d'éclairer le juge sur
l'étendue du préjudice des individus impliqués peuvent être divulgués. Les
renseignements qui n'ont de pertinence que pour des questions périphériques
de la procédure ou qui se rapportent uniquement à l'application d'un
jugement déjà prononcé sont exclus de cette possibilité de communication.
co2_eq_emissions:
emissions: 2036.3553910202609
energy_consumed: 5.516569338938681
source: codecarbon
training_type: fine-tuning
on_cloud: false
cpu_model: AMD EPYC 9V84 96-Core Processor
ram_total_size: 314.68053817749023
hours_used: 9.954
hardware_used: 1 x NVIDIA H100 NVL
model-index:
- name: SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
results:
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: Lemone
type: Lemone
metrics:
- type: cosine_accuracy@1
value: 0.9736673089274245
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.9916506101477199
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.993577392421323
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.9967886962106616
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.9736673089274245
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.33055020338257335
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.1987154784842646
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.09967886962106615
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.9736673089274245
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.9916506101477199
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.993577392421323
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.9967886962106616
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.9865226900324854
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.9830947793375538
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.9832069316895906
name: Cosine Map@100
- type: dot_accuracy@1
value: 0.9736673089274245
name: Dot Accuracy@1
- type: dot_accuracy@3
value: 0.9916506101477199
name: Dot Accuracy@3
- type: dot_accuracy@5
value: 0.993577392421323
name: Dot Accuracy@5
- type: dot_accuracy@10
value: 0.9967886962106616
name: Dot Accuracy@10
- type: dot_precision@1
value: 0.9736673089274245
name: Dot Precision@1
- type: dot_precision@3
value: 0.33055020338257335
name: Dot Precision@3
- type: dot_precision@5
value: 0.1987154784842646
name: Dot Precision@5
- type: dot_precision@10
value: 0.09967886962106615
name: Dot Precision@10
- type: dot_recall@1
value: 0.9736673089274245
name: Dot Recall@1
- type: dot_recall@3
value: 0.9916506101477199
name: Dot Recall@3
- type: dot_recall@5
value: 0.993577392421323
name: Dot Recall@5
- type: dot_recall@10
value: 0.9967886962106616
name: Dot Recall@10
- type: dot_ndcg@10
value: 0.9865226900324854
name: Dot Ndcg@10
- type: dot_mrr@10
value: 0.9830947793375538
name: Dot Mrr@10
- type: dot_map@100
value: 0.9832069316895906
name: Dot Map@100
license: apache-2.0
language:
- fr
datasets:
- louisbrulenaudet/code-impots
- louisbrulenaudet/code-impots-annexe-iv
- louisbrulenaudet/code-impots-annexe-iii
- louisbrulenaudet/code-impots-annexe-i
- louisbrulenaudet/code-impots-annexe-ii
- louisbrulenaudet/livre-procedures-fiscales
- louisbrulenaudet/bofip
---
<img src="assets/thumbnail.webp">
# Lemone-Embed: A Series of Fine-Tuned Embedding Models for French Taxation
<div class="not-prose bg-gradient-to-r from-gray-50-to-white text-gray-900 border" style="border-radius: 8px; padding: 0.5rem 1rem;">
<p>This series is made up of 7 models, 3 basic models of different sizes trained on 1 epoch, 3 models trained on 2 epochs making up the Boost series and a Pro model with a non-Roberta architecture.</p>
</div>
This sentence transformers model, specifically designed for French taxation, has been fine-tuned on a dataset comprising 43 million tokens, integrating a blend of semi-synthetic and fully synthetic data generated by GPT-4 Turbo and Llama 3.1 70B, which have been further refined through evol-instruction tuning and manual curation.
The model is tailored to meet the specific demands of information retrieval across large-scale tax-related corpora, supporting the implementation of production-ready Retrieval-Augmented Generation (RAG) applications. Its primary purpose is to enhance the efficiency and accuracy of legal processes in the taxation domain, with an emphasis on delivering consistent performance in real-world settings, while also contributing to advancements in legal natural language processing research.
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base) <!-- at revision 7fc06782350c1a83f88b15dd4b38ef853d3b8503 -->
- **Maximum Sequence Length:** 8192 tokens
- **Output Dimensionality:** 768 tokens
- **Similarity Function:** Cosine Similarity
- **Developed by:** Louis Brulé Naudet
- **Funded by:** Microsoft for Startups
- **Shared by:** Louis Brulé Naudet
- **Model type:** Sentence Transformers
- **Language(s) (NLP):** FR
- **License:** Apache 2
- **Finetuned from model:** [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base)
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("louisbrulenaudet/lemone-gte-embed-max")
# Run inference
sentences = [
"Exposer les modalités de dérogation au secret fiscal autorisant le juge à demander des documents fiscaux nécessaires pour résoudre un litige, en vertu de l'article L. 143 du Livre des Procédures Fiscales.",
"Conformément aux dispositions de l'article L. 143 du Livre des Procédures Fiscales, le secret fiscal peut être levé dans le cadre d'un litige par décision du juge. Cette mesure vise à autoriser la présentation de documents fiscaux, jugés utiles par le magistrat pour trancher une affaire. La levée de ce secret est toutefois soumise à une interprétation stricte, de sorte que seuls les documents réellement susceptibles d'éclairer le juge sur l'étendue du préjudice des individus impliqués peuvent être divulgués. Les renseignements qui n'ont de pertinence que pour des questions périphériques de la procédure ou qui se rapportent uniquement à l'application d'un jugement déjà prononcé sont exclus de cette possibilité de communication.",
"Selon les dispositions du Bulletin officiel des finances publiques-instructions administratives, spécifiquement le BOI-DJC-SECR-10-20-50, le procureur de la République détient le droit, dans le contexte de toute investigation judiciaire, qu'elle relève d'une enquête de flagrance, préliminaire ou autre, de solliciter des renseignements ou documents essentiels à l'enquête auprès de l'administration fiscale. Cette sollicitation peut être adressée directement ou via un officier de police judiciaire agissant sur une réquisition du procureur. Conformément à l'article L.141 A du Livre des procédures fiscales, le secret fiscal ne constitue pas un frein légal à la transmission des informations ou documents exigés par le procureur.",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Information Retrieval
* Dataset: `Lemone`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| cosine_accuracy@1 | 0.9737 |
| cosine_accuracy@3 | 0.9917 |
| cosine_accuracy@5 | 0.9936 |
| cosine_accuracy@10 | 0.9968 |
| cosine_precision@1 | 0.9737 |
| cosine_precision@3 | 0.3306 |
| cosine_precision@5 | 0.1987 |
| cosine_precision@10 | 0.0997 |
| cosine_recall@1 | 0.9737 |
| cosine_recall@3 | 0.9917 |
| cosine_recall@5 | 0.9936 |
| cosine_recall@10 | 0.9968 |
| cosine_ndcg@10 | 0.9865 |
| cosine_mrr@10 | 0.9831 |
| **cosine_map@100** | **0.9832** |
| dot_accuracy@1 | 0.9737 |
| dot_accuracy@3 | 0.9917 |
| dot_accuracy@5 | 0.9936 |
| dot_accuracy@10 | 0.9968 |
| dot_precision@1 | 0.9737 |
| dot_precision@3 | 0.3306 |
| dot_precision@5 | 0.1987 |
| dot_precision@10 | 0.0997 |
| dot_recall@1 | 0.9737 |
| dot_recall@3 | 0.9917 |
| dot_recall@5 | 0.9936 |
| dot_recall@10 | 0.9968 |
| dot_ndcg@10 | 0.9865 |
| dot_mrr@10 | 0.9831 |
| dot_map@100 | 0.9832 |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
* Size: 303,863 training samples
* Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
* Approximate statistics based on the first 1000 samples:
| | query | positive | negative |
|:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
| type | string | string | string |
| details | <ul><li>min: 27 tokens</li><li>mean: 51.44 tokens</li><li>max: 137 tokens</li></ul> | <ul><li>min: 39 tokens</li><li>mean: 197.8 tokens</li><li>max: 1607 tokens</li></ul> | <ul><li>min: 48 tokens</li><li>mean: 224.41 tokens</li><li>max: 2735 tokens</li></ul> |
* Loss: [<code>CachedGISTEmbedLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedgistembedloss) with these parameters:
```json
{'guide': SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
), 'temperature': 0.01}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 128
- `learning_rate`: 2e-05
- `num_train_epochs`: 1
- `warmup_ratio`: 0.1
- `fp16`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: steps
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 128
- `per_device_eval_batch_size`: 8
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 1
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: False
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `eval_use_gather_object`: False
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
</details>
### Environmental Impact
Carbon emissions were measured using [CodeCarbon](https://github.com/mlco2/codecarbon).
- **Energy Consumed**: 5.517 kWh
- **Carbon Emitted**: 2.036 kg of CO2
- **Hours Used**: 9.954 hours
### Training Hardware
- **On Cloud**: No
- **GPU Model**: 1 x NVIDIA H100 NVL
- **CPU Model**: AMD EPYC 9V84 96-Core Processor
- **RAM Size**: 314.68 GB
### Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.1.1
- Transformers: 4.44.2
- PyTorch: 2.3.0+cu121
- Accelerate: 0.33.0
- Datasets: 2.21.0
- Tokenizers: 0.19.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
If you use this code in your research, please use the following BibTeX entry.
```BibTeX
@misc{louisbrulenaudet2024,
author = {Louis Brulé Naudet},
title = {Lemone-Embed: A Series of Fine-Tuned Embedding Models for French Taxation},
year = {2024}
howpublished = {\url{https://huggingface.co/datasets/louisbrulenaudet/lemone-embed-pro}},
}
```
## Feedback
If you have any feedback, please reach out at [louisbrulenaudet@icloud.com](mailto:louisbrulenaudet@icloud.com). |