--- license: apache-2.0 library_name: peft tags: - generated_from_trainer widget: - text: He was a skater boy, she said see you later boy pipeline_tag: text-generation base_model: mistralai/Mistral-7B-v0.1 model-index: - name: mistral-flo-finetune-2-T4 results: [] --- # mistral-flo-finetune-2-T4 This model is a fine-tuned version of [mistralai/Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1) on an unknown dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2.5e-05 - train_batch_size: 4 - eval_batch_size: 16 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - lr_scheduler_warmup_steps: 1 - training_steps: 500 ### Framework versions - PEFT 0.8.2 - Transformers 4.37.0 - Pytorch 2.1.2 - Datasets 2.1.0 - Tokenizers 0.15.1 # Mistral_fine_tuning *Florian Dufaure - Volodia Fernandez* ## Introduction Nous sommes parties de [Mistral](https://huggingface.co/mistralai/Mistral-7B-v0.1) afin de créer un générateur de phrase en le fine tunant avec du light novel [Dataset Light Novel](https://huggingface.co/datasets/alpindale/light-novels) Notre modèle est sur Hugging Face à l'adresse suivante : [Mistral-fine-tuning-light-novel](https://huggingface.co/FloVolo/mistral-flo-finetune-2-T4) ## Version en local Nous avons eu quelques soucis avec le fonctionnement depuis Hugging Face, donc il est possible de tester notre modèle en local depuis le fichier **Light_Novel_Generation.ipynb**. Pour cela il suffit d'aller à la fin du fichier dans la partie *Test en local de notre fichier*. Et de modifier l'**eval_prompt** afin que notre modèle le complète. ## Running Pour lancer notre service il suffit de faire ```py python app.py ``` Et de se rendre sur l'url indiqué dans le terminal et de générer ce qu'on veut. ## Entrainement du modèle Nous avons entrainé le modèle sur une petite partie du dataset par manque de temps et sur une époque. Voici la courbe de loss durant le training du modèle Loss function during training