Update README.md
Browse files# Mistral-ORCA : Un modèle de langage fin-réglé pour la résolution de problèmes mathématiques
Mistral-ORCA est un modèle de langage causal puissant, fin-réglé sur le dataset ORCA (Open-Ended Reasoning Corpus for Algebra Word Problems) pour la résolution de problèmes mathématiques écrits. Il est basé sur l'architecture Transformer Mistral de 7 milliards de paramètres, entraînée en utilisant la technique d'adaptation de rang faible LoRA (Low-Rank Adaptation).
## Utilisation
Le modèle peut être chargé et utilisé facilement avec la bibliothèque HuggingFace Transformers. Voici un exemple de code Python :
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
# Charger le tokenizer et le modèle
tokenizer = AutoTokenizer.from_pretrained("jeanflop/Mistral_Orcas_7B")
model = AutoModelForCausalLM.from_pretrained("jeanflop/Mistral_Orcas_7B")
# Exemple de problème mathématique
problem = "À la boulangerie, il y a 12 gâteaux au chocolat et 8 gâteaux aux fruits. Combien y a-t-il de gâteaux en tout ?"
# Tokeniser le problème
inputs = tokenizer(problem, return_tensors="pt")
# Générer la solution
outputs = model.generate(**inputs, max_new_tokens=256)
# Décoder la solution
solution = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(solution)
Ressources
Architecture Mistral : [https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2]
Dataset ORCA : [https://huggingface.co/datasets/microsoft/orca-math-word-problems-200k]