jeanflop commited on
Commit
30f1f16
1 Parent(s): 65fb049

Update README.md

Browse files

# Mistral-ORCA : Un modèle de langage fin-réglé pour la résolution de problèmes mathématiques

Mistral-ORCA est un modèle de langage causal puissant, fin-réglé sur le dataset ORCA (Open-Ended Reasoning Corpus for Algebra Word Problems) pour la résolution de problèmes mathématiques écrits. Il est basé sur l'architecture Transformer Mistral de 7 milliards de paramètres, entraînée en utilisant la technique d'adaptation de rang faible LoRA (Low-Rank Adaptation).

## Utilisation

Le modèle peut être chargé et utilisé facilement avec la bibliothèque HuggingFace Transformers. Voici un exemple de code Python :

```python
from transformers import AutoTokenizer, AutoModelForCausalLM

# Charger le tokenizer et le modèle
tokenizer = AutoTokenizer.from_pretrained("jeanflop/Mistral_Orcas_7B")
model = AutoModelForCausalLM.from_pretrained("jeanflop/Mistral_Orcas_7B")

# Exemple de problème mathématique
problem = "À la boulangerie, il y a 12 gâteaux au chocolat et 8 gâteaux aux fruits. Combien y a-t-il de gâteaux en tout ?"

# Tokeniser le problème
inputs = tokenizer(problem, return_tensors="pt")

# Générer la solution
outputs = model.generate(**inputs, max_new_tokens=256)

# Décoder la solution
solution = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(solution)

Ressources
Architecture Mistral : [https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2]
Dataset ORCA : [https://huggingface.co/datasets/microsoft/orca-math-word-problems-200k]

Files changed (1) hide show
  1. README.md +8 -1
README.md CHANGED
@@ -1,3 +1,10 @@
1
  ---
2
  license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
1
  ---
2
  license: apache-2.0
3
+ datasets:
4
+ - microsoft/orca-math-word-problems-200k
5
+ language:
6
+ - en
7
+ metrics:
8
+ - accuracy
9
+ pipeline_tag: question-answering
10
+ ---