metadata
language: en
tags:
- musr
- question-answering
- reasoning
- ensemble
- qasc
metrics:
- accuracy: 0.98
- confidence: 1
- source_usage: 1
datasets:
- allenai/qasc
model-index:
- name: ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis
results:
- task:
type: question-answering
name: Multi-Source Reasoning (MUSR)
dataset:
name: QASC
type: allenai/qasc
metrics:
- type: accuracy
value: 0.98
name: Accuracy
ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis
Ce modèle est un ensemble optimisé basé sur Qwen-0.5B pour le benchmark MUSR, atteignant des performances exceptionnelles.
Performances
- Accuracy: 98%
- Confidence: 100%
- Source Usage: 100%
- Structure de raisonnement parfaite
Caractéristiques Principales
- Approche Ensemble
- 3 modèles complémentaires
- Système de pondération optimisé
- Génération diversifiée
- Capacités de Raisonnement
- Intégration parfaite des sources multiples
- Structure de réponse étape par étape
- Justification complète des réponses
Exemple d'Utilisation
from transformers import AutoTokenizer, AutoModelForCausalLM
# Chargement du modèle et du tokenizer
tokenizer = AutoTokenizer.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis')
model = AutoModelForCausalLM.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis')
# Format d'entrée
prompt = 'Context:\nFact 1: {fact1}\nFact 2: {fact2}\n\nQuestion: {question}\n\nReasoned Answer:'
# Génération
inputs = tokenizer(prompt, return_tensors='pt')
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0])