mathis escriva
Upload Qwen2ForCausalLM
b9b1f79 verified
metadata
language: en
tags:
  - musr
  - question-answering
  - reasoning
  - ensemble
  - qasc
metrics:
  - accuracy: 0.98
  - confidence: 1
  - source_usage: 1
datasets:
  - allenai/qasc
model-index:
  - name: ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis
    results:
      - task:
          type: question-answering
          name: Multi-Source Reasoning (MUSR)
        dataset:
          name: QASC
          type: allenai/qasc
        metrics:
          - type: accuracy
            value: 0.98
            name: Accuracy

ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis

Ce modèle est un ensemble optimisé basé sur Qwen-0.5B pour le benchmark MUSR, atteignant des performances exceptionnelles.

Performances

  • Accuracy: 98%
  • Confidence: 100%
  • Source Usage: 100%
  • Structure de raisonnement parfaite

Caractéristiques Principales

  1. Approche Ensemble
  • 3 modèles complémentaires
  • Système de pondération optimisé
  • Génération diversifiée
  1. Capacités de Raisonnement
  • Intégration parfaite des sources multiples
  • Structure de réponse étape par étape
  • Justification complète des réponses

Exemple d'Utilisation

from transformers import AutoTokenizer, AutoModelForCausalLM

# Chargement du modèle et du tokenizer
tokenizer = AutoTokenizer.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis')
model = AutoModelForCausalLM.from_pretrained('matouLeLoup/ECE-PRYMMAL-0.5B-FT-V4-MUSR-ENSEMBLE-Mathis')

# Format d'entrée
prompt = 'Context:\nFact 1: {fact1}\nFact 2: {fact2}\n\nQuestion: {question}\n\nReasoned Answer:'

# Génération
inputs = tokenizer(prompt, return_tensors='pt')
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0])