YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

license: apache-2.0 datasets: - EleutherAI/the_pile_deduplicated - SaylorTwift/the_pile_books3_minus_gutenberg - sordonia/narrativeqa - wecover/OPUS_OpenSubtitles - bookcorpus/bookcorpus - big-banyan-tree/BBT_CommonCrawl_2024 - nu-dialogue/real-persona-chat language: - it - en metrics: - rouge - perplexity - f1 base_model: - nvidia/Llama-3.1-Nemotron-70B-Instruct-HF pipeline_tag: question-answering

Model Card for Multilingual QA Model

Model Details

Model Description

Questo modello è stato progettato per compiti di Question Answering (QA) in due lingue principali: italiano e inglese. È basato sul modello nvidia/Llama-3.1-Nemotron-70B-Instruct-HF e ottimizzato su una vasta gamma di dataset narrativi, conversazionali e testuali.

  • Sviluppato da: Team OpenAI GPT
  • Finanziato da: Collaborazioni accademiche e industriali (da specificare se necessario).
  • Condiviso da: Utente anonimo su Hugging Face.
  • Tipo di modello: Instruct-based Language Model
  • Lingue supportate: Italiano, Inglese
  • Licenza: Apache 2.0
  • Base: nvidia/Llama-3.1-Nemotron-70B-Instruct-HF

Model Sources

  • Repository: [Link a Hugging Face o GitHub]
  • Demo: [Link alla demo su Hugging Face Spaces o app dedicata]

Uses

Direct Use

Il modello è progettato per rispondere a domande complesse, generare riassunti, tradurre testi e svolgere analisi di documenti in italiano e inglese.

Downstream Use

Può essere adattato per applicazioni in domini specifici, come l’assistenza sanitaria, il supporto clienti o la ricerca accademica, previa fine-tuning.

Out-of-Scope Use

Non adatto per:

  • Predizioni cliniche o finanziarie.
  • Decisioni che richiedono alta precisione o validazione umana.

Bias, Risks, and Limitations

Bias

Il modello potrebbe riflettere pregiudizi culturali o linguistici presenti nei dataset utilizzati, specialmente in contesti sensibili o minoritari.

Limitations

  • Prestazioni limitate per lingue non allenate.
  • Possibile generazione di risposte incoerenti o non verificate.

Recommendations

Si consiglia un controllo umano nelle applicazioni critiche per evitare errori.

How to Get Started with the Model

Per utilizzare il modello, eseguire il seguente codice:

from transformers import pipeline

qa_pipeline = pipeline("question-answering", model="model_id")
result = qa_pipeline(question="Qual è il capitale d'Italia?", context="L'Italia è un paese dell'Europa con capitale Roma.")
print(result)
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference API
Unable to determine this model's library. Check the docs .