license: apache-2.0 datasets: - EleutherAI/the_pile_deduplicated - SaylorTwift/the_pile_books3_minus_gutenberg - sordonia/narrativeqa - wecover/OPUS_OpenSubtitles - bookcorpus/bookcorpus - big-banyan-tree/BBT_CommonCrawl_2024 - nu-dialogue/real-persona-chat language: - it - en metrics: - rouge - perplexity - f1 base_model: - nvidia/Llama-3.1-Nemotron-70B-Instruct-HF pipeline_tag: question-answering
Model Card for Multilingual QA Model
Model Details
Model Description
Questo modello è stato progettato per compiti di Question Answering (QA) in due lingue principali: italiano e inglese. È basato sul modello nvidia/Llama-3.1-Nemotron-70B-Instruct-HF
e ottimizzato su una vasta gamma di dataset narrativi, conversazionali e testuali.
- Sviluppato da: Team OpenAI GPT
- Finanziato da: Collaborazioni accademiche e industriali (da specificare se necessario).
- Condiviso da: Utente anonimo su Hugging Face.
- Tipo di modello: Instruct-based Language Model
- Lingue supportate: Italiano, Inglese
- Licenza: Apache 2.0
- Base:
nvidia/Llama-3.1-Nemotron-70B-Instruct-HF
Model Sources
- Repository: [Link a Hugging Face o GitHub]
- Demo: [Link alla demo su Hugging Face Spaces o app dedicata]
Uses
Direct Use
Il modello è progettato per rispondere a domande complesse, generare riassunti, tradurre testi e svolgere analisi di documenti in italiano e inglese.
Downstream Use
Può essere adattato per applicazioni in domini specifici, come l’assistenza sanitaria, il supporto clienti o la ricerca accademica, previa fine-tuning.
Out-of-Scope Use
Non adatto per:
- Predizioni cliniche o finanziarie.
- Decisioni che richiedono alta precisione o validazione umana.
Bias, Risks, and Limitations
Bias
Il modello potrebbe riflettere pregiudizi culturali o linguistici presenti nei dataset utilizzati, specialmente in contesti sensibili o minoritari.
Limitations
- Prestazioni limitate per lingue non allenate.
- Possibile generazione di risposte incoerenti o non verificate.
Recommendations
Si consiglia un controllo umano nelle applicazioni critiche per evitare errori.
How to Get Started with the Model
Per utilizzare il modello, eseguire il seguente codice:
from transformers import pipeline
qa_pipeline = pipeline("question-answering", model="model_id")
result = qa_pipeline(question="Qual è il capitale d'Italia?", context="L'Italia è un paese dell'Europa con capitale Roma.")
print(result)