NLP Course documentation

Riassunto

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Riassunto

Ask a Question

In questo capitolo, hai scoperto come approcciare diversi compiti di NLP utilizzando la funzione di alto livello pipeline() degli 🤗 Transformer. Abbiamo anche visto come cercare e utilizzare i modelli dell’Hub, nonché come usare l’Inference API per testare i modelli direttamente nel tuo browser.

Abbiamo discusso di come i modelli Transformer lavorino a livello alto, e parlato dell’importanza del transfer learning e dell’affinamento. Un aspetto chiave è che è possibile utilizzare l’architettuta completa oppure solo l’encoder o il decoder, dipendentemente dal compito a cui desideri lavorare. La tabella seguente riordina questi concetti:

Modello Esempi Compiti
Encoder ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa Classificazione frasale, riconoscimento delle entità nominate, estrazione di risposte a domande
Decoder CTRL, GPT, GPT-2, Transformer XL Generazione di testi
Encoder-decoder BART, T5, Marian, mBART Riassunti, traduzione, generazione di risposte a domande