Course documentation

Introduzione

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Introduzione

Ask a Question

Benvenuto/a al corso di 🤗!

Questo corso ti insegnerà a eseguire compiti di Natural Language Processing (NLP, elaborazione del linguaggio naturale) utilizzando le librerie dell’ecosistema di Hugging Face: 🤗 Transformers, 🤗 Datasets, 🤗 Tokenizers, e 🤗 Accelerate. Ti insegneremo anche ad usare il nostro Hugging Face Hub, che è completamente gratuito e senza pubblicità.

Contenuti

Eccoti un breve riassunto dei contenuti del corso:

Brief overview of the chapters of the course.
  • I capitoli da 1 a 4 forniscono un’introduzione ai concetti principali della libreria 🤗 Transformers. Alla fine di questa parte del corso, conoscerai come funzionano i modelli Transformers e saprai come utilizzare un modello dell’Hugging Face Hub, affinarlo in un dataset, e condividere i tuoi risultati nell’Hub!
  • I capitoli da 5 a 8 insegnano le basi degli 🤗 Dataset e degli 🤗 Tokenizer, per poi esplorare alcuni compiti classici di NLP. Alla fine di questa parte, saprai far fronte ai problemi di NLP più comuni in maniera autonoma.
  • I capitoli da 9 a 12 vanno oltre il Natural Language Processing, ed esplorano come i modelli Transformer possano essere utilizzati per affrontare compiti di elaborazione vocale o visione artificiale. Strada facendo, imparerai a costruire e condividere demo (dimostrazioni) dei tuoi modelli, e ad ottimizzarli per la produzione. Alla fine di questa parte, sarai pronto ad utilizzare gli 🤗 Transformer per qualsiasi problema di machine learning (apprendimento automatico), o quasi!

Questo corso:

  • Richiede una buona conoscenza di Python
  • Andrebbe seguito di preferenza a seguito di un corso introduttivo di deep learning (apprendimento profondo), come ad esempio il Practical Deep Learning for Coders di fast.ai, oppure uno dei programmi sviluppati da DeepLearning.AI
  • Non richiede conoscenze pregresse di PyTorch o TensorFlow, nonostante sia gradita una conoscenza anche superficiale dell’uno o dell’altro

Quando avrai completato questo corso, ti raccomandiamo di passare al Natural Language Processing Specialization di DeepLearning.AI, un corso che copre un ampio spettro di modelli tradizionali di NLP che vale davvero la pena di conoscere, come Naive Bayes e LSTM (Memoria a breve termine a lungo termine)!

Chi siamo?

A proposito degli autori:

Matthew Carrigan è Machine Learning Engineer da Hugging Face. Vive a Dublino, in Irlanda, ed in passato è stato ML engineer da Parse.ly, e prima ancora ricercatore postdottorale al Trinity College di Dublin. Nonostante non creda che otterremo l’Intelligenza artificiale forte semplicemente ingrandendo le architetture a nostra disposizione, spera comunque nell’immortalità cibernetica.

Lysandre Debut è Machine Learning Engineer da Hugging Face e ha lavorato agli 🤗 Transformer fin dalle primissime tappe del loro sviluppo. Il suo obiettivo è di rendere il NLP accessibile a tutti sviluppando strumenti con un semplice API.

Sylvain Gugger è Research Engineer da Hugging Face e uno dei principali manutentori della libreria 🤗 Transformers. In passato, è stato Research Scientist da fast.ai, e ha scritto Deep Learning for Coders with fastai and PyTorch con Jeremy Howard. Il centro principale della sua ricerca consiste nel rendere il deep learning (apprendimento profondo) più accessibile, concependo e migliorando tecniche che permettano di allenare modelli velocemente con risorse limitate.

Merve Noyan è developer advocate da Hugging Face, e lavora allo sviluppo di strumenti e alla creazione di contenuti ad essi legati per democratizzare l’accesso al deep learning.

Lucile Saulnier è machine learning engineer da Hugging Face, e sviluppa e supporta l’utilizzo di strumenti open source. È anche attivamente coinvolta in numerosi progetti di ricerca nell’ambito del NLP, come ad esempio collaborative training e BigScience.

Lewis Tunstall è machine learning engineer da Hugging Face che si specializza nello sviluppo di strumenti open-source e la loro distribuzione alla comunità più ampia. È anche co-autore dell’imminente O’Reilly book on Transformers.

Leandro von Werra è machine learning engineer nel team open-source di Hugging Face, nonché co-autore dell’imminente O’Reilly book on Transformers. Ha tanti anni di esperienza nel portare progetti di NLP in produzione, lavorando a tutti i livelli di esecuzione di compiti di machine learning.

Sei pronto/a a iniziare? In questo capitolo, imparerai:

  • Ad utilizzare la funzione pipeline() per eseguire compiti di NLP come la generazione e classificazione di testi
  • L’architettura dei Transformer
  • Come fare la distinzione tra architetture encoder, decoder, encoder-decoder, e casi d’uso