Transformers documentation

Comunità

You are viewing v4.40.1 version. A newer version v4.46.3 is available.
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Comunità

Questa pagina raggruppa le risorse sviluppate dalla comunità riguardo 🤗 Transformers.

Risorse della comunità:

Risorsa Descrizione Autore
Glossario delle Flashcards di Transformers Un insieme di flashcards basate sul glossario della documentazione di Transformers, creato in un formato tale da permettere un facile apprendimento e revisione usando Anki, un’applicazione open-source e multi-piattaforma, specificatamente progettata per ricordare informazioni nel lungo termine. Guarda questo video introduttivo su come usare le flashcards. Darigov Research

Notebook della comunità:

Notebook Descrizione Autore
Fine-tuning di un Transformer pre-addestrato, al fine di generare testi di canzoni Come generare testi di canzoni nello stile del vostro artista preferito attraverso il fine-tuning di un modello GPT-2. Aleksey Korshuk Aprilo in Colab
Addestramento di T5 in Tensorflow 2 Come addestrare T5 per qualsiasi attività usando Tensorflow 2. Questo notebook mostra come risolvere l’attività di “Question Answering” usando Tensorflow 2 e SQUAD. Muhammad Harris Aprilo in Colab
Addestramento di T5 con TPU Come addestrare T5 su SQUAD con Transformers e NLP. Suraj Patil Aprilo in Colab
Fine-tuning di T5 per la classificazione e scelta multipla Come effettuare il fine-tuning di T5 per le attività di classificazione a scelta multipla - usando un formato testo-a-testo - con PyTorch Lightning. Suraj Patil Aprilo in Colab
Fine-tuning di DialoGPT su nuovi dataset e lingue Come effettuare il fine-tuning di un modello DialoGPT su un nuovo dataset per chatbots conversazionali open-dialog. Nathan Cooper Aprilo in Colab
Modellamento di una lunga sequenza con Reformer Come addestrare su sequenze di lunghezza fino a 500 mila token con Reformer. Patrick von Platen Aprilo in Colab
Fine-tuning di BART per riassumere testi Come effettuare il fine-tuning di BART per riassumere testi con fastai usando blurr. Wayde Gilliam Aprilo in Colab
Fine-tuning di un Transformer pre-addestrato su tweet Come generare tweet nello stile del tuo account Twitter preferito attraverso il fine-tuning di un modello GPT-2. Boris Dayma Aprilo in Colab
Ottimizzazione di modelli 🤗 Hugging Face con Weights & Biases Un tutorial completo che mostra l’integrazione di W&B con Hugging Face. Boris Dayma Aprilo in Colab
Longformer pre-addestrato Come costruire una versione “long” degli esistenti modelli pre-addestrati. Iz Beltagy Aprilo in Colab
Fine-tuning di Longformer per QA Come effettuare il fine-tuning di un modello longformer per un task di QA. Suraj Patil Aprilo in Colab
Valutazione di modelli con 🤗NLP Come valutare longformer su TriviaQA con NLP. Patrick von Platen Aprilo in Colab
Fine-tuning di T5 per Sentiment Span Extraction Come effettuare il fine-tuning di T5 per la sentiment span extraction - usando un formato testo-a-testo - con PyTorch Lightning. Lorenzo Ampil Aprilo in Colab
Fine-tuning di DistilBert per la classificazione multi-classe Come effettuare il fine-tuning di DistilBert per la classificazione multi-classe con PyTorch. Abhishek Kumar Mishra Aprilo in Colab
Fine-tuning di BERT per la classificazione multi-etichetta Come effettuare il fine-tuning di BERT per la classificazione multi-etichetta con PyTorch. Abhishek Kumar Mishra Aprilo in Colab
Accelerazione del fine-tuning con il Dynamic Padding / Bucketing Come velocizzare il fine-tuning di un fattore 2X usando il dynamic padding / bucketing. Michael Benesty Aprilo in Colab
Pre-addestramento di Reformer per Masked Language Modeling Come addestrare un modello Reformer usando livelli di self-attention bi-direzionali. Patrick von Platen Aprilo in Colab
Espansione e fine-tuning di Sci-BERT Come incrementare il vocabolario di un modello SciBERT - pre-addestrato da AllenAI sul dataset CORD - e crearne una pipeline. Tanmay Thakur Aprilo in Colab
Fine-tuning di BlenderBotSmall per riassumere testi usando Trainer API Come effettuare il fine-tuning di BlenderBotSmall per riassumere testi su un dataset personalizzato, usando Trainer API. Tanmay Thakur Aprilo in Colab
Fine-tuning di Electra e interpretazione con Integrated Gradients Come effettuare il fine-tuning di Electra per l’analisi dei sentimenti e intepretare le predizioni con Captum Integrated Gradients. Eliza Szczechla Aprilo in Colab
Fine-tuning di un modello GPT-2 non inglese con la classe Trainer Come effettuare il fine-tuning di un modello GPT-2 non inglese con la classe Trainer. Philipp Schmid Aprilo in Colab
Fine-tuning di un modello DistilBERT per la classficazione multi-etichetta Come effettuare il fine-tuning di un modello DistilBERT per l’attività di classificazione multi-etichetta. Dhaval Taunk Aprilo in Colab
Fine-tuning di ALBERT per la classifcazione di coppie di frasi Come effettuare il fine-tuning di un modello ALBERT - o un altro modello BERT-based - per l’attività di classificazione di coppie di frasi. Nadir El Manouzi Aprilo in Colab
Fine-tuning di Roberta per l’analisi di sentimenti Come effettuare il fine-tuning di un modello Roberta per l’analisi di sentimenti. Dhaval Taunk Aprilo in Colab
Valutazione di modelli che generano domande Quanto sono accurante le risposte alle domande generate dal tuo modello transformer seq2seq? Pascal Zoleko Aprilo in Colab
Classificazione di testo con DistilBERT e Tensorflow Come effettuare il fine-tuning di DistilBERT per la classificazione di testo in TensorFlow. Peter Bayerle Aprilo in Colab
Utilizzo di BERT per riassumere testi con un modello Encoder-Decoder su CNN/Dailymail Come avviare “a caldo” un EncoderDecoderModel attraverso l’utilizzo di un checkpoint google-bert/bert-base-uncased per riassumere testi su CNN/Dailymail. Patrick von Platen Aprilo in Colab
Utilizzo di RoBERTa per riassumere testi con un modello Encoder-Decoder su BBC XSum Come avviare “a caldo” un EncoderDecoderModel (condiviso) attraverso l’utilizzo di un checkpoint FacebookAI/roberta-base per riassumere testi su BBC/XSum. Patrick von Platen Open In Colab
Fine-tuning di TAPAS su Sequential Question Answering (SQA) Come effettuare il fine-tuning di un modello TapasForQuestionAnswering attraverso l’utilizzo di un checkpoint tapas-base sul dataset Sequential Question Answering (SQA). Niels Rogge Open In Colab
Valutazione di TAPAS su Table Fact Checking (TabFact) Come valutare un modello TapasForSequenceClassification - fine-tuned con un checkpoint tapas-base-finetuned-tabfact - usando una combinazione delle librerie 🤗 datasets e 🤗 transformers. Niels Rogge Open In Colab
Fine-tuning di mBART per la traduzione Come effettuare il fine-tuning di mBART usando Seq2SeqTrainer per la traduzione da hindi a inglese. Vasudev Gupta Open In Colab
Fine-tuning di LayoutLM su FUNSD (un dataset per la comprensione della forma) Come effettuare il fine-tuning di un modello LayoutLMForTokenClassification sul dataset FUNSD per l’estrazione di informazioni da documenti scannerizzati. Niels Rogge Open In Colab
Fine-tuning di DistilGPT2 e generazione di testo Come effettuare il fine-tuning di DistilGPT2 e generare testo. Aakash Tripathi Open In Colab
Fine-tuning di LED fino a 8 mila token Come effettuare il fine-tuning di LED su PubMed per riassumere “lunghi” testi. Patrick von Platen Open In Colab
Valutazione di LED su Arxiv Come valutare efficacemente LED sull’attività di riassumere “lunghi” testi. Patrick von Platen Open In Colab
Fine-tuning di LayoutLM su RVL-CDIP, un dataset per la classificazione di documenti (immagini) Come effettuare il fine-tuning di un modello LayoutLMForSequenceClassification sul dataset RVL-CDIP per la classificazione di documenti scannerizzati. Niels Rogge Open In Colab
Decodifica Wav2Vec2 CTC con variazioni di GPT2 Come decodificare sequenze CTC, variate da modelli di linguaggio. Eric Lam Open In Colab
Fine-tuning di BART per riassumere testi in due lingue con la classe Trainer Come effettuare il fine-tuning di BART per riassumere testi in due lingue usando la classe Trainer. Eliza Szczechla Open In Colab
Valutazione di Big Bird su Trivia QA Come valutare BigBird su question answering di “lunghi” documenti attraverso Trivia QA. Patrick von Platen Open In Colab
Creazione di sottotitoli per video usando Wav2Vec2 Come creare sottotitoli per qualsiasi video di YouTube trascrivendo l’audio con Wav2Vec. Niklas Muennighoff Open In Colab
Fine-tuning di Vision Transformer su CIFAR-10 usando PyTorch Lightning Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e PyTorch Lightning. Niels Rogge Open In Colab
Fine-tuning di Vision Transformer su CIFAR-10 usando 🤗 Trainer Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e 🤗 Trainer. Niels Rogge Open In Colab
Valutazione di LUKE su Open Entity, un dataset di entity typing Come valutare un modello LukeForEntityClassification sul dataset Open Entity. Ikuya Yamada Open In Colab
Valutazione di LUKE su TACRED, un dataset per l’estrazione di relazioni Come valutare un modello LukeForEntityPairClassification sul dataset TACRED. Ikuya Yamada Open In Colab
Valutazione di LUKE su CoNLL-2003, un importante benchmark NER Come valutare un modello LukeForEntitySpanClassification sul dataset CoNLL-2003. Ikuya Yamada Open In Colab
Valutazione di BigBird-Pegasus su dataset PubMed Come valutare un modello BigBirdPegasusForConditionalGeneration su dataset PubMed. Vasudev Gupta Open In Colab
Classificazione di emozioni dal discorso con Wav2Vec2 Come utilizzare un modello pre-addestrato Wav2Vec2 per la classificazione di emozioni sul dataset MEGA. Mehrdad Farahani Open In Colab
Rilevamento oggetti in un’immagine con DETR Come usare un modello addestrato DetrForObjectDetection per rilevare oggetti in un’immagine e visualizzare l’attention. Niels Rogge Open In Colab
Fine-tuning di DETR su un dataset personalizzato per rilevare oggetti Come effettuare fine-tuning di un modello DetrForObjectDetection su un dataset personalizzato per rilevare oggetti. Niels Rogge Open In Colab
Fine-tuning di T5 per Named Entity Recognition Come effettuare fine-tunining di T5 per un’attività di Named Entity Recognition. Ogundepo Odunayo Open In Colab
< > Update on GitHub