You are viewing main version, which requires installation from source. If you'd like
regular pip install, checkout the latest stable version (v4.47.1).
Comunità
Questa pagina raggruppa le risorse sviluppate dalla comunità riguardo 🤗 Transformers.
Risorse della comunità:
Risorsa | Descrizione | Autore |
---|---|---|
Glossario delle Flashcards di Transformers | Un insieme di flashcards basate sul glossario della documentazione di Transformers, creato in un formato tale da permettere un facile apprendimento e revisione usando Anki, un’applicazione open-source e multi-piattaforma, specificatamente progettata per ricordare informazioni nel lungo termine. Guarda questo video introduttivo su come usare le flashcards. | Darigov Research |
Notebook della comunità:
Notebook | Descrizione | Autore | |
---|---|---|---|
Fine-tuning di un Transformer pre-addestrato, al fine di generare testi di canzoni | Come generare testi di canzoni nello stile del vostro artista preferito attraverso il fine-tuning di un modello GPT-2. | Aleksey Korshuk | |
Addestramento di T5 in Tensorflow 2 | Come addestrare T5 per qualsiasi attività usando Tensorflow 2. Questo notebook mostra come risolvere l’attività di “Question Answering” usando Tensorflow 2 e SQUAD. | Muhammad Harris | |
Addestramento di T5 con TPU | Come addestrare T5 su SQUAD con Transformers e NLP. | Suraj Patil | |
Fine-tuning di T5 per la classificazione e scelta multipla | Come effettuare il fine-tuning di T5 per le attività di classificazione a scelta multipla - usando un formato testo-a-testo - con PyTorch Lightning. | Suraj Patil | |
Fine-tuning di DialoGPT su nuovi dataset e lingue | Come effettuare il fine-tuning di un modello DialoGPT su un nuovo dataset per chatbots conversazionali open-dialog. | Nathan Cooper | |
Modellamento di una lunga sequenza con Reformer | Come addestrare su sequenze di lunghezza fino a 500 mila token con Reformer. | Patrick von Platen | |
Fine-tuning di BART per riassumere testi | Come effettuare il fine-tuning di BART per riassumere testi con fastai usando blurr. | Wayde Gilliam | |
Fine-tuning di un Transformer pre-addestrato su tweet | Come generare tweet nello stile del tuo account Twitter preferito attraverso il fine-tuning di un modello GPT-2. | Boris Dayma | |
Ottimizzazione di modelli 🤗 Hugging Face con Weights & Biases | Un tutorial completo che mostra l’integrazione di W&B con Hugging Face. | Boris Dayma | |
Longformer pre-addestrato | Come costruire una versione “long” degli esistenti modelli pre-addestrati. | Iz Beltagy | |
Fine-tuning di Longformer per QA | Come effettuare il fine-tuning di un modello longformer per un task di QA. | Suraj Patil | |
Valutazione di modelli con 🤗NLP | Come valutare longformer su TriviaQA con NLP . | Patrick von Platen | |
Fine-tuning di T5 per Sentiment Span Extraction | Come effettuare il fine-tuning di T5 per la sentiment span extraction - usando un formato testo-a-testo - con PyTorch Lightning. | Lorenzo Ampil | |
Fine-tuning di DistilBert per la classificazione multi-classe | Come effettuare il fine-tuning di DistilBert per la classificazione multi-classe con PyTorch. | Abhishek Kumar Mishra | |
Fine-tuning di BERT per la classificazione multi-etichetta | Come effettuare il fine-tuning di BERT per la classificazione multi-etichetta con PyTorch. | Abhishek Kumar Mishra | |
Accelerazione del fine-tuning con il Dynamic Padding / Bucketing | Come velocizzare il fine-tuning di un fattore 2X usando il dynamic padding / bucketing. | Michael Benesty | |
Pre-addestramento di Reformer per Masked Language Modeling | Come addestrare un modello Reformer usando livelli di self-attention bi-direzionali. | Patrick von Platen | |
Espansione e fine-tuning di Sci-BERT | Come incrementare il vocabolario di un modello SciBERT - pre-addestrato da AllenAI sul dataset CORD - e crearne una pipeline. | Tanmay Thakur | |
Fine-tuning di BlenderBotSmall per riassumere testi usando Trainer API | Come effettuare il fine-tuning di BlenderBotSmall per riassumere testi su un dataset personalizzato, usando Trainer API. | Tanmay Thakur | |
Fine-tuning di Electra e interpretazione con Integrated Gradients | Come effettuare il fine-tuning di Electra per l’analisi dei sentimenti e intepretare le predizioni con Captum Integrated Gradients. | Eliza Szczechla | |
Fine-tuning di un modello GPT-2 non inglese con la classe Trainer | Come effettuare il fine-tuning di un modello GPT-2 non inglese con la classe Trainer. | Philipp Schmid | |
Fine-tuning di un modello DistilBERT per la classficazione multi-etichetta | Come effettuare il fine-tuning di un modello DistilBERT per l’attività di classificazione multi-etichetta. | Dhaval Taunk | |
Fine-tuning di ALBERT per la classifcazione di coppie di frasi | Come effettuare il fine-tuning di un modello ALBERT - o un altro modello BERT-based - per l’attività di classificazione di coppie di frasi. | Nadir El Manouzi | |
Fine-tuning di Roberta per l’analisi di sentimenti | Come effettuare il fine-tuning di un modello Roberta per l’analisi di sentimenti. | Dhaval Taunk | |
Valutazione di modelli che generano domande | Quanto sono accurante le risposte alle domande generate dal tuo modello transformer seq2seq? | Pascal Zoleko | |
Classificazione di testo con DistilBERT e Tensorflow | Come effettuare il fine-tuning di DistilBERT per la classificazione di testo in TensorFlow. | Peter Bayerle | |
Utilizzo di BERT per riassumere testi con un modello Encoder-Decoder su CNN/Dailymail | Come avviare “a caldo” un EncoderDecoderModel attraverso l’utilizzo di un checkpoint google-bert/bert-base-uncased per riassumere testi su CNN/Dailymail. | Patrick von Platen | |
Utilizzo di RoBERTa per riassumere testi con un modello Encoder-Decoder su BBC XSum | Come avviare “a caldo” un EncoderDecoderModel (condiviso) attraverso l’utilizzo di un checkpoint FacebookAI/roberta-base per riassumere testi su BBC/XSum. | Patrick von Platen | |
Fine-tuning di TAPAS su Sequential Question Answering (SQA) | Come effettuare il fine-tuning di un modello TapasForQuestionAnswering attraverso l’utilizzo di un checkpoint tapas-base sul dataset Sequential Question Answering (SQA). | Niels Rogge | |
Valutazione di TAPAS su Table Fact Checking (TabFact) | Come valutare un modello TapasForSequenceClassification - fine-tuned con un checkpoint tapas-base-finetuned-tabfact - usando una combinazione delle librerie 🤗 datasets e 🤗 transformers. | Niels Rogge | |
Fine-tuning di mBART per la traduzione | Come effettuare il fine-tuning di mBART usando Seq2SeqTrainer per la traduzione da hindi a inglese. | Vasudev Gupta | |
Fine-tuning di LayoutLM su FUNSD (un dataset per la comprensione della forma) | Come effettuare il fine-tuning di un modello LayoutLMForTokenClassification sul dataset FUNSD per l’estrazione di informazioni da documenti scannerizzati. | Niels Rogge | |
Fine-tuning di DistilGPT2 e generazione di testo | Come effettuare il fine-tuning di DistilGPT2 e generare testo. | Aakash Tripathi | |
Fine-tuning di LED fino a 8 mila token | Come effettuare il fine-tuning di LED su PubMed per riassumere “lunghi” testi. | Patrick von Platen | |
Valutazione di LED su Arxiv | Come valutare efficacemente LED sull’attività di riassumere “lunghi” testi. | Patrick von Platen | |
Fine-tuning di LayoutLM su RVL-CDIP, un dataset per la classificazione di documenti (immagini) | Come effettuare il fine-tuning di un modello LayoutLMForSequenceClassification sul dataset RVL-CDIP per la classificazione di documenti scannerizzati. | Niels Rogge | |
Decodifica Wav2Vec2 CTC con variazioni di GPT2 | Come decodificare sequenze CTC, variate da modelli di linguaggio. | Eric Lam | |
Fine-tuning di BART per riassumere testi in due lingue con la classe Trainer | Come effettuare il fine-tuning di BART per riassumere testi in due lingue usando la classe Trainer. | Eliza Szczechla | |
Valutazione di Big Bird su Trivia QA | Come valutare BigBird su question answering di “lunghi” documenti attraverso Trivia QA. | Patrick von Platen | |
Creazione di sottotitoli per video usando Wav2Vec2 | Come creare sottotitoli per qualsiasi video di YouTube trascrivendo l’audio con Wav2Vec. | Niklas Muennighoff | |
Fine-tuning di Vision Transformer su CIFAR-10 usando PyTorch Lightning | Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e PyTorch Lightning. | Niels Rogge | |
Fine-tuning di Vision Transformer su CIFAR-10 usando 🤗 Trainer | Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e 🤗 Trainer. | Niels Rogge | |
Valutazione di LUKE su Open Entity, un dataset di entity typing | Come valutare un modello LukeForEntityClassification sul dataset Open Entity. | Ikuya Yamada | |
Valutazione di LUKE su TACRED, un dataset per l’estrazione di relazioni | Come valutare un modello LukeForEntityPairClassification sul dataset TACRED. | Ikuya Yamada | |
Valutazione di LUKE su CoNLL-2003, un importante benchmark NER | Come valutare un modello LukeForEntitySpanClassification sul dataset CoNLL-2003. | Ikuya Yamada | |
Valutazione di BigBird-Pegasus su dataset PubMed | Come valutare un modello BigBirdPegasusForConditionalGeneration su dataset PubMed. | Vasudev Gupta | |
Classificazione di emozioni dal discorso con Wav2Vec2 | Come utilizzare un modello pre-addestrato Wav2Vec2 per la classificazione di emozioni sul dataset MEGA. | Mehrdad Farahani | |
Rilevamento oggetti in un’immagine con DETR | Come usare un modello addestrato DetrForObjectDetection per rilevare oggetti in un’immagine e visualizzare l’attention. | Niels Rogge | |
Fine-tuning di DETR su un dataset personalizzato per rilevare oggetti | Come effettuare fine-tuning di un modello DetrForObjectDetection su un dataset personalizzato per rilevare oggetti. | Niels Rogge | |
Fine-tuning di T5 per Named Entity Recognition | Come effettuare fine-tunining di T5 per un’attività di Named Entity Recognition. | Ogundepo Odunayo |