You are viewing v4.46.2 version.
A newer version
v4.46.3 is available.
Comunità
Questa pagina raggruppa le risorse sviluppate dalla comunità riguardo 🤗 Transformers.
Risorse della comunità:
Risorsa | Descrizione | Autore |
---|---|---|
Glossario delle Flashcards di Transformers | Un insieme di flashcards basate sul glossario della documentazione di Transformers, creato in un formato tale da permettere un facile apprendimento e revisione usando Anki, un’applicazione open-source e multi-piattaforma, specificatamente progettata per ricordare informazioni nel lungo termine. Guarda questo video introduttivo su come usare le flashcards. | Darigov Research |
Notebook della comunità:
Notebook | Descrizione | Autore | |
---|---|---|---|
Fine-tuning di un Transformer pre-addestrato, al fine di generare testi di canzoni | Come generare testi di canzoni nello stile del vostro artista preferito attraverso il fine-tuning di un modello GPT-2. | Aleksey Korshuk | |
Addestramento di T5 in Tensorflow 2 | Come addestrare T5 per qualsiasi attività usando Tensorflow 2. Questo notebook mostra come risolvere l’attività di “Question Answering” usando Tensorflow 2 e SQUAD. | Muhammad Harris | |
Addestramento di T5 con TPU | Come addestrare T5 su SQUAD con Transformers e NLP. | Suraj Patil | |
Fine-tuning di T5 per la classificazione e scelta multipla | Come effettuare il fine-tuning di T5 per le attività di classificazione a scelta multipla - usando un formato testo-a-testo - con PyTorch Lightning. | Suraj Patil | |
Fine-tuning di DialoGPT su nuovi dataset e lingue | Come effettuare il fine-tuning di un modello DialoGPT su un nuovo dataset per chatbots conversazionali open-dialog. | Nathan Cooper | |
Modellamento di una lunga sequenza con Reformer | Come addestrare su sequenze di lunghezza fino a 500 mila token con Reformer. | Patrick von Platen | |
Fine-tuning di BART per riassumere testi | Come effettuare il fine-tuning di BART per riassumere testi con fastai usando blurr. | Wayde Gilliam | |
Fine-tuning di un Transformer pre-addestrato su tweet | Come generare tweet nello stile del tuo account Twitter preferito attraverso il fine-tuning di un modello GPT-2. | Boris Dayma | |
Ottimizzazione di modelli 🤗 Hugging Face con Weights & Biases | Un tutorial completo che mostra l’integrazione di W&B con Hugging Face. | Boris Dayma | |
Longformer pre-addestrato | Come costruire una versione “long” degli esistenti modelli pre-addestrati. | Iz Beltagy | |
Fine-tuning di Longformer per QA | Come effettuare il fine-tuning di un modello longformer per un task di QA. | Suraj Patil | |
Valutazione di modelli con 🤗NLP | Come valutare longformer su TriviaQA con NLP . | Patrick von Platen | |
Fine-tuning di T5 per Sentiment Span Extraction | Come effettuare il fine-tuning di T5 per la sentiment span extraction - usando un formato testo-a-testo - con PyTorch Lightning. | Lorenzo Ampil | |
Fine-tuning di DistilBert per la classificazione multi-classe | Come effettuare il fine-tuning di DistilBert per la classificazione multi-classe con PyTorch. | Abhishek Kumar Mishra | |
Fine-tuning di BERT per la classificazione multi-etichetta | Come effettuare il fine-tuning di BERT per la classificazione multi-etichetta con PyTorch. | Abhishek Kumar Mishra | |
Accelerazione del fine-tuning con il Dynamic Padding / Bucketing | Come velocizzare il fine-tuning di un fattore 2X usando il dynamic padding / bucketing. | Michael Benesty | |
Pre-addestramento di Reformer per Masked Language Modeling | Come addestrare un modello Reformer usando livelli di self-attention bi-direzionali. | Patrick von Platen | |
Espansione e fine-tuning di Sci-BERT | Come incrementare il vocabolario di un modello SciBERT - pre-addestrato da AllenAI sul dataset CORD - e crearne una pipeline. | Tanmay Thakur | |
Fine-tuning di BlenderBotSmall per riassumere testi usando Trainer API | Come effettuare il fine-tuning di BlenderBotSmall per riassumere testi su un dataset personalizzato, usando Trainer API. | Tanmay Thakur | |
Fine-tuning di Electra e interpretazione con Integrated Gradients | Come effettuare il fine-tuning di Electra per l’analisi dei sentimenti e intepretare le predizioni con Captum Integrated Gradients. | Eliza Szczechla | |
Fine-tuning di un modello GPT-2 non inglese con la classe Trainer | Come effettuare il fine-tuning di un modello GPT-2 non inglese con la classe Trainer. | Philipp Schmid | |
Fine-tuning di un modello DistilBERT per la classficazione multi-etichetta | Come effettuare il fine-tuning di un modello DistilBERT per l’attività di classificazione multi-etichetta. | Dhaval Taunk | |
Fine-tuning di ALBERT per la classifcazione di coppie di frasi | Come effettuare il fine-tuning di un modello ALBERT - o un altro modello BERT-based - per l’attività di classificazione di coppie di frasi. | Nadir El Manouzi | |
Fine-tuning di Roberta per l’analisi di sentimenti | Come effettuare il fine-tuning di un modello Roberta per l’analisi di sentimenti. | Dhaval Taunk | |
Valutazione di modelli che generano domande | Quanto sono accurante le risposte alle domande generate dal tuo modello transformer seq2seq? | Pascal Zoleko | |
Classificazione di testo con DistilBERT e Tensorflow | Come effettuare il fine-tuning di DistilBERT per la classificazione di testo in TensorFlow. | Peter Bayerle | |
Utilizzo di BERT per riassumere testi con un modello Encoder-Decoder su CNN/Dailymail | Come avviare “a caldo” un EncoderDecoderModel attraverso l’utilizzo di un checkpoint google-bert/bert-base-uncased per riassumere testi su CNN/Dailymail. | Patrick von Platen | |
Utilizzo di RoBERTa per riassumere testi con un modello Encoder-Decoder su BBC XSum | Come avviare “a caldo” un EncoderDecoderModel (condiviso) attraverso l’utilizzo di un checkpoint FacebookAI/roberta-base per riassumere testi su BBC/XSum. | Patrick von Platen | |
Fine-tuning di TAPAS su Sequential Question Answering (SQA) | Come effettuare il fine-tuning di un modello TapasForQuestionAnswering attraverso l’utilizzo di un checkpoint tapas-base sul dataset Sequential Question Answering (SQA). | Niels Rogge | |
Valutazione di TAPAS su Table Fact Checking (TabFact) | Come valutare un modello TapasForSequenceClassification - fine-tuned con un checkpoint tapas-base-finetuned-tabfact - usando una combinazione delle librerie 🤗 datasets e 🤗 transformers. | Niels Rogge | |
Fine-tuning di mBART per la traduzione | Come effettuare il fine-tuning di mBART usando Seq2SeqTrainer per la traduzione da hindi a inglese. | Vasudev Gupta | |
Fine-tuning di LayoutLM su FUNSD (un dataset per la comprensione della forma) | Come effettuare il fine-tuning di un modello LayoutLMForTokenClassification sul dataset FUNSD per l’estrazione di informazioni da documenti scannerizzati. | Niels Rogge | |
Fine-tuning di DistilGPT2 e generazione di testo | Come effettuare il fine-tuning di DistilGPT2 e generare testo. | Aakash Tripathi | |
Fine-tuning di LED fino a 8 mila token | Come effettuare il fine-tuning di LED su PubMed per riassumere “lunghi” testi. | Patrick von Platen | |
Valutazione di LED su Arxiv | Come valutare efficacemente LED sull’attività di riassumere “lunghi” testi. | Patrick von Platen | |
Fine-tuning di LayoutLM su RVL-CDIP, un dataset per la classificazione di documenti (immagini) | Come effettuare il fine-tuning di un modello LayoutLMForSequenceClassification sul dataset RVL-CDIP per la classificazione di documenti scannerizzati. | Niels Rogge | |
Decodifica Wav2Vec2 CTC con variazioni di GPT2 | Come decodificare sequenze CTC, variate da modelli di linguaggio. | Eric Lam | |
Fine-tuning di BART per riassumere testi in due lingue con la classe Trainer | Come effettuare il fine-tuning di BART per riassumere testi in due lingue usando la classe Trainer. | Eliza Szczechla | |
Valutazione di Big Bird su Trivia QA | Come valutare BigBird su question answering di “lunghi” documenti attraverso Trivia QA. | Patrick von Platen | |
Creazione di sottotitoli per video usando Wav2Vec2 | Come creare sottotitoli per qualsiasi video di YouTube trascrivendo l’audio con Wav2Vec. | Niklas Muennighoff | |
Fine-tuning di Vision Transformer su CIFAR-10 usando PyTorch Lightning | Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e PyTorch Lightning. | Niels Rogge | |
Fine-tuning di Vision Transformer su CIFAR-10 usando 🤗 Trainer | Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e 🤗 Trainer. | Niels Rogge | |
Valutazione di LUKE su Open Entity, un dataset di entity typing | Come valutare un modello LukeForEntityClassification sul dataset Open Entity. | Ikuya Yamada | |
Valutazione di LUKE su TACRED, un dataset per l’estrazione di relazioni | Come valutare un modello LukeForEntityPairClassification sul dataset TACRED. | Ikuya Yamada | |
Valutazione di LUKE su CoNLL-2003, un importante benchmark NER | Come valutare un modello LukeForEntitySpanClassification sul dataset CoNLL-2003. | Ikuya Yamada | |
Valutazione di BigBird-Pegasus su dataset PubMed | Come valutare un modello BigBirdPegasusForConditionalGeneration su dataset PubMed. | Vasudev Gupta | |
Classificazione di emozioni dal discorso con Wav2Vec2 | Come utilizzare un modello pre-addestrato Wav2Vec2 per la classificazione di emozioni sul dataset MEGA. | Mehrdad Farahani | |
Rilevamento oggetti in un’immagine con DETR | Come usare un modello addestrato DetrForObjectDetection per rilevare oggetti in un’immagine e visualizzare l’attention. | Niels Rogge | |
Fine-tuning di DETR su un dataset personalizzato per rilevare oggetti | Come effettuare fine-tuning di un modello DetrForObjectDetection su un dataset personalizzato per rilevare oggetti. | Niels Rogge | |
Fine-tuning di T5 per Named Entity Recognition | Come effettuare fine-tunining di T5 per un’attività di Named Entity Recognition. | Ogundepo Odunayo |