Transformers documentation

Comunidad

You are viewing v4.35.1 version. A newer version v4.47.1 is available.
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Comunidad

Esta página agrupa los recursos de 🤗 Transformers desarrollados por la comunidad.

Los recursos de la comunidad:

Recurso Descripción Autor
Hugging Face Transformers Glossary Flashcards Un conjunto de flashcards basadas en el [Glosario de documentos de Transformers] (glosario) que se ha puesto en un formato que se puede aprender/revisar fácilmente usando [Anki] (https://apps.ankiweb.net/) una fuente abierta, aplicación de multiplataforma diseñada específicamente para la retención de conocimientos a largo plazo. Ve este Introductory video on how to use the flashcards. Darigov Research

Los cuadernos de la comunidad:

Cuaderno Descripción Autor
Ajustar un transformador preentrenado para generar letras Cómo generar letras al estilo de tu artista favorito ajustando un modelo GPT-2 Aleksey Korshuk Open In Colab
Entrenar T5 en Tensorflow 2 Cómo entrenar a T5 para cualquier tarea usando Tensorflow 2. Este cuaderno demuestra una tarea de preguntas y respuestas implementada en Tensorflow 2 usando SQUAD Muhammad Harris Open In Colab
Entrenar T5 en TPU Cómo entrenar a T5 en SQUAD con Transformers y Nlp Suraj Patil Open In Colab
Ajustar T5 para Clasificación y Opción Múltiple Cómo ajustar T5 para clasificación y tareas de opción múltiple usando un formato de texto a texto con PyTorch Lightning Suraj Patil Open In Colab
Ajustar DialoGPT en nuevos conjuntos de datos e idiomas Cómo ajustar el modelo DialoGPT en un nuevo conjunto de datos para chatbots conversacionales de diálogo abierto Nathan Cooper Open In Colab
Modelado de secuencias largas con Reformer Cómo entrenar en secuencias de hasta 500,000 tokens con Reformer Patrick von Platen Open In Colab
Ajustar BART para resumir Cómo ajustar BART para resumir con fastai usando blurr Wayde Gilliam Open In Colab
Ajustar un Transformador previamente entrenado en los tweets de cualquier persona Cómo generar tweets al estilo de tu cuenta de Twitter favorita ajustando un modelo GPT-2 Boris Dayma Open In Colab
Optimizar 🤗 modelos de Hugging Face con pesos y sesgos Un tutorial completo que muestra la integración de W&B con Hugging Face Boris Dayma Open In Colab
Preentrenar Longformer Cómo construir una versión “larga” de modelos preentrenados existentes Iz Beltagy Open In Colab
Ajustar Longformer para control de calidad Cómo ajustar el modelo antiguo para la tarea de control de calidad Suraj Patil Open In Colab
Evaluar modelo con 🤗nlp Cómo evaluar longformer en TriviaQA con nlp Patrick von Platen Open In Colab
Ajustar fino de T5 para la extracción de amplitud de opinión Cómo ajustar T5 para la extracción de intervalos de opiniones mediante un formato de texto a texto con PyTorch Lightning Lorenzo Ampil Open In Colab
Ajustar fino de DistilBert para la clasificación multiclase Cómo ajustar DistilBert para la clasificación multiclase con PyTorch Abhishek Kumar Mishra Open In Colab
Ajustar BERT para la clasificación de etiquetas múltiples Cómo ajustar BERT para la clasificación de múltiples etiquetas usando PyTorch Abhishek Kumar Mishra Open In Colab
Ajustar T5 para resumir Cómo ajustar T5 para resumir en PyTorch y realizar un seguimiento de los experimentos con WandB Abhishek Kumar Mishra Open In Colab
Acelerar el ajuste fino en transformadores con Dynamic Padding/Bucketing Cómo acelerar el ajuste fino en un factor de 2 usando relleno dinámico/cubetas Michael Benesty Open In Colab
Preentrenar Reformer para modelado de lenguaje enmascarado Cómo entrenar un modelo Reformer con capas de autoatención bidireccionales Patrick von Platen Open In Colab
Ampliar y ajustar Sci-BERT Cómo aumentar el vocabulario de un modelo SciBERT preentrenado de AllenAI en el conjunto de datos CORD y canalizarlo. Tanmay Thakur Open In Colab
Ajustar fino de BlenderBotSmall para resúmenes usando la API de Entrenador Cómo ajustar BlenderBotSmall para resumir en un conjunto de datos personalizado, utilizando la API de Entrenador. Tanmay Thakur Open In Colab
Ajustar Electra e interpreta con gradientes integrados Cómo ajustar Electra para el análisis de sentimientos e interpretar predicciones con Captum Integrated Gradients Eliza Szczechla Open In Colab
ajustar un modelo GPT-2 que no está en inglés con la clase Trainer Cómo ajustar un modelo GPT-2 que no está en inglés con la clase Trainer Philipp Schmid Open In Colab
Ajustar un modelo DistilBERT para la tarea de clasificación de múltiples etiquetas Cómo ajustar un modelo DistilBERT para la tarea de clasificación de múltiples etiquetas Dhaval Taunk Open In Colab
Ajustar ALBERT para la clasificación de pares de oraciones Cómo ajustar un modelo ALBERT u otro modelo basado en BERT para la tarea de clasificación de pares de oraciones Nadir El Manouzi Open In Colab
Ajustar a Roberta para el análisis de sentimientos Cómo ajustar un modelo de Roberta para el análisis de sentimientos Dhaval Taunk Open In Colab
Evaluación de modelos de generación de preguntas ¿Qué tan precisas son las respuestas a las preguntas generadas por tu modelo de transformador seq2seq? Pascal Zoleko Open In Colab
Clasificar texto con DistilBERT y Tensorflow Cómo ajustar DistilBERT para la clasificación de texto en TensorFlow Peter Bayerle Open In Colab
Aprovechar BERT para el resumen de codificador y decodificador en CNN/Dailymail Cómo iniciar en caliente un EncoderDecoderModel con un punto de control bert-base-uncased para resumir en CNN/Dailymail Patrick von Platen Open In Colab
Aprovechar RoBERTa para el resumen de codificador-decodificador en BBC XSum Cómo iniciar en caliente un EncoderDecoderModel compartido con un punto de control roberta-base para resumir en BBC/XSum Patrick von Platen Open In Colab
Ajustar TAPAS en Sequential Question Answering (SQA) Cómo ajustar TapasForQuestionAnswering con un punto de control tapas-base en el conjunto de datos del Sequential Question Answering (SQA) Niels Rogge Open In Colab
Evaluar TAPAS en Table Fact Checking (TabFact) Cómo evaluar un TapasForSequenceClassification ajustado con un punto de control tapas-base-finetuned-tabfact usando una combinación de 🤗 conjuntos de datos y 🤗 bibliotecas de transformadores Niels Rogge Open In Colab
Ajustar de mBART para traducción Cómo ajustar mBART utilizando Seq2SeqTrainer para la traducción del hindi al inglés Vasudev Gupta Open In Colab
Ajustar LayoutLM en FUNSD (a form understanding dataset) Cómo ajustar LayoutLMForTokenClassification en el conjunto de datos de FUNSD para la extracción de información de documentos escaneados Niels Rogge Open In Colab
Ajustar DistilGPT2 y genere texto Cómo ajustar DistilGPT2 y generar texto Aakash Tripathi Open In Colab
Ajustar LED en tokens de hasta 8K Cómo ajustar LED en pubmed para resúmenes de largo alcance Patrick von Platen Open In Colab
Evaluar LED en Arxiv Cómo evaluar efectivamente LED en resúmenes de largo alcance Patrick von Platen Open In Colab
Ajustar fino de LayoutLM en RVL-CDIP (un conjunto de datos de clasificación de imágenes de documentos) Cómo ajustar LayoutLMForSequenceClassification en el conjunto de datos RVL-CDIP para la clasificación de documentos escaneados Niels Rogge Open In Colab
Decodificación Wav2Vec2 CTC con ajuste GPT2 Cómo decodificar la secuencia CTC con el ajuste del modelo de lenguaje Eric Lam Open In Colab
Ajustar BART para resúmenes en dos idiomas con la clase Trainer Cómo ajustar BART para resúmenes en dos idiomas con la clase Trainer Eliza Szczechla Open In Colab
Evaluar Big Bird en Trivia QA Cómo evaluar BigBird en respuesta a preguntas de documentos largos en Trivia QA Patrick von Platen Open In Colab
Crear subtítulos de video usando Wav2Vec2 Cómo crear subtítulos de YouTube a partir de cualquier vídeo transcribiendo el audio con Wav2Vec Niklas Muennighoff Open In Colab
Ajustar el transformador de visión en CIFAR-10 usando PyTorch Lightning Cómo ajustar el transformador de visión (ViT) en CIFAR-10 usando transformadores HuggingFace, conjuntos de datos y PyTorch Lightning Niels Rogge Open In Colab
Ajustar el Transformador de visión en CIFAR-10 usando el 🤗 Entrenador Cómo ajustar el Vision Transformer (ViT) en CIFAR-10 usando HuggingFace Transformers, Datasets y el 🤗 Trainer Niels Rogge Open In Colab
Evaluar LUKE en Open Entity, un conjunto de datos de tipificación de entidades Cómo evaluar LukeForEntityClassification en el conjunto de datos de entidad abierta Ikuya Yamada Open In Colab
Evaluar LUKE en TACRED, un conjunto de datos de extracción de relaciones Cómo evaluar LukeForEntityPairClassification en el conjunto de datos TACRED Ikuya Yamada Open In Colab
Evaluar LUKE en CoNLL-2003, un punto de referencia importante de NER Cómo evaluar LukeForEntitySpanClassification en el conjunto de datos CoNLL-2003 Ikuya Yamada Open In Colab
Evaluar BigBird-Pegasus en el conjunto de datos de PubMed Cómo evaluar BigBirdPegasusForConditionalGeneration en el conjunto de datos de PubMed Vasudev Gupta Open In Colab
Clasificación de emociones del habla con Wav2Vec2 Cómo aprovechar un modelo Wav2Vec2 preentrenado para la clasificación de emociones en el conjunto de datos MEGA Mehrdad Farahani Open In Colab
Detectar objetos en una imagen con DETR Cómo usar un modelo entrenado DetrForObjectDetection para detectar objetos en una imagen y visualizar la atención Niels Rogge Open In Colab
Ajustar el DETR en un conjunto de datos de detección de objetos personalizados Cómo ajustar DetrForObjectDetection en un conjunto de datos de detección de objetos personalizados Niels Rogge Open In Colab
Ajustar T5 para el reconocimiento de entidades nombradas Cómo ajustar T5 en una tarea de reconocimiento de entidad nombrada Ogundepo Odunayo Open In Colab