You are viewing v4.46.2 version.
A newer version
v4.46.3 is available.
Comunidad
Esta página agrupa los recursos de 🤗 Transformers desarrollados por la comunidad.
Los recursos de la comunidad:
Recurso | Descripción | Autor |
---|---|---|
Hugging Face Transformers Glossary Flashcards | Un conjunto de flashcards basadas en el [Glosario de documentos de Transformers] (glosario) que se ha puesto en un formato que se puede aprender/revisar fácilmente usando Anki una fuente abierta, aplicación de multiplataforma diseñada específicamente para la retención de conocimientos a largo plazo. Ve este Introductory video on how to use the flashcards. | Darigov Research |
Los cuadernos de la comunidad:
Cuaderno | Descripción | Autor | |
---|---|---|---|
Ajustar un transformador preentrenado para generar letras | Cómo generar letras al estilo de tu artista favorito ajustando un modelo GPT-2 | Aleksey Korshuk | |
Entrenar T5 en Tensorflow 2 | Cómo entrenar a T5 para cualquier tarea usando Tensorflow 2. Este cuaderno demuestra una tarea de preguntas y respuestas implementada en Tensorflow 2 usando SQUAD | Muhammad Harris | |
Entrenar T5 en TPU | Cómo entrenar a T5 en SQUAD con Transformers y Nlp | Suraj Patil | |
Ajustar T5 para Clasificación y Opción Múltiple | Cómo ajustar T5 para clasificación y tareas de opción múltiple usando un formato de texto a texto con PyTorch Lightning | Suraj Patil | |
Ajustar DialoGPT en nuevos conjuntos de datos e idiomas | Cómo ajustar el modelo DialoGPT en un nuevo conjunto de datos para chatbots conversacionales de diálogo abierto | Nathan Cooper | |
Modelado de secuencias largas con Reformer | Cómo entrenar en secuencias de hasta 500,000 tokens con Reformer | Patrick von Platen | |
Ajustar BART para resumir | Cómo ajustar BART para resumir con fastai usando blurr | Wayde Gilliam | |
Ajustar un Transformador previamente entrenado en los tweets de cualquier persona | Cómo generar tweets al estilo de tu cuenta de Twitter favorita ajustando un modelo GPT-2 | Boris Dayma | |
Optimizar 🤗 modelos de Hugging Face con pesos y sesgos | Un tutorial completo que muestra la integración de W&B con Hugging Face | Boris Dayma | |
Preentrenar Longformer | Cómo construir una versión “larga” de modelos preentrenados existentes | Iz Beltagy | |
Ajustar Longformer para control de calidad | Cómo ajustar el modelo antiguo para la tarea de control de calidad | Suraj Patil | |
Evaluar modelo con 🤗nlp | Cómo evaluar longformer en TriviaQA con nlp | Patrick von Platen | |
Ajustar fino de T5 para la extracción de amplitud de opinión | Cómo ajustar T5 para la extracción de intervalos de opiniones mediante un formato de texto a texto con PyTorch Lightning | Lorenzo Ampil | |
Ajustar fino de DistilBert para la clasificación multiclase | Cómo ajustar DistilBert para la clasificación multiclase con PyTorch | Abhishek Kumar Mishra | |
Ajustar BERT para la clasificación de etiquetas múltiples | Cómo ajustar BERT para la clasificación de múltiples etiquetas usando PyTorch | Abhishek Kumar Mishra | |
Ajustar T5 para resumir | Cómo ajustar T5 para resumir en PyTorch y realizar un seguimiento de los experimentos con WandB | Abhishek Kumar Mishra | |
Acelerar el ajuste fino en transformadores con Dynamic Padding/Bucketing | Cómo acelerar el ajuste fino en un factor de 2 usando relleno dinámico/cubetas | Michael Benesty | |
Preentrenar Reformer para modelado de lenguaje enmascarado | Cómo entrenar un modelo Reformer con capas de autoatención bidireccionales | Patrick von Platen | |
Ampliar y ajustar Sci-BERT | Cómo aumentar el vocabulario de un modelo SciBERT preentrenado de AllenAI en el conjunto de datos CORD y canalizarlo. | Tanmay Thakur | |
Ajustar fino de BlenderBotSmall para resúmenes usando la API de Entrenador | Cómo ajustar BlenderBotSmall para resumir en un conjunto de datos personalizado, utilizando la API de Entrenador. | Tanmay Thakur | |
Ajustar Electra e interpreta con gradientes integrados | Cómo ajustar Electra para el análisis de sentimientos e interpretar predicciones con Captum Integrated Gradients | Eliza Szczechla | |
ajustar un modelo GPT-2 que no está en inglés con la clase Trainer | Cómo ajustar un modelo GPT-2 que no está en inglés con la clase Trainer | Philipp Schmid | |
Ajustar un modelo DistilBERT para la tarea de clasificación de múltiples etiquetas | Cómo ajustar un modelo DistilBERT para la tarea de clasificación de múltiples etiquetas | Dhaval Taunk | |
Ajustar ALBERT para la clasificación de pares de oraciones | Cómo ajustar un modelo ALBERT u otro modelo basado en BERT para la tarea de clasificación de pares de oraciones | Nadir El Manouzi | |
Ajustar a Roberta para el análisis de sentimientos | Cómo ajustar un modelo de Roberta para el análisis de sentimientos | Dhaval Taunk | |
Evaluación de modelos de generación de preguntas | ¿Qué tan precisas son las respuestas a las preguntas generadas por tu modelo de transformador seq2seq? | Pascal Zoleko | |
Clasificar texto con DistilBERT y Tensorflow | Cómo ajustar DistilBERT para la clasificación de texto en TensorFlow | Peter Bayerle | |
Aprovechar BERT para el resumen de codificador y decodificador en CNN/Dailymail | Cómo iniciar en caliente un EncoderDecoderModel con un punto de control google-bert/bert-base-uncased para resumir en CNN/Dailymail | Patrick von Platen | |
Aprovechar RoBERTa para el resumen de codificador-decodificador en BBC XSum | Cómo iniciar en caliente un EncoderDecoderModel compartido con un punto de control FacebookAI/roberta-base para resumir en BBC/XSum | Patrick von Platen | |
Ajustar TAPAS en Sequential Question Answering (SQA) | Cómo ajustar TapasForQuestionAnswering con un punto de control tapas-base en el conjunto de datos del Sequential Question Answering (SQA) | Niels Rogge | |
Evaluar TAPAS en Table Fact Checking (TabFact) | Cómo evaluar un TapasForSequenceClassification ajustado con un punto de control tapas-base-finetuned-tabfact usando una combinación de 🤗 conjuntos de datos y 🤗 bibliotecas de transformadores | Niels Rogge | |
Ajustar de mBART para traducción | Cómo ajustar mBART utilizando Seq2SeqTrainer para la traducción del hindi al inglés | Vasudev Gupta | |
Ajustar LayoutLM en FUNSD (a form understanding dataset) | Cómo ajustar LayoutLMForTokenClassification en el conjunto de datos de FUNSD para la extracción de información de documentos escaneados | Niels Rogge | |
Ajustar DistilGPT2 y genere texto | Cómo ajustar DistilGPT2 y generar texto | Aakash Tripathi | |
Ajustar LED en tokens de hasta 8K | Cómo ajustar LED en pubmed para resúmenes de largo alcance | Patrick von Platen | |
Evaluar LED en Arxiv | Cómo evaluar efectivamente LED en resúmenes de largo alcance | Patrick von Platen | |
Ajustar fino de LayoutLM en RVL-CDIP (un conjunto de datos de clasificación de imágenes de documentos) | Cómo ajustar LayoutLMForSequenceClassification en el conjunto de datos RVL-CDIP para la clasificación de documentos escaneados | Niels Rogge | |
Decodificación Wav2Vec2 CTC con ajuste GPT2 | Cómo decodificar la secuencia CTC con el ajuste del modelo de lenguaje | Eric Lam | |
Ajustar BART para resúmenes en dos idiomas con la clase Trainer | Cómo ajustar BART para resúmenes en dos idiomas con la clase Trainer | Eliza Szczechla | |
Evaluar Big Bird en Trivia QA | Cómo evaluar BigBird en respuesta a preguntas de documentos largos en Trivia QA | Patrick von Platen | |
Crear subtítulos de video usando Wav2Vec2 | Cómo crear subtítulos de YouTube a partir de cualquier vídeo transcribiendo el audio con Wav2Vec | Niklas Muennighoff | |
Ajustar el transformador de visión en CIFAR-10 usando PyTorch Lightning | Cómo ajustar el transformador de visión (ViT) en CIFAR-10 usando transformadores HuggingFace, conjuntos de datos y PyTorch Lightning | Niels Rogge | |
Ajustar el Transformador de visión en CIFAR-10 usando el 🤗 Entrenador | Cómo ajustar el Vision Transformer (ViT) en CIFAR-10 usando HuggingFace Transformers, Datasets y el 🤗 Trainer | Niels Rogge | |
Evaluar LUKE en Open Entity, un conjunto de datos de tipificación de entidades | Cómo evaluar LukeForEntityClassification en el conjunto de datos de entidad abierta | Ikuya Yamada | |
Evaluar LUKE en TACRED, un conjunto de datos de extracción de relaciones | Cómo evaluar LukeForEntityPairClassification en el conjunto de datos TACRED | Ikuya Yamada | |
Evaluar LUKE en CoNLL-2003, un punto de referencia importante de NER | Cómo evaluar LukeForEntitySpanClassification en el conjunto de datos CoNLL-2003 | Ikuya Yamada | |
Evaluar BigBird-Pegasus en el conjunto de datos de PubMed | Cómo evaluar BigBirdPegasusForConditionalGeneration en el conjunto de datos de PubMed | Vasudev Gupta | |
Clasificación de emociones del habla con Wav2Vec2 | Cómo aprovechar un modelo Wav2Vec2 preentrenado para la clasificación de emociones en el conjunto de datos MEGA | Mehrdad Farahani | |
Detectar objetos en una imagen con DETR | Cómo usar un modelo entrenado DetrForObjectDetection para detectar objetos en una imagen y visualizar la atención | Niels Rogge | |
Ajustar el DETR en un conjunto de datos de detección de objetos personalizados | Cómo ajustar DetrForObjectDetection en un conjunto de datos de detección de objetos personalizados | Niels Rogge | |
Ajustar T5 para el reconocimiento de entidades nombradas | Cómo ajustar T5 en una tarea de reconocimiento de entidad nombrada | Ogundepo Odunayo |