NLP Course documentation

Resumen

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Resumen

Ask a Question

En este capítulo viste cómo abordar diferentes tareas de PLN usando la función de alto nivel pipeline() de 🤗 Transformers. También viste como buscar modelos en el Hub, así como usar la API de Inferencia para probar los modelos directamente en tu navegador.

Discutimos brevemente el funcionamiento de los Transformadores y hablamos sobre la importancia de la transferencia de aprendizaje y el ajuste. Un aspecto clave es que puedes usar la arquitectura completa o sólo el codificador o decodificador, dependiendo de qué tipo de tarea quieres resolver. La siguiente tabla resume lo anterior:

Modelo Ejemplos Tareas
Codificador ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa Clasificación de oraciones, reconocimiento de entidades nombradas, respuesta extractiva a preguntas
Decodificador CTRL, GPT, GPT-2, Transformer XL Generación de texto
Codificador-decodificador BART, T5, Marian, mBART Resumen, traducción, respuesta generativa a preguntas