Resumen

Ask a Question

En este cap铆tulo viste c贸mo abordar diferentes tareas de PLN usando la funci贸n de alto nivel pipeline() de 馃 Transformers. Tambi茅n viste como buscar modelos en el Hub, as铆 como usar la API de Inferencia para probar los modelos directamente en tu navegador.

Discutimos brevemente el funcionamiento de los Transformadores y hablamos sobre la importancia de la transferencia de aprendizaje y el ajuste. Un aspecto clave es que puedes usar la arquitectura completa o s贸lo el codificador o decodificador, dependiendo de qu茅 tipo de tarea quieres resolver. La siguiente tabla resume lo anterior:

Modelo Ejemplos Tareas
Codificador ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa Clasificaci贸n de oraciones, reconocimiento de entidades nombradas, respuesta extractiva a preguntas
Decodificador CTRL, GPT, GPT-2, Transformer XL Generaci贸n de texto
Codificador-decodificador BART, T5, Marian, mBART Resumen, traducci贸n, respuesta generativa a preguntas