Итоги

Ask a Question

В этой главе вы увидели, как подходить к различным задачам NLP, используя высокоуровневую функцию pipeline() из библиотеки 🤗 Transformers. Вы также увидели, как искать и использовать модели в Hub, а также как использовать Inference API для тестирования моделей прямо в браузере.

Мы обсудили, как трансформеры работают на высоком уровне, и поговорили о важности трансферного обучения и тонкой настройки. Ключевым аспектом является то, что вы можете использовать всю архитектуру или только энкодер или декодер, в зависимости от того, какую задачу вы хотите решить. Следующая таблица резюмирует это:

Модель Примеры Задачи
Энкодер ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa Классификация предложений, распознавание именованных сущностей, генерация ответов на вопросы с извлечением информации
Декодер CTRL, GPT, GPT-2, Transformer XL Генерация текста
Энкодер-декодер BART, T5, Marian, mBART Саммаризация, перевод, генеративный подход к ответам на вопросы