NLP Course documentation

Проверка знаний

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Проверка знаний

Ask a Question

В этой главе было много материала! Если вы чувствуете, что все еще всецело не познали все премудрости трансформеров - не переживайте! В следующих главах мы детально расскажем, как все устроено “под капотом”.

Сперва, однако, давайте проверим, что вы узнали в этой главе!

1. Зайдите на Hub и найдите чекпоинт модели roberta-large-mnli . Какую задачу она решает?

2. Какой будет результат выполнения данного кода?

from transformers import pipeline

ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")

3. Чем нужно заменить … в данном коде?

from transformers import pipeline

filler = pipeline("fill-mask", model="bert-base-cased")
result = filler("...")

4. Почему этот код выдаст ошибку?

from transformers import pipeline

classifier = pipeline("zero-shot-classification")
result = classifier("This is a course about the Transformers library")

5. Что такое «трансферное обучение»?

6. Правда или ложь? Для предобучения языковой модели обычно не требуются метки классов.

7. Выберите предложение, которое наилучшим способом описывает следующие термины: «модель», «архитектура» и «веса».

8. Какую из этих моделей вы выберете для дополнения текста по введенной его части?

9. Какую из этих моделей вы выберете для автоматического реферирования?

10. Какую из этих моделей вы выберете для классификации текстов путем присвоения им определенных меток?

11. Что может быть одной из причин предвзятости модели?