NLP Course documentation

Quiz am Ende des Kapitels

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Ask a Question

Quiz am Ende des Kapitels

In diesem Kapitel hast du viel gelernt! Mach dir keine Sorgen, wenn du noch nicht alle Einzelheiten verstanden hast. In den nächsten Kapiteln wirst du mehr darüber erfahren, wie die Dinge im Einzelnen funktionieren.

Doch zuerst wollen wir noch testen, was du in diesem Kapitel gelernt hast!

1. Erkunde den Hub und suche nach dem Checkpoint roberta-large-mnli . Welche Aufgabe unterstützt er?

2. Was gibt der folgende Code zurück?

from transformers import pipeline

ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")

3. Wodurch müsste … in diesem Codebeispiel ersetzt werden?

from transformers import pipeline

filler = pipeline("fill-mask", model="bert-base-cased")
result = filler("...")

4. Warum wird dieser Code nicht funktionieren?

from transformers import pipeline

classifier = pipeline("zero-shot-classification")
result = classifier("This is a course about the Transformers library")

5. Was bedeutet der Begriff “Transfer Learning”?

6. Richtig oder falsch? Ein Sprachmodell benötigt im Rahmen des Pretraining in der Regel keine Labels.

7. Wähle den Satz aus, der die Begriffe “Modell”, “Architektur” und “Gewichte” bzw. “Gewichtung” am besten beschreibt.

8. Welche dieser Modelle würdest du nutzen, um einen Prompt bzw. Text-Input durch einen generierten Text vervollständigen zu lassen?

9. Welche dieser Modelle würdest du für die Zusammenfassung von Texten verwenden?

10. Welche Art von Modellen würdest du verwenden, um Text-Inputs entsprechend bestimmter Labels zu klassifizieren?

11. Welche mögliche Ursache kann eine vom Modell zu beobachtende Voreingenommenheit (Bias) haben?