Basislektion abgeschlossen!
Gut gemacht, dass du den Kurs bis hierher geschafft hast! Um es noch einmal zusammenzufassen, in diesem Kapitel hast du:
- die grundlegenden Bausteine eines Transformer-Modells kennengelernt.
- gelernt, was eine Tokenisierungspipeline ausmacht.
- gesehen, wie man ein Transformer-Modell in der Praxis einsetzt.
- gelernt, wie man einen Tokenizer einsetzt, um Text in Tensoren zu konvertieren, die für das Modell verständlich sind.
- einen Tokenizer zusammen mit einem Modell eingerichtet, um von Text zu Vorhersagen zu gelangen.
- die Einschränkungen von Input-IDs kennengelernt und mehr über Attention-Masks gelernt.
- mit vielseitigen und konfigurierbaren Tokenizer-Methoden herumgespielt.
Von nun an sollten Sie in der Lage sein, frei in den 🤗 Transformers-Dokumenten zu navigieren: Das Vokabular wird Ihnen vertraut vorkommen, und Sie haben die Methoden, die du die meiste Zeit verwenden wirst, bereits gesehen.