Wie du in Kapitel 1 erfahren hast, handelt es sich bei Transformer-Modellen üblicherweise um sehr große Architekturen. Mit Millionen und bis zu über mehreren Milliarden Parametern ist das Trainieren und der Einsatz dieser Modelle äußerst kompliziert. Da fast tagtäglich neue Modelle mit anderen Implementierungen hinzukommen, ist es eine große Herausforderung alle Modelle auszuprobieren.
Die 🤗 Transformers Bibliothek wurde erstellt, um dieses Problem zu lösen. Mit ihr soll eine einzige API bereitgestellt werden, über die jedes Transformer Modell geladen, trainiert und gespeichert werden kann. Die Haupt-Features der Bibliothek sind:
nn.Module
oder TensorFlow tf.keras.Model
Klassen und können wie alle anderen Modelle auch in den jeweiligen Frameworks für maschinelles Lernen (ML) benutzt werden.Dieses letzte Feature unterscheidet 🤗 Transformers deutlich von anderen ML-Bibliotheken. Die Modelle sind nicht in Modulen aufgebaut, bei denen es Abhängigkeiten zu anderen Komponenten gibt. Stattdessen hat jedes Modell seine eigenen Ebenen. Dadurch werden die Modelle nicht nur leichter zugänglich und verständlicher, sondern erlaubt es dir auch problemlos an einem Modell zu experimentieren, ohne andere zu beeinträchtigen.
Dieses Kapitel beginnt mit einem End-to-End-Beispiel, in dem wir ein Modell und einen Tokenizer zusammen verwenden, um die in Kapitel 1 vorgestellte pipeline()
Funktion besser zu verstehen. Als Nächstes besprechen wir die Modell-API: Wir schauen uns die die Modell- und Konfigurationsklassen genauer an und zeigen dir, wie du ein Modell lädst und wie es Eingaben in numerischer Form verarbeitet, um Vorhersagen auszugeben.
Dann schauen wir uns die Tokenizer-API an, die die andere Hauptkomponente der pipeline()
Funktion ist. Tokenizer übernehmen die ersten und letzten Verarbeitungsschritte, die Umwandlung von Text in seine numerische Form für das neuronale Netzwerk und die Umwandlung zurück in Text, falls erforderlich. Abschließend zeigen wir dir, wie du mehrere Sätze gleichzeitig als vorbereitete Batch durch das Modell sendest, und beenden diesen Teil mit einem genaueren Blick auf die High-Level “tokenizer()” Funktion ab.