NLP Course documentation

Einführung

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Einführung

Ask a Question

In Kapitel 2 haben wir behandelt, wie man Tokenizer und vortrainierte Modelle verwendet, um Vorhersagen zu treffen. Was passiert aber, wenn wir ein vortrainiertes Modell für unseren eigenen Datensatz optimieren möchten? Das ist das Thema dieses Kapitels! Folgendes wirst du lernen:

  • Wie bereitet man einen großen Datensatz aus dem Hub vor?
  • Wie nutzt man die höhere Trainer API um Modelle zu fein-tunen?
  • Wie implementiert man eine benutzerdefinierte Trainingsschleife
  • Wie nutzen wir die 🤗 Accelerate Bibliothek für benutzerdefinierte Trainingschleifen auf verteilten Systemen

Um deine trainierten Checkpoints auf den Hugging Face Hub hochzuladen, benötigst du ein huggingface.co-Konto: Erstelle ein Konto