NLP Course documentation

まとめ

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

まとめ

Ask a Question

この章では、🤗 Transformersが提供する高レベルなpipeline() 関数を用いて、異なるNLPタスクにアプローチする方法を学びました。また、同様にHubを用いてモデルを探す方法や、推論APIを使ってブラウザ上でモデルを直接テストする方法も学びました。

さらに、Transformerモデルがどのように動作するかを高いレベルで議論し、さらに転移学習やファインチューニングの重要性について話しました。一つの重要な観点は、解きたいタスクに応じてアーキテクチャ全体を用いることや、エンコーダーやデコーダーの一方だけを用いることができるという点です。以下の表はそのまとめです。

モデル タスク
Encoder ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa 文章分類, 固有表現抽出, 抽出型質問応答
Decoder CTRL, GPT, GPT-2, Transformer XL 文章生成
Encoder-decoder BART, T5, Marian, mBART 文章要約, 翻訳, 生成型質問応答