You are viewing v4.38.2 version.
A newer version
v4.47.1 is available.
Community
このページは、コミュニティによって開発された🤗 Transformersに関するリソースをまとめたものです。
Community resources:
リソース | 説明 | 作者 |
---|---|---|
Hugging Face Transformers Glossary Flashcards | Transformers Docs Glossaryに基づいたフラッシュカードセットです。このセットは、長期の知識定着を特に考慮して設計されたオープンソースのクロスプラットフォームアプリであるAnkiを使用して簡単に学習/復習できる形式になっています。フラッシュカードの使用方法に関する紹介ビデオはこちらをご覧ください。 | Darigov Research |
Community notebooks:
ノートブック | 説明 | 著者 | |
---|---|---|---|
事前学習済みのTransformerを微調整して歌詞を生成 | GPT-2モデルを微調整してお気に入りのアーティストのスタイルで歌詞を生成する方法 | Aleksey Korshuk | |
Tensorflow 2でT5をトレーニング | Tensorflow 2を使用して任意のタスクに対してT5をトレーニングする方法。このノートブックはTensorflow 2を使用してSQUADで実装された質問と回答タスクを示しています。 | Muhammad Harris | |
TPUでT5をトレーニング | TransformersとNlpを使用してSQUADでT5をトレーニングする方法 | Suraj Patil | |
分類と多肢選択のためにT5を微調整 | PyTorch Lightningを使用してテキスト対テキスト形式でT5を分類と多肢選択タスクに微調整する方法 | Suraj Patil | |
新しいデータセットと言語でDialoGPTを微調整 | DialoGPTモデルを新しいデータセットでオープンダイアログ会話用の微調整する方法 | Nathan Cooper | |
Reformerを使用した長いシーケンスモデリング | Reformerを使用して500,000トークンまでのシーケンスをトレーニングする方法 | Patrick von Platen | |
要約のためにBARTを微調整 | Blurrを使用して要約のためにBARTを微調整する方法 | Wayde Gilliam | |
事前学習済みのTransformerを微調整して誰かのツイートを生成 | GPT-2モデルを微調整してお気に入りのTwitterアカウントのスタイルでツイートを生成する方法 | Boris Dayma | |
🤗 Hugging FaceモデルをWeights & Biasesで最適化 | Hugging FaceとWeights & Biasesの統合を示す完全なチュートリアル | Boris Dayma | |
Longformerの事前学習 | 既存の事前学習済みモデルの「長い」バージョンを構築する方法 | Iz Beltagy | |
QAタスクのためにLongformerを微調整 | QAタスクのためにLongformerモデルを微調整する方法 | Suraj Patil | |
🤗nlpを使用したモデルの評価 | nlp を使用してTriviaQAでLongformerを評価する方法 | Patrick von Platen | |
感情スパン抽出のためにT5を微調整 | PyTorch Lightningを使用して感情スパン抽出のためにT5を微調整する方法 | Lorenzo Ampil | |
DistilBertをマルチクラス分類にファインチューニング | PyTorchを使用してDistilBertをマルチクラス分類にファインチューニングする方法 | Abhishek Kumar Mishra | |
BERTをマルチラベル分類にファインチューニング | PyTorchを使用してBERTをマルチラベル分類にファインチューニングする方法 | Abhishek Kumar Mishra | |
T5を要約にファインチューニング | PyTorchを使用してT5を要約にファインチューニングし、WandBで実験をトラッキングする方法 | Abhishek Kumar Mishra | |
ダイナミックパディング/バケッティングを使用してTransformersのファインチューニングを高速化 | ダイナミックパディング/バケッティングを使用してファインチューニングを2倍高速化する方法 | Michael Benesty | |
マスク言語モデリングのためのReformerの事前学習 | 双方向セルフアテンションレイヤーを備えたReformerモデルのトレーニング方法 | Patrick von Platen | |
Sci-BERTを拡張してファインチューニング | AllenAIのCORDデータセットで事前学習済みのSciBERTモデルの語彙を拡張し、パイプライン化する方法 | Tanmay Thakur | |
Trainer APIを使用してBlenderBotSmallを要約のためにファインチューニング | カスタムデータセットでBlenderBotSmallを要約のためにファインチューニングする方法、Trainer APIを使用 | Tanmay Thakur | |
ElectraをファインチューニングしてCaptum Integrated Gradientsで解釈 | Electraを感情分析のためにファインチューニングし、Captum Integrated Gradientsで予測を解釈する方法 | Eliza Szczechla | |
Trainerクラスを使用して非英語のGPT-2モデルをファインチューニング | Trainerクラスを使用して非英語のGPT-2モデルをファインチューニングする方法 | Philipp Schmid | |
DistilBERTモデルをマルチラベル分類タスクのためにファインチューニング | DistilBERTモデルをマルチラベル分類タスクのためにファインチューニングする方法 | Dhaval Taunk | |
ALBERTを文ペア分類タスクのためにファインチューニング | ALBERTモデルまたは他のBERTベースのモデルを文ペア分類タスクのためにファインチューニングする方法 | Nadir El Manouzi | |
RoBERTaを感情分析のためにファインチューニング | RoBERTaモデルを感情分析のためにファインチューニングする方法 | Dhaval Taunk | |
質問生成モデルの評価 | seq2seqトランスフォーマーモデルによって生成された質問の回答の正確さを評価する方法 | Pascal Zoleko | |
DistilBERTとTensorflowを使用してテキストを分類 | TensorFlowでテキスト分類のためにDistilBERTをファインチューニングする方法 | Peter Bayerle | |
CNN/Dailymailでのエンコーダーデコーダー要約にBERTを活用 | google-bert/bert-base-uncased チェックポイントを使用してCNN/Dailymailの要約のために EncoderDecoderModel をウォームスタートする方法 | Patrick von Platen | |
BBC XSumでのエンコーダーデコーダー要約にRoBERTaを活用 | FacebookAI/roberta-base チェックポイントを使用してBBC/XSumの要約のための共有 EncoderDecoderModel をウォームスタートする方法 | Patrick von Platen | |
TAPASをシーケンシャル質問応答(SQA)でファインチューニング | シーケンシャル質問応答(SQA)データセットで tapas-base チェックポイントを使用して TapasForQuestionAnswering をファインチューニングする方法 | Niels Rogge | |
TabFactでTAPASを評価 | tapas-base-finetuned-tabfact チェックポイントを使用してファインチューニングされた TapasForSequenceClassification を評価する方法、🤗 datasets と 🤗 transformers ライブラリを組み合わせて使用 | Niels Rogge | |
翻訳のためのmBARTをファインチューニング | Seq2SeqTrainerを使用してHindiからEnglishへの翻訳のためにmBARTをファインチューニングする方法 | Vasudev Gupta | |
FUNSD(フォーム理解データセット)でLayoutLMをファインチューニング | スキャンされたドキュメントからの情報抽出のためにFUNSDデータセットで LayoutLMForTokenClassification をファインチューニングする方法 | Niels Rogge | |
DistilGPT2のファインチューニングとテキスト生成 | DistilGPT2のファインチューニングとテキスト生成方法 | Aakash Tripathi | |
最大8KトークンでのLEDのファインチューニング | ロングレンジ要約のためのpubmedでLEDをファインチューニングする方法 | Patrick von Platen | |
ArxivでのLEDの評価 | ロングレンジ要約のためのLEDの効果的な評価方法 | Patrick von Platen | |
RVL-CDIP(文書画像分類データセット)でのLayoutLMのファインチューニング | スキャンされた文書の分類のためのRVL-CDIPデータセットでLayoutLMForSequenceClassificationをファインチューニングする方法 | Niels Rogge | |
Wav2Vec2 CTCデコーディングとGPT2の調整 | 言語モデルの調整を伴うCTCシーケンスのデコーディング方法 | Eric Lam | |
Trainerクラスを使用した2言語の要約用にBARTをファインチューニング | トレーナークラスを使用して2つの言語での要約用にBARTをファインチューニングする方法 | Eliza Szczechla | |
PubMedデータセットでBigBirdの評価 | Trivia QAの長いドキュメント質問応答でBigBirdの評価方法 | Patrick von Platen | |
Wav2Vec2を使用してビデオの字幕を作成する | Wav2Vecでオーディオを転記して任意のビデオからYouTubeの字幕を作成する方法 | Niklas Muennighoff | |
PyTorch Lightningを使用したCIFAR-10でのVision Transformerのファインチューニング | HuggingFace Transformers、Datasets、およびPyTorch Lightningを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 | Niels Rogge | |
🤗 Trainerを使用したCIFAR-10でのVision Transformerのファインチューニング | HuggingFace Transformers、Datasets、および🤗 Trainerを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 | Niels Rogge | |
Open Entity、エンティティタイピングデータセットでLUKEの評価 | Open EntityデータセットでLukeForEntityClassificationの評価方法 | Ikuya Yamada | |
TACRED、関係抽出データセットでLUKEの評価 | TACREDデータセットでLukeForEntityPairClassificationの評価方法 | Ikuya Yamada | |
CoNLL-2003、重要なNERベンチマークでLUKEの評価 | CoNLL-2003データセットでLukeForEntitySpanClassificationの評価方法 | Ikuya Yamada | |
PubMedデータセットでBigBird-Pegasusの評価 | PubMedデータセットでBigBirdPegasusForConditionalGenerationの評価方法 | Vasudev Gupta | |
Wav2Vec2を使用したスピーチエモーション分類 | MEGAデータセットでの感情分類のための事前学習済みWav2Vec2モデルの利用方法 | Mehrdad Farahani | |
DETRを使用して画像内のオブジェクトを検出する | トレーニング済みDetrForObjectDetectionモデルを使用して画像内のオブジェクトを検出し、注意を可視化する方法 | Niels Rogge | |
カスタムオブジェクト検出データセットでDETRをファインチューニングする | カスタムオブジェクト検出データセットでDetrForObjectDetectionをファインチューニングする方法 | Niels Rogge | |
Named Entity RecognitionのためにT5をファインチューニング | Named Entity RecognitionタスクでT5をファインチューニングする方法 | Ogundepo Odunayo |