Transformers documentation

Troubleshoot

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Troubleshoot

時にはエラーが発生することがありますが、私たちはここにいます!このガイドでは、私たちがよく見る最も一般的な問題と、それらを解決する方法について説明します。ただし、このガイドはすべての 🤗 Transformers の問題の包括的なコレクションではありません。問題をトラブルシューティングするための詳細なヘルプが必要な場合は、以下の方法を試してみてください:

  1. フォーラムで助けを求める。 初心者向け または 🤗 Transformers など、質問を投稿できる特定のカテゴリがあります。問題が解決される可能性を最大限にするために、再現可能なコードを含む良い説明的なフォーラム投稿を書くことを確認してください!
  1. バグがライブラリに関連する場合は、🤗 Transformers リポジトリで Issue を作成してください。バグを説明するためのできるだけ多くの情報を含めるように心がけ、何が問題で、どのように修正できるかをより良く理解できるようにしてください。

  2. より古いバージョンの 🤗 Transformers を使用している場合は、Migration ガイドを確認してください。バージョン間で重要な変更が導入されているためです。

トラブルシューティングとヘルプの詳細については、Hugging Faceコースの 第8章 を参照してください。

Firewalled environments

一部のクラウド上のGPUインスタンスやイントラネットセットアップは、外部接続に対してファイアウォールで保護されているため、接続エラーが発生することがあります。スクリプトがモデルの重みやデータセットをダウンロードしようとすると、ダウンロードが途中で止まり、次のメッセージとタイムアウトエラーが表示されます:

ValueError: Connection error, and we cannot find the requested files in the cached path.
Please try again or make sure your Internet connection is on.

この場合、接続エラーを回避するためにオフラインモードで🤗 Transformersを実行してみてください。

CUDA out of memory

数百万のパラメータを持つ大規模なモデルのトレーニングは、適切なハードウェアなしでは課題です。GPUのメモリが不足するとよくあるエラーの1つは次のとおりです:

以下はメモリ使用量を減らすために試すことができるいくつかの解決策です:

メモリ節約のテクニックについての詳細は、ガイドを参照してください。

Unable to load a saved TensorFlow model

TensorFlowのmodel.saveメソッドは、モデル全体 - アーキテクチャ、重み、トレーニング設定 - を1つのファイルに保存します。しかし、モデルファイルを再度読み込む際にエラーが発生することがあります。これは、🤗 Transformersがモデルファイル内のすべてのTensorFlow関連オブジェクトを読み込まないためです。TensorFlowモデルの保存と読み込みに関する問題を回避するために、次のことをお勧めします:

  • モデルの重みをh5ファイル拡張子で保存し、from_pretrained()を使用してモデルを再読み込みする:
>>> from transformers import TFPreTrainedModel

>>> model.save_weights("some_folder/tf_model.h5")
>>> model = TFPreTrainedModel.from_pretrained("some_folder")
  • Save the model with ~TFPretrainedModel.save_pretrained and load it again with from_pretrained():
>>> from transformers import TFPreTrainedModel

>>> model.save_pretrained("path_to/model")
>>> model = TFPreTrainedModel.from_pretrained("path_to/model")

ImportError

もう一つよくあるエラーは、特に新しくリリースされたモデルの場合に遭遇することがある ImportError です:

ImportError: cannot import name 'ImageGPTImageProcessor' from 'transformers' (unknown location)

これらのエラータイプに関しては、最新バージョンの 🤗 Transformers がインストールされていることを確認して、最新のモデルにアクセスできるようにしてください:

pip install transformers --upgrade

CUDA error: device-side assert triggered

時々、デバイスコードでエラーが発生したという一般的な CUDA エラーに遭遇することがあります。

RuntimeError: CUDA error: device-side assert triggered

より具体的なエラーメッセージを取得するために、まずはCPU上でコードを実行してみることをお勧めします。以下の環境変数をコードの冒頭に追加して、CPUに切り替えてみてください:

>>> import os

>>> os.environ["CUDA_VISIBLE_DEVICES"] = ""

GPUからより良いトレースバックを取得する別のオプションは、次の環境変数をコードの先頭に追加することです。これにより、エラーの発生源を指すトレースバックが得られます:

>>> import os

>>> os.environ["CUDA_LAUNCH_BLOCKING"] = "1"

Incorrect output when padding tokens aren’t masked

一部のケースでは、input_idsにパディングトークンが含まれている場合、出力のhidden_stateが正しくないことがあります。デモンストレーションのために、モデルとトークナイザーをロードします。モデルのpad_token_idにアクセスして、その値を確認できます。一部のモデルではpad_token_idNoneになることもありますが、常に手動で設定することができます。

>>> from transformers import AutoModelForSequenceClassification
>>> import torch

>>> model = AutoModelForSequenceClassification.from_pretrained("google-bert/bert-base-uncased")
>>> model.config.pad_token_id
0

以下の例は、パディングトークンをマスクせずに出力を表示したものです:

>>> input_ids = torch.tensor([[7592, 2057, 2097, 2393, 9611, 2115], [7592, 0, 0, 0, 0, 0]])
>>> output = model(input_ids)
>>> print(output.logits)
tensor([[ 0.0082, -0.2307],
        [ 0.1317, -0.1683]], grad_fn=<AddmmBackward0>)

以下は、第2のシーケンスの実際の出力です:

>>> input_ids = torch.tensor([[7592]])
>>> output = model(input_ids)
>>> print(output.logits)
tensor([[-0.1008, -0.4061]], grad_fn=<AddmmBackward0>)

大抵の場合、モデルには attention_mask を提供して、パディングトークンを無視し、このような無音のエラーを回避する必要があります。これにより、2番目のシーケンスの出力が実際の出力と一致するようになります。

デフォルトでは、トークナイザは、トークナイザのデフォルトに基づいて attention_mask を自動で作成します。

>>> attention_mask = torch.tensor([[1, 1, 1, 1, 1, 1], [1, 0, 0, 0, 0, 0]])
>>> output = model(input_ids, attention_mask=attention_mask)
>>> print(output.logits)
tensor([[ 0.0082, -0.2307],
        [-0.1008, -0.4061]], grad_fn=<AddmmBackward0>)

🤗 Transformersは、提供されるパディングトークンをマスクするために自動的にattention_maskを作成しません。その理由は以下の通りです:

  • 一部のモデルにはパディングトークンが存在しない場合があるためです。
  • 一部のユースケースでは、ユーザーがパディングトークンにアテンションを向けることを望む場合があるためです。

ValueError: Unrecognized configuration class XYZ for this kind of AutoModel

一般的に、事前学習済みモデルのインスタンスをロードするためにはAutoModelクラスを使用することをお勧めします。このクラスは、設定に基づいて与えられたチェックポイントから正しいアーキテクチャを自動的に推測およびロードできます。モデルをロードする際にこのValueErrorが表示される場合、Autoクラスは与えられたチェックポイントの設定から、ロードしようとしているモデルの種類へのマッピングを見つけることができなかったことを意味します。最も一般的には、特定のタスクをサポートしないチェックポイントがある場合にこのエラーが発生します。 例えば、質問応答のためのGPT2が存在しない場合、次の例でこのエラーが表示されます:

上記のテキストを日本語に翻訳し、Markdownファイルとしてフォーマットしました。

>>> from transformers import AutoProcessor, AutoModelForQuestionAnswering

>>> processor = AutoProcessor.from_pretrained("openai-community/gpt2-medium")
>>> model = AutoModelForQuestionAnswering.from_pretrained("openai-community/gpt2-medium")
ValueError: Unrecognized configuration class <class 'transformers.models.gpt2.configuration_gpt2.GPT2Config'> for this kind of AutoModel: AutoModelForQuestionAnswering.
Model type should be one of AlbertConfig, BartConfig, BertConfig, BigBirdConfig, BigBirdPegasusConfig, BloomConfig, ...
< > Update on GitHub