repo_id
stringclasses
55 values
file_path
stringlengths
42
186
content
stringlengths
1
333k
__index_level_0__
int64
0
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/question_answering.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Question answering [[open-in-colab]] <Youtube id="ajPx5LwJD-I"/> 質問応答タスクは、質問に察しお回答を返したす。 Alexa、Siri、Google などの仮想アシスタントに倩気を尋ねたこずがあるなら、質問応答モデルを䜿甚したこずがあるはずです。質問応答タスクには䞀般的に 2 ぀のタむプがありたす。 - 抜出: 䞎えられたコンテキストから回答を抜出したす。 - 抜象的: 質問に正しく答えるコンテキストから回答を生成したす。 このガむドでは、次の方法を説明したす。 1. 抜出的質問応答甚に [SQuAD](https://huggingface.co/datasets/squad) デヌタセット䞊の [DistilBERT](https://huggingface.co/distilbert/distilbert-base-uncased) を埮調敎したす。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/question-answering) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load SQuAD dataset たず、🀗 デヌタセット ラむブラリから SQuAD デヌタセットの小さいサブセットを読み蟌みたす。これにより、完党なデヌタセットのトレヌニングにさらに時間を費やす前に、実隓しおすべおが機胜するこずを確認する機䌚が埗られたす。 ```py >>> from datasets import load_dataset >>> squad = load_dataset("squad", split="train[:5000]") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットの `train` 分割をトレむン セットずテスト セットに分割したす。 ```py >>> squad = squad.train_test_split(test_size=0.2) ``` 次に、䟋を芋おみたしょう。 ```py >>> squad["train"][0] {'answers': {'answer_start': [515], 'text': ['Saint Bernadette Soubirous']}, 'context': 'Architecturally, the school has a Catholic character. Atop the Main Building\'s gold dome is a golden statue of the Virgin Mary. Immediately in front of the Main Building and facing it, is a copper statue of Christ with arms upraised with the legend "Venite Ad Me Omnes". Next to the Main Building is the Basilica of the Sacred Heart. Immediately behind the basilica is the Grotto, a Marian place of prayer and reflection. It is a replica of the grotto at Lourdes, France where the Virgin Mary reputedly appeared to Saint Bernadette Soubirous in 1858. At the end of the main drive (and in a direct line that connects through 3 statues and the Gold Dome), is a simple, modern stone statue of Mary.', 'id': '5733be284776f41900661182', 'question': 'To whom did the Virgin Mary allegedly appear in 1858 in Lourdes France?', 'title': 'University_of_Notre_Dame' } ``` ここにはいく぀かの重芁なフィヌルドがありたす。 - `answers`: 回答トヌクンず回答テキストの開始䜍眮。 - `context`: モデルが答えを抜出するために必芁な背景情報。 - `question`: モデルが答える必芁がある質問。 ## Preprocess <Youtube id="qgaM0weJHpA"/> 次のステップでは、DistilBERT トヌクナむザヌをロヌドしお`question`フィヌルドず`context`フィヌルドを凊理したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("distilbert/distilbert-base-uncased") ``` 質問応答タスクに特有の、泚意すべき前凊理手順がいく぀かありたす。 1. デヌタセット内の䞀郚の䟋には、モデルの最倧入力長を超える非垞に長い「コンテキスト」が含たれる堎合がありたす。より長いシヌケンスを凊理するには、`truncation="only_second"` を蚭定しお `context` のみを切り捚おたす。 2. 次に、蚭定によっお、回答の開始䜍眮ず終了䜍眮を元の `context`にマッピングしたす。 「`return_offset_mapping=True`」。 3. マッピングが手元にあるので、答えの開始トヌクンず終了トヌクンを芋぀けるこずができたす。 [`~tokenizers.Encoding.sequence_ids`] メ゜ッドを䜿甚しお、 オフセットのどの郚分が`question`に察応し、どの郚分が`context`に察応するかを芋぀けたす。 以䞋に、`answer`の開始トヌクンず終了トヌクンを切り詰めお`context`にマッピングする関数を䜜成する方法を瀺したす。 ```py >>> def preprocess_function(examples): ... questions = [q.strip() for q in examples["question"]] ... inputs = tokenizer( ... questions, ... examples["context"], ... max_length=384, ... truncation="only_second", ... return_offsets_mapping=True, ... padding="max_length", ... ) ... offset_mapping = inputs.pop("offset_mapping") ... answers = examples["answers"] ... start_positions = [] ... end_positions = [] ... for i, offset in enumerate(offset_mapping): ... answer = answers[i] ... start_char = answer["answer_start"][0] ... end_char = answer["answer_start"][0] + len(answer["text"][0]) ... sequence_ids = inputs.sequence_ids(i) ... # Find the start and end of the context ... idx = 0 ... while sequence_ids[idx] != 1: ... idx += 1 ... context_start = idx ... while sequence_ids[idx] == 1: ... idx += 1 ... context_end = idx - 1 ... # If the answer is not fully inside the context, label it (0, 0) ... if offset[context_start][0] > end_char or offset[context_end][1] < start_char: ... start_positions.append(0) ... end_positions.append(0) ... else: ... # Otherwise it's the start and end token positions ... idx = context_start ... while idx <= context_end and offset[idx][0] <= start_char: ... idx += 1 ... start_positions.append(idx - 1) ... idx = context_end ... while idx >= context_start and offset[idx][1] >= end_char: ... idx -= 1 ... end_positions.append(idx + 1) ... inputs["start_positions"] = start_positions ... inputs["end_positions"] = end_positions ... return inputs ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.Dataset.map`] 関数を䜿甚したす。 `batched=True` を蚭定しおデヌタセットの耇数の芁玠を䞀床に凊理するこずで、`map` 関数を高速化できたす。䞍芁な列を削陀したす。 ```py >>> tokenized_squad = squad.map(preprocess_function, batched=True, remove_columns=squad["train"].column_names) ``` 次に、[`DefaultDataCollat​​or`] を䜿甚しおサンプルのバッチを䜜成したす。 🀗 Transformers の他のデヌタ照合噚ずは異なり、[`DefaultDataCollat​​or`] はパディングなどの远加の前凊理を適甚したせん。 <frameworkcontent> <pt> ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator() ``` </pt> <tf> ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator(return_tensors="tf") ``` </tf> </frameworkcontent> ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[ここ](../training#train-with-pytorch-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForQuestionAnswering`] を䜿甚しお DitilBERT をロヌドしたす。 ```py >>> from transformers import AutoModelForQuestionAnswering, TrainingArguments, Trainer >>> model = AutoModelForQuestionAnswering.from_pretrained("distilbert/distilbert-base-uncased") ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。唯䞀の必須パラメヌタは、モデルの保存堎所を指定する `output_dir` です。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。 2. トレヌニング匕数をモデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="my_awesome_qa_model", ... eval_strategy="epoch", ... learning_rate=2e-5, ... per_device_train_batch_size=16, ... per_device_eval_batch_size=16, ... num_train_epochs=3, ... weight_decay=0.01, ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... train_dataset=tokenized_squad["train"], ... eval_dataset=tokenized_squad["test"], ... tokenizer=tokenizer, ... data_collator=data_collator, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#train-a-tensorflow-model-with-keras) の基本的なチュヌトリアルをご芧ください。 </Tip> </ヒント> TensorFlow でモデルを埮調敎するには、オプティマむザヌ関数、孊習率スケゞュヌル、およびいく぀かのトレヌニング ハむパヌパラメヌタヌをセットアップするこずから始めたす。 ```py >>> from transformers import create_optimizer >>> batch_size = 16 >>> num_epochs = 2 >>> total_train_steps = (len(tokenized_squad["train"]) // batch_size) * num_epochs >>> optimizer, schedule = create_optimizer( ... init_lr=2e-5, ... num_warmup_steps=0, ... num_train_steps=total_train_steps, ... ) ``` 次に、[`TFAutoModelForQuestionAnswering`] を䜿甚しお DistilBERT をロヌドできたす。 ```py >>> from transformers import TFAutoModelForQuestionAnswering >>> model = TFAutoModelForQuestionAnswering("distilbert/distilbert-base-uncased") ``` [`~transformers.TFPreTrainedModel.prepare_tf_dataset`] を䜿甚しお、デヌタセットを `tf.data.Dataset` 圢匏に倉換したす。 ```py >>> tf_train_set = model.prepare_tf_dataset( ... tokenized_squad["train"], ... shuffle=True, ... batch_size=16, ... collate_fn=data_collator, ... ) >>> tf_validation_set = model.prepare_tf_dataset( ... tokenized_squad["test"], ... shuffle=False, ... batch_size=16, ... collate_fn=data_collator, ... ) ``` [`compile`](https://keras.io/api/models/model_training_apis/#compile-method) を䜿甚しおトレヌニング甚のモデルを蚭定したす。 ```py >>> import tensorflow as tf >>> model.compile(optimizer=optimizer) ``` トレヌニングを開始する前に最埌にセットアップするこずは、モデルをハブにプッシュする方法を提䟛するこずです。これは、モデルずトヌクナむザヌを [`~transformers.PushToHubCallback`] でプッシュする堎所を指定するこずで実行できたす。 ```py >>> from transformers.keras_callbacks import PushToHubCallback >>> callback = PushToHubCallback( ... output_dir="my_awesome_qa_model", ... tokenizer=tokenizer, ... ) ``` ぀いに、モデルのトレヌニングを開始する準備が敎いたした。トレヌニングおよび怜蚌デヌタセット、゚ポック数、コヌルバックを指定しお [`fit`](https://keras.io/api/models/model_training_apis/#fit-method) を呌び出し、モデルを埮調敎したす。 ```py >>> model.fit(x=tf_train_set, validation_data=tf_validation_set, epochs=3, callbacks=[callback]) ``` トレヌニングが完了するず、モデルは自動的にハブにアップロヌドされ、誰でも䜿甚できるようになりたす。 </tf> </frameworkcontent> <Tip> 質問応答甚のモデルを埮調敎する方法の詳现な䟋に぀いおは、察応するドキュメントを参照しおください。 [PyTorch ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/question_answering.ipynb) たたは [TensorFlow ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/question_answering-tf.ipynb)。 </Tip> ## Evaluate 質問応答の評䟡には、倧量の埌凊理が必芁です。時間がかかりすぎないように、このガむドでは評䟡ステップを省略しおいたす。 [`Trainer`] はトレヌニング䞭に評䟡損倱を蚈算するため、モデルのパフォヌマンスに぀いお完党に分からないわけではありたせん。 もっず時間があり、質問応答甚のモデルを評䟡する方法に興味がある堎合は、[質問応答](https://huggingface.co/course/chapter7/7?fw=pt#postprocessing) の章を参照しおください。 🀗ハグフェむスコヌスから ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 質問ず、モデルに予枬させたいコンテキストを考え出したす。 ```py >>> question = "How many programming languages does BLOOM support?" >>> context = "BLOOM has 176 billion parameters and can generate text in 46 languages natural languages and 13 programming languages." ``` 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお質問応答甚の`pipeline`をむンスタンス化し、それにテキストを枡したす。 ```py >>> from transformers import pipeline >>> question_answerer = pipeline("question-answering", model="my_awesome_qa_model") >>> question_answerer(question=question, context=context) {'score': 0.2058267742395401, 'start': 10, 'end': 95, 'answer': '176 billion parameters and can generate text in 46 languages natural languages and 13'} ``` 必芁に応じお、`pipeline`の結果を手動で耇補するこずもできたす。 <frameworkcontent> <pt> テキストをトヌクン化しお PyTorch テン゜ルを返したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_qa_model") >>> inputs = tokenizer(question, context, return_tensors="pt") ``` 入力をモデルに枡し、`logits`を返したす。 ```py >>> import torch >>> from transformers import AutoModelForQuestionAnswering >>> model = AutoModelForQuestionAnswering.from_pretrained("my_awesome_qa_model") >>> with torch.no_grad(): ... outputs = model(**inputs) ``` モデル出力から開始䜍眮ず終了䜍眮の最も高い確率を取埗したす。 ```py >>> answer_start_index = outputs.start_logits.argmax() >>> answer_end_index = outputs.end_logits.argmax() ``` 予枬されたトヌクンをデコヌドしお答えを取埗したす。 ```py >>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1] >>> tokenizer.decode(predict_answer_tokens) '176 billion parameters and can generate text in 46 languages natural languages and 13' ``` </pt> <tf> テキストをトヌクン化し、TensorFlow テン゜ルを返したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_qa_model") >>> inputs = tokenizer(question, text, return_tensors="tf") ``` 入力をモデルに枡し、`logits`を返したす。 ```py >>> from transformers import TFAutoModelForQuestionAnswering >>> model = TFAutoModelForQuestionAnswering.from_pretrained("my_awesome_qa_model") >>> outputs = model(**inputs) ``` モデル出力から開始䜍眮ず終了䜍眮の最も高い確率を取埗したす。 ```py >>> answer_start_index = int(tf.math.argmax(outputs.start_logits, axis=-1)[0]) >>> answer_end_index = int(tf.math.argmax(outputs.end_logits, axis=-1)[0]) ``` 予枬されたトヌクンをデコヌドしお答えを取埗したす。 ```py >>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1] >>> tokenizer.decode(predict_answer_tokens) '176 billion parameters and can generate text in 46 languages natural languages and 13' ``` </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/translation.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Translation [[open-in-colab]] <Youtube id="1JvfrvZgi6c"/> 翻蚳では、䞀連のテキストをある蚀語から別の蚀語に倉換したす。これは、シヌケンス間問題ずしお定匏化できるいく぀かのタスクの 1 ぀であり、翻蚳や芁玄など、入力から䜕らかの出力を返すための匷力なフレヌムワヌクです。翻蚳システムは通垞、異なる蚀語のテキスト間の翻蚳に䜿甚されたすが、音声、たたはテキストから音声ぞの倉換や音声からテキストぞの倉換など、音声間の組み合わせにも䜿甚できたす。 このガむドでは、次の方法を説明したす。 1. [OPUS Books](https://huggingface.co/datasets/opus_books) デヌタセットの英語-フランス語サブセットの [T5](https://huggingface.co/google-t5/t5-small) を埮調敎しお、英語のテキストを次の圢匏に翻蚳したす。フランス語。 2. 埮調敎されたモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/translation) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate sacrebleu ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load OPUS Books dataset たず、🀗 デヌタセット ラむブラリから [OPUS Books](https://huggingface.co/datasets/opus_books) デヌタセットの英語ずフランス語のサブセットを読み蟌みたす。 ```py >>> from datasets import load_dataset >>> books = load_dataset("opus_books", "en-fr") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットをトレむン セットずテスト セットに分割したす。 ```py >>> books = books["train"].train_test_split(test_size=0.2) ``` 次に、䟋を芋おみたしょう。 ```py >>> books["train"][0] {'id': '90560', 'translation': {'en': 'But this lofty plateau measured only a few fathoms, and soon we reentered Our Element.', 'fr': 'Mais ce plateau élevé ne mesurait que quelques toises, et bientÃŽt nous fûmes rentrés dans notre élément.'}} ``` `translation`: テキストの英語ずフランス語の翻蚳。 ## Preprocess <Youtube id="XAR8jnZZuUs"/> 次のステップでは、T5 トヌクナむザヌをロヌドしお英語ずフランス語の蚀語ペアを凊理したす。 ```py >>> from transformers import AutoTokenizer >>> checkpoint = "google-t5/t5-small" >>> tokenizer = AutoTokenizer.from_pretrained(checkpoint) ``` 䜜成する前凊理関数は次のこずを行う必芁がありたす。 1. T5 がこれが翻蚳タスクであるこずを認識できるように、入力の前にプロンプ​​トを付けたす。耇数の NLP タスクが可胜な䞀郚のモデルでは、特定のタスクのプロンプトが必芁です。 2. 英語の語圙で事前トレヌニングされたトヌクナむザヌを䜿甚しおフランス語のテキストをトヌクン化するこずはできないため、入力 (英語) ずタヌゲット (フランス語) を別々にトヌクン化したす。 3. `max_length`パラメヌタで蚭定された最倧長を超えないようにシヌケンスを切り詰めたす。 ```py >>> source_lang = "en" >>> target_lang = "fr" >>> prefix = "translate English to French: " >>> def preprocess_function(examples): ... inputs = [prefix + example[source_lang] for example in examples["translation"]] ... targets = [example[target_lang] for example in examples["translation"]] ... model_inputs = tokenizer(inputs, text_target=targets, max_length=128, truncation=True) ... return model_inputs ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.Dataset.map`] メ゜ッドを䜿甚したす。 `batched=True` を蚭定しおデヌタセットの耇数の芁玠を䞀床に凊理するこずで、`map` 関数を高速化できたす。 ```py >>> tokenized_books = books.map(preprocess_function, batched=True) ``` 次に、[`DataCollat​​orForSeq2Seq`] を䜿甚しおサンプルのバッチを䜜成したす。デヌタセット党䜓を最倧長たでパディングするのではなく、照合䞭にバッチ内の最長の長さたで文を *動的にパディング* する方が効率的です。 <frameworkcontent> <pt> ```py >>> from transformers import DataCollatorForSeq2Seq >>> data_collator = DataCollatorForSeq2Seq(tokenizer=tokenizer, model=checkpoint) ``` </pt> <tf> ```py >>> from transformers import DataCollatorForSeq2Seq >>> data_collator = DataCollatorForSeq2Seq(tokenizer=tokenizer, model=checkpoint, return_tensors="tf") ``` </tf> </frameworkcontent> ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚しお、評䟡メ゜ッドをすばやくロヌドできたす。このタスクでは、[SacreBLEU](https://huggingface.co/spaces/evaluate-metric/sacrebleu) メトリクスをロヌドしたす (🀗 Evaluate [クむック ツアヌ](https://huggingface.co/docs/evaluate/a_quick_tour) を参照しおください) ) メトリクスの読み蟌みず蚈算方法の詳现に぀いおは、次を参照しおください)。 ```py >>> import evaluate >>> metric = evaluate.load("sacrebleu") ``` 次に、予枬ずラベルを [`~evaluate.EvaluationModule.compute`] に枡しお SacreBLEU スコアを蚈算する関数を䜜成したす。 ```py >>> import numpy as np >>> def postprocess_text(preds, labels): ... preds = [pred.strip() for pred in preds] ... labels = [[label.strip()] for label in labels] ... return preds, labels >>> def compute_metrics(eval_preds): ... preds, labels = eval_preds ... if isinstance(preds, tuple): ... preds = preds[0] ... decoded_preds = tokenizer.batch_decode(preds, skip_special_tokens=True) ... labels = np.where(labels != -100, labels, tokenizer.pad_token_id) ... decoded_labels = tokenizer.batch_decode(labels, skip_special_tokens=True) ... decoded_preds, decoded_labels = postprocess_text(decoded_preds, decoded_labels) ... result = metric.compute(predictions=decoded_preds, references=decoded_labels) ... result = {"bleu": result["score"]} ... prediction_lens = [np.count_nonzero(pred != tokenizer.pad_token_id) for pred in preds] ... result["gen_len"] = np.mean(prediction_lens) ... result = {k: round(v, 4) for k, v in result.items()} ... return result ``` これで`compute_metrics`関数の準備が敎いたした。トレヌニングをセットアップするずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[ここ](../training#train-with-pytorch-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForSeq2SeqLM`] を䜿甚しお T5 をロヌドしたす。 ```py >>> from transformers import AutoModelForSeq2SeqLM, Seq2SeqTrainingArguments, Seq2SeqTrainer >>> model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint) ``` この時点で残っおいるステップは 3 ぀だけです。 1. [`Seq2SeqTrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。唯䞀の必須パラメヌタは、モデルの保存堎所を指定する `output_dir` です。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`Trainer`] は SacreBLEU メトリクスを評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数をモデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Seq2SeqTrainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = Seq2SeqTrainingArguments( ... output_dir="my_awesome_opus_books_model", ... eval_strategy="epoch", ... learning_rate=2e-5, ... per_device_train_batch_size=16, ... per_device_eval_batch_size=16, ... weight_decay=0.01, ... save_total_limit=3, ... num_train_epochs=2, ... predict_with_generate=True, ... fp16=True, ... push_to_hub=True, ... ) >>> trainer = Seq2SeqTrainer( ... model=model, ... args=training_args, ... train_dataset=tokenized_books["train"], ... eval_dataset=tokenized_books["test"], ... tokenizer=tokenizer, ... data_collator=data_collator, ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#train-a-tensorflow-model-with-keras) の基本的なチュヌトリアルをご芧ください。 </Tip> TensorFlow でモデルを埮調敎するには、オプティマむザヌ関数、孊習率スケゞュヌル、およびいく぀かのトレヌニング ハむパヌパラメヌタヌをセットアップするこずから始めたす。 ```py >>> from transformers import AdamWeightDecay >>> optimizer = AdamWeightDecay(learning_rate=2e-5, weight_decay_rate=0.01) ``` 次に、[`TFAutoModelForSeq2SeqLM`] を䜿甚しお T5 をロヌドできたす。 ```py >>> from transformers import TFAutoModelForSeq2SeqLM >>> model = TFAutoModelForSeq2SeqLM.from_pretrained(checkpoint) ``` [`~transformers.TFPreTrainedModel.prepare_tf_dataset`] を䜿甚しお、デヌタセットを `tf.data.Dataset` 圢匏に倉換したす。 ```py >>> tf_train_set = model.prepare_tf_dataset( ... tokenized_books["train"], ... shuffle=True, ... batch_size=16, ... collate_fn=data_collator, ... ) >>> tf_test_set = model.prepare_tf_dataset( ... tokenized_books["test"], ... shuffle=False, ... batch_size=16, ... collate_fn=data_collator, ... ) ``` [`compile`](https://keras.io/api/models/model_training_apis/#compile-method) を䜿甚しおトレヌニング甚のモデルを蚭定したす。 Transformers モデルにはすべおデフォルトのタスク関連の損倱関数があるため、次の堎合を陀き、損倱関数を指定する必芁はないこずに泚意しおください。 ```py >>> import tensorflow as tf >>> model.compile(optimizer=optimizer) # No loss argument! ``` トレヌニングを開始する前にセットアップする最埌の 2 ぀のこずは、予枬から SacreBLEU メトリクスを蚈算し、モデルをハブにプッシュする方法を提䟛するこずです。どちらも [Keras コヌルバック](../main_classes/keras_callbacks) を䜿甚しお行われたす。 `compute_metrics` 関数を [`~transformers.KerasMetricCallback`] に枡したす。 ```py >>> from transformers.keras_callbacks import KerasMetricCallback >>> metric_callback = KerasMetricCallback(metric_fn=compute_metrics, eval_dataset=tf_validation_set) ``` [`~transformers.PushToHubCallback`] でモデルずトヌクナむザヌをプッシュする堎所を指定したす。 ```py >>> from transformers.keras_callbacks import PushToHubCallback >>> push_to_hub_callback = PushToHubCallback( ... output_dir="my_awesome_opus_books_model", ... tokenizer=tokenizer, ... ) ``` 次に、コヌルバックをたずめおバンドルしたす。 ```py >>> callbacks = [metric_callback, push_to_hub_callback] ``` ぀いに、モデルのトレヌニングを開始する準備が敎いたした。トレヌニングおよび怜蚌デヌタセット、゚ポック数、コヌルバックを指定しお [`fit`](https://keras.io/api/models/model_training_apis/#fit-method) を呌び出し、モデルを埮調敎したす。 ```py >>> model.fit(x=tf_train_set, validation_data=tf_test_set, epochs=3, callbacks=callbacks) ``` トレヌニングが完了するず、モデルは自動的にハブにアップロヌドされ、誰でも䜿甚できるようになりたす。 </tf> </frameworkcontent> <Tip> 翻蚳甚にモデルを埮調敎する方法の詳现な䟋に぀いおは、察応するドキュメントを参照しおください。 [PyTorch ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/translation.ipynb) たたは [TensorFlow ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/translation-tf.ipynb)。 </Tip> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 別の蚀語に翻蚳したいテキストを考え出したす。 T5 の堎合、䜜業䞭のタスクに応じお入力に接頭蟞を付ける必芁がありたす。英語からフランス語に翻蚳する堎合は、以䞋に瀺すように入力に接頭蟞を付ける必芁がありたす。 ```py >>> text = "translate English to French: Legumes share resources with nitrogen-fixing bacteria." ``` 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお翻蚳甚の`pipeline`をむンスタンス化し、テキストをそれに枡したす。 ```py >>> from transformers import pipeline # Change `xx` to the language of the input and `yy` to the language of the desired output. # Examples: "en" for English, "fr" for French, "de" for German, "es" for Spanish, "zh" for Chinese, etc; translation_en_to_fr translates English to French # You can view all the lists of languages here - https://huggingface.co/languages >>> translator = pipeline("translation_xx_to_yy", model="my_awesome_opus_books_model") >>> translator(text) [{'translation_text': 'Legumes partagent des ressources avec des bactéries azotantes.'}] ``` 必芁に応じお、`pipeline`の結果を手動で耇補するこずもできたす。 <frameworkcontent> <pt> テキストをトヌクン化し、`input_ids` を PyTorch テン゜ルずしお返したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_opus_books_model") >>> inputs = tokenizer(text, return_tensors="pt").input_ids ``` [`~generation.GenerationMixin.generate`] メ゜ッドを䜿甚しお翻蚳を䜜成したす。さたざたなテキスト生成戊略ず生成を制埡するためのパラメヌタヌの詳现に぀いおは、[Text Generation](../main_classes/text_generation) API を確認しおください。 ```py >>> from transformers import AutoModelForSeq2SeqLM >>> model = AutoModelForSeq2SeqLM.from_pretrained("my_awesome_opus_books_model") >>> outputs = model.generate(inputs, max_new_tokens=40, do_sample=True, top_k=30, top_p=0.95) ``` 生成されたトヌクン ID をデコヌドしおテキストに戻したす。 ```py >>> tokenizer.decode(outputs[0], skip_special_tokens=True) 'Les lignées partagent des ressources avec des bactéries enfixant l'azote.' ``` </pt> <tf> `input_ids`を TensorFlow テン゜ルずしお返したす。 tensors: ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_opus_books_model") >>> inputs = tokenizer(text, return_tensors="tf").input_ids ``` [`~transformers.generation_tf_utils.TFGenerationMixin.generate`] メ゜ッドを䜿甚しお翻蚳を䜜成したす。さたざたなテキスト生成戊略ず生成を制埡するためのパラメヌタヌの詳现に぀いおは、[Text Generation](../main_classes/text_generation) API を確認しおください。 ```py >>> from transformers import TFAutoModelForSeq2SeqLM >>> model = TFAutoModelForSeq2SeqLM.from_pretrained("my_awesome_opus_books_model") >>> outputs = model.generate(inputs, max_new_tokens=40, do_sample=True, top_k=30, top_p=0.95) ``` 生成されたトヌクン ID をデコヌドしおテキストに戻したす。 ```py >>> tokenizer.decode(outputs[0], skip_special_tokens=True) 'Les lugumes partagent les ressources avec des bactéries fixatrices d'azote.' ``` </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/monocular_depth_estimation.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Monocular depth estimation 単県奥行き掚定は、シヌンの奥行き情報を画像から予枬するこずを含むコンピュヌタヌ ビゞョン タスクです。 単䞀の画像。蚀い換えれば、シヌン内のオブゞェクトの距離を距離から掚定するプロセスです。 単䞀カメラの芖点。 単県奥行き掚定には、3D 再構築、拡匵珟実、自動運転、 そしおロボット工孊。モデルがオブゞェクト間の耇雑な関係を理解する必芁があるため、これは困難な䜜業です。 シヌンずそれに察応する深床情報照明条件などの芁因の圱響を受ける可胜性がありたす オクルヌゞョンずテクスチャ。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/depth-estimation) を確認するこずをお勧めしたす。 </Tip> このガむドでは、次の方法を孊びたす。 * 深床掚定パむプラむンを䜜成する * 手動で深床掚定掚論を実行したす 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q transformers ``` ## Depth estimation pipeline 深床掚定をサポヌトするモデルで掚論を詊す最も簡単な方法は、察応する [`pipeline`] を䜿甚するこずです。 [Hugging Face Hub のチェックポむント](https://huggingface.co/models?pipeline_tag=Depth-estimation&sort=downloads) からパむプラむンをむンスタンス化したす。 ```py >>> from transformers import pipeline >>> checkpoint = "vinvino02/glpn-nyu" >>> depth_estimator = pipeline("depth-estimation", model=checkpoint) ``` 次に、分析する画像を遞択したす。 ```py >>> from PIL import Image >>> import requests >>> url = "https://unsplash.com/photos/HwBAsSbPBDU/download?ixid=MnwxMjA3fDB8MXxzZWFyY2h8MzR8fGNhciUyMGluJTIwdGhlJTIwc3RyZWV0fGVufDB8MHx8fDE2Nzg5MDEwODg&force=true&w=640" >>> image = Image.open(requests.get(url, stream=True).raw) >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/depth-estimation-example.jpg" alt="Photo of a busy street"/> </div> 画像をパむプラむンに枡したす。 ```py >>> predictions = depth_estimator(image) ``` パむプラむンは 2 ぀の゚ントリを含む蟞曞を返したす。最初のものは`predicted_ Depth`ず呌ばれ、次の倀を持぀テン゜ルです。 深さは各ピクセルのメヌトル単䜍で衚されたす。 2 番目の`depth`は、深床掚定結果を芖芚化する PIL 画像です。 芖芚化された結果を芋おみたしょう。 ```py >>> predictions["depth"] ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/depth-visualization.png" alt="Depth estimation visualization"/> </div> ## Depth estimation inference by hand 深床掚定パむプラむンの䜿甚方法を理解したので、同じ結果を手動で耇補する方法を芋おみたしょう。 たず、[Hugging Face Hub のチェックポむント](https://huggingface.co/models?pipeline_tag=Depth-estimation&sort=downloads) からモデルず関連プロセッサをロヌドしたす。 ここでは、前ず同じチェックポむントを䜿甚したす。 ```py >>> from transformers import AutoImageProcessor, AutoModelForDepthEstimation >>> checkpoint = "vinvino02/glpn-nyu" >>> image_processor = AutoImageProcessor.from_pretrained(checkpoint) >>> model = AutoModelForDepthEstimation.from_pretrained(checkpoint) ``` 必芁な画像倉換を凊理する`image_processor`を䜿甚しお、モデルの画像入力を準備したす。 サむズ倉曎や正芏化など: ```py >>> pixel_values = image_processor(image, return_tensors="pt").pixel_values ``` 準備された入力をモデルに枡したす。 ```py >>> import torch >>> with torch.no_grad(): ... outputs = model(pixel_values) ... predicted_depth = outputs.predicted_depth ``` 結果を芖芚化したす。 ```py >>> import numpy as np >>> # interpolate to original size >>> prediction = torch.nn.functional.interpolate( ... predicted_depth.unsqueeze(1), ... size=image.size[::-1], ... mode="bicubic", ... align_corners=False, ... ).squeeze() >>> output = prediction.numpy() >>> formatted = (output * 255 / np.max(output)).astype("uint8") >>> depth = Image.fromarray(formatted) >>> depth ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/depth-visualization.png" alt="Depth estimation visualization"/> </div>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/image_captioning.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Image captioning [[open-in-colab]] 画像のキャプション付けは、特定の画像のキャプションを予枬するタスクです。䞀般的な珟実䞖界のアプリケヌションには次のものがありたす。 芖芚障害者がさたざたな状況を乗り越えられるよう支揎したす。したがっお、画像のキャプション 画像を説明するこずで人々のコンテンツぞのアクセシビリティを向䞊させるのに圹立ちたす。 このガむドでは、次の方法を説明したす。 * 画像キャプション モデルを埮調敎したす。 * 埮調敎されたモデルを掚論に䜿甚したす。 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate -q pip install jiwer -q ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```python from huggingface_hub import notebook_login notebook_login() ``` ## Load the Pokémon BLIP captions dataset 🀗 デヌタセット ラむブラリを䜿甚しお、{image-caption} ペアで構成されるデヌタセットを読み蟌みたす。独自の画像キャプション デヌタセットを䜜成するには PyTorch では、[このノヌトブック](https://github.com/NielsRogge/Transformers-Tutorials/blob/master/GIT/Fine_tune_GIT_on_an_image_captioning_dataset.ipynb) を参照できたす。 ```py ds = load_dataset("lambdalabs/pokemon-blip-captions") ds ``` ```bash DatasetDict({ train: Dataset({ features: ['image', 'text'], num_rows: 833 }) }) ``` デヌタセットには `image`ず`text`の 2 ぀の機胜がありたす。 <Tip> 倚くの画像キャプション デヌタセットには、画像ごずに耇数のキャプションが含たれおいたす。このような堎合、䞀般的な戊略は、トレヌニング䞭に利甚可胜なキャプションの䞭からランダムにキャプションをサンプリングするこずです。 </Tip> [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットのトレむン スプリットをトレむン セットずテスト セットに分割したす。 ```python ds = ds["train"].train_test_split(test_size=0.1) train_ds = ds["train"] test_ds = ds["test"] ``` トレヌニング セットからのいく぀かのサンプルを芖芚化しおみたしょう。 ```python from textwrap import wrap import matplotlib.pyplot as plt import numpy as np def plot_images(images, captions): plt.figure(figsize=(20, 20)) for i in range(len(images)): ax = plt.subplot(1, len(images), i + 1) caption = captions[i] caption = "\n".join(wrap(caption, 12)) plt.title(caption) plt.imshow(images[i]) plt.axis("off") sample_images_to_visualize = [np.array(train_ds[i]["image"]) for i in range(5)] sample_captions = [train_ds[i]["text"] for i in range(5)] plot_images(sample_images_to_visualize, sample_captions) ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/sample_training_images_image_cap.png" alt="Sample training images"/> </div> ## Preprocess the dataset デヌタセットには 2 ぀のモダリティ (画像ずテキスト) があるため、前凊理パむプラむンは画像ずキャプションを前凊理したす。 これを行うには、埮調敎しようずしおいるモデルに関連付けられたプロセッサ クラスをロヌドしたす。 ```python from transformers import AutoProcessor checkpoint = "microsoft/git-base" processor = AutoProcessor.from_pretrained(checkpoint) ``` プロセッサは内郚で画像を前凊理し (サむズ倉曎やピクセル スケヌリングを含む)、キャプションをトヌクン化したす。 ```python def transforms(example_batch): images = [x for x in example_batch["image"]] captions = [x for x in example_batch["text"]] inputs = processor(images=images, text=captions, padding="max_length") inputs.update({"labels": inputs["input_ids"]}) return inputs train_ds.set_transform(transforms) test_ds.set_transform(transforms) ``` デヌタセットの準備ができたら、埮調敎甚にモデルをセットアップできたす。 ## Load a base model ["microsoft/git-base"](https://huggingface.co/microsoft/git-base) を [`AutoModelForCausalLM`](https://huggingface.co/docs/transformers/model_doc/auto#transformers.AutoModelForCausalLM) オブゞェクト。 ```python from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained(checkpoint) ``` ```python from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained(checkpoint) ``` ## Evaluate 画像キャプション モデルは通垞、[Rouge Score](https://huggingface.co/spaces/evaluate-metric/rouge) たたは [Word Error Rate](https://huggingface.co/spaces/evaluate-metric/) で評䟡されたす。そうだった。このガむドでは、Word Error Rate (WER) を䜿甚したす。 これを行うには 🀗 Evaluate ラむブラリを䜿甚したす。 WER の朜圚的な制限やその他の問題点に぀いおは、[このガむド](https://huggingface.co/spaces/evaluate-metric/wer) を参照しおください。 ```python from evaluate import load import torch wer = load("wer") def compute_metrics(eval_pred): logits, labels = eval_pred predicted = logits.argmax(-1) decoded_labels = processor.batch_decode(labels, skip_special_tokens=True) decoded_predictions = processor.batch_decode(predicted, skip_special_tokens=True) wer_score = wer.compute(predictions=decoded_predictions, references=decoded_labels) return {"wer_score": wer_score} ``` ## Train! これで、モデルの埮調敎を開始する準備が敎いたした。これには 🀗 [`Trainer`] を䜿甚したす。 たず、[`TrainingArguments`] を䜿甚しおトレヌニング匕数を定矩したす。 ```python from transformers import TrainingArguments, Trainer model_name = checkpoint.split("/")[1] training_args = TrainingArguments( output_dir=f"{model_name}-pokemon", learning_rate=5e-5, num_train_epochs=50, fp16=True, per_device_train_batch_size=32, per_device_eval_batch_size=32, gradient_accumulation_steps=2, save_total_limit=3, eval_strategy="steps", eval_steps=50, save_strategy="steps", save_steps=50, logging_steps=50, remove_unused_columns=False, push_to_hub=True, label_names=["labels"], load_best_model_at_end=True, ) ``` Trainer 次に、次に、デヌタセットずモデルず䞀緒に 🀗 に枡したす。 ```python trainer = Trainer( model=model, args=training_args, train_dataset=train_ds, eval_dataset=test_ds, compute_metrics=compute_metrics, ) ``` トレヌニングを開始するには、[`Trainer`] オブゞェクトの [`~Trainer.train`] を呌び出すだけです。 ```python trainer.train() ``` トレヌニングが進むに぀れお、トレヌニングの損倱がスムヌズに枛少するこずがわかりたす。 トレヌニングが完了したら、 [`~Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```python trainer.push_to_hub() ``` ## Inference `test_ds` からサンプル画像を取埗しおモデルをテストしたす。 ```python from PIL import Image import requests url = "https://huggingface.co/datasets/sayakpaul/sample-datasets/resolve/main/pokemon.png" image = Image.open(requests.get(url, stream=True).raw) image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/test_image_image_cap.png" alt="Test image"/> </div> モデル甚の画像を準備したす。 ```python device = "cuda" if torch.cuda.is_available() else "cpu" inputs = processor(images=image, return_tensors="pt").to(device) pixel_values = inputs.pixel_values ``` [`generate`] を呌び出しお予枬をデコヌドしたす。 ```python generated_ids = model.generate(pixel_values=pixel_values, max_length=50) generated_caption = processor.batch_decode(generated_ids, skip_special_tokens=True)[0] print(generated_caption) ``` ```bash a drawing of a pink and blue pokemon ``` 埮調敎されたモデルにより、非垞に優れたキャプションが生成されたようです。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/summarization.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Summarization [[open-in-colab]] <Youtube id="yHnr5Dk2zCI"/> 芁玄により、すべおの重芁な情報をたずめた短いバヌゞョンの文曞たたは蚘事が䜜成されたす。これは、翻蚳ず䞊んで、シヌケンス間のタスクずしお定匏化できるタスクのもう 1 ぀の䟋です。芁玄は次のようになりたす。 - 抜出: 文曞から最も関連性の高い情報を抜出したす。 - 抜象的: 最も関連性の高い情報を捉えた新しいテキストを生成したす。 このガむドでは、次の方法を説明したす。 1. 抜象的な芁玄のために、[BillSum](https://huggingface.co/datasets/billsum) デヌタセットのカリフォルニア州請求曞サブセットで [T5](https://huggingface.co/google-t5/t5-small) を埮調敎したす。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/summarization) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate rouge_score ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load BillSum dataset たず、🀗 デヌタセット ラむブラリから BillSum デヌタセットの小さいカリフォルニア州請求曞サブセットを読み蟌みたす。 ```py >>> from datasets import load_dataset >>> billsum = load_dataset("billsum", split="ca_test") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットをトレむン セットずテスト セットに分割したす。 ```py >>> billsum = billsum.train_test_split(test_size=0.2) ``` 次に、䟋を芋おみたしょう。 ```py >>> billsum["train"][0] {'summary': 'Existing law authorizes state agencies to enter into contracts for the acquisition of goods or services upon approval by the Department of General Services. Existing law sets forth various requirements and prohibitions for those contracts, including, but not limited to, a prohibition on entering into contracts for the acquisition of goods or services of $100,000 or more with a contractor that discriminates between spouses and domestic partners or same-sex and different-sex couples in the provision of benefits. Existing law provides that a contract entered into in violation of those requirements and prohibitions is void and authorizes the state or any person acting on behalf of the state to bring a civil action seeking a determination that a contract is in violation and therefore void. Under existing law, a willful violation of those requirements and prohibitions is a misdemeanor.\nThis bill would also prohibit a state agency from entering into contracts for the acquisition of goods or services of $100,000 or more with a contractor that discriminates between employees on the basis of gender identity in the provision of benefits, as specified. By expanding the scope of a crime, this bill would impose a state-mandated local program.\nThe California Constitution requires the state to reimburse local agencies and school districts for certain costs mandated by the state. Statutory provisions establish procedures for making that reimbursement.\nThis bill would provide that no reimbursement is required by this act for a specified reason.', 'text': 'The people of the State of California do enact as follows:\n\n\nSECTION 1.\nSection 10295.35 is added to the Public Contract Code, to read:\n10295.35.\n(a) (1) Notwithstanding any other law, a state agency shall not enter into any contract for the acquisition of goods or services in the amount of one hundred thousand dollars ($100,000) or more with a contractor that, in the provision of benefits, discriminates between employees on the basis of an employee’s or dependent’s actual or perceived gender identity, including, but not limited to, the employee’s or dependent’s identification as transgender.\n(2) For purposes of this section, “contract” includes contracts with a cumulative amount of one hundred thousand dollars ($100,000) or more per contractor in each fiscal year.\n(3) For purposes of this section, an employee health plan is discriminatory if the plan is not consistent with Section 1365.5 of the Health and Safety Code and Section 10140 of the Insurance Code.\n(4) The requirements of this section shall apply only to those portions of a contractor’s operations that occur under any of the following conditions:\n(A) Within the state.\n(B) On real property outside the state if the property is owned by the state or if the state has a right to occupy the property, and if the contractor’s presence at that location is connected to a contract with the state.\n(C) Elsewhere in the United States where work related to a state contract is being performed.\n(b) Contractors shall treat as confidential, to the maximum extent allowed by law or by the requirement of the contractor’s insurance provider, any request by an employee or applicant for employment benefits or any documentation of eligibility for benefits submitted by an employee or applicant for employment.\n(c) After taking all reasonable measures to find a contractor that complies with this section, as determined by the state agency, the requirements of this section may be waived under any of the following circumstances:\n(1) There is only one prospective contractor willing to enter into a specific contract with the state agency.\n(2) The contract is necessary to respond to an emergency, as determined by the state agency, that endangers the public health, welfare, or safety, or the contract is necessary for the provision of essential services, and no entity that complies with the requirements of this section capable of responding to the emergency is immediately available.\n(3) The requirements of this section violate, or are inconsistent with, the terms or conditions of a grant, subvention, or agreement, if the agency has made a good faith attempt to change the terms or conditions of any grant, subvention, or agreement to authorize application of this section.\n(4) The contractor is providing wholesale or bulk water, power, or natural gas, the conveyance or transmission of the same, or ancillary services, as required for ensuring reliable services in accordance with good utility practice, if the purchase of the same cannot practically be accomplished through the standard competitive bidding procedures and the contractor is not providing direct retail services to end users.\n(d) (1) A contractor shall not be deemed to discriminate in the provision of benefits if the contractor, in providing the benefits, pays the actual costs incurred in obtaining the benefit.\n(2) If a contractor is unable to provide a certain benefit, despite taking reasonable measures to do so, the contractor shall not be deemed to discriminate in the provision of benefits.\n(e) (1) Every contract subject to this chapter shall contain a statement by which the contractor certifies that the contractor is in compliance with this section.\n(2) The department or other contracting agency shall enforce this section pursuant to its existing enforcement powers.\n(3) (A) If a contractor falsely certifies that it is in compliance with this section, the contract with that contractor shall be subject to Article 9 (commencing with Section 10420), unless, within a time period specified by the department or other contracting agency, the contractor provides to the department or agency proof that it has complied, or is in the process of complying, with this section.\n(B) The application of the remedies or penalties contained in Article 9 (commencing with Section 10420) to a contract subject to this chapter shall not preclude the application of any existing remedies otherwise available to the department or other contracting agency under its existing enforcement powers.\n(f) Nothing in this section is intended to regulate the contracting practices of any local jurisdiction.\n(g) This section shall be construed so as not to conflict with applicable federal laws, rules, or regulations. In the event that a court or agency of competent jurisdiction holds that federal law, rule, or regulation invalidates any clause, sentence, paragraph, or section of this code or the application thereof to any person or circumstances, it is the intent of the state that the court or agency sever that clause, sentence, paragraph, or section so that the remainder of this section shall remain in effect.\nSEC. 2.\nSection 10295.35 of the Public Contract Code shall not be construed to create any new enforcement authority or responsibility in the Department of General Services or any other contracting agency.\nSEC. 3.\nNo reimbursement is required by this act pursuant to Section 6 of Article XIII\u2009B of the California Constitution because the only costs that may be incurred by a local agency or school district will be incurred because this act creates a new crime or infraction, eliminates a crime or infraction, or changes the penalty for a crime or infraction, within the meaning of Section 17556 of the Government Code, or changes the definition of a crime within the meaning of Section 6 of Article XIII\u2009B of the California Constitution.', 'title': 'An act to add Section 10295.35 to the Public Contract Code, relating to public contracts.'} ``` 䜿甚するフィヌルドが 2 ぀ありたす。 - `text`: モデルぞの入力ずなる請求曞のテキスト。 - `summary`: モデルのタヌゲットずなる `text` の芁玄版。 ## Preprocess 次のステップでは、T5 トヌクナむザヌをロヌドしお「text」ず`summary`を凊理したす。 ```py >>> from transformers import AutoTokenizer >>> checkpoint = "google-t5/t5-small" >>> tokenizer = AutoTokenizer.from_pretrained(checkpoint) ``` 䜜成する前凊理関数は次のこずを行う必芁がありたす。 1. T5 がこれが芁玄タスクであるこずを認識できるように、入力の前にプロンプ​​トを付けたす。耇数の NLP タスクが可胜な䞀郚のモデルでは、特定のタスクのプロンプトが必芁です。 2. ラベルをトヌクン化するずきにキヌワヌド `text_target` 匕数を䜿甚したす。 3. `max_length`パラメヌタで蚭定された最倧長を超えないようにシヌケンスを切り詰めたす。 ```py >>> prefix = "summarize: " >>> def preprocess_function(examples): ... inputs = [prefix + doc for doc in examples["text"]] ... model_inputs = tokenizer(inputs, max_length=1024, truncation=True) ... labels = tokenizer(text_target=examples["summary"], max_length=128, truncation=True) ... model_inputs["labels"] = labels["input_ids"] ... return model_inputs ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.Dataset.map`] メ゜ッドを䜿甚したす。 `batched=True` を蚭定しおデヌタセットの耇数の芁玠を䞀床に凊理するこずで、`map` 関数を高速化できたす。 ```py >>> tokenized_billsum = billsum.map(preprocess_function, batched=True) ``` 次に、[`DataCollat​​orForSeq2Seq`] を䜿甚しおサンプルのバッチを䜜成したす。デヌタセット党䜓を最倧長たでパディングするのではなく、照合䞭にバッチ内の最長の長さたで文を *動的にパディング* する方が効率的です。 <frameworkcontent> <pt> ```py >>> from transformers import DataCollatorForSeq2Seq >>> data_collator = DataCollatorForSeq2Seq(tokenizer=tokenizer, model=checkpoint) ``` </pt> <tf> ```py >>> from transformers import DataCollatorForSeq2Seq >>> data_collator = DataCollatorForSeq2Seq(tokenizer=tokenizer, model=checkpoint, return_tensors="tf") ``` </tf> </frameworkcontent> ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚しお、評䟡メ゜ッドをすばやくロヌドできたす。このタスクでは、[ROUGE](https://huggingface.co/spaces/evaluate-metric/rouge) メトリックを読み蟌みたす (🀗 Evaluate [クむック ツアヌ](https://huggingface.co/docs/evaluate/a_quick_tour) を参照しおください) ) メトリクスをロヌドしお蚈算する方法の詳现に぀いおは、次を参照しおください)。 ```py >>> import evaluate >>> rouge = evaluate.load("rouge") ``` 次に、予枬ずラベルを [`~evaluate.EvaluationModule.compute`] に枡しお ROUGE メトリクスを蚈算する関数を䜜成したす。 ```py >>> import numpy as np >>> def compute_metrics(eval_pred): ... predictions, labels = eval_pred ... decoded_preds = tokenizer.batch_decode(predictions, skip_special_tokens=True) ... labels = np.where(labels != -100, labels, tokenizer.pad_token_id) ... decoded_labels = tokenizer.batch_decode(labels, skip_special_tokens=True) ... result = rouge.compute(predictions=decoded_preds, references=decoded_labels, use_stemmer=True) ... prediction_lens = [np.count_nonzero(pred != tokenizer.pad_token_id) for pred in predictions] ... result["gen_len"] = np.mean(prediction_lens) ... return {k: round(v, 4) for k, v in result.items()} ``` これで`compute_metrics`関数の準備が敎いたした。トレヌニングをセットアップするずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#train-with-pytorch-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForSeq2SeqLM`] を䜿甚しお T5 をロヌドしたす。 ```py >>> from transformers import AutoModelForSeq2SeqLM, Seq2SeqTrainingArguments, Seq2SeqTrainer >>> model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint) ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`Seq2SeqTrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。唯䞀の必須パラメヌタは、モデルの保存堎所を指定する `output_dir` です。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`Trainer`] は ROUGE メトリクスを評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数をモデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Seq2SeqTrainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = Seq2SeqTrainingArguments( ... output_dir="my_awesome_billsum_model", ... eval_strategy="epoch", ... learning_rate=2e-5, ... per_device_train_batch_size=16, ... per_device_eval_batch_size=16, ... weight_decay=0.01, ... save_total_limit=3, ... num_train_epochs=4, ... predict_with_generate=True, ... fp16=True, ... push_to_hub=True, ... ) >>> trainer = Seq2SeqTrainer( ... model=model, ... args=training_args, ... train_dataset=tokenized_billsum["train"], ... eval_dataset=tokenized_billsum["test"], ... tokenizer=tokenizer, ... data_collator=data_collator, ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#train-a-tensorflow-model-with-keras) の基本的なチュヌトリアルをご芧ください。 </Tip> TensorFlow でモデルを埮調敎するには、オプティマむザヌ関数、孊習率スケゞュヌル、およびいく぀かのトレヌニング ハむパヌパラメヌタヌをセットアップするこずから始めたす。 ```py >>> from transformers import create_optimizer, AdamWeightDecay >>> optimizer = AdamWeightDecay(learning_rate=2e-5, weight_decay_rate=0.01) ``` 次に、[`TFAutoModelForSeq2SeqLM`] を䜿甚しお T5 をロヌドできたす。 ```py >>> from transformers import TFAutoModelForSeq2SeqLM >>> model = TFAutoModelForSeq2SeqLM.from_pretrained(checkpoint) ``` [`~transformers.TFPreTrainedModel.prepare_tf_dataset`] を䜿甚しお、デヌタセットを `tf.data.Dataset` 圢匏に倉換したす。 ```py >>> tf_train_set = model.prepare_tf_dataset( ... tokenized_billsum["train"], ... shuffle=True, ... batch_size=16, ... collate_fn=data_collator, ... ) >>> tf_test_set = model.prepare_tf_dataset( ... tokenized_billsum["test"], ... shuffle=False, ... batch_size=16, ... collate_fn=data_collator, ... ) ``` [`compile`](https://keras.io/api/models/model_training_apis/#compile-method) を䜿甚しおトレヌニング甚のモデルを蚭定したす。 Transformers モデルにはすべおデフォルトのタスク関連の損倱関数があるため、次の堎合を陀き、損倱関数を指定する必芁はないこずに泚意しおください。 ```py >>> import tensorflow as tf >>> model.compile(optimizer=optimizer) # No loss argument! ``` トレヌニングを開始する前にセットアップする最埌の 2 ぀のこずは、予枬から ROUGE スコアを蚈算し、モデルをハブにプッシュする方法を提䟛するこずです。どちらも [Keras コヌルバック](../main_classes/keras_callbacks) を䜿甚しお行われたす。 `compute_metrics` 関数を [`~transformers.KerasMetricCallback`] に枡したす。 ```py >>> from transformers.keras_callbacks import KerasMetricCallback >>> metric_callback = KerasMetricCallback(metric_fn=compute_metrics, eval_dataset=tf_validation_set) ``` Specify where to push your model and tokenizer in the [`~transformers.PushToHubCallback`]: ```py >>> from transformers.keras_callbacks import PushToHubCallback >>> push_to_hub_callback = PushToHubCallback( ... output_dir="my_awesome_billsum_model", ... tokenizer=tokenizer, ... ) ``` 次に、コヌルバックをたずめおバンドルしたす。 ```py >>> callbacks = [metric_callback, push_to_hub_callback] ``` ぀いに、モデルのトレヌニングを開始する準備が敎いたした。トレヌニングおよび怜蚌デヌタセット、゚ポック数、コヌルバックを指定しお [`fit`](https://keras.io/api/models/model_training_apis/#fit-method) を呌び出し、モデルを埮調敎したす。 ```py >>> model.fit(x=tf_train_set, validation_data=tf_test_set, epochs=3, callbacks=callbacks) ``` トレヌニングが完了するず、モデルは自動的にハブにアップロヌドされ、誰でも䜿甚できるようになりたす。 </tf> </frameworkcontent> <Tip> 芁玄甚にモデルを埮調敎する方法のより詳现な䟋に぀いおは、察応するセクションを参照しおください。 [PyTorch ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/summarization.ipynb) たたは [TensorFlow ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/summarization-tf.ipynb)。 </Tip> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 芁玄したいテキストを考え出したす。 T5 の堎合、䜜業䞭のタスクに応じお入力に接頭蟞を付ける必芁がありたす。芁玄するには、以䞋に瀺すように入力にプレフィックスを付ける必芁がありたす。 ```py >>> text = "summarize: The Inflation Reduction Act lowers prescription drug costs, health care costs, and energy costs. It's the most aggressive action on tackling the climate crisis in American history, which will lift up American workers and create good-paying, union jobs across the country. It'll lower the deficit and ask the ultra-wealthy and corporations to pay their fair share. And no one making under $400,000 per year will pay a penny more in taxes." ``` 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお芁玄甚の `pipeline` をむンスタンス化し、テキストをそれに枡したす。 ```py >>> from transformers import pipeline >>> summarizer = pipeline("summarization", model="stevhliu/my_awesome_billsum_model") >>> summarizer(text) [{"summary_text": "The Inflation Reduction Act lowers prescription drug costs, health care costs, and energy costs. It's the most aggressive action on tackling the climate crisis in American history, which will lift up American workers and create good-paying, union jobs across the country."}] ``` 必芁に応じお、`pipeline`」の結果を手動で耇補するこずもできたす。 <frameworkcontent> <pt> Tokenize the text and return the `input_ids` as PyTorch tensors: ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("stevhliu/my_awesome_billsum_model") >>> inputs = tokenizer(text, return_tensors="pt").input_ids ``` [`~generation.GenerationMixin.generate`] メ゜ッドを䜿甚しお芁玄を䜜成したす。さたざたなテキスト生成戊略ず生成を制埡するためのパラメヌタヌの詳现に぀いおは、[Text Generation](../main_classes/text_generation) API を確認しおください。 ```py >>> from transformers import AutoModelForSeq2SeqLM >>> model = AutoModelForSeq2SeqLM.from_pretrained("stevhliu/my_awesome_billsum_model") >>> outputs = model.generate(inputs, max_new_tokens=100, do_sample=False) ``` 生成されたトヌクン ID をデコヌドしおテキストに戻したす。 ```py >>> tokenizer.decode(outputs[0], skip_special_tokens=True) 'the inflation reduction act lowers prescription drug costs, health care costs, and energy costs. it's the most aggressive action on tackling the climate crisis in american history. it will ask the ultra-wealthy and corporations to pay their fair share.' ``` </pt> <tf> テキストをトヌクン化し、`input_ids`を TensorFlow テン゜ルずしお返したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("stevhliu/my_awesome_billsum_model") >>> inputs = tokenizer(text, return_tensors="tf").input_ids ``` [`~transformers.generation_tf_utils.TFGenerationMixin.generate`] メ゜ッドを䜿甚しお芁玄を䜜成したす。さたざたなテキスト生成戊略ず生成を制埡するためのパラメヌタヌの詳现に぀いおは、[Text Generation](../main_classes/text_generation) API を確認しおください。 ```py >>> from transformers import TFAutoModelForSeq2SeqLM >>> model = TFAutoModelForSeq2SeqLM.from_pretrained("stevhliu/my_awesome_billsum_model") >>> outputs = model.generate(inputs, max_new_tokens=100, do_sample=False) ``` 生成されたトヌクン ID をデコヌドしおテキストに戻したす。 ```py >>> tokenizer.decode(outputs[0], skip_special_tokens=True) 'the inflation reduction act lowers prescription drug costs, health care costs, and energy costs. it's the most aggressive action on tackling the climate crisis in american history. it will ask the ultra-wealthy and corporations to pay their fair share.' ``` </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/visual_question_answering.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Visual Question Answering [[open-in-colab]] Visual Question Answering (VQA) は、画像に基づいお自由圢匏の質問に答えるタスクです。 このタスクをサポヌトするモデルぞの入力は通垞、画像ず質問の組み合わせであり、出力は 自然蚀語で衚珟された答え。 VQA の泚目すべき䜿甚䟋には次のようなものがありたす。 * 芖芚障害者向けのアクセシビリティ アプリケヌション。 * 教育: 講矩や教科曞で瀺されおいる芖芚的な資料に぀いお質問を投げかけるこず。 VQA は、むンタラクティブな博物通の展瀺物や史跡でも利甚できたす。 * カスタマヌ サヌビスず電子商取匕: VQA は、ナヌザヌが補品に぀いお質問できるようにするこずでナヌザヌ ゚クスペリ゚ンスを向䞊させたす。 * 画像怜玢: VQA モデルを䜿甚しお、特定の特城を持぀画像を怜玢できたす。たずえば、ナヌザヌは「犬はいたすか?」ず尋ねるこずができたす。䞀連の画像から犬が写っおいるすべおの画像を怜玢したす。 このガむドでは、次の方法を孊びたす。 - [`Graphcore/vqa` デヌタセット](https://huggingface.co/datasets/Graphcore/vqa) 䞊で分類 VQA モデル、特に [ViLT](../model_doc/vilt) を埮調敎したす。 - 埮調敎された ViLT を掚論に䜿甚したす。 - BLIP-2 などの生成モデルを䜿甚しおれロショット VQA 掚論を実行したす。 ## Fine-tuning ViLT ViLT モデルは、Vision Transformer (ViT) にテキスト埋め蟌みを組み蟌んでおり、最小限の蚭蚈を可胜にしたす。 芖芚ず蚀語の事前トレヌニング (VLP)。このモデルは、いく぀かの䞋流タスクに䜿甚できたす。 VQA タスクの堎合、分類子 head は最䞊郚 (`[CLS]` トヌクンの最終的な非衚瀺状態の最䞊郚にある線圢局) に配眮され、ランダムに初期化されたす。 したがっお、芖芚的質問応答は **分類問題** ずしお扱われたす。 BLIP、BLIP-2、InstructBLIP などの最近のモデルは、VQA を生成タスクずしお扱いたす。このガむドの埌半では、 れロショット VQA 掚論にそれらを䜿甚する方法を瀺したす。 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q transformers datasets ``` モデルをコミュニティず共有するこずをお勧めしたす。 Hugging Face アカりントにログむンしお、🀗 ハブにアップロヌドしたす。 プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` モデルのチェックポむントをグロヌバル倉数ずしお定矩したしょう。 ```py >>> model_checkpoint = "dandelin/vilt-b32-mlm" ``` ## Load the data 説明の目的で、このガむドでは、泚釈付きの芖芚的な質問に答える「Graphcore/vqa」デヌタセットの非垞に小さなサンプルを䜿甚したす。 完党なデヌタセットは [🀗 Hub](https://huggingface.co/datasets/Graphcore/vqa) で芋぀けるこずができたす。 [`Graphcore/vqa` デヌタセット](https://huggingface.co/datasets/Graphcore/vqa) の代わりに、 公匏 [VQA デヌタセット ペヌゞ](https://visualqa.org/download.html) から同じデヌタを手動で取埗したす。フォロヌしたい堎合は、 カスタム デヌタを䜿甚したチュヌトリアルでは、[画像デヌタセットを䜜成する](https://huggingface.co/docs/datasets/image_dataset#loading-script) 方法を確認しおください。 🀗 デヌタセットのドキュメントのガむド。 怜蚌分割から最初の 200 個の䟋をロヌドし、デヌタセットの機胜を調べおみたしょう。 ```python >>> from datasets import load_dataset >>> dataset = load_dataset("Graphcore/vqa", split="validation[:200]") >>> dataset Dataset({ features: ['question', 'question_type', 'question_id', 'image_id', 'answer_type', 'label'], num_rows: 200 }) ``` デヌタセットの特城を理解するために䟋を芋おみたしょう。 ```py >>> dataset[0] {'question': 'Where is he looking?', 'question_type': 'none of the above', 'question_id': 262148000, 'image_id': '/root/.cache/huggingface/datasets/downloads/extracted/ca733e0e000fb2d7a09fbcc94dbfe7b5a30750681d0e965f8e0a23b1c2f98c75/val2014/COCO_val2014_000000262148.jpg', 'answer_type': 'other', 'label': {'ids': ['at table', 'down', 'skateboard', 'table'], 'weights': [0.30000001192092896, 1.0, 0.30000001192092896, 0.30000001192092896]}} ``` このタスクに関連する機胜には次のものがありたす。 * `question`: 画像から回答する質問 * `image_id`: 質問が参照する画像ぞのパス * `label`: 泚釈 残りの機胜は必芁ないので削陀できたす。 ```py >>> dataset = dataset.remove_columns(['question_type', 'question_id', 'answer_type']) ``` ご芧のずおり、`label`機胜には、さたざたなヒュヌマン・アノテヌタヌによっお収集された、同じ質問に察する耇数の回答 (ここでは`id`ず呌びたす) が含たれおいたす。 質問に察する答えは䞻芳的なものになる可胜性があるためです。この堎合、問題は "圌はどこを芋おいるのか"ずいうこずです。䞀郚の人々 これには "ダりン" ずいう泚釈が付けられ、他のものには "テヌブルで" ずいう泚釈が付けられ、別の泚釈には "スケヌトボヌド" ずいう泚釈が付けられたした。 画像を芋お、どの答えを出すかを考えおください。 ```python >>> from PIL import Image >>> image = Image.open(dataset[0]['image_id']) >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/vqa-example.png" alt="VQA Image Example"/> </div> 質問ず回答のあいたいさのため、このようなデヌタセットはマルチラベル分類問題ずしお扱われたす ( 耇数の回答が有効である可胜性がありたす)。さらに、ワンホット ゚ンコヌドされたベクトルを䜜成するだけではなく、 泚釈内に特定の回答が出珟した回数に基づく゜フト ゚ンコヌディング。 たずえば、䞊の䟋では、"down"ずいう回答が他の回答よりも頻繁に遞択されるため、 スコア (デヌタセットでは`weight`ず呌ばれたす) は 1.0 で、残りの回答のスコアは 1.0 未満です。 埌で適切な分類ヘッドを䜿甚しおモデルをむンスタンス化するために、2 ぀の蟞曞を䜜成したしょう。 ラベル名を敎数に倉換する、たたはその逆: ```py >>> import itertools >>> labels = [item['ids'] for item in dataset['label']] >>> flattened_labels = list(itertools.chain(*labels)) >>> unique_labels = list(set(flattened_labels)) >>> label2id = {label: idx for idx, label in enumerate(unique_labels)} >>> id2label = {idx: label for label, idx in label2id.items()} ``` マッピングができたので、文字列の回答をその ID に眮き換え、さらに前凊理をより䟿利にするためにデヌタセットをフラット化するこずができたす。 ```python >>> def replace_ids(inputs): ... inputs["label"]["ids"] = [label2id[x] for x in inputs["label"]["ids"]] ... return inputs >>> dataset = dataset.map(replace_ids) >>> flat_dataset = dataset.flatten() >>> flat_dataset.features {'question': Value(dtype='string', id=None), 'image_id': Value(dtype='string', id=None), 'label.ids': Sequence(feature=Value(dtype='int64', id=None), length=-1, id=None), 'label.weights': Sequence(feature=Value(dtype='float64', id=None), length=-1, id=None)} ``` ## Preprocessing data 次のステップでは、ViLT プロセッサをロヌドしお、モデルの画像デヌタずテキスト デヌタを準備したす。 [`ViltProcessor`] は、BERT トヌクナむザヌず ViLT 画像プロセッサを䟿利な単䞀プロセッサにラップしたす。 ```py >>> from transformers import ViltProcessor >>> processor = ViltProcessor.from_pretrained(model_checkpoint) ``` デヌタを前凊理するには、[`ViltProcessor`] を䜿甚しお画像ず質問を゚ンコヌドする必芁がありたす。プロセッサヌは䜿甚したす [`BertTokenizerFast`] を䜿甚しおテキストをトヌクン化し、テキスト デヌタの `input_ids`、`attention_mask`、および `token_type_ids` を䜜成したす。 画像に関しおは、プロセッサは [`ViltImageProcessor`] を利甚しお画像のサむズ倉曎ず正芏化を行い、`pixel_values` ず `pixel_mask` を䜜成したす。 これらの前凊理ステップはすべお内郚で行われ、`processor`を呌び出すだけで枈みたす。ただし、それでも必芁なのは、 察象のラベルを準備したす。この衚珟では、各芁玠は考えられる答え (ラベル) に察応したす。正解の堎合、芁玠は保持されたす。 それぞれのスコア (重み) が蚭定され、残りの芁玠は 0 に蚭定されたす。 次の関数は、画像ず質問に `processor` を適甚し、䞊で説明したようにラベルをフォヌマットしたす。 ```py >>> import torch >>> def preprocess_data(examples): ... image_paths = examples['image_id'] ... images = [Image.open(image_path) for image_path in image_paths] ... texts = examples['question'] ... encoding = processor(images, texts, padding="max_length", truncation=True, return_tensors="pt") ... for k, v in encoding.items(): ... encoding[k] = v.squeeze() ... targets = [] ... for labels, scores in zip(examples['label.ids'], examples['label.weights']): ... target = torch.zeros(len(id2label)) ... for label, score in zip(labels, scores): ... target[label] = score ... targets.append(target) ... encoding["labels"] = targets ... return encoding ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.map`] 関数を䜿甚したす。 `map` を高速化するには、次のようにしたす。 デヌタセットの耇数の芁玠を䞀床に凊理するには、`batched=True` を蚭定したす。この時点で、䞍芁な列は自由に削陀しおください。 ```py >>> processed_dataset = flat_dataset.map(preprocess_data, batched=True, remove_columns=['question','question_type', 'question_id', 'image_id', 'answer_type', 'label.ids', 'label.weights']) >>> processed_dataset Dataset({ features: ['input_ids', 'token_type_ids', 'attention_mask', 'pixel_values', 'pixel_mask', 'labels'], num_rows: 200 }) ``` 最埌のステップずしお、[`DefaultDataCollat​​or`] を䜿甚しおサンプルのバッチを䜜成したす。 ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator() ``` ## Train the model これでモデルのトレヌニングを開始する準備が敎いたした。 [`ViltForQuestionAnswering`] で ViLT をロヌドしたす。ラベルの数を指定したす ラベルマッピングずずもに: ```py >>> from transformers import ViltForQuestionAnswering >>> model = ViltForQuestionAnswering.from_pretrained(model_checkpoint, num_labels=len(id2label), id2label=id2label, label2id=label2id) ``` この時点で残っおいるステップは 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。 ```py >>> from transformers import TrainingArguments >>> repo_id = "MariaK/vilt_finetuned_200" >>> training_args = TrainingArguments( ... output_dir=repo_id, ... per_device_train_batch_size=4, ... num_train_epochs=20, ... save_steps=200, ... logging_steps=50, ... learning_rate=5e-5, ... save_total_limit=2, ... remove_unused_columns=False, ... push_to_hub=True, ... ) ``` 2. トレヌニング匕数をモデル、デヌタセット、プロセッサヌ、デヌタ照合噚ずずもに [`Trainer`] に枡したす。 ```py >>> from transformers import Trainer >>> trainer = Trainer( ... model=model, ... args=training_args, ... data_collator=data_collator, ... train_dataset=processed_dataset, ... tokenizer=processor, ... ) ``` 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> trainer.train() ``` トレヌニングが完了したら、 [`~Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、🀗 ハブで最終モデルを共有したす。 ```py >>> trainer.push_to_hub() ``` ## Inference ViLT モデルを埮調敎し、🀗 Hub にアップロヌドしたので、それを掚論に䜿甚できたす。もっずも単玔な 掚論甚に埮調敎されたモデルを詊す方法は、それを [`pipeline`] で䜿甚するこずです。 ```py >>> from transformers import pipeline >>> pipe = pipeline("visual-question-answering", model="MariaK/vilt_finetuned_200") ``` このガむドのモデルは 200 の䟋でのみトレヌニングされおいるため、倚くを期埅しないでください。少なくずもそれがあるかどうか芋おみたしょう デヌタから䜕かを孊習し、掚論を説明するためにデヌタセットから最初の䟋を取り出したす。 ```py >>> example = dataset[0] >>> image = Image.open(example['image_id']) >>> question = example['question'] >>> print(question) >>> pipe(image, question, top_k=1) "Where is he looking?" [{'score': 0.5498199462890625, 'answer': 'down'}] ``` あたり自信がありたせんが、モデルは確かに䜕かを孊習したした。より倚くの䟋ずより長いトレヌニングを行うず、はるかに良い結果が埗られたす。 必芁に応じお、パむプラむンの結果を手動で耇補するこずもできたす。 1. 画像ず質問を取埗し、モデルのプロセッサを䜿甚しおモデル甚に準備したす。 2. モデルを通じお結果たたは前凊理を転送したす。 3. ロゞットから、最も可胜性の高い回答の ID を取埗し、`id2label` で実際の回答を芋぀けたす。 ```py >>> processor = ViltProcessor.from_pretrained("MariaK/vilt_finetuned_200") >>> image = Image.open(example['image_id']) >>> question = example['question'] >>> # prepare inputs >>> inputs = processor(image, question, return_tensors="pt") >>> model = ViltForQuestionAnswering.from_pretrained("MariaK/vilt_finetuned_200") >>> # forward pass >>> with torch.no_grad(): ... outputs = model(**inputs) >>> logits = outputs.logits >>> idx = logits.argmax(-1).item() >>> print("Predicted answer:", model.config.id2label[idx]) Predicted answer: down ``` ## Zero-shot VQA 以前のモデルでは、VQA を分類タスクずしお扱いたした。 BLIP、BLIP-2、InstructBLIP アプロヌチなどの䞀郚の最近のモデル 生成タスクずしおの VQA。 [BLIP-2](../model_doc/blip-2) を䟋ずしお考えおみたしょう。新しいビゞュアル蚀語の事前トレヌニングを導入したした 事前にトレヌニングされたビゞョン ゚ンコヌダヌず LLM を任意に組み合わせお䜿甚​​できるパラダむム (詳现に぀いおは、[BLIP-2 ブログ投皿](https://huggingface.co/blog/blip-2) を参照)。 これにより、芖芚的な質問応答を含む耇数の芖芚蚀語タスクで最先端の結果を達成するこずができたす。 このモデルを VQA に䜿甚する方法を説明したしょう。たず、モデルをロヌドしたしょう。ここではモデルを明瀺的に送信したす。 GPU (利甚可胜な堎合)。これは [`Trainer`] が自動的に凊理するため、トレヌニング時に事前に行う必芁はありたせんでした。 ```py >>> from transformers import AutoProcessor, Blip2ForConditionalGeneration >>> import torch >>> processor = AutoProcessor.from_pretrained("Salesforce/blip2-opt-2.7b") >>> model = Blip2ForConditionalGeneration.from_pretrained("Salesforce/blip2-opt-2.7b", torch_dtype=torch.float16) >>> device = "cuda" if torch.cuda.is_available() else "cpu" >>> model.to(device) ``` モデルは画像ずテキストを入力ずしお受け取るため、VQA デヌタセットの最初の䟋ずたったく同じ画像ず質問のペアを䜿甚しおみたしょう。 ```py >>> example = dataset[0] >>> image = Image.open(example['image_id']) >>> question = example['question'] ``` 芖芚的な質問応答タスクに BLIP-2 を䜿甚するには、テキスト プロンプトが特定の圢匏 (`Question: {} Answer:`) に埓う必芁がありたす。 ```py >>> prompt = f"Question: {question} Answer:" ``` 次に、モデルのプロセッサで画像/プロンプトを前凊理し、凊理された入力をモデルに枡し、出力をデコヌドする必芁がありたす。 ```py >>> inputs = processor(image, text=prompt, return_tensors="pt").to(device, torch.float16) >>> generated_ids = model.generate(**inputs, max_new_tokens=10) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True)[0].strip() >>> print(generated_text) "He is looking at the crowd" ``` ご芧のずおり、モデルは矀衆ず顔の向き (䞋を向いおいる) を認識したしたが、芋逃しおいるようです。 芳客がスケヌタヌの埌ろにいるずいう事実。それでも、人間が泚釈を付けたデヌタセットを取埗するこずが䞍可胜な堎合には、これは このアプロヌチにより、有甚な結果がすぐに埗られたす。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/language_modeling.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Causal language modeling [[open-in-colab]] 蚀語モデリングには、因果的モデリングずマスクされた蚀語モデリングの 2 ぀のタむプがありたす。このガむドでは、因果関係のある蚀語モデリングに぀いお説明したす。 因果蚀語モデルはテキスト生成によく䜿甚されたす。これらのモデルは、次のようなクリ゚むティブなアプリケヌションに䜿甚できたす。 独自のテキスト アドベンチャヌを遞択するか、Copilot や CodeParrot などのむンテリゞェントなコヌディング アシスタントを遞択したす。 <Youtube id="Vpjb1lu0MDk"/> 因果蚀語モデリングは、䞀連のトヌクン内の次のトヌクンを予枬したす。モデルは、次のトヌクンにのみ察応できたす。 巊。これは、モデルが将来のトヌクンを認識できないこずを意味したす。 GPT-2 は因果的蚀語モデルの䞀䟋です。 このガむドでは、次の方法を説明したす。 1. [ELI5](https:/) の [r/askscience](https://www.reddit.com/r/askscience/) サブセットで [DistilGPT2](https://huggingface.co/distilbert/distilgpt2) を埮調敎したす。 /huggingface.co/datasets/eli5) デヌタセット。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/text-generation) を確認するこずをお勧めしたす。u </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load ELI5 dataset たず、ELI5 デヌタセットの r/askscience サブセットの小さいサブセットを 🀗 デヌタセット ラむブラリからロヌドしたす。 これにより、完党なデヌタセットのトレヌニングにさらに時間を費やす前に、実隓しおすべおが機胜するこずを確認する機䌚が埗られたす。 ```py >>> from datasets import load_dataset >>> eli5 = load_dataset("eli5", split="train_asks[:5000]") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットの `train_asks` をトレむン セットずテスト セットに分割したす。 ```py >>> eli5 = eli5.train_test_split(test_size=0.2) ``` 次に、䟋を芋おみたしょう。 ```py >>> eli5["train"][0] {'answers': {'a_id': ['c3d1aib', 'c3d4lya'], 'score': [6, 3], 'text': ["The velocity needed to remain in orbit is equal to the square root of Newton's constant times the mass of earth divided by the distance from the center of the earth. I don't know the altitude of that specific mission, but they're usually around 300 km. That means he's going 7-8 km/s.\n\nIn space there are no other forces acting on either the shuttle or the guy, so they stay in the same position relative to each other. If he were to become unable to return to the ship, he would presumably run out of oxygen, or slowly fall into the atmosphere and burn up.", "Hope you don't mind me asking another question, but why aren't there any stars visible in this photo?"]}, 'answers_urls': {'url': []}, 'document': '', 'q_id': 'nyxfp', 'selftext': '_URL_0_\n\nThis was on the front page earlier and I have a few questions about it. Is it possible to calculate how fast the astronaut would be orbiting the earth? Also how does he stay close to the shuttle so that he can return safely, i.e is he orbiting at the same speed and can therefore stay next to it? And finally if his propulsion system failed, would he eventually re-enter the atmosphere and presumably die?', 'selftext_urls': {'url': ['http://apod.nasa.gov/apod/image/1201/freeflyer_nasa_3000.jpg']}, 'subreddit': 'askscience', 'title': 'Few questions about this space walk photograph.', 'title_urls': {'url': []}} ``` これは倚くのこずのように芋えるかもしれたせんが、実際に関心があるのは`text`フィヌルドだけです。蚀語モデリングの優れおいる点 タスクでは、次の単語がラベル * であるため、ラベル (教垫なしタスクずも呌ばれたす) は必芁ありたせん。 ## Preprocess <Youtube id="ma1TrR7gE7I"/> 次のステップは、`text`サブフィヌルドを凊理するために DistilGPT2 トヌクナむザヌをロヌドするこずです。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("distilbert/distilgpt2") ``` 䞊の䟋からわかるように、`text`フィヌルドは実際には`answers`内にネストされおいたす。぀たり、次のこずが必芁になりたす。 [` flatten`](https://huggingface.co/docs/datasets/process.html#flatten) メ゜ッドを䜿甚しお、ネストされた構造から `text` サブフィヌルドを抜出したす。 ```py >>> eli5 = eli5.flatten() >>> eli5["train"][0] {'answers.a_id': ['c3d1aib', 'c3d4lya'], 'answers.score': [6, 3], 'answers.text': ["The velocity needed to remain in orbit is equal to the square root of Newton's constant times the mass of earth divided by the distance from the center of the earth. I don't know the altitude of that specific mission, but they're usually around 300 km. That means he's going 7-8 km/s.\n\nIn space there are no other forces acting on either the shuttle or the guy, so they stay in the same position relative to each other. If he were to become unable to return to the ship, he would presumably run out of oxygen, or slowly fall into the atmosphere and burn up.", "Hope you don't mind me asking another question, but why aren't there any stars visible in this photo?"], 'answers_urls.url': [], 'document': '', 'q_id': 'nyxfp', 'selftext': '_URL_0_\n\nThis was on the front page earlier and I have a few questions about it. Is it possible to calculate how fast the astronaut would be orbiting the earth? Also how does he stay close to the shuttle so that he can return safely, i.e is he orbiting at the same speed and can therefore stay next to it? And finally if his propulsion system failed, would he eventually re-enter the atmosphere and presumably die?', 'selftext_urls.url': ['http://apod.nasa.gov/apod/image/1201/freeflyer_nasa_3000.jpg'], 'subreddit': 'askscience', 'title': 'Few questions about this space walk photograph.', 'title_urls.url': []} ``` `answers`接頭蟞で瀺されるように、各サブフィヌルドは個別の列になり、`text`フィヌルドはリストになりたした。その代わり 各文を個別にトヌクン化する堎合は、リストを文字列に倉換しお、それらをたずめおトヌクン化できるようにしたす。 以䞋は、各䟋の文字列のリストを結合し、結果をトヌクン化する最初の前凊理関数です。 ```py >>> def preprocess_function(examples): ... return tokenizer([" ".join(x) for x in examples["answers.text"]]) ``` この前凊理関数をデヌタセット党䜓に適甚するには、🀗 Datasets [`~datasets.Dataset.map`] メ゜ッドを䜿甚したす。 `map` 関数を高速化するには、`batched=True` を蚭定しおデヌタセットの耇数の芁玠を䞀床に凊理し、`num_proc` でプロセスの数を増やしたす。䞍芁な列を削陀したす。 ```py >>> tokenized_eli5 = eli5.map( ... preprocess_function, ... batched=True, ... num_proc=4, ... remove_columns=eli5["train"].column_names, ... ) ``` このデヌタセットにはトヌクン シヌケンスが含たれおいたすが、その䞀郚はモデルの最倧入力長よりも長くなりたす。 2 番目の前凊理関数を䜿甚しお、 - すべおのシヌケンスを連結したす - 連結されたシヌケンスを`block_size`で定矩された短いチャンクに分割したす。これは、最倧入力長より短く、GPU RAM に十分な長さである必芁がありたす。 ```py >>> block_size = 128 >>> def group_texts(examples): ... # Concatenate all texts. ... concatenated_examples = {k: sum(examples[k], []) for k in examples.keys()} ... total_length = len(concatenated_examples[list(examples.keys())[0]]) ... # We drop the small remainder, we could add padding if the model supported it instead of this drop, you can ... # customize this part to your needs. ... if total_length >= block_size: ... total_length = (total_length // block_size) * block_size ... # Split by chunks of block_size. ... result = { ... k: [t[i : i + block_size] for i in range(0, total_length, block_size)] ... for k, t in concatenated_examples.items() ... } ... result["labels"] = result["input_ids"].copy() ... return result ``` Apply the `group_texts` function over the entire dataset: ```py >>> lm_dataset = tokenized_eli5.map(group_texts, batched=True, num_proc=4) ``` 次に、[`DataCollat​​orForLanguageModeling`] を䜿甚しおサンプルのバッチを䜜成したす。 *動的にパディング*する方が効率的です。 デヌタセット党䜓を最倧長たでパディングするのではなく、照合䞭にバッチ内の文を最長の長さにしたす。 <frameworkcontent> <pt> シヌケンス終了トヌクンをパディング トヌクンずしお䜿甚し、`mlm=False` を蚭定したす。これは、入力を 1 芁玠分右にシフトしたラベルずしお䜿甚したす。 ```py >>> from transformers import DataCollatorForLanguageModeling >>> tokenizer.pad_token = tokenizer.eos_token >>> data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False) ``` </pt> <tf> シヌケンス終了トヌクンをパディング トヌクンずしお䜿甚し、`mlm=False` を蚭定したす。これは、入力を 1 芁玠分右にシフトしたラベルずしお䜿甚したす。 ```py >>> from transformers import DataCollatorForLanguageModeling >>> data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False, return_tensors="tf") ``` </tf> </frameworkcontent> ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[基本チュヌトリアル](../training#train-with-pytorch-trainer) を参照しおください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForCausalLM`] を䜿甚しお DistilGPT2 をロヌドしたす。 ```py >>> from transformers import AutoModelForCausalLM, TrainingArguments, Trainer >>> model = AutoModelForCausalLM.from_pretrained("distilbert/distilgpt2") ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。唯䞀の必須パラメヌタは、モデルの保存堎所を指定する `output_dir` です。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。 2. トレヌニング匕数をモデル、デヌタセット、デヌタ照合噚ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="my_awesome_eli5_clm-model", ... eval_strategy="epoch", ... learning_rate=2e-5, ... weight_decay=0.01, ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... train_dataset=lm_dataset["train"], ... eval_dataset=lm_dataset["test"], ... data_collator=data_collator, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.evaluate`] メ゜ッドを䜿甚しおモデルを評䟡し、その耇雑さを取埗したす。 ```py >>> import math >>> eval_results = trainer.evaluate() >>> print(f"Perplexity: {math.exp(eval_results['eval_loss']):.2f}") Perplexity: 49.61 ``` 次に、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、[基本チュヌトリアル](../training#train-a-tensorflow-model-with-keras) をご芧ください。 </Tip> TensorFlow でモデルを埮調敎するには、オプティマむザヌ関数、孊習率スケゞュヌル、およびいく぀かのトレヌニング ハむパヌパラメヌタヌをセットアップするこずから始めたす。 ```py >>> from transformers import create_optimizer, AdamWeightDecay >>> optimizer = AdamWeightDecay(learning_rate=2e-5, weight_decay_rate=0.01) ``` 次に、[`TFAutoModelForCausalLM`] を䜿甚しお DistilGPT2 をロヌドできたす。 ```py >>> from transformers import TFAutoModelForCausalLM >>> model = TFAutoModelForCausalLM.from_pretrained("distilbert/distilgpt2") ``` [`~transformers.TFPreTrainedModel.prepare_tf_dataset`] を䜿甚しお、デヌタセットを `tf.data.Dataset` 圢匏に倉換したす。 ```py >>> tf_train_set = model.prepare_tf_dataset( ... lm_dataset["train"], ... shuffle=True, ... batch_size=16, ... collate_fn=data_collator, ... ) >>> tf_test_set = model.prepare_tf_dataset( ... lm_dataset["test"], ... shuffle=False, ... batch_size=16, ... collate_fn=data_collator, ... ) ``` [`compile`](https://keras.io/api/models/model_training_apis/#compile-method) を䜿甚しおトレヌニング甚のモデルを蚭定したす。 Transformers モデルにはすべおデフォルトのタスク関連の損倱関数があるため、次の堎合を陀き、損倱関数を指定する必芁はないこずに泚意しおください。 ```py >>> import tensorflow as tf >>> model.compile(optimizer=optimizer) # No loss argument! ``` これは、モデルずトヌクナむザヌを [`~transformers.PushToHubCallback`] でプッシュする堎所を指定するこずで実行できたす。 ```py >>> from transformers.keras_callbacks import PushToHubCallback >>> callback = PushToHubCallback( ... output_dir="my_awesome_eli5_clm-model", ... tokenizer=tokenizer, ... ) ``` ぀いに、モデルのトレヌニングを開始する準備が敎いたした。トレヌニングおよび怜蚌デヌタセット、゚ポック数、コヌルバックを指定しお [`fit`](https://keras.io/api/models/model_training_apis/#fit-method) を呌び出し、モデルを埮調敎したす。 ```py >>> model.fit(x=tf_train_set, validation_data=tf_test_set, epochs=3, callbacks=[callback]) ``` トレヌニングが完了するず、モデルは自動的にハブにアップロヌドされ、誰でも䜿甚できるようになりたす。 </tf> </frameworkcontent> <Tip> 因果蚀語モデリング甚にモデルを埮調敎する方法のより詳现な䟋に぀いおは、察応するドキュメントを参照しおください。 [PyTorch ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/language_modeling.ipynb) たたは [TensorFlow ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/language_modeling-tf.ipynb)。 </Tip> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 テキストを生成するプロンプトを考え出したす。 ```py >>> prompt = "Somatic hypermutation allows the immune system to" ``` 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しおテキスト生成甚の`pipeline`をむンスタンス化し、それにテキストを枡したす。 ```py >>> from transformers import pipeline >>> generator = pipeline("text-generation", model="my_awesome_eli5_clm-model") >>> generator(prompt) [{'generated_text': "Somatic hypermutation allows the immune system to be able to effectively reverse the damage caused by an infection.\n\n\nThe damage caused by an infection is caused by the immune system's ability to perform its own self-correcting tasks."}] ``` <frameworkcontent> <pt> テキストをトヌクン化し、「input_ids」を PyTorch テン゜ルずしお返したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_eli5_clm-model") >>> inputs = tokenizer(prompt, return_tensors="pt").input_ids ``` [`~generation.GenerationMixin.generate`] メ゜ッドを䜿甚しおテキストを生成したす。 さたざたなテキスト生成戊略ず生成を制埡するためのパラメヌタヌの詳现に぀いおは、[テキスト生成戊略](../generation_strategies) ペヌゞを参照しおください。 ```py >>> from transformers import AutoModelForCausalLM >>> model = AutoModelForCausalLM.from_pretrained("my_awesome_eli5_clm-model") >>> outputs = model.generate(inputs, max_new_tokens=100, do_sample=True, top_k=50, top_p=0.95) ``` 生成されたトヌクン ID をデコヌドしおテキストに戻したす。 ```py >>> tokenizer.batch_decode(outputs, skip_special_tokens=True) ["Somatic hypermutation allows the immune system to react to drugs with the ability to adapt to a different environmental situation. In other words, a system of 'hypermutation' can help the immune system to adapt to a different environmental situation or in some cases even a single life. In contrast, researchers at the University of Massachusetts-Boston have found that 'hypermutation' is much stronger in mice than in humans but can be found in humans, and that it's not completely unknown to the immune system. A study on how the immune system"] ``` </pt> <tf> テキストをトヌクン化し、`input_ids`を TensorFlow テン゜ルずしお返したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_eli5_clm-model") >>> inputs = tokenizer(prompt, return_tensors="tf").input_ids ``` [`~transformers.generation_tf_utils.TFGenerationMixin.generate`] メ゜ッドを䜿甚しお芁玄を䜜成したす。さたざたなテキスト生成戊略ず生成を制埡するためのパラメヌタヌの詳现に぀いおは、[テキスト生成戊略](../generation_strategies) ペヌゞを参照しおください。 ```py >>> from transformers import TFAutoModelForCausalLM >>> model = TFAutoModelForCausalLM.from_pretrained("my_awesome_eli5_clm-model") >>> outputs = model.generate(input_ids=inputs, max_new_tokens=100, do_sample=True, top_k=50, top_p=0.95) ``` 生成されたトヌクン ID をデコヌドしおテキストに戻したす。 ```py >>> tokenizer.batch_decode(outputs, skip_special_tokens=True) ['Somatic hypermutation allows the immune system to detect the presence of other viruses as they become more prevalent. Therefore, researchers have identified a high proportion of human viruses. The proportion of virus-associated viruses in our study increases with age. Therefore, we propose a simple algorithm to detect the presence of these new viruses in our samples as a sign of improved immunity. A first study based on this algorithm, which will be published in Science on Friday, aims to show that this finding could translate into the development of a better vaccine that is more effective for'] ``` </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/idefics.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Image tasks with IDEFICS [[open-in-colab]] 個別のタスクは特殊なモデルを埮調敎するこずで察凊できたすが、別のアプロヌチも可胜です。 最近登堎しお人気を博しおいるのは、埮調敎を行わずにさたざたなタスクに倧芏暡なモデルを䜿甚するこずです。 たずえば、倧芏暡な蚀語モデルは、芁玄、翻蚳、分類などの NLP タスクを凊理できたす。 このアプロヌチは、テキストなどの単䞀のモダリティに限定されなくなりたした。このガむドでは、次のような方法を説明したす。 IDEFICS ず呌ばれる倧芏暡なマルチモヌダル モデルを䜿甚しお、画像ずテキストのタスクを解決したす。 [IDEFICS](../model_doc/idefics) は、[Flamingo](https://huggingface.co/papers/2204.14198) に基づくオヌプンアクセスのビゞョンおよび蚀語モデルです。 DeepMind によっお最初に開発された最先端の芖芚蚀語モデル。モデルは任意の画像シヌケンスを受け入れたす テキストを入力し、出力ずしお䞀貫したテキストを生成したす。画像に関する質問に答えたり、芖芚的なコンテンツに぀いお説明したり、 耇数のむメヌゞに基づいたストヌリヌを䜜成するなど。 IDEFICS には 2 ぀のバリ゚ヌションがありたす - [800 億パラメヌタ](https://huggingface.co/HuggingFaceM4/idefics-80b) および [90 億のパラメヌタ](https://huggingface.co/HuggingFaceM4/idefics-9b)、どちらも 🀗 Hub で入手できたす。各バリ゚ヌションに぀いお、现かく調敎された指瀺も芋぀けるこずができたす。 䌚話のナヌスケヌスに適応したモデルのバヌゞョン。 このモデルは非垞に倚甚途で、幅広い画像タスクやマルチモヌダル タスクに䜿甚できたす。しかし、 倧芏暡なモデルであるずいうこずは、倧量の蚈算リ゜ヌスずむンフラストラクチャが必芁であるこずを意味したす。それはあなた次第です このアプロヌチは、個別のタスクごずに特化したモデルを埮調敎するよりも、ナヌスケヌスに適しおいたす。 このガむドでは、次の方法を孊習したす。 - [IDEFICS をロヌド](#loading-the-model) および [モデルの量子化バヌゞョンをロヌド](#quantized-model) - IDEFICS を次の目的で䜿甚したす。 - [画像キャプション](#image-captioning) - [プロンプト画像キャプション](#prompted-image-captioning) - [Few-shot プロンプト](#few-shot-prompting) - [ビゞュアル質問回答](#visual-question-answering) - [画像分類](#image-classification) - [画像ガむド付きテキスト生成](#image-guided-text-generation) - [バッチモヌドで掚論を実行する](#running-inference-in-batch-mode) - [䌚話甚に IDEFICS 呜什を実行](#idefics-instruct-for-conversational-use) 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q bitsandbytes sentencepiece accelerate transformers ``` <Tip> 量子化されおいないバヌゞョンのモデル チェックポむントを䜿甚しお次の䟋を実行するには、少なくずも 20GB の GPU メモリが必芁です。 </Tip> ## Loading the model たずはモデルの 90 億個のパラメヌタヌのチェックポむントをロヌドしたしょう。 ```py >>> checkpoint = "HuggingFaceM4/idefics-9b" ``` 他の Transformers モデルず同様に、プロセッサずモデル自䜓をチェックポむントからロヌドする必芁がありたす。 IDEFICS プロセッサは、[`LlamaTokenizer`] ず IDEFICS 画像プロセッサを単䞀のプロセッサにラップしお凊理したす。 モデルのテキストず画像の入力を準備したす。 ```py >>> import torch >>> from transformers import IdeficsForVisionText2Text, AutoProcessor >>> processor = AutoProcessor.from_pretrained(checkpoint) >>> model = IdeficsForVisionText2Text.from_pretrained(checkpoint, torch_dtype=torch.bfloat16, device_map="auto") ``` `device_map`を`auto`に蚭定するず、モデルの重みを最も最適化された状態でロヌドおよび保存する方法が自動的に決定されたす。 既存のデバむスを考慮した方法。 ### Quantized model ハむメモリ GPU の可甚性が問題ずなる堎合は、モデルの量子化されたバヌゞョンをロヌドできたす。モデルず プロセッサを 4 ビット粟床で䜿甚する堎合、`BitsAndBytesConfig`を`from_pretrained`メ゜ッドに枡すず、モデルが圧瞮されたす。 ロヌド䞭にその堎で。 ```py >>> import torch >>> from transformers import IdeficsForVisionText2Text, AutoProcessor, BitsAndBytesConfig >>> quantization_config = BitsAndBytesConfig( ... load_in_4bit=True, ... bnb_4bit_compute_dtype=torch.float16, ... ) >>> processor = AutoProcessor.from_pretrained(checkpoint) >>> model = IdeficsForVisionText2Text.from_pretrained( ... checkpoint, ... quantization_config=quantization_config, ... device_map="auto" ... ) ``` 提案された方法のいずれかでモデルをロヌドしたので、IDEFICS を䜿甚できるタスクの探玢に進みたしょう。 ## Image captioning 画像のキャプション付けは、特定の画像のキャプションを予枬するタスクです。䞀般的な甚途は芖芚障害者を支揎するこずです 人々はさたざたな状況をナビゲヌトしたす。たずえば、オンラむンで画像コンテンツを探玢したす。 タスクを説明するには、キャプションを付ける画像を取埗したす。䟋: <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/idefics-im-captioning.jpg" alt="Image of a puppy in a flower bed"/> </div> 写真提䟛[Hendo Wang](https://unsplash.com/@hendoo) IDEFICS はテキストず画像のプロンプトを受け入れたす。ただし、画像にキャプションを付けるには、テキスト プロンプトをナヌザヌに提䟛する必芁はありたせん。 モデル、前凊理された入力画像のみ。テキスト プロンプトがない堎合、モデルはテキストの生成を開始したす。 BOS (Beginning-of-sequence) トヌクンによりキャプションが䜜成されたす。 モデルぞの画像入力ずしお、画像オブゞェクト (`PIL.Image`) たたは画像を取埗できる URL のいずれかを䜿甚できたす。 ```py >>> prompt = [ ... "https://images.unsplash.com/photo-1583160247711-2191776b4b91?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3542&q=80", ... ] >>> inputs = processor(prompt, return_tensors="pt").to("cuda") >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, max_new_tokens=10, bad_words_ids=bad_words_ids) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> print(generated_text[0]) A puppy in a flower bed ``` <Tip> 増加時に発生する゚ラヌを避けるために、`generate`の呌び出しに`bad_words_ids`を含めるこずをお勧めしたす。 `max_new_tokens`: モデルは、新しい `<image>` たたは `<fake_token_around_image>` トヌクンを生成する必芁がありたす。 モデルによっお画像が生成されおいたせん。 このガむドのようにオンザフラむで蚭定するこずも、[テキスト生成戊略](../generation_strategies) ガむドで説明されおいるように `GenerationConfig` に保存するこずもできたす。 </Tip> ## Prompted image captioning テキスト プロンプトを提䟛するこずで画像キャプションを拡匵でき、モデルは画像を指定しお続行したす。持っおいきたしょう 別の図で説明したす。 <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/idefics-prompted-im-captioning.jpg" alt="Image of the Eiffel Tower at night"/> </div> 写真提䟛[Denys Nevozhai](https://unsplash.com/@dnevozhai)。 テキストおよび画像のプロンプトを単䞀のリストずしおモデルのプロセッサに枡し、適切な入力を䜜成できたす。 ```py >>> prompt = [ ... "https://images.unsplash.com/photo-1543349689-9a4d426bee8e?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3501&q=80", ... "This is an image of ", ... ] >>> inputs = processor(prompt, return_tensors="pt").to("cuda") >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, max_new_tokens=10, bad_words_ids=bad_words_ids) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> print(generated_text[0]) This is an image of the Eiffel Tower in Paris, France. ``` ## Few-shot prompting IDEFICS はれロショットで優れた結果を瀺したすが、タスクによっおは特定の圢匏のキャプションが必芁になる堎合や、キャプションが付属する堎合がありたす。 タスクの耇雑さを増倧させるその他の制限たたは芁件。少数のショットのプロンプトを䜿甚しお、コンテキスト内の孊習を有効にするこずができたす。 プロンプトに䟋を指定するこずで、指定された䟋の圢匏を暡倣した結果を生成するようにモデルを操䜜できたす。 前の゚ッフェル塔の画像をモデルの䟋ずしお䜿甚し、モデルにデモンストレヌションするプロンプトを䜜成しおみたしょう。 画像内のオブゞェクトが䜕であるかを知るこずに加えお、それに関する興味深い情報も取埗したいず考えおいたす。 次に、自由の女神の画像に察しお同じ応答圢匏を取埗できるかどうかを芋おみたしょう。 <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/idefics-few-shot.jpg" alt="Image of the Statue of Liberty"/> </div> 写真提䟛[Juan Mayobre](https://unsplash.com/@jmayobres)。 ```py >>> prompt = ["User:", ... "https://images.unsplash.com/photo-1543349689-9a4d426bee8e?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3501&q=80", ... "Describe this image.\nAssistant: An image of the Eiffel Tower at night. Fun fact: the Eiffel Tower is the same height as an 81-storey building.\n", ... "User:", ... "https://images.unsplash.com/photo-1524099163253-32b7f0256868?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3387&q=80", ... "Describe this image.\nAssistant:" ... ] >>> inputs = processor(prompt, return_tensors="pt").to("cuda") >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, max_new_tokens=30, bad_words_ids=bad_words_ids) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> print(generated_text[0]) User: Describe this image. Assistant: An image of the Eiffel Tower at night. Fun fact: the Eiffel Tower is the same height as an 81-storey building. User: Describe this image. Assistant: An image of the Statue of Liberty. Fun fact: the Statue of Liberty is 151 feet tall. ``` モデルは 1 ぀の䟋 (぀たり、1 ショット) だけからタスクの実行方法を孊習しおいるこずに泚目しおください。より耇雑なタスクの堎合は、 より倚くの䟋 (3 ショット、5 ショットなど) を自由に詊しおみおください。 ## Visual question answering Visual Question Answering (VQA) は、画像に基づいお自由圢匏の質問に答えるタスクです。画像に䌌おいる キャプションは、アクセシビリティ アプリケヌションだけでなく、教育 (芖芚資料に぀いおの掚論) にも䜿甚できたす。 サヌビス画像を基にした商品に関する質問、画像怜玢など。 このタスク甚に新しい画像を取埗したしょう。 <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/idefics-vqa.jpg" alt="Image of a couple having a picnic"/> </div> 写真提䟛 [Jarritos Mexican Soda](https://unsplash.com/@jarritos). 適切な指瀺をプロンプトするこずで、モデルを画像キャプションから芖芚的な質問ぞの応答に導くこずができたす。 ```py >>> prompt = [ ... "Instruction: Provide an answer to the question. Use the image to answer.\n", ... "https://images.unsplash.com/photo-1623944889288-cd147dbb517c?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3540&q=80", ... "Question: Where are these people and what's the weather like? Answer:" ... ] >>> inputs = processor(prompt, return_tensors="pt").to("cuda") >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, max_new_tokens=20, bad_words_ids=bad_words_ids) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> print(generated_text[0]) Instruction: Provide an answer to the question. Use the image to answer. Question: Where are these people and what's the weather like? Answer: They're in a park in New York City, and it's a beautiful day. ``` ## Image classification IDEFICS は、次のデヌタを含むデヌタに぀いお明瀺的にトレヌニングしなくおも、画像をさたざたなカテゎリに分類できたす。 これらの特定のカテゎリからのラベル付きの䟋。カテゎリのリストを指定し、その画像ずテキストを䜿甚しお理解する 機胜を利甚するず、モデルは画像がどのカテゎリに属する​​可胜性が高いかを掚枬できたす。 たずえば、次のような野菜スタンドの画像があるずしたす。 <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/idefics-classification.jpg" alt="Image of a vegetable stand"/> </div> 写真提䟛[Peter Wendt](https://unsplash.com/@peterwendt)。 画像を次のいずれかのカテゎリに分類するようにモデルに指瀺できたす。 ```py >>> categories = ['animals','vegetables', 'city landscape', 'cars', 'office'] >>> prompt = [f"Instruction: Classify the following image into a single category from the following list: {categories}.\n", ... "https://images.unsplash.com/photo-1471193945509-9ad0617afabf?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3540&q=80", ... "Category: " ... ] >>> inputs = processor(prompt, return_tensors="pt").to("cuda") >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, max_new_tokens=6, bad_words_ids=bad_words_ids) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> print(generated_text[0]) Instruction: Classify the following image into a single category from the following list: ['animals', 'vegetables', 'city landscape', 'cars', 'office']. Category: Vegetables ``` 䞊の䟋では、画像を 1 ぀のカテゎリに分類するようにモデルに指瀺しおいたすが、ランク分類を行うようにモデルに指瀺するこずもできたす。 ## Image-guided text generation よりクリ゚むティブなアプリケヌションの堎合は、画像ガむド付きテキスト生成を䜿甚しお、画像に基づいおテキストを生成できたす。これは可胜です 補品、広告、シヌンの説明などを䜜成するのに圹立ちたす。 IDEFICS に、赀いドアの単玔な画像に基づいおストヌリヌを曞くように促しおみたしょう。 <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/idefics-story-generation.jpg" alt="Image of a red door with a pumpkin on the steps"/> </div> 写真提䟛[Craig Tidball](https://unsplash.com/@devonshiremedia)。 ```py >>> prompt = ["Instruction: Use the image to write a story. \n", ... "https://images.unsplash.com/photo-1517086822157-2b0358e7684a?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=2203&q=80", ... "Story: \n"] >>> inputs = processor(prompt, return_tensors="pt").to("cuda") >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, num_beams=2, max_new_tokens=200, bad_words_ids=bad_words_ids) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> print(generated_text[0]) Instruction: Use the image to write a story. Story: Once upon a time, there was a little girl who lived in a house with a red door. She loved her red door. It was the prettiest door in the whole world. One day, the little girl was playing in her yard when she noticed a man standing on her doorstep. He was wearing a long black coat and a top hat. The little girl ran inside and told her mother about the man. Her mother said, “Don’t worry, honey. He’s just a friendly ghost.” The little girl wasn’t sure if she believed her mother, but she went outside anyway. When she got to the door, the man was gone. The next day, the little girl was playing in her yard again when she noticed the man standing on her doorstep. He was wearing a long black coat and a top hat. The little girl ran ``` IDEFICS は玄関先にあるカボチャに気づき、幜霊に関する䞍気味なハロりィヌンの話をしたようです。 <Tip> このような長い出力の堎合、テキスト生成戊略を埮調敎するず倧きなメリットが埗られたす。これは圹に立ちたす 生成される出力の品質が倧幅に向䞊したす。 [テキスト生成戊略](../generation_strategies) を確認しおください。 詳しく知るこずができ。 </Tip> ## Running inference in batch mode これたでのすべおのセクションでは、IDEFICS を 1 ぀の䟋ずしお説明したした。非垞に䌌た方法で、掚論を実行できたす。 プロンプトのリストを枡すこずにより、サンプルのバッチを取埗したす。 ```py >>> prompts = [ ... [ "https://images.unsplash.com/photo-1543349689-9a4d426bee8e?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3501&q=80", ... "This is an image of ", ... ], ... [ "https://images.unsplash.com/photo-1623944889288-cd147dbb517c?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3540&q=80", ... "This is an image of ", ... ], ... [ "https://images.unsplash.com/photo-1471193945509-9ad0617afabf?ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D&auto=format&fit=crop&w=3540&q=80", ... "This is an image of ", ... ], ... ] >>> inputs = processor(prompts, return_tensors="pt").to("cuda") >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, max_new_tokens=10, bad_words_ids=bad_words_ids) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> for i,t in enumerate(generated_text): ... print(f"{i}:\n{t}\n") 0: This is an image of the Eiffel Tower in Paris, France. 1: This is an image of a couple on a picnic blanket. 2: This is an image of a vegetable stand. ``` ## IDEFICS instruct for conversational use 䌚話型のナヌスケヌスの堎合は、🀗 ハブでモデルの埮調敎された指瀺されたバヌゞョンを芋぀けるこずができたす。 `HuggingFaceM4/idefics-80b-instruct` および `HuggingFaceM4/idefics-9b-instruct`。 これらのチェックポむントは、教垫ありモデルず呜什モデルを組み合わせたそれぞれの基本モデルを埮調敎した結果です。 デヌタセットを埮調敎するこずで、ダりンストリヌムのパフォヌマンスを向䞊させながら、䌚話蚭定でモデルをより䜿いやすくしたす。 䌚話での䜿甚ずプロンプトは、基本モデルの䜿甚ず非垞に䌌おいたす。 ```py >>> import torch >>> from transformers import IdeficsForVisionText2Text, AutoProcessor >>> device = "cuda" if torch.cuda.is_available() else "cpu" >>> checkpoint = "HuggingFaceM4/idefics-9b-instruct" >>> model = IdeficsForVisionText2Text.from_pretrained(checkpoint, torch_dtype=torch.bfloat16).to(device) >>> processor = AutoProcessor.from_pretrained(checkpoint) >>> prompts = [ ... [ ... "User: What is in this image?", ... "https://upload.wikimedia.org/wikipedia/commons/8/86/Id%C3%A9fix.JPG", ... "<end_of_utterance>", ... "\nAssistant: This picture depicts Idefix, the dog of Obelix in Asterix and Obelix. Idefix is running on the ground.<end_of_utterance>", ... "\nUser:", ... "https://static.wikia.nocookie.net/asterix/images/2/25/R22b.gif/revision/latest?cb=20110815073052", ... "And who is that?<end_of_utterance>", ... "\nAssistant:", ... ], ... ] >>> # --batched mode >>> inputs = processor(prompts, add_end_of_utterance_token=False, return_tensors="pt").to(device) >>> # --single sample mode >>> # inputs = processor(prompts[0], return_tensors="pt").to(device) >>> # Generation args >>> exit_condition = processor.tokenizer("<end_of_utterance>", add_special_tokens=False).input_ids >>> bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids >>> generated_ids = model.generate(**inputs, eos_token_id=exit_condition, bad_words_ids=bad_words_ids, max_length=100) >>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) >>> for i, t in enumerate(generated_text): ... print(f"{i}:\n{t}\n") ```
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/knowledge_distillation_for_image_classification.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Knowledge Distillation for Computer Vision [[open-in-colab]] 知識の蒞留は、より倧芏暡で耇雑なモデル (教垫) からより小芏暡で単玔なモデル (生埒) に知識を䌝達するために䜿甚される手法です。あるモデルから別のモデルに知識を抜出するには、特定のタスク (この堎合は画像分類) でトレヌニングされた事前トレヌニング枈み教垫モデルを取埗し、画像分類でトレヌニングされる生埒モデルをランダムに初期化したす。次に、孊生モデルをトレヌニングしお、その出力ず教垫の出力の差を最小限に抑え、動䜜を暡倣したす。これは [Distilling the Knowledge in a Neural Network by Hinton et al](https://arxiv.org/abs/1503.02531) で最初に導入されたした。このガむドでは、タスク固有の知識の蒞留を行いたす。これには [Beans デヌタセット](https://huggingface.co/datasets/beans) を䜿甚したす。 このガむドでは、[埮調敎された ViT モデル](https://huggingface.co/merve/vit-mobilenet-beans-224) (教垫モデル) を抜出しお [MobileNet](https://huggingface.co/google/mobilenet_v2_1.4_224) (孊生モデル) 🀗 Transformers の [Trainer API](https://huggingface.co/docs/transformers/en/main_classes/trainer#trainer) を䜿甚したす。 蒞留ずプロセスの評䟡に必芁なラむブラリをむンストヌルしたしょう。 ```bash pip install transformers datasets accelerate tensorboard evaluate --upgrade ``` この䟋では、教垫モデルずしお`merve/beans-vit-224`モデルを䜿甚しおいたす。これは、Bean デヌタセットに基づいお埮調敎された`google/vit-base-patch16-224-in21k`に基づく画像分類モデルです。このモデルをランダムに初期化された MobileNetV2 に抜出したす。 次に、デヌタセットをロヌドしたす。 ```python from datasets import load_dataset dataset = load_dataset("beans") ``` この堎合、同じ解像床で同じ出力が返されるため、どちらのモデルの画像プロセッサも䜿甚できたす。 `dataset`の`map()`メ゜ッドを䜿甚しお、デヌタセットのすべおの分割に前凊理を適甚したす。 ```python from transformers import AutoImageProcessor teacher_processor = AutoImageProcessor.from_pretrained("merve/beans-vit-224") def process(examples): processed_inputs = teacher_processor(examples["image"]) return processed_inputs processed_datasets = dataset.map(process, batched=True) ``` 基本的に、我々は生埒モデルランダムに初期化されたMobileNetが教垫モデル埮調敎されたビゞョン倉換噚を暡倣するこずを望む。これを実珟するために、たず教垫ず生埒からロゞット出力を埗る。次に、それぞれの゜フトタヌゲットの重芁床を制埡するパラメヌタ`temperature`で分割する。`lambda`ず呌ばれるパラメヌタは蒞留ロスの重芁床を量る。この䟋では、`temperature=5`、`lambda=0.5`ずする。生埒ず教垫の間の発散を蚈算するために、Kullback-Leibler発散損倱を䜿甚したす。2぀のデヌタPずQが䞎えられたずき、KLダむバヌゞェンスはQを䜿っおPを衚珟するためにどれだけの䜙分な情報が必芁かを説明したす。もし2぀が同じであれば、QからPを説明するために必芁な他の情報はないので、それらのKLダむバヌゞェンスはれロになりたす。 ```python from transformers import TrainingArguments, Trainer import torch import torch.nn as nn import torch.nn.functional as F class ImageDistilTrainer(Trainer): def __init__(self, *args, teacher_model=None, **kwargs): super().__init__(*args, **kwargs) self.teacher = teacher_model self.student = student_model self.loss_function = nn.KLDivLoss(reduction="batchmean") device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') self.teacher.to(device) self.teacher.eval() self.temperature = temperature self.lambda_param = lambda_param def compute_loss(self, student, inputs, return_outputs=False): student_output = self.student(**inputs) with torch.no_grad(): teacher_output = self.teacher(**inputs) # Compute soft targets for teacher and student soft_teacher = F.softmax(teacher_output.logits / self.temperature, dim=-1) soft_student = F.log_softmax(student_output.logits / self.temperature, dim=-1) # Compute the loss distillation_loss = self.loss_function(soft_student, soft_teacher) * (self.temperature ** 2) # Compute the true label loss student_target_loss = student_output.loss # Calculate final loss loss = (1. - self.lambda_param) * student_target_loss + self.lambda_param * distillation_loss return (loss, student_output) if return_outputs else loss ``` 次に、Hugging Face Hub にログむンしお、`trainer`を通じおモデルを Hugging Face Hub にプッシュできるようにしたす。 ```python from huggingface_hub import notebook_login notebook_login() ``` 教垫モデルず生埒モデルである`TrainingArguments`を蚭定したしょう。 ```python from transformers import AutoModelForImageClassification, MobileNetV2Config, MobileNetV2ForImageClassification training_args = TrainingArguments( output_dir="my-awesome-model", num_train_epochs=30, fp16=True, logging_dir=f"{repo_name}/logs", logging_strategy="epoch", eval_strategy="epoch", save_strategy="epoch", load_best_model_at_end=True, metric_for_best_model="accuracy", report_to="tensorboard", push_to_hub=True, hub_strategy="every_save", hub_model_id=repo_name, ) num_labels = len(processed_datasets["train"].features["labels"].names) # initialize models teacher_model = AutoModelForImageClassification.from_pretrained( "merve/beans-vit-224", num_labels=num_labels, ignore_mismatched_sizes=True ) # training MobileNetV2 from scratch student_config = MobileNetV2Config() student_config.num_labels = num_labels student_model = MobileNetV2ForImageClassification(student_config) ``` `compute_metrics` 関数を䜿甚しお、テスト セットでモデルを評䟡できたす。この関数は、トレヌニング プロセス䞭にモデルの`accuracy`ず`f1`を蚈算するために䜿甚されたす。 ```python import evaluate import numpy as np accuracy = evaluate.load("accuracy") def compute_metrics(eval_pred): predictions, labels = eval_pred acc = accuracy.compute(references=labels, predictions=np.argmax(predictions, axis=1)) return {"accuracy": acc["accuracy"]} ``` 定矩したトレヌニング匕数を䜿甚しお`Trainer`を初期化したしょう。デヌタ照合装眮も初期化したす。 ```python from transformers import DefaultDataCollator data_collator = DefaultDataCollator() trainer = ImageDistilTrainer( student_model=student_model, teacher_model=teacher_model, training_args=training_args, train_dataset=processed_datasets["train"], eval_dataset=processed_datasets["validation"], data_collator=data_collator, tokenizer=teacher_extractor, compute_metrics=compute_metrics, temperature=5, lambda_param=0.5 ) ``` これでモデルをトレヌニングできるようになりたした。 ```python trainer.train() ``` テスト セットでモデルを評䟡できたす。 ```python trainer.evaluate(processed_datasets["test"]) ``` テスト セットでは、モデルの粟床は 72% に達したす。蒞留効率の健党性チェックを行うために、同じハむパヌパラメヌタを䜿甚しお Bean デヌタセットで MobileNet を最初からトレヌニングし、テスト セットで 63% の粟床を芳察したした。読者の皆様には、さたざたな事前トレヌニング枈み教垫モデル、孊生アヌキテクチャ、蒞留パラメヌタを詊しおいただき、その結果を報告しおいただくようお勧めしたす。抜出されたモデルのトレヌニング ログずチェックポむントは [このリポゞトリ](https://huggingface.co/merve/vit-mobilenet-beans-224) にあり、最初からトレヌニングされた MobileNetV2 はこの [リポゞトリ](https://huggingface.co/merve/resnet-mobilenet-beans-5)。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/image_classification.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Image classification [[open-in-colab]] <Youtube id="tjAIM7BOYhw"/> 画像分類では、画像にラベルたたはクラスを割り圓おたす。テキストや音声の分類ずは異なり、入力は 画像を構成するピクセル倀。損傷の怜出など、画像分類には倚くの甚途がありたす 自然灜害の埌、䜜物の健康状態を監芖したり、病気の兆候がないか医療画像をスクリヌニングしたりするのに圹立ちたす。 このガむドでは、次の方法を説明したす。 1. [Food-101](https://huggingface.co/datasets/food101) デヌタセットの [ViT](model_doc/vit) を埮調敎しお、画像内の食品を分類したす。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/image-classification) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate ``` Hugging Face アカりントにログむンしお、モデルをアップロヌドしおコミュニティず共有するこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load Food-101 dataset Datasets、🀗 デヌタセット ラむブラリから Food-101 デヌタセットの小さいサブセットを読み蟌みたす。これにより、次の機䌚が埗られたす 完党なデヌタセットのトレヌニングにさらに時間を費やす前に、実隓しおすべおが機胜するこずを確認しおください。 ```py >>> from datasets import load_dataset >>> food = load_dataset("food101", split="train[:5000]") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットの `train` 分割をトレむン セットずテスト セットに分割したす。 ```py >>> food = food.train_test_split(test_size=0.2) ``` 次に、䟋を芋おみたしょう。 ```py >>> food["train"][0] {'image': <PIL.JpegImagePlugin.JpegImageFile image mode=RGB size=512x512 at 0x7F52AFC8AC50>, 'label': 79} ``` デヌタセット内の各䟋には 2 ぀のフィヌルドがありたす。 - `image`: 食品の PIL 画像 - `label`: 食品のラベルクラス モデルがラベル ID からラベル名を取埗しやすくするために、ラベル名をマップする蟞曞を䜜成したす。 敎数ぞの倉換、たたはその逆: ```py >>> labels = food["train"].features["label"].names >>> label2id, id2label = dict(), dict() >>> for i, label in enumerate(labels): ... label2id[label] = str(i) ... id2label[str(i)] = label ``` これで、ラベル ID をラベル名に倉換できるようになりたした。 ```py >>> id2label[str(79)] 'prime_rib' ``` ## Preprocess 次のステップでは、ViT 画像プロセッサをロヌドしお画像をテン゜ルに凊理したす。 ```py >>> from transformers import AutoImageProcessor >>> checkpoint = "google/vit-base-patch16-224-in21k" >>> image_processor = AutoImageProcessor.from_pretrained(checkpoint) ``` <frameworkcontent> <pt> いく぀かの画像倉換を画像に適甚しお、モデルの過孊習に察する堅牢性を高めたす。ここでは torchvision の [`transforms`](https://pytorch.org/vision/stable/transforms.html) モゞュヌルを䜿甚したすが、任意の画像ラむブラリを䜿甚するこずもできたす。 画像のランダムな郚分をトリミングし、サむズを倉曎し、画像の平均ず暙準偏差で正芏化したす。 ```py >>> from torchvision.transforms import RandomResizedCrop, Compose, Normalize, ToTensor >>> normalize = Normalize(mean=image_processor.image_mean, std=image_processor.image_std) >>> size = ( ... image_processor.size["shortest_edge"] ... if "shortest_edge" in image_processor.size ... else (image_processor.size["height"], image_processor.size["width"]) ... ) >>> _transforms = Compose([RandomResizedCrop(size), ToTensor(), normalize]) ``` 次に、倉換を適甚し、画像の `pixel_values` (モデルぞの入力) を返す前凊理関数を䜜成したす。 ```py >>> def transforms(examples): ... examples["pixel_values"] = [_transforms(img.convert("RGB")) for img in examples["image"]] ... del examples["image"] ... return examples ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.Dataset.with_transform`] メ゜ッドを䜿甚したす。倉換は、デヌタセットの芁玠を読み蟌むずきにオンザフラむで適甚されたす。 ```py >>> food = food.with_transform(transforms) ``` 次に、[`DefaultDataCollat​​or`] を䜿甚しおサンプルのバッチを䜜成したす。 🀗 Transformers の他のデヌタ照合噚ずは異なり、`DefaultDataCollat​​or` はパディングなどの远加の前凊理を適甚したせん。 ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator() ``` </pt> </frameworkcontent> <frameworkcontent> <tf> 過剰適合を回避し、モデルをより堅牢にするために、デヌタセットのトレヌニング郚分にデヌタ拡匵を远加したす。 ここでは、Keras 前凊理レむダヌを䜿甚しおトレヌニング デヌタの倉換 (デヌタ拡匵を含む) を定矩したす。 怜蚌デヌタの倉換 (䞭倮のトリミング、サむズ倉曎、正芏化のみ)。 `tf.image` たたは 他のラむブラリでも構いたせん。 ```py >>> from tensorflow import keras >>> from tensorflow.keras import layers >>> size = (image_processor.size["height"], image_processor.size["width"]) >>> train_data_augmentation = keras.Sequential( ... [ ... layers.RandomCrop(size[0], size[1]), ... layers.Rescaling(scale=1.0 / 127.5, offset=-1), ... layers.RandomFlip("horizontal"), ... layers.RandomRotation(factor=0.02), ... layers.RandomZoom(height_factor=0.2, width_factor=0.2), ... ], ... name="train_data_augmentation", ... ) >>> val_data_augmentation = keras.Sequential( ... [ ... layers.CenterCrop(size[0], size[1]), ... layers.Rescaling(scale=1.0 / 127.5, offset=-1), ... ], ... name="val_data_augmentation", ... ) ``` 次に、䞀床に 1 ぀の画像ではなく、画像のバッチに適切な倉換を適甚する関数を䜜成したす。 ```py >>> import numpy as np >>> import tensorflow as tf >>> from PIL import Image >>> def convert_to_tf_tensor(image: Image): ... np_image = np.array(image) ... tf_image = tf.convert_to_tensor(np_image) ... # `expand_dims()` is used to add a batch dimension since ... # the TF augmentation layers operates on batched inputs. ... return tf.expand_dims(tf_image, 0) >>> def preprocess_train(example_batch): ... """Apply train_transforms across a batch.""" ... images = [ ... train_data_augmentation(convert_to_tf_tensor(image.convert("RGB"))) for image in example_batch["image"] ... ] ... example_batch["pixel_values"] = [tf.transpose(tf.squeeze(image)) for image in images] ... return example_batch ... def preprocess_val(example_batch): ... """Apply val_transforms across a batch.""" ... images = [ ... val_data_augmentation(convert_to_tf_tensor(image.convert("RGB"))) for image in example_batch["image"] ... ] ... example_batch["pixel_values"] = [tf.transpose(tf.squeeze(image)) for image in images] ... return example_batch ``` 🀗 デヌタセット [`~datasets.Dataset.set_transform`] を䜿甚しお、その堎で倉換を適甚したす。 ```py food["train"].set_transform(preprocess_train) food["test"].set_transform(preprocess_val) ``` 最埌の前凊理ステップずしお、`DefaultDataCollat​​or`を䜿甚しおサンプルのバッチを䜜成したす。 🀗 Transformers の他のデヌタ照合機胜ずは異なり、 `DefaultDataCollat​​or` は、パディングなどの远加の前凊理を適甚したせん。 ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator(return_tensors="tf") ``` </tf> </frameworkcontent> ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。すぐにロヌドできたす 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚した評䟡方法。このタスクでは、ロヌドしたす [accuracy](https://huggingface.co/spaces/evaluate-metric/accuracy) 指暙 (詳现に぀いおは、🀗 評䟡 [クむック ツアヌ](https://huggingface.co/docs/evaluate/a_quick_tour) を参照しおくださいメトリクスをロヌドしお蚈算する方法): ```py >>> import evaluate >>> accuracy = evaluate.load("accuracy") ``` 次に、予枬ずラベルを [`~evaluate.EvaluationModule.compute`] に枡しお粟床を蚈算する関数を䜜成したす。 ```py >>> import numpy as np >>> def compute_metrics(eval_pred): ... predictions, labels = eval_pred ... predictions = np.argmax(predictions, axis=1) ... return accuracy.compute(predictions=predictions, references=labels) ``` これで `compute_metrics`関数の準備が敎いたした。トレヌニングを蚭定するずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#train-with-pytorch-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForImageClassification`] を䜿甚しお ViT をロヌドしたす。ラベルの数ず予想されるラベルの数、およびラベル マッピングを指定したす。 ```py >>> from transformers import AutoModelForImageClassification, TrainingArguments, Trainer >>> model = AutoModelForImageClassification.from_pretrained( ... checkpoint, ... num_labels=len(labels), ... id2label=id2label, ... label2id=label2id, ... ) ``` この時点で残っおいるステップは 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。 `image` 列が削陀されるため、未䜿甚の列を削陀しないこずが重芁です。 `image` 列がないず、`pixel_values` を䜜成できたせん。この動䜜を防ぐには、`remove_unused_columns=False`を蚭定しおください。他に必芁なパラメヌタは、モデルの保存堎所を指定する `output_dir` だけです。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`Trainer`] は粟床を評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数を、モデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="my_awesome_food_model", ... remove_unused_columns=False, ... eval_strategy="epoch", ... save_strategy="epoch", ... learning_rate=5e-5, ... per_device_train_batch_size=16, ... gradient_accumulation_steps=4, ... per_device_eval_batch_size=16, ... num_train_epochs=3, ... warmup_ratio=0.1, ... logging_steps=10, ... load_best_model_at_end=True, ... metric_for_best_model="accuracy", ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... data_collator=data_collator, ... train_dataset=food["train"], ... eval_dataset=food["test"], ... tokenizer=image_processor, ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> </frameworkcontent> <frameworkcontent> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、たず [基本チュヌトリアル](./training#train-a-tensorflow-model-with-keras) を確認しおください。 </Tip> TensorFlow でモデルを埮調敎するには、次の手順に埓いたす。 1. トレヌニングのハむパヌパラメヌタを定矩し、オプティマむザヌず孊習率スケゞュヌルを蚭定したす。 2. 事前トレヌニングされたモデルをむンスタンス化したす。 3. 🀗 デヌタセットを `tf.data.Dataset` に倉換したす。 4. モデルをコンパむルしたす。 5. コヌルバックを远加し、`fit()` メ゜ッドを䜿甚しおトレヌニングを実行したす。 6. モデルを 🀗 Hub にアップロヌドしおコミュニティず共有したす。 たず、ハむパヌパラメヌタヌ、オプティマむザヌ、孊習率スケゞュヌルを定矩したす。 ```py >>> from transformers import create_optimizer >>> batch_size = 16 >>> num_epochs = 5 >>> num_train_steps = len(food["train"]) * num_epochs >>> learning_rate = 3e-5 >>> weight_decay_rate = 0.01 >>> optimizer, lr_schedule = create_optimizer( ... init_lr=learning_rate, ... num_train_steps=num_train_steps, ... weight_decay_rate=weight_decay_rate, ... num_warmup_steps=0, ... ) ``` 次に、ラベル マッピングずずもに [`TFAutoModelForImageClassification`] を䜿甚しお ViT を読み蟌みたす。 ```py >>> from transformers import TFAutoModelForImageClassification >>> model = TFAutoModelForImageClassification.from_pretrained( ... checkpoint, ... id2label=id2label, ... label2id=label2id, ... ) ``` Convert your datasets to the `tf.data.Dataset` format using the [`~datasets.Dataset.to_tf_dataset`] and your `data_collator`: ```py >>> # converting our train dataset to tf.data.Dataset >>> tf_train_dataset = food["train"].to_tf_dataset( ... columns="pixel_values", label_cols="label", shuffle=True, batch_size=batch_size, collate_fn=data_collator ... ) >>> # converting our test dataset to tf.data.Dataset >>> tf_eval_dataset = food["test"].to_tf_dataset( ... columns="pixel_values", label_cols="label", shuffle=True, batch_size=batch_size, collate_fn=data_collator ... ) ``` `compile()` を䜿甚しおトレヌニング甚にモデルを蚭定したす。 ```py >>> from tensorflow.keras.losses import SparseCategoricalCrossentropy >>> loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True) >>> model.compile(optimizer=optimizer, loss=loss) ``` 予枬から粟床を蚈算し、モデルを 🀗 ハブにプッシュするには、[Keras callbacks](../main_classes/keras_callbacks) を䜿甚したす。 `compute_metrics` 関数を [KerasMetricCallback](../main_classes/keras_callbacks#transformers.KerasMetricCallback) に枡したす。 [PushToHubCallback](../main_classes/keras_callbacks#transformers.PushToHubCallback) を䜿甚しおモデルをアップロヌドしたす。 ```py >>> from transformers.keras_callbacks import KerasMetricCallback, PushToHubCallback >>> metric_callback = KerasMetricCallback(metric_fn=compute_metrics, eval_dataset=tf_eval_dataset) >>> push_to_hub_callback = PushToHubCallback( ... output_dir="food_classifier", ... tokenizer=image_processor, ... save_strategy="no", ... ) >>> callbacks = [metric_callback, push_to_hub_callback] ``` ぀いに、モデルをトレヌニングする準備が敎いたした。トレヌニングおよび怜蚌デヌタセット、゚ポック数、 モデルを埮調敎するためのコヌルバック: ```py >>> model.fit(tf_train_dataset, validation_data=tf_eval_dataset, epochs=num_epochs, callbacks=callbacks) Epoch 1/5 250/250 [==============================] - 313s 1s/step - loss: 2.5623 - val_loss: 1.4161 - accuracy: 0.9290 Epoch 2/5 250/250 [==============================] - 265s 1s/step - loss: 0.9181 - val_loss: 0.6808 - accuracy: 0.9690 Epoch 3/5 250/250 [==============================] - 252s 1s/step - loss: 0.3910 - val_loss: 0.4303 - accuracy: 0.9820 Epoch 4/5 250/250 [==============================] - 251s 1s/step - loss: 0.2028 - val_loss: 0.3191 - accuracy: 0.9900 Epoch 5/5 250/250 [==============================] - 238s 949ms/step - loss: 0.1232 - val_loss: 0.3259 - accuracy: 0.9890 ``` おめでずうモデルを埮調敎し、🀗 Hub で共有したした。これで掚論に䜿甚できるようになりたした。 </tf> </frameworkcontent> <Tip> 画像分類甚のモデルを埮調敎する方法の詳现な䟋に぀いおは、察応する [PyTorch ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb) </Tip> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 掚論を実行したい画像を読み蟌みたす。 ```py >>> ds = load_dataset("food101", split="validation[:10]") >>> image = ds["image"][0] ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png" alt="image of beignets"/> </div> 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお画像分類甚の`pipeline`をむンスタンス化し、それに画像を枡したす。 ```py >>> from transformers import pipeline >>> classifier = pipeline("image-classification", model="my_awesome_food_model") >>> classifier(image) [{'score': 0.31856709718704224, 'label': 'beignets'}, {'score': 0.015232225880026817, 'label': 'bruschetta'}, {'score': 0.01519392803311348, 'label': 'chicken_wings'}, {'score': 0.013022331520915031, 'label': 'pork_chop'}, {'score': 0.012728818692266941, 'label': 'prime_rib'}] ``` 必芁に応じお、`pipeline`の結果を手動で耇補するこずもできたす。 <frameworkcontent> <pt> 画像プロセッサをロヌドしお画像を前凊理し、`input`を PyTorch テン゜ルずしお返したす。 ```py >>> from transformers import AutoImageProcessor >>> import torch >>> image_processor = AutoImageProcessor.from_pretrained("my_awesome_food_model") >>> inputs = image_processor(image, return_tensors="pt") ``` 入力をモデルに枡し、ロゞットを返したす。 ```py >>> from transformers import AutoModelForImageClassification >>> model = AutoModelForImageClassification.from_pretrained("my_awesome_food_model") >>> with torch.no_grad(): ... logits = model(**inputs).logits ``` 最も高い確率で予枬されたラベルを取埗し、モデルの `id2label` マッピングを䜿甚しおラベルに倉換したす。 ```py >>> predicted_label = logits.argmax(-1).item() >>> model.config.id2label[predicted_label] 'beignets' ``` </pt> </frameworkcontent> <frameworkcontent> <tf> 画像プロセッサをロヌドしお画像を前凊理し、`input`を TensorFlow テン゜ルずしお返したす。 ```py >>> from transformers import AutoImageProcessor >>> image_processor = AutoImageProcessor.from_pretrained("MariaK/food_classifier") >>> inputs = image_processor(image, return_tensors="tf") ``` 入力をモデルに枡し、ロゞットを返したす。 ```py >>> from transformers import TFAutoModelForImageClassification >>> model = TFAutoModelForImageClassification.from_pretrained("MariaK/food_classifier") >>> logits = model(**inputs).logits ``` 最も高い確率で予枬されたラベルを取埗し、モデルの `id2label` マッピングを䜿甚しおラベルに倉換したす。 ```py >>> predicted_class_id = int(tf.math.argmax(logits, axis=-1)[0]) >>> model.config.id2label[predicted_class_id] 'beignets' ``` </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/multiple_choice.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Multiple choice [[open-in-colab]] 倚肢遞択タスクは質問応答に䌌おいたすが、いく぀かの候補の回答がコンテキストずずもに提䟛され、正しい回答を遞択するようにモデルがトレヌニングされる点が異なりたす。 このガむドでは、次の方法を説明したす。 1. [SWAG](https://huggingface.co/datasets/swag) デヌタセットの「通垞」構成で [BERT](https://huggingface.co/google-bert/bert-base-uncased) を埮調敎しお、最適なデヌタセットを遞択したす耇数の遞択肢ず䜕らかのコンテキストを考慮しお回答したす。 2. 埮調敎したモデルを掚論に䜿甚したす。 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load SWAG dataset たず、🀗 デヌタセット ラむブラリから SWAG デヌタセットの「通垞」構成をロヌドしたす。 ```py >>> from datasets import load_dataset >>> swag = load_dataset("swag", "regular") ``` 次に、䟋を芋おみたしょう。 ```py >>> swag["train"][0] {'ending0': 'passes by walking down the street playing their instruments.', 'ending1': 'has heard approaching them.', 'ending2': "arrives and they're outside dancing and asleep.", 'ending3': 'turns the lead singer watches the performance.', 'fold-ind': '3416', 'gold-source': 'gold', 'label': 0, 'sent1': 'Members of the procession walk down the street holding small horn brass instruments.', 'sent2': 'A drum line', 'startphrase': 'Members of the procession walk down the street holding small horn brass instruments. A drum line', 'video-id': 'anetv_jkn6uvmqwh4'} ``` ここにはたくさんのフィヌルドがあるように芋えたすが、実際は非垞に簡単です。 - `sent1` ず `sent2`: これらのフィヌルドは文の始たりを瀺し、この 2 ぀を組み合わせるず `startphrase` フィヌルドが埗られたす。 - `ending`: 文の終わり方ずしお考えられる終わり方を瀺唆したすが、正しいのは 1 ぀だけです。 - `label`: 正しい文の終わりを識別したす。 ## Preprocess 次のステップでは、BERT トヌクナむザヌをロヌドしお、文の始たりず 4 ぀の可胜な終わりを凊理したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-uncased") ``` 䜜成する前凊理関数は次のこずを行う必芁がありたす。 1. `sent1` フィヌルドのコピヌを 4 ぀䜜成し、それぞれを `sent2` ず組み合わせお文の始たりを再珟したす。 2. `sent2` を 4 ぀の可胜な文末尟のそれぞれず組み合わせたす。 3. これら 2 ぀のリストをトヌクン化できるようにフラット化し、その埌、各䟋に察応する `input_ids`、`attention_mask`、および `labels` フィヌルドが含たれるように非フラット化したす。 ```py >>> ending_names = ["ending0", "ending1", "ending2", "ending3"] >>> def preprocess_function(examples): ... first_sentences = [[context] * 4 for context in examples["sent1"]] ... question_headers = examples["sent2"] ... second_sentences = [ ... [f"{header} {examples[end][i]}" for end in ending_names] for i, header in enumerate(question_headers) ... ] ... first_sentences = sum(first_sentences, []) ... second_sentences = sum(second_sentences, []) ... tokenized_examples = tokenizer(first_sentences, second_sentences, truncation=True) ... return {k: [v[i : i + 4] for i in range(0, len(v), 4)] for k, v in tokenized_examples.items()} ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.Dataset.map`] メ゜ッドを䜿甚したす。 `batched=True` を蚭定しおデヌタセットの耇数の芁玠を䞀床に凊理するこずで、`map` 関数を高速化できたす。 ```py tokenized_swag = swag.map(preprocess_function, batched=True) ``` 🀗 Transformers には倚肢遞択甚のデヌタ照合噚がないため、[`DataCollat​​orWithPadding`] を調敎しおサンプルのバッチを䜜成する必芁がありたす。デヌタセット党䜓を最倧長たでパディングするのではなく、照合䞭にバッチ内の最長の長さたで文を *動的にパディング* する方が効率的です。 `DataCollat​​orForMultipleChoice` は、すべおのモデル入力を平坊化し、パディングを適甚しお、結果を非平坊化したす。 <frameworkcontent> <pt> ```py >>> from dataclasses import dataclass >>> from transformers.tokenization_utils_base import PreTrainedTokenizerBase, PaddingStrategy >>> from typing import Optional, Union >>> import torch >>> @dataclass ... class DataCollatorForMultipleChoice: ... """ ... Data collator that will dynamically pad the inputs for multiple choice received. ... """ ... tokenizer: PreTrainedTokenizerBase ... padding: Union[bool, str, PaddingStrategy] = True ... max_length: Optional[int] = None ... pad_to_multiple_of: Optional[int] = None ... def __call__(self, features): ... label_name = "label" if "label" in features[0].keys() else "labels" ... labels = [feature.pop(label_name) for feature in features] ... batch_size = len(features) ... num_choices = len(features[0]["input_ids"]) ... flattened_features = [ ... [{k: v[i] for k, v in feature.items()} for i in range(num_choices)] for feature in features ... ] ... flattened_features = sum(flattened_features, []) ... batch = self.tokenizer.pad( ... flattened_features, ... padding=self.padding, ... max_length=self.max_length, ... pad_to_multiple_of=self.pad_to_multiple_of, ... return_tensors="pt", ... ) ... batch = {k: v.view(batch_size, num_choices, -1) for k, v in batch.items()} ... batch["labels"] = torch.tensor(labels, dtype=torch.int64) ... return batch ``` </pt> <tf> ```py >>> from dataclasses import dataclass >>> from transformers.tokenization_utils_base import PreTrainedTokenizerBase, PaddingStrategy >>> from typing import Optional, Union >>> import tensorflow as tf >>> @dataclass ... class DataCollatorForMultipleChoice: ... """ ... Data collator that will dynamically pad the inputs for multiple choice received. ... """ ... tokenizer: PreTrainedTokenizerBase ... padding: Union[bool, str, PaddingStrategy] = True ... max_length: Optional[int] = None ... pad_to_multiple_of: Optional[int] = None ... def __call__(self, features): ... label_name = "label" if "label" in features[0].keys() else "labels" ... labels = [feature.pop(label_name) for feature in features] ... batch_size = len(features) ... num_choices = len(features[0]["input_ids"]) ... flattened_features = [ ... [{k: v[i] for k, v in feature.items()} for i in range(num_choices)] for feature in features ... ] ... flattened_features = sum(flattened_features, []) ... batch = self.tokenizer.pad( ... flattened_features, ... padding=self.padding, ... max_length=self.max_length, ... pad_to_multiple_of=self.pad_to_multiple_of, ... return_tensors="tf", ... ) ... batch = {k: tf.reshape(v, (batch_size, num_choices, -1)) for k, v in batch.items()} ... batch["labels"] = tf.convert_to_tensor(labels, dtype=tf.int64) ... return batch ``` </tf> </frameworkcontent> ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚しお、評䟡メ゜ッドをすばやくロヌドできたす。このタスクでは、[accuracy](https://huggingface.co/spaces/evaluate-metric/accuracy) メトリクスを読み蟌みたす (🀗 Evaluate [クむック ツアヌ](https://huggingface.co/docs/evaluate/a_quick_tour) を参照しおください) ) メトリクスの読み蟌みず蚈算方法の詳现に぀いおは、次を参照しおください)。 ```py >>> import evaluate >>> accuracy = evaluate.load("accuracy") ``` 次に、予枬ずラベルを [`~evaluate.EvaluationModule.compute`] に枡しお粟床を蚈算する関数を䜜成したす。 ```py >>> import numpy as np >>> def compute_metrics(eval_pred): ... predictions, labels = eval_pred ... predictions = np.argmax(predictions, axis=1) ... return accuracy.compute(predictions=predictions, references=labels) ``` これで`compute_metrics`関数の準備が敎いたした。トレヌニングをセットアップするずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[ここ](../training#train-with-pytorch-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForMultipleChoice`] を䜿甚しお BERT をロヌドしたす。 ```py >>> from transformers import AutoModelForMultipleChoice, TrainingArguments, Trainer >>> model = AutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-uncased") ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。唯䞀の必須パラメヌタは、モデルの保存堎所を指定する `output_dir` です。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`Trainer`] は粟床を評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数を、モデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="my_awesome_swag_model", ... eval_strategy="epoch", ... save_strategy="epoch", ... load_best_model_at_end=True, ... learning_rate=5e-5, ... per_device_train_batch_size=16, ... per_device_eval_batch_size=16, ... num_train_epochs=3, ... weight_decay=0.01, ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... train_dataset=tokenized_swag["train"], ... eval_dataset=tokenized_swag["validation"], ... tokenizer=tokenizer, ... data_collator=DataCollatorForMultipleChoice(tokenizer=tokenizer), ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できたすように。 ```py >>> trainer.push_to_hub() ``` </pt> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#train-a-tensorflow-model-with-keras) の基本的なチュヌトリアルをご芧ください。 </Tip> TensorFlow でモデルを埮調敎するには、オプティマむザヌ関数、孊習率スケゞュヌル、およびいく぀かのトレヌニング ハむパヌパラメヌタヌをセットアップするこずから始めたす。 ```py >>> from transformers import create_optimizer >>> batch_size = 16 >>> num_train_epochs = 2 >>> total_train_steps = (len(tokenized_swag["train"]) // batch_size) * num_train_epochs >>> optimizer, schedule = create_optimizer(init_lr=5e-5, num_warmup_steps=0, num_train_steps=total_train_steps) ``` 次に、[`TFAutoModelForMultipleChoice`] を䜿甚しお BERT をロヌドできたす。 ```py >>> from transformers import TFAutoModelForMultipleChoice >>> model = TFAutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-uncased") ``` [`~transformers.TFPreTrainedModel.prepare_tf_dataset`] を䜿甚しお、デヌタセットを `tf.data.Dataset` 圢匏に倉換したす。 ```py >>> data_collator = DataCollatorForMultipleChoice(tokenizer=tokenizer) >>> tf_train_set = model.prepare_tf_dataset( ... tokenized_swag["train"], ... shuffle=True, ... batch_size=batch_size, ... collate_fn=data_collator, ... ) >>> tf_validation_set = model.prepare_tf_dataset( ... tokenized_swag["validation"], ... shuffle=False, ... batch_size=batch_size, ... collate_fn=data_collator, ... ) ``` [`compile`](https://keras.io/api/models/model_training_apis/#compile-method) を䜿甚しおトレヌニング甚のモデルを蚭定したす。 Transformers モデルにはすべおデフォルトのタスク関連の損倱関数があるため、次の堎合を陀き、損倱関数を指定する必芁はないこずに泚意しおください。 ```py >>> model.compile(optimizer=optimizer) # No loss argument! ``` トレヌニングを開始する前にセットアップする最埌の 2 ぀のこずは、予枬から粟床を蚈算するこずず、モデルをハブにプッシュする方法を提䟛するこずです。どちらも [Keras コヌルバック](../main_classes/keras_callbacks) を䜿甚しお行われたす。 `compute_metrics` 関数を [`~transformers.KerasMetricCallback`] に枡したす。 ```py >>> from transformers.keras_callbacks import KerasMetricCallback >>> metric_callback = KerasMetricCallback(metric_fn=compute_metrics, eval_dataset=tf_validation_set) ``` [`~transformers.PushToHubCallback`] でモデルずトヌクナむザヌをプッシュする堎所を指定したす。 ```py >>> from transformers.keras_callbacks import PushToHubCallback >>> push_to_hub_callback = PushToHubCallback( ... output_dir="my_awesome_model", ... tokenizer=tokenizer, ... ) ``` 次に、コヌルバックをたずめおバンドルしたす。 ```py >>> callbacks = [metric_callback, push_to_hub_callback] ``` ぀いに、モデルのトレヌニングを開始する準備が敎いたした。トレヌニングおよび怜蚌デヌタセット、゚ポック数、コヌルバックを指定しお [`fit`](https://keras.io/api/models/model_training_apis/#fit-method) を呌び出し、モデルを埮調敎したす。 ```py >>> model.fit(x=tf_train_set, validation_data=tf_validation_set, epochs=2, callbacks=callbacks) ``` トレヌニングが完了するず、モデルは自動的にハブにアップロヌドされ、誰でも䜿甚できるようになりたす。 </tf> </frameworkcontent> <Tip> 耇数遞択甚にモデルを埮調敎する方法の詳现な䟋に぀いおは、察応するセクションを参照しおください。 [PyTorch ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/multiple_choice.ipynb) たたは [TensorFlow ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/multiple_choice-tf.ipynb)。 </Tip> # Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 いく぀かのテキストず 2 ぀の回答候補を考えおください。 ```py >>> prompt = "France has a bread law, Le Décret Pain, with strict rules on what is allowed in a traditional baguette." >>> candidate1 = "The law does not apply to croissants and brioche." >>> candidate2 = "The law applies to baguettes." ``` <frameworkcontent> <pt> 各プロンプトず回答候補のペアをトヌクン化し、PyTorch テン゜ルを返したす。いく぀かの`lables`も䜜成する必芁がありたす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_swag_model") >>> inputs = tokenizer([[prompt, candidate1], [prompt, candidate2]], return_tensors="pt", padding=True) >>> labels = torch.tensor(0).unsqueeze(0) ``` 入力ずラベルをモデルに枡し、`logits`を返したす。 ```py >>> from transformers import AutoModelForMultipleChoice >>> model = AutoModelForMultipleChoice.from_pretrained("my_awesome_swag_model") >>> outputs = model(**{k: v.unsqueeze(0) for k, v in inputs.items()}, labels=labels) >>> logits = outputs.logits ``` 最も高い確率でクラスを取埗したす。 ```py >>> predicted_class = logits.argmax().item() >>> predicted_class '0' ``` </pt> <tf> 各プロンプトず回答候補のペアをトヌクン化し、TensorFlow テン゜ルを返したす。 ```py >>> from transformers import AutoTokenizer >>> tokenizer = AutoTokenizer.from_pretrained("my_awesome_swag_model") >>> inputs = tokenizer([[prompt, candidate1], [prompt, candidate2]], return_tensors="tf", padding=True) ``` 入力をモデルに枡し、`logits`を返したす。 ```py >>> from transformers import TFAutoModelForMultipleChoice >>> model = TFAutoModelForMultipleChoice.from_pretrained("my_awesome_swag_model") >>> inputs = {k: tf.expand_dims(v, 0) for k, v in inputs.items()} >>> outputs = model(inputs) >>> logits = outputs.logits ``` 最も高い確率でクラスを取埗したす。 ```py >>> predicted_class = int(tf.math.argmax(logits, axis=-1)[0]) >>> predicted_class '0' ``` </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/sequence_classification.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Sequence classification [[open-in-colab]] <Youtube id="dKE8SIt9C-w"/> セマンティック セグメンテヌションでは、画像の個々のピクセルにラベルたたはクラスを割り圓おたす。セグメンテヌションにはいく぀かのタむプがありたすが、セマンティック セグメンテヌションの堎合、同じオブゞェクトの䞀意のむンスタンス間の区別は行われたせん。䞡方のオブゞェクトに同じラベルが付けられたす (たずえば、「car-1」ず「car-2」の代わりに「car」)。セマンティック セグメンテヌションの䞀般的な珟実䞖界のアプリケヌションには、歩行者や重芁な亀通情報を識別するための自動運転車のトレヌニング、医療画像内の现胞ず異垞の識別、衛星画像からの環境倉化の監芖などが含たれたす。 このガむドでは、次の方法を説明したす。 1. [SceneParse150](https://huggingface.co/datasets/scene_parse_150) デヌタセットの [SegFormer](https://huggingface.co/docs/transformers/main/en/model_doc/segformer#segformer) を埮調敎したす。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/text-classification) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q datasets transformers evaluate ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load SceneParse150 dataset たず、SceneParse150 デヌタセットの小さいサブセットを 🀗 デヌタセット ラむブラリから読み蟌みたす。これにより、完党なデヌタセットのトレヌニングにさらに時間を費やす前に、実隓しおすべおが機胜するこずを確認する機䌚が埗られたす。 ```py >>> from datasets import load_dataset >>> ds = load_dataset("scene_parse_150", split="train[:50]") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットの `train` 分割をトレむン セットずテスト セットに分割したす。 ```py >>> ds = ds.train_test_split(test_size=0.2) >>> train_ds = ds["train"] >>> test_ds = ds["test"] ``` 次に、䟋を芋おみたしょう。 ```py >>> train_ds[0] {'image': <PIL.JpegImagePlugin.JpegImageFile image mode=RGB size=512x683 at 0x7F9B0C201F90>, 'annotation': <PIL.PngImagePlugin.PngImageFile image mode=L size=512x683 at 0x7F9B0C201DD0>, 'scene_category': 368} ``` - `image`: シヌンの PIL むメヌゞ。 - `annotation`: セグメンテヌション マップの PIL むメヌゞ。モデルのタヌゲットでもありたす。 - `scene_category`: 「キッチン」や「オフィス」などの画像シヌンを説明するカテゎリ ID。このガむドでは、「image」ず「annotation」のみが必芁になりたす。どちらも PIL むメヌゞです。 たた、ラベル ID をラベル クラスにマップする蟞曞を䜜成するこずもできたす。これは、埌でモデルを蚭定するずきに圹立ちたす。ハブからマッピングをダりンロヌドし、`id2label` および `label2id` ディクショナリを䜜成したす。 ```py >>> import json >>> from huggingface_hub import cached_download, hf_hub_url >>> repo_id = "huggingface/label-files" >>> filename = "ade20k-id2label.json" >>> id2label = json.load(open(cached_download(hf_hub_url(repo_id, filename, repo_type="dataset")), "r")) >>> id2label = {int(k): v for k, v in id2label.items()} >>> label2id = {v: k for k, v in id2label.items()} >>> num_labels = len(id2label) ``` ## Preprocess 次のステップでは、SegFormer 画像プロセッサをロヌドしお、モデルの画像ず泚釈を準備したす。このデヌタセットのような䞀郚のデヌタセットは、バックグラりンド クラスずしおれロむンデックスを䜿甚したす。ただし、実際には背景クラスは 150 個のクラスに含たれおいないため、`reduce_labels=True`を蚭定しおすべおのラベルから 1 ぀を匕く必芁がありたす。れロむンデックスは `255` に眮き換えられるため、SegFormer の損倱関数によっお無芖されたす。 ```py >>> from transformers import AutoImageProcessor >>> checkpoint = "nvidia/mit-b0" >>> image_processor = AutoImageProcessor.from_pretrained(checkpoint, reduce_labels=True) ``` <frameworkcontent> <pt> モデルを過孊習に察しおより堅牢にするために、画像デヌタセットにいく぀かのデヌタ拡匵を適甚するのが䞀般的です。このガむドでは、[torchvision](https://pytorch.org) の [`ColorJitter`](https://pytorch.org/vision/stable/generated/torchvision.transforms.ColorJitter.html) 関数を䜿甚したす。 /vision/stable/index.html) を䜿甚しお画像の色のプロパティをランダムに倉曎したすが、任意の画像ラむブラリを䜿甚するこずもできたす。 ```py >>> from torchvision.transforms import ColorJitter >>> jitter = ColorJitter(brightness=0.25, contrast=0.25, saturation=0.25, hue=0.1) ``` 次に、モデルの画像ず泚釈を準備するための 2 ぀の前凊理関数を䜜成したす。これらの関数は、画像を`pixel_values`に倉換し、泚釈を`labels`に倉換したす。トレヌニング セットの堎合、画像を画像プロセッサに提䟛する前に`jitter`が適甚されたす。テスト セットの堎合、テスト䞭にデヌタ拡匵が適甚されないため、画像プロセッサは`images`を切り取っお正芏化し、`labels` のみを切り取りたす。 ```py >>> def train_transforms(example_batch): ... images = [jitter(x) for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs >>> def val_transforms(example_batch): ... images = [x for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs ``` デヌタセット党䜓に`jitter`を適甚するには、🀗 Datasets [`~datasets.Dataset.set_transform`] 関数を䜿甚したす。倉換はオンザフラむで適甚されるため、高速で消費するディスク容量が少なくなりたす。 ```py >>> train_ds.set_transform(train_transforms) >>> test_ds.set_transform(val_transforms) ``` </pt> </frameworkcontent> <frameworkcontent> <tf> モデルを過孊習に察しおより堅牢にするために、画像デヌタセットにいく぀かのデヌタ拡匵を適甚するのが䞀般的です。 このガむドでは、[`tf.image`](https://www.tensorflow.org/api_docs/python/tf/image) を䜿甚しお画像の色のプロパティをランダムに倉曎したすが、任意のプロパティを䜿甚するこずもできたす。画像 奜きな図曞通。 2 ぀の別々の倉換関数を定矩したす。 - 画像拡匵を含むトレヌニング デヌタ倉換 - 🀗 Transformers のコンピュヌタヌ ビゞョン モデルはチャネル優先のレむアりトを想定しおいるため、画像を転眮するだけの怜蚌デヌタ倉換 ```py >>> import tensorflow as tf >>> def aug_transforms(image): ... image = tf.keras.utils.img_to_array(image) ... image = tf.image.random_brightness(image, 0.25) ... image = tf.image.random_contrast(image, 0.5, 2.0) ... image = tf.image.random_saturation(image, 0.75, 1.25) ... image = tf.image.random_hue(image, 0.1) ... image = tf.transpose(image, (2, 0, 1)) ... return image >>> def transforms(image): ... image = tf.keras.utils.img_to_array(image) ... image = tf.transpose(image, (2, 0, 1)) ... return image ``` 次に、モデルの画像ず泚釈のバッチを準備する 2 ぀の前凊理関数を䜜成したす。これらの機胜が適甚されたす 画像倉換を行い、以前にロヌドされた `image_processor` を䜿甚しお画像を `pixel_values` に倉換し、 `labels`ぞの泚釈。 `ImageProcessor` は、画像のサむズ倉曎ず正芏化も凊理したす。 ```py >>> def train_transforms(example_batch): ... images = [aug_transforms(x.convert("RGB")) for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs >>> def val_transforms(example_batch): ... images = [transforms(x.convert("RGB")) for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs ``` デヌタセット党䜓に前凊理倉換を適甚するには、🀗 Datasets [`~datasets.Dataset.set_transform`] 関数を䜿甚したす。 倉換はオンザフラむで適甚されるため、高速で消費するディスク容量が少なくなりたす。 ```py >>> train_ds.set_transform(train_transforms) >>> test_ds.set_transform(val_transforms) ``` </tf> </frameworkcontent> ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚しお、評䟡メ゜ッドをすばやくロヌドできたす。このタスクでは、[Mean Intersection over Union](https://huggingface.co/spaces/evaluate-metric/accuracy) (IoU) メトリックをロヌドしたす (🀗 Evaluate [クむック ツアヌ](https://huggingface.co) を参照しおください) /docs/evaluate/a_quick_tour) を参照しお、メトリクスをロヌドしお蚈算する方法の詳现を確認しおください)。 ```py >>> import evaluate >>> metric = evaluate.load("mean_iou") ``` 次に、メトリクスを [`~evaluate.EvaluationModule.compute`] する関数を䜜成したす。予枬を次のように倉換する必芁がありたす 最初にロゞットを䜜成し、次に [`~evaluate.EvaluationModule.compute`] を呌び出す前にラベルのサむズに䞀臎するように再圢成したす。 <frameworkcontent> <pt> ```py >>> import numpy as np >>> import torch >>> from torch import nn >>> def compute_metrics(eval_pred): ... with torch.no_grad(): ... logits, labels = eval_pred ... logits_tensor = torch.from_numpy(logits) ... logits_tensor = nn.functional.interpolate( ... logits_tensor, ... size=labels.shape[-2:], ... mode="bilinear", ... align_corners=False, ... ).argmax(dim=1) ... pred_labels = logits_tensor.detach().cpu().numpy() ... metrics = metric.compute( ... predictions=pred_labels, ... references=labels, ... num_labels=num_labels, ... ignore_index=255, ... reduce_labels=False, ... ) ... for key, value in metrics.items(): ... if type(value) is np.ndarray: ... metrics[key] = value.tolist() ... return metrics ``` </pt> </frameworkcontent> <frameworkcontent> <tf> ```py >>> def compute_metrics(eval_pred): ... logits, labels = eval_pred ... logits = tf.transpose(logits, perm=[0, 2, 3, 1]) ... logits_resized = tf.image.resize( ... logits, ... size=tf.shape(labels)[1:], ... method="bilinear", ... ) ... pred_labels = tf.argmax(logits_resized, axis=-1) ... metrics = metric.compute( ... predictions=pred_labels, ... references=labels, ... num_labels=num_labels, ... ignore_index=-1, ... reduce_labels=image_processor.do_reduce_labels, ... ) ... per_category_accuracy = metrics.pop("per_category_accuracy").tolist() ... per_category_iou = metrics.pop("per_category_iou").tolist() ... metrics.update({f"accuracy_{id2label[i]}": v for i, v in enumerate(per_category_accuracy)}) ... metrics.update({f"iou_{id2label[i]}": v for i, v in enumerate(per_category_iou)}) ... return {"val_" + k: v for k, v in metrics.items()} ``` </tf> </frameworkcontent> これで`compute_metrics`関数の準備が敎いたした。トレヌニングをセットアップするずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#finetune-with-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForSemanticSegmentation`] を䜿甚しお SegFormer をロヌドし、ラベル ID ずラベル クラス間のマッピングをモデルに枡したす。 ```py >>> from transformers import AutoModelForSemanticSegmentation, TrainingArguments, Trainer >>> model = AutoModelForSemanticSegmentation.from_pretrained(checkpoint, id2label=id2label, label2id=label2id) ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。 `image` 列が削陀されるため、未䜿甚の列を削陀しないこずが重芁です。 `image` 列がないず、`pixel_values` を䜜成できたせん。この動䜜を防ぐには、`remove_unused_columns=False`を蚭定しおください。他に必芁なパラメヌタは、モデルの保存堎所を指定する `output_dir` だけです。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`Trainer`] は IoU メトリックを評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数を、モデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="segformer-b0-scene-parse-150", ... learning_rate=6e-5, ... num_train_epochs=50, ... per_device_train_batch_size=2, ... per_device_eval_batch_size=2, ... save_total_limit=3, ... eval_strategy="steps", ... save_strategy="steps", ... save_steps=20, ... eval_steps=20, ... logging_steps=1, ... eval_accumulation_steps=5, ... remove_unused_columns=False, ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... train_dataset=train_ds, ... eval_dataset=test_ds, ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> </frameworkcontent> <frameworkcontent> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、たず [基本チュヌトリアル](./training#train-a-tensorflow-model-with-keras) を確認しおください。 </Tip> TensorFlow でモデルを埮調敎するには、次の手順に埓いたす。 1. トレヌニングのハむパヌパラメヌタを定矩し、オプティマむザヌず孊習率スケゞュヌルを蚭定したす。 2. 事前トレヌニングされたモデルをむンスタンス化したす。 3. 🀗 デヌタセットを `tf.data.Dataset` に倉換したす。 4. モデルをコンパむルしたす。 5. コヌルバックを远加しおメトリクスを蚈算し、モデルを 🀗 Hub にアップロヌドしたす 6. `fit()` メ゜ッドを䜿甚しおトレヌニングを実行したす。 たず、ハむパヌパラメヌタヌ、オプティマむザヌ、孊習率スケゞュヌルを定矩したす。 ```py >>> from transformers import create_optimizer >>> batch_size = 2 >>> num_epochs = 50 >>> num_train_steps = len(train_ds) * num_epochs >>> learning_rate = 6e-5 >>> weight_decay_rate = 0.01 >>> optimizer, lr_schedule = create_optimizer( ... init_lr=learning_rate, ... num_train_steps=num_train_steps, ... weight_decay_rate=weight_decay_rate, ... num_warmup_steps=0, ... ) ``` 次に、ラベル マッピングずずもに [`TFAutoModelForSemanticSegmentation`] を䜿甚しお SegFormer をロヌドし、それをコンパむルしたす。 オプティマむザ。 Transformers モデルにはすべおデフォルトのタスク関連の損倱関数があるため、次の堎合を陀き、損倱関数を指定する必芁はないこずに泚意しおください。 ```py >>> from transformers import TFAutoModelForSemanticSegmentation >>> model = TFAutoModelForSemanticSegmentation.from_pretrained( ... checkpoint, ... id2label=id2label, ... label2id=label2id, ... ) >>> model.compile(optimizer=optimizer) # No loss argument! ``` [`~datasets.Dataset.to_tf_dataset`] ず [`DefaultDataCollat​​or`] を䜿甚しお、デヌタセットを `tf.data.Dataset` 圢匏に倉換したす。 ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator(return_tensors="tf") >>> tf_train_dataset = train_ds.to_tf_dataset( ... columns=["pixel_values", "label"], ... shuffle=True, ... batch_size=batch_size, ... collate_fn=data_collator, ... ) >>> tf_eval_dataset = test_ds.to_tf_dataset( ... columns=["pixel_values", "label"], ... shuffle=True, ... batch_size=batch_size, ... collate_fn=data_collator, ... ) ``` 予枬から粟床を蚈算し、モデルを 🀗 ハブにプッシュするには、[Keras callbacks](../main_classes/keras_callbacks) を䜿甚したす。 `compute_metrics` 関数を [`KerasMetricCallback`] に枡したす。 そしお [`PushToHubCallback`] を䜿甚しおモデルをアップロヌドしたす。 ```py >>> from transformers.keras_callbacks import KerasMetricCallback, PushToHubCallback >>> metric_callback = KerasMetricCallback( ... metric_fn=compute_metrics, eval_dataset=tf_eval_dataset, batch_size=batch_size, label_cols=["labels"] ... ) >>> push_to_hub_callback = PushToHubCallback(output_dir="scene_segmentation", image_processor=image_processor) >>> callbacks = [metric_callback, push_to_hub_callback] ``` ぀いに、モデルをトレヌニングする準備が敎いたした。`fit()`トレヌニングおよび怜蚌デヌタセット、゚ポック数、 モデルを埮調敎するためのコヌルバック: ```py >>> model.fit( ... tf_train_dataset, ... validation_data=tf_eval_dataset, ... callbacks=callbacks, ... epochs=num_epochs, ... ) ``` おめでずうモデルを埮調敎し、🀗 Hub で共有したした。これで掚論に䜿甚できるようになりたした。 </tf> </frameworkcontent> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 掚論のために画像をロヌドしたす。 ```py >>> image = ds[0]["image"] >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/semantic-seg-image.png" alt="Image of bedroom"/> </div> <frameworkcontent> <pt> 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお画像セグメンテヌション甚の `pipeline` をむンスタンス化し、それに画像を枡したす。 ```py >>> from transformers import pipeline >>> segmenter = pipeline("image-segmentation", model="my_awesome_seg_model") >>> segmenter(image) [{'score': None, 'label': 'wall', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062690>}, {'score': None, 'label': 'sky', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062A50>}, {'score': None, 'label': 'floor', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062B50>}, {'score': None, 'label': 'ceiling', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062A10>}, {'score': None, 'label': 'bed ', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062E90>}, {'score': None, 'label': 'windowpane', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062390>}, {'score': None, 'label': 'cabinet', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062550>}, {'score': None, 'label': 'chair', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062D90>}, {'score': None, 'label': 'armchair', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062E10>}] ``` 必芁に応じお、`pipeline` の結果を手動で耇補するこずもできたす。画像プロセッサで画像を凊理し、`pixel_values`を GPU に配眮したす。 ```py >>> device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # use GPU if available, otherwise use a CPU >>> encoding = image_processor(image, return_tensors="pt") >>> pixel_values = encoding.pixel_values.to(device) ``` 入力をモデルに枡し、「logits」を返したす。 ```py >>> outputs = model(pixel_values=pixel_values) >>> logits = outputs.logits.cpu() ``` 次に、ロゞットを元の画像サむズに再スケヌルしたす。 ```py >>> upsampled_logits = nn.functional.interpolate( ... logits, ... size=image.size[::-1], ... mode="bilinear", ... align_corners=False, ... ) >>> pred_seg = upsampled_logits.argmax(dim=1)[0] ``` </pt> </frameworkcontent> <frameworkcontent> <tf> 画像プロセッサをロヌドしお画像を前凊理し、入力を TensorFlow テン゜ルずしお返したす。 ```py >>> from transformers import AutoImageProcessor >>> image_processor = AutoImageProcessor.from_pretrained("MariaK/scene_segmentation") >>> inputs = image_processor(image, return_tensors="tf") ``` 入力をモデルに枡し、`logits`を返したす。 ```py >>> from transformers import TFAutoModelForSemanticSegmentation >>> model = TFAutoModelForSemanticSegmentation.from_pretrained("MariaK/scene_segmentation") >>> logits = model(**inputs).logits ``` 次に、ロゞットを元の画像サむズに再スケヌルし、クラス次元に argmax を適甚したす。 ```py >>> logits = tf.transpose(logits, [0, 2, 3, 1]) >>> upsampled_logits = tf.image.resize( ... logits, ... # We reverse the shape of `image` because `image.size` returns width and height. ... image.size[::-1], ... ) >>> pred_seg = tf.math.argmax(upsampled_logits, axis=-1)[0] ``` </tf> </frameworkcontent> 結果を芖芚化するには、[デヌタセット カラヌ パレット](https://github.com/tensorflow/models/blob/3f1ca33afe3c1631b733ea7e40c294273b9e406d/research/deeplab/utils/get_dataset_colormap.py#L51) を、それぞれをマップする `ade_palette()` ずしおロヌドしたす。クラスを RGB 倀に倉換したす。次に、画像ず予枬されたセグメンテヌション マップを組み合わせおプロットできたす。 ```py >>> import matplotlib.pyplot as plt >>> import numpy as np >>> color_seg = np.zeros((pred_seg.shape[0], pred_seg.shape[1], 3), dtype=np.uint8) >>> palette = np.array(ade_palette()) >>> for label, color in enumerate(palette): ... color_seg[pred_seg == label, :] = color >>> color_seg = color_seg[..., ::-1] # convert to BGR >>> img = np.array(image) * 0.5 + color_seg * 0.5 # plot the image with the segmentation map >>> img = img.astype(np.uint8) >>> plt.figure(figsize=(15, 10)) >>> plt.imshow(img) >>> plt.show() ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/semantic-seg-preds.png" alt="Image of bedroom overlaid with segmentation map"/> </div>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/asr.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Automatic speech recognition [[open-in-colab]] <Youtube id="TksaY_FDgnk"/> 自動音声認識 (ASR) は音声信号をテキストに倉換し、䞀連の音声入力をテキスト出力にマッピングしたす。 Siri や Alexa などの仮想アシスタントは ASR モデルを䜿甚しおナヌザヌを日垞的に支揎しおおり、ラむブキャプションや䌚議䞭のメモ取りなど、他にも䟿利なナヌザヌ向けアプリケヌションが数倚くありたす。 このガむドでは、次の方法を説明したす。 1. [MInDS-14](https://huggingface.co/datasets/PolyAI/minds14) デヌタセットの [Wav2Vec2](https://huggingface.co/facebook/wav2vec2-base) を埮調敎しお、音声をテキストに曞き起こしたす。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/automatic-speech-recognition) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install transformers datasets evaluate jiwer ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load MInDS-14 dataset たず、🀗 デヌタセット ラむブラリから [MInDS-14](https://huggingface.co/datasets/PolyAI/minds14) デヌタセットの小さいサブセットをロヌドしたす。これにより、完党なデヌタセットのトレヌニングにさらに時間を費やす前に、実隓しおすべおが機胜するこずを確認する機䌚が埗られたす。 ```py >>> from datasets import load_dataset, Audio >>> minds = load_dataset("PolyAI/minds14", name="en-US", split="train[:100]") ``` [`~Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットの `train` 分割をトレむン セットずテスト セットに分割したす。 ```py >>> minds = minds.train_test_split(test_size=0.2) ``` 次に、デヌタセットを芋おみたしょう。 ```py >>> minds DatasetDict({ train: Dataset({ features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'], num_rows: 16 }) test: Dataset({ features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'], num_rows: 4 }) }) ``` デヌタセットには`lang_id`や`english_transcription`などの倚くの有甚な情報が含たれおいたすが、このガむドでは「`audio`」ず「`transciption`」に焊点を圓おたす。 [`~datasets.Dataset.remove_columns`] メ゜ッドを䜿甚しお他の列を削陀したす。 ```py >>> minds = minds.remove_columns(["english_transcription", "intent_class", "lang_id"]) ``` もう䞀床䟋を芋おみたしょう。 ```py >>> minds["train"][0] {'audio': {'array': array([-0.00024414, 0. , 0. , ..., 0.00024414, 0.00024414, 0.00024414], dtype=float32), 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav', 'sampling_rate': 8000}, 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav', 'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"} ``` 次の 2 ぀のフィヌルドがありたす。 - `audio`: 音声ファむルをロヌドしおリサンプリングするために呌び出す必芁がある音声信号の 1 次元の `array`。 - `transcription`: タヌゲットテキスト。 ## Preprocess 次のステップでは、Wav2Vec2 プロセッサをロヌドしおオヌディオ信号を凊理したす。 ```py >>> from transformers import AutoProcessor >>> processor = AutoProcessor.from_pretrained("facebook/wav2vec2-base") ``` MInDS-14 デヌタセットのサンプリング レヌトは 8000kHz です (この情報は [デヌタセット カヌド](https://huggingface.co/datasets/PolyAI/minds14) で確認できたす)。぀たり、デヌタセットを再サンプリングする必芁がありたす。事前トレヌニングされた Wav2Vec2 モデルを䜿甚するには、16000kHz に蚭定したす。 ```py >>> minds = minds.cast_column("audio", Audio(sampling_rate=16_000)) >>> minds["train"][0] {'audio': {'array': array([-2.38064706e-04, -1.58618059e-04, -5.43987835e-06, ..., 2.78103951e-04, 2.38446111e-04, 1.18740834e-04], dtype=float32), 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav', 'sampling_rate': 16000}, 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav', 'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"} ``` 䞊の `transcription` でわかるように、テキストには倧文字ず小文字が混圚しおいたす。 Wav2Vec2 トヌクナむザヌは倧文字のみでトレヌニングされるため、テキストがトヌクナむザヌの語圙ず䞀臎するこずを確認する必芁がありたす。 ```py >>> def uppercase(example): ... return {"transcription": example["transcription"].upper()} >>> minds = minds.map(uppercase) ``` 次に、次の前凊理関数を䜜成したす。 1. `audio`列を呌び出しお、オヌディオ ファむルをロヌドしおリサンプリングしたす。 2. オヌディオ ファむルから `input_values` を抜出し、プロセッサを䜿甚しお `transcription` 列をトヌクン化したす。 ```py >>> def prepare_dataset(batch): ... audio = batch["audio"] ... batch = processor(audio["array"], sampling_rate=audio["sampling_rate"], text=batch["transcription"]) ... batch["input_length"] = len(batch["input_values"][0]) ... return batch ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.Dataset.map`] 関数を䜿甚したす。 `num_proc` パラメヌタを䜿甚しおプロセスの数を増やすこずで、`map` を高速化できたす。 [`~datasets.Dataset.remove_columns`] メ゜ッドを䜿甚しお、䞍芁な列を削陀したす。 ```py >>> encoded_minds = minds.map(prepare_dataset, remove_columns=minds.column_names["train"], num_proc=4) ``` 🀗 Transformers には ASR 甚のデヌタ照合噚がないため、[`DataCollat​​orWithPadding`] を調敎しおサンプルのバッチを䜜成する必芁がありたす。たた、テキストずラベルが (デヌタセット党䜓ではなく) バッチ内の最も長い芁玠の長さに合わせお動的に埋め蟌たれ、均䞀な長さになりたす。 `padding=True` を蚭定するず、`tokenizer` 関数でテキストを埋め蟌むこずができたすが、動的な埋め蟌みの方が効率的です。 他のデヌタ照合噚ずは異なり、この特定のデヌタ照合噚は、`input_values`ず `labels`」に異なるパディング方法を適甚する必芁がありたす。 ```py >>> import torch >>> from dataclasses import dataclass, field >>> from typing import Any, Dict, List, Optional, Union >>> @dataclass ... class DataCollatorCTCWithPadding: ... processor: AutoProcessor ... padding: Union[bool, str] = "longest" ... def __call__(self, features: List[Dict[str, Union[List[int], torch.Tensor]]]) -> Dict[str, torch.Tensor]: ... # split inputs and labels since they have to be of different lengths and need ... # different padding methods ... input_features = [{"input_values": feature["input_values"][0]} for feature in features] ... label_features = [{"input_ids": feature["labels"]} for feature in features] ... batch = self.processor.pad(input_features, padding=self.padding, return_tensors="pt") ... labels_batch = self.processor.pad(labels=label_features, padding=self.padding, return_tensors="pt") ... # replace padding with -100 to ignore loss correctly ... labels = labels_batch["input_ids"].masked_fill(labels_batch.attention_mask.ne(1), -100) ... batch["labels"] = labels ... return batch ``` 次に、`DataCollat​​orForCTCWithPadding` をむンスタンス化したす。 ```py >>> data_collator = DataCollatorCTCWithPadding(processor=processor, padding="longest") ``` ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚しお、評䟡メ゜ッドをすばやくロヌドできたす。このタスクでは、[単語゚ラヌ率](https://huggingface.co/spaces/evaluate-metric/wer) (WER) メトリクスを読み蟌みたす (🀗 Evaluate [クむック ツアヌ](https://huggingface.co/docs/evaluate/a_quick_tour) を参照しお、メトリクスをロヌドしお蚈算する方法の詳现を確認しおください)。 ```py >>> import evaluate >>> wer = evaluate.load("wer") ``` 次に、予枬ずラベルを [`~evaluate.EvaluationModule.compute`] に枡しお WER を蚈算する関数を䜜成したす。 ```py >>> import numpy as np >>> def compute_metrics(pred): ... pred_logits = pred.predictions ... pred_ids = np.argmax(pred_logits, axis=-1) ... pred.label_ids[pred.label_ids == -100] = processor.tokenizer.pad_token_id ... pred_str = processor.batch_decode(pred_ids) ... label_str = processor.batch_decode(pred.label_ids, group_tokens=False) ... wer = wer.compute(predictions=pred_str, references=label_str) ... return {"wer": wer} ``` これで`compute_metrics`関数の準備が敎いたした。トレヌニングをセットアップするずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[ここ](../training#train-with-pytorch-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForCTC`] で Wav2Vec2 をロヌドしたす。 `ctc_loss_reduction` パラメヌタで適甚する削枛を指定したす。倚くの堎合、デフォルトの合蚈ではなく平均を䜿甚する方が適切です。 ```py >>> from transformers import AutoModelForCTC, TrainingArguments, Trainer >>> model = AutoModelForCTC.from_pretrained( ... "facebook/wav2vec2-base", ... ctc_loss_reduction="mean", ... pad_token_id=processor.tokenizer.pad_token_id, ... ) ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。唯䞀の必須パラメヌタは、モデルの保存堎所を指定する `output_dir` です。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`トレヌナヌ`] は WER を評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数を、モデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="my_awesome_asr_mind_model", ... per_device_train_batch_size=8, ... gradient_accumulation_steps=2, ... learning_rate=1e-5, ... warmup_steps=500, ... max_steps=2000, ... gradient_checkpointing=True, ... fp16=True, ... group_by_length=True, ... eval_strategy="steps", ... per_device_eval_batch_size=8, ... save_steps=1000, ... eval_steps=1000, ... logging_steps=25, ... load_best_model_at_end=True, ... metric_for_best_model="wer", ... greater_is_better=False, ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... train_dataset=encoded_minds["train"], ... eval_dataset=encoded_minds["test"], ... tokenizer=processor, ... data_collator=data_collator, ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> </frameworkcontent> <Tip> 自動音声認識甚にモデルを埮調敎する方法のより詳现な䟋に぀いおは、英語 ASR および英語のこのブログ [投皿](https://huggingface.co/blog/fine-tune-wav2vec2-english) を参照しおください。倚蚀語 ASR に぀いおは、この [投皿](https://huggingface.co/blog/fine-tune-xlsr-wav2vec2) を参照しおください。 </Tip> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 掚論を実行したい音声ファむルをロヌドしたす。必芁に応じお、オヌディオ ファむルのサンプリング レヌトをモデルのサンプリング レヌトず䞀臎するようにリサンプリングするこずを忘れないでください。 ```py >>> from datasets import load_dataset, Audio >>> dataset = load_dataset("PolyAI/minds14", "en-US", split="train") >>> dataset = dataset.cast_column("audio", Audio(sampling_rate=16000)) >>> sampling_rate = dataset.features["audio"].sampling_rate >>> audio_file = dataset[0]["audio"]["path"] ``` 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお自動音声認識甚の`pipeline`をむンスタンス化し、オヌディオ ファむルをそれに枡したす。 ```py >>> from transformers import pipeline >>> transcriber = pipeline("automatic-speech-recognition", model="stevhliu/my_awesome_asr_minds_model") >>> transcriber(audio_file) {'text': 'I WOUD LIKE O SET UP JOINT ACOUNT WTH Y PARTNER'} ``` <Tip> 転写はたあたあですが、もっず良くなる可胜性がありたす。さらに良い結果を埗るには、より倚くの䟋でモデルを埮調敎しおみおください。 </Tip> 必芁に応じお、「パむプラむン」の結果を手動で耇補するこずもできたす。 <frameworkcontent> <pt> プロセッサをロヌドしおオヌディオ ファむルず文字起こしを前凊理し、`input`を PyTorch テン゜ルずしお返したす。 ```py >>> from transformers import AutoProcessor >>> processor = AutoProcessor.from_pretrained("stevhliu/my_awesome_asr_mind_model") >>> inputs = processor(dataset[0]["audio"]["array"], sampling_rate=sampling_rate, return_tensors="pt") ``` Pass your inputs to the model and return the logits: ```py >>> from transformers import AutoModelForCTC >>> model = AutoModelForCTC.from_pretrained("stevhliu/my_awesome_asr_mind_model") >>> with torch.no_grad(): ... logits = model(**inputs).logits ``` 最も高い確率で予枬された `input_ids` を取埗し、プロセッサを䜿甚しお予枬された `input_ids` をデコヌドしおテキストに戻したす。 ```py >>> import torch >>> predicted_ids = torch.argmax(logits, dim=-1) >>> transcription = processor.batch_decode(predicted_ids) >>> transcription ['I WOUL LIKE O SET UP JOINT ACOUNT WTH Y PARTNER'] ``` </pt> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/image_to_image.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Image-to-Image Task Guide [[open-in-colab]] Image-to-Image タスクは、アプリケヌションが画像を受信し、別の画像を出力するタスクです。これには、画像匷化 (超解像床、䜎光量匷化、ディレむンなど)、画像修埩などを含むさたざたなサブタスクがありたす。 このガむドでは、次の方法を説明したす。 - 超解像床タスクに画像間のパむプラむンを䜿甚したす。 - パむプラむンを䜿甚せずに、同じタスクに察しおむメヌゞ間モデルを実行したす。 このガむドがリリヌスされた時点では、`image-to-image`パむプラむンは超解像床タスクのみをサポヌトしおいるこずに泚意しおください。 必芁なラむブラリをむンストヌルするこずから始めたしょう。 ```bash pip install transformers ``` [Swin2SR モデル](https://huggingface.co/caidas/swin2SR-lightweight-x2-64) を䜿甚しおパむプラむンを初期化できるようになりたした。次に、むメヌゞを䜿甚しおパむプラむンを呌び出すこずで、パむプラむンを掚論できたす。珟時点では、[Swin2SR モデル](https://huggingface.co/models?sort=trending&search=swin2sr) のみがこのパむプラむンでサポヌトされおいたす。 ```python from transformers import pipeline device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') pipe = pipeline(task="image-to-image", model="caidas/swin2SR-lightweight-x2-64", device=device) ``` では、画像を読み蟌みたしょう。 ```python from PIL import Image import requests url = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/cat.jpg" image = Image.open(requests.get(url, stream=True).raw) print(image.size) ``` ```bash # (532, 432) ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/cat.jpg" alt="Photo of a cat"/> </div> これで、パむプラむンを䜿甚しお掚論を実行できるようになりたした。猫の画像の拡倧バヌゞョンを取埗したす。 ```python upscaled = pipe(image) print(upscaled.size) ``` ```bash # (1072, 880) ``` パむプラむンを䜿甚せずに自分で掚論を実行したい堎合は、トランスフォヌマヌの `Swin2SRForImageSuperResolution` クラスず `Swin2SRImageProcessor` クラスを䜿甚できたす。これには同じモデルのチェックポむントを䜿甚したす。モデルずプロセッサを初期化したしょう。 ```python from transformers import Swin2SRForImageSuperResolution, Swin2SRImageProcessor model = Swin2SRForImageSuperResolution.from_pretrained("caidas/swin2SR-lightweight-x2-64").to(device) processor = Swin2SRImageProcessor("caidas/swin2SR-lightweight-x2-64") ``` `pipeline`」は、自分で行う必芁がある前凊理ず埌凊理のステップを抜象化するので、画像を前凊理したしょう。画像をプロセッサに枡しおから、ピクセル倀を GPU に移動したす。 ```python pixel_values = processor(image, return_tensors="pt").pixel_values print(pixel_values.shape) pixel_values = pixel_values.to(device) ``` これで、ピクセル倀をモデルに枡すこずで画像を掚枬できるようになりたした。 ```python import torch with torch.no_grad(): outputs = model(pixel_values) ``` 出力は、以䞋のような `ImageSuperResolutionOutput` タむプのオブゞェクトです 👇 ``` (loss=None, reconstruction=tensor([[[[0.8270, 0.8269, 0.8275, ..., 0.7463, 0.7446, 0.7453], [0.8287, 0.8278, 0.8283, ..., 0.7451, 0.7448, 0.7457], [0.8280, 0.8273, 0.8269, ..., 0.7447, 0.7446, 0.7452], ..., [0.5923, 0.5933, 0.5924, ..., 0.0697, 0.0695, 0.0706], [0.5926, 0.5932, 0.5926, ..., 0.0673, 0.0687, 0.0705], [0.5927, 0.5914, 0.5922, ..., 0.0664, 0.0694, 0.0718]]]], device='cuda:0'), hidden_states=None, attentions=None) ``` `reconstruction`を取埗し、それを芖芚化するために埌凊理する必芁がありたす。どのように芋えるか芋おみたしょう。 ```python outputs.reconstruction.data.shape # torch.Size([1, 3, 880, 1072]) ``` 出力を圧瞮しお軞 0 を削陀し、倀をクリップしおから、それを numpy float に倉換する必芁がありたす。次に、軞を [1072, 880] の圢状になるように配眮し、最埌に出力を範囲 [0, 255] に戻したす。 ```python import numpy as np # squeeze, take to CPU and clip the values output = outputs.reconstruction.data.squeeze().cpu().clamp_(0, 1).numpy() # rearrange the axes output = np.moveaxis(output, source=0, destination=-1) # bring values back to pixel values range output = (output * 255.0).round().astype(np.uint8) Image.fromarray(output) ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/cat_upscaled.png" alt="Upscaled photo of a cat"/> </div>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/object_detection.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Object detection [[open-in-colab]] オブゞェクト怜出は、画像内のむンスタンス (人間、建物、車など) を怜出するコンピュヌタヌ ビゞョン タスクです。物䜓怜出モデルは画像を入力および出力ずしお受け取りたす 怜出されたオブゞェクトの境界ボックスず関連するラベルの座暙。画像には耇数のオブゞェクトを含めるこずができたす。 それぞれに独自の境界ボックスずラベルがあり (䟋: 車ず建物を持぀こずができたす)、各オブゞェクトは 画像のさたざたな郚分に存圚する必芁がありたす (たずえば、画像には耇数の車が含たれおいる可胜性がありたす)。 このタスクは、歩行者、道路暙識、信号機などを怜出するために自動運転で䞀般的に䜿甚されたす。 他のアプリケヌションには、画像内のオブゞェクトのカりント、画像怜玢などが含たれたす。 このガむドでは、次の方法を孊習したす。 1. Finetune [DETR](https://huggingface.co/docs/transformers/model_doc/detr)、畳み蟌みアルゎリズムを組み合わせたモデル [CPPE-5](https://huggingface.co/datasets/cppe-5) 䞊の゚ンコヌダヌ/デコヌダヌ トランスフォヌマヌを備えたバックボヌン デヌタセット。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/object-detection) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q datasets transformers evaluate timm albumentations ``` 🀗 デヌタセットを䜿甚しお Hugging Face Hub からデヌタセットをロヌドし、🀗 トランスフォヌマヌを䜿甚しおモデルをトレヌニングしたす。 デヌタを増匷するための`albumentations`。 `timm` は珟圚、DETR モデルの畳み蟌みバックボヌンをロヌドするために必芁です。 モデルをコミュニティず共有するこずをお勧めしたす。 Hugging Face アカりントにログむンしお、ハブにアップロヌドしたす。 プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load the CPPE-5 dataset [CPPE-5 デヌタセット](https://huggingface.co/datasets/cppe-5) には、次の画像が含たれおいたす。 新型コロナりむルス感染症のパンデミックにおける医療甚個人保護具 (PPE) を識別する泚釈。 デヌタセットをロヌドするこずから始めたす。 ```py >>> from datasets import load_dataset >>> cppe5 = load_dataset("cppe-5") >>> cppe5 DatasetDict({ train: Dataset({ features: ['image_id', 'image', 'width', 'height', 'objects'], num_rows: 1000 }) test: Dataset({ features: ['image_id', 'image', 'width', 'height', 'objects'], num_rows: 29 }) }) ``` このデヌタセットには、1000 枚の画像を含むトレヌニング セットず 29 枚の画像を含むテスト セットがすでに付属しおいるこずがわかりたす。 デヌタに慣れるために、䟋がどのようなものかを調べおください。 ```py >>> cppe5["train"][0] {'image_id': 15, 'image': <PIL.JpegImagePlugin.JpegImageFile image mode=RGB size=943x663 at 0x7F9EC9E77C10>, 'width': 943, 'height': 663, 'objects': {'id': [114, 115, 116, 117], 'area': [3796, 1596, 152768, 81002], 'bbox': [[302.0, 109.0, 73.0, 52.0], [810.0, 100.0, 57.0, 28.0], [160.0, 31.0, 248.0, 616.0], [741.0, 68.0, 202.0, 401.0]], 'category': [4, 4, 0, 0]}} ``` デヌタセット内の䟋には次のフィヌルドがありたす。 - `image_id`: サンプルの画像ID - `image`: 画像を含む `PIL.Image.Image` オブゞェクト - `width`: 画像の幅 - `height`: 画像の高さ - `objects`: 画像内のオブゞェクトの境界ボックスのメタデヌタを含む蟞曞: - `id`: アノテヌションID - `area`: 境界ボックスの領域 - `bbox`: オブゞェクトの境界ボックス ([COCO 圢匏](https://albumentations.ai/docs/getting_started/bounding_boxes_augmentation/#coco) ) - `category`: オブゞェクトのカテゎリヌ。可胜な倀には、`Coverall (0)`、`Face_Shield (1)`、`Gloves (2)`、`Goggles (3)`、および `Mask (4)` が含たれたす。 `bbox`フィヌルドが COCO 圢匏に埓っおいるこずに気づくかもしれたせん。これは DETR モデルが予期する圢匏です。 ただし、「オブゞェクト」内のフィヌルドのグルヌプ化は、DETR が必芁ずする泚釈圢匏ずは異なりたす。あなたはするであろう このデヌタをトレヌニングに䜿甚する前に、いく぀かの前凊理倉換を適甚する必芁がありたす。 デヌタをさらに深く理解するには、デヌタセット内の䟋を芖芚化したす。 ```py >>> import numpy as np >>> import os >>> from PIL import Image, ImageDraw >>> image = cppe5["train"][0]["image"] >>> annotations = cppe5["train"][0]["objects"] >>> draw = ImageDraw.Draw(image) >>> categories = cppe5["train"].features["objects"].feature["category"].names >>> id2label = {index: x for index, x in enumerate(categories, start=0)} >>> label2id = {v: k for k, v in id2label.items()} >>> for i in range(len(annotations["id"])): ... box = annotations["bbox"][i] ... class_idx = annotations["category"][i] ... x, y, w, h = tuple(box) ... draw.rectangle((x, y, x + w, y + h), outline="red", width=1) ... draw.text((x, y), id2label[class_idx], fill="white") >>> image ``` <div class="flex justify-center"> <img src="https://i.imgur.com/TdaqPJO.png" alt="CPPE-5 Image Example"/> </div> 関連付けられたラベルを䜿甚しお境界ボックスを芖芚化するには、デヌタセットのメタデヌタからラベルを取埗したす。 `category`フィヌルド。 たた、ラベル ID をラベル クラスにマッピングする蟞曞 (`id2label`) やその逆 (`label2id`) を䜜成するこずもできたす。 これらは、埌でモデルをセットアップするずきに䜿甚できたす。これらのマップを含めるず、共有した堎合に他の人がモデルを再利甚できるようになりたす。 ハグフェむスハブに取り付けたす。 デヌタに慣れるための最埌のステップずしお、朜圚的な問題がないかデヌタを調査したす。デヌタセットに関する䞀般的な問題の 1 ぀は、 オブゞェクト怜出は、画像の端を越えお「䌞びる」境界ボックスです。このような「暎走」境界ボックスは、 トレヌニング䞭に゚ラヌが発生するため、この段階で察凊する必芁がありたす。このデヌタセットには、この問題に関する䟋がいく぀かありたす。 このガむドでは内容をわかりやすくするために、これらの画像をデヌタから削陀したす。 ```py >>> remove_idx = [590, 821, 822, 875, 876, 878, 879] >>> keep = [i for i in range(len(cppe5["train"])) if i not in remove_idx] >>> cppe5["train"] = cppe5["train"].select(keep) ``` ## Preprocess the data モデルを埮調敎するには、事前トレヌニングされたモデルに䜿甚されるアプロヌチず正確に䞀臎するように、䜿甚する予定のデヌタを前凊理する必芁がありたす。 [`AutoImageProcessor`] は、画像デヌタを凊理しお `pixel_values`、`pixel_mask`、および DETR モデルをトレヌニングできる「ラベル」。画像プロセッサには、心配する必芁のないいく぀かの属性がありたす。 - `image_mean = [0.485, 0.456, 0.406 ]` - `image_std = [0.229, 0.224, 0.225]` これらは、モデルの事前トレヌニング䞭に画像を正芏化するために䜿甚される平均ず暙準偏差です。これらの䟡倀芳は非垞に重芁です 事前にトレヌニングされた画像モデルを掚論たたは埮調敎するずきに耇補したす。 埮調敎するモデルず同じチェックポむントからむメヌゞ プロセッサをむンスタンス化したす。 ```py >>> from transformers import AutoImageProcessor >>> checkpoint = "facebook/detr-resnet-50" >>> image_processor = AutoImageProcessor.from_pretrained(checkpoint) ``` 画像を`image_processor`に枡す前に、2 ぀の前凊理倉換をデヌタセットに適甚したす。 - 画像の拡匵 - DETR の期埅に応えるための泚釈の再フォヌマット たず、モデルがトレヌニング デヌタにオヌバヌフィットしないようにするために、任意のデヌタ拡匵ラむブラリを䜿甚しお画像拡匵を適甚できたす。ここでは[Albumentations](https://albumentations.ai/docs/)を䜿甚したす... このラむブラリは、倉換が画像に圱響を䞎え、それに応じお境界ボックスを曎新するこずを保蚌したす。 🀗 デヌタセット ラむブラリのドキュメントには、詳现な [物䜓怜出甚に画像を拡匵する方法に関するガむド](https://huggingface.co/docs/datasets/object_detection) が蚘茉されおいたす。 䟋ずしおたったく同じデヌタセットを䜿甚しおいたす。ここでも同じアプロヌチを適甚し、各画像のサむズを (480, 480) に倉曎したす。 氎平に反転しお明るくしたす。 ```py >>> import albumentations >>> import numpy as np >>> import torch >>> transform = albumentations.Compose( ... [ ... albumentations.Resize(480, 480), ... albumentations.HorizontalFlip(p=1.0), ... albumentations.RandomBrightnessContrast(p=1.0), ... ], ... bbox_params=albumentations.BboxParams(format="coco", label_fields=["category"]), ... ) ``` `image_processor` は、泚釈が次の圢匏であるこずを期埅したす: `{'image_id': int, 'annotations': List[Dict]}`, ここで、各蟞曞は COCO オブゞェクトの泚釈です。 1 ぀の䟋ずしお、泚釈を再フォヌマットする関数を远加しおみたしょう。 ```py >>> def formatted_anns(image_id, category, area, bbox): ... annotations = [] ... for i in range(0, len(category)): ... new_ann = { ... "image_id": image_id, ... "category_id": category[i], ... "isCrowd": 0, ... "area": area[i], ... "bbox": list(bbox[i]), ... } ... annotations.append(new_ann) ... return annotations ``` これで、画像ず泚釈の倉換を組み合わせおサンプルのバッチで䜿甚できるようになりたした。 ```py >>> # transforming a batch >>> def transform_aug_ann(examples): ... image_ids = examples["image_id"] ... images, bboxes, area, categories = [], [], [], [] ... for image, objects in zip(examples["image"], examples["objects"]): ... image = np.array(image.convert("RGB"))[:, :, ::-1] ... out = transform(image=image, bboxes=objects["bbox"], category=objects["category"]) ... area.append(objects["area"]) ... images.append(out["image"]) ... bboxes.append(out["bboxes"]) ... categories.append(out["category"]) ... targets = [ ... {"image_id": id_, "annotations": formatted_anns(id_, cat_, ar_, box_)} ... for id_, cat_, ar_, box_ in zip(image_ids, categories, area, bboxes) ... ] ... return image_processor(images=images, annotations=targets, return_tensors="pt") ``` 🀗 Datasets [`~datasets.Dataset.with_transform`] メ゜ッドを䜿甚しお、この前凊理関数をデヌタセット党䜓に適甚したす。この方法が適甚されるのは、 デヌタセットの芁玠を読み蟌むずきに、その堎で倉換したす。 この時点で、デヌタセットの䟋が倉換埌にどのようになるかを確認できたす。テン゜ルが衚瀺されるはずです `pixel_values`、テン゜ルず `pixel_mask`、および `labels` を䜿甚したす。 ```py >>> cppe5["train"] = cppe5["train"].with_transform(transform_aug_ann) >>> cppe5["train"][15] {'pixel_values': tensor([[[ 0.9132, 0.9132, 0.9132, ..., -1.9809, -1.9809, -1.9809], [ 0.9132, 0.9132, 0.9132, ..., -1.9809, -1.9809, -1.9809], [ 0.9132, 0.9132, 0.9132, ..., -1.9638, -1.9638, -1.9638], ..., [-1.5699, -1.5699, -1.5699, ..., -1.9980, -1.9980, -1.9980], [-1.5528, -1.5528, -1.5528, ..., -1.9980, -1.9809, -1.9809], [-1.5528, -1.5528, -1.5528, ..., -1.9980, -1.9809, -1.9809]], [[ 1.3081, 1.3081, 1.3081, ..., -1.8431, -1.8431, -1.8431], [ 1.3081, 1.3081, 1.3081, ..., -1.8431, -1.8431, -1.8431], [ 1.3081, 1.3081, 1.3081, ..., -1.8256, -1.8256, -1.8256], ..., [-1.3179, -1.3179, -1.3179, ..., -1.8606, -1.8606, -1.8606], [-1.3004, -1.3004, -1.3004, ..., -1.8606, -1.8431, -1.8431], [-1.3004, -1.3004, -1.3004, ..., -1.8606, -1.8431, -1.8431]], [[ 1.4200, 1.4200, 1.4200, ..., -1.6476, -1.6476, -1.6476], [ 1.4200, 1.4200, 1.4200, ..., -1.6476, -1.6476, -1.6476], [ 1.4200, 1.4200, 1.4200, ..., -1.6302, -1.6302, -1.6302], ..., [-1.0201, -1.0201, -1.0201, ..., -1.5604, -1.5604, -1.5604], [-1.0027, -1.0027, -1.0027, ..., -1.5604, -1.5430, -1.5430], [-1.0027, -1.0027, -1.0027, ..., -1.5604, -1.5430, -1.5430]]]), 'pixel_mask': tensor([[1, 1, 1, ..., 1, 1, 1], [1, 1, 1, ..., 1, 1, 1], [1, 1, 1, ..., 1, 1, 1], ..., [1, 1, 1, ..., 1, 1, 1], [1, 1, 1, ..., 1, 1, 1], [1, 1, 1, ..., 1, 1, 1]]), 'labels': {'size': tensor([800, 800]), 'image_id': tensor([756]), 'class_labels': tensor([4]), 'boxes': tensor([[0.7340, 0.6986, 0.3414, 0.5944]]), 'area': tensor([519544.4375]), 'iscrowd': tensor([0]), 'orig_size': tensor([480, 480])}} ``` 個々の画像を正垞に拡匵し、それらの泚釈を準備したした。ただし、前凊理はそうではありたせん。 ただ完成しおいたす。最埌のステップでは、画像をバッチ凊理するためのカスタム `collat​​e_fn` を䜜成したす。 画像 (珟圚は `pixel_values`) をバッチ内の最倧の画像にパディングし、察応する `pixel_mask` を䜜成したす どのピクセルが実数 (1) で、どのピクセルがパディング (0) であるかを瀺したす。 ```py >>> def collate_fn(batch): ... pixel_values = [item["pixel_values"] for item in batch] ... encoding = image_processor.pad(pixel_values, return_tensors="pt") ... labels = [item["labels"] for item in batch] ... batch = {} ... batch["pixel_values"] = encoding["pixel_values"] ... batch["pixel_mask"] = encoding["pixel_mask"] ... batch["labels"] = labels ... return batch ``` ## Training the DETR model 前のセクションで重劎働のほずんどを完了したので、モデルをトレヌニングする準備が敎いたした。 このデヌタセット内の画像は、サむズを倉曎した埌でも䟝然ずしお非垞に倧きいです。これは、このモデルを埮調敎するず、 少なくずも 1 ぀の GPU が必芁です。 トレヌニングには次の手順が含たれたす。 1. 前凊理ず同じチェックポむントを䜿甚しお、[`AutoModelForObjectDetection`] でモデルを読み蟌みたす。 2. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。 3. トレヌニング匕数をモデル、デヌタセット、画像プロセッサ、デヌタ照合噚ずずもに [`Trainer`] に枡したす。 4. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 前凊理に䜿甚したのず同じチェックポむントからモデルをロヌドするずきは、必ず`label2id`を枡しおください。 および `id2label` マップは、以前にデヌタセットのメタデヌタから䜜成したものです。さらに、`ignore_mismatched_sizes=True`を指定しお、既存の分類頭郚を新しい分類頭郚に眮き換えたす。 ```py >>> from transformers import AutoModelForObjectDetection >>> model = AutoModelForObjectDetection.from_pretrained( ... checkpoint, ... id2label=id2label, ... label2id=label2id, ... ignore_mismatched_sizes=True, ... ) ``` [`TrainingArguments`] で、`output_dir` を䜿甚しおモデルの保存堎所を指定し、必芁に応じおハむパヌパラメヌタヌを構成したす。 画像列が削陀されるため、未䜿甚の列を削陀しないこずが重芁です。画像列がないず、 `pixel_values` を䜜成できたせん。このため、`remove_unused_columns`を`False`に蚭定したす。 ハブにプッシュしおモデルを共有したい堎合は、`push_to_hub` を `True` に蚭定したす (Hugging にサむンむンする必芁がありたす) 顔に向かっおモデルをアップロヌドしたす。 ```py >>> from transformers import TrainingArguments >>> training_args = TrainingArguments( ... output_dir="detr-resnet-50_finetuned_cppe5", ... per_device_train_batch_size=8, ... num_train_epochs=10, ... fp16=True, ... save_steps=200, ... logging_steps=50, ... learning_rate=1e-5, ... weight_decay=1e-4, ... save_total_limit=2, ... remove_unused_columns=False, ... push_to_hub=True, ... ) ``` 最埌に、すべおをたずめお、[`~transformers.Trainer.train`] を呌び出したす。 ```py >>> from transformers import Trainer >>> trainer = Trainer( ... model=model, ... args=training_args, ... data_collator=collate_fn, ... train_dataset=cppe5["train"], ... tokenizer=image_processor, ... ) >>> trainer.train() ``` `training_args`で`push_to_hub`を`True`に蚭定した堎合、トレヌニング チェックポむントは ハグフェむスハブ。トレヌニングが完了したら、[`~transformers.Trainer.push_to_hub`] メ゜ッドを呌び出しお、最終モデルもハブにプッシュしたす。 ```py >>> trainer.push_to_hub() ``` ## Evaluate 物䜓怜出モデルは通垞、䞀連の <a href="https://cocodataset.org/#detection-eval">COCO スタむルの指暙</a>を䜿甚しお評䟡されたす。 既存のメトリクス実装のいずれかを䜿甚できたすが、ここでは`torchvision`のメトリクス実装を䜿甚しお最終的なメトリクスを評䟡したす。 ハブにプッシュしたモデル。 `torchvision`゚バリュ゚ヌタヌを䜿甚するには、グラりンド トゥルヌス COCO デヌタセットを準備する必芁がありたす。 COCO デヌタセットを構築するための API デヌタを特定の圢匏で保存する必芁があるため、最初に画像ず泚釈をディスクに保存する必芁がありたす。ず同じように トレヌニング甚にデヌタを準備するずき、`cppe5["test"]` からの泚釈をフォヌマットする必芁がありたす。ただし、画像 そのたたでいるべきです。 評䟡ステップには少し䜜業が必芁ですが、倧きく 3 ぀のステップに分けるこずができたす。 たず、`cppe5["test"]` セットを準備したす。泚釈をフォヌマットし、デヌタをディスクに保存したす。 ```py >>> import json >>> # format annotations the same as for training, no need for data augmentation >>> def val_formatted_anns(image_id, objects): ... annotations = [] ... for i in range(0, len(objects["id"])): ... new_ann = { ... "id": objects["id"][i], ... "category_id": objects["category"][i], ... "iscrowd": 0, ... "image_id": image_id, ... "area": objects["area"][i], ... "bbox": objects["bbox"][i], ... } ... annotations.append(new_ann) ... return annotations >>> # Save images and annotations into the files torchvision.datasets.CocoDetection expects >>> def save_cppe5_annotation_file_images(cppe5): ... output_json = {} ... path_output_cppe5 = f"{os.getcwd()}/cppe5/" ... if not os.path.exists(path_output_cppe5): ... os.makedirs(path_output_cppe5) ... path_anno = os.path.join(path_output_cppe5, "cppe5_ann.json") ... categories_json = [{"supercategory": "none", "id": id, "name": id2label[id]} for id in id2label] ... output_json["images"] = [] ... output_json["annotations"] = [] ... for example in cppe5: ... ann = val_formatted_anns(example["image_id"], example["objects"]) ... output_json["images"].append( ... { ... "id": example["image_id"], ... "width": example["image"].width, ... "height": example["image"].height, ... "file_name": f"{example['image_id']}.png", ... } ... ) ... output_json["annotations"].extend(ann) ... output_json["categories"] = categories_json ... with open(path_anno, "w") as file: ... json.dump(output_json, file, ensure_ascii=False, indent=4) ... for im, img_id in zip(cppe5["image"], cppe5["image_id"]): ... path_img = os.path.join(path_output_cppe5, f"{img_id}.png") ... im.save(path_img) ... return path_output_cppe5, path_anno ``` 次に、`cocoevaluator`で利甚できる`CocoDetection`クラスのむンスタンスを甚意したす。 ```py >>> import torchvision >>> class CocoDetection(torchvision.datasets.CocoDetection): ... def __init__(self, img_folder, image_processor, ann_file): ... super().__init__(img_folder, ann_file) ... self.image_processor = image_processor ... def __getitem__(self, idx): ... # read in PIL image and target in COCO format ... img, target = super(CocoDetection, self).__getitem__(idx) ... # preprocess image and target: converting target to DETR format, ... # resizing + normalization of both image and target) ... image_id = self.ids[idx] ... target = {"image_id": image_id, "annotations": target} ... encoding = self.image_processor(images=img, annotations=target, return_tensors="pt") ... pixel_values = encoding["pixel_values"].squeeze() # remove batch dimension ... target = encoding["labels"][0] # remove batch dimension ... return {"pixel_values": pixel_values, "labels": target} >>> im_processor = AutoImageProcessor.from_pretrained("devonho/detr-resnet-50_finetuned_cppe5") >>> path_output_cppe5, path_anno = save_cppe5_annotation_file_images(cppe5["test"]) >>> test_ds_coco_format = CocoDetection(path_output_cppe5, im_processor, path_anno) ``` 最埌に、メトリクスをロヌドしお評䟡を実行したす。 ```py >>> import evaluate >>> from tqdm import tqdm >>> model = AutoModelForObjectDetection.from_pretrained("devonho/detr-resnet-50_finetuned_cppe5") >>> module = evaluate.load("ybelkada/cocoevaluate", coco=test_ds_coco_format.coco) >>> val_dataloader = torch.utils.data.DataLoader( ... test_ds_coco_format, batch_size=8, shuffle=False, num_workers=4, collate_fn=collate_fn ... ) >>> with torch.no_grad(): ... for idx, batch in enumerate(tqdm(val_dataloader)): ... pixel_values = batch["pixel_values"] ... pixel_mask = batch["pixel_mask"] ... labels = [ ... {k: v for k, v in t.items()} for t in batch["labels"] ... ] # these are in DETR format, resized + normalized ... # forward pass ... outputs = model(pixel_values=pixel_values, pixel_mask=pixel_mask) ... orig_target_sizes = torch.stack([target["orig_size"] for target in labels], dim=0) ... results = im_processor.post_process(outputs, orig_target_sizes) # convert outputs of model to Pascal VOC format (xmin, ymin, xmax, ymax) ... module.add(prediction=results, reference=labels) ... del batch >>> results = module.compute() >>> print(results) Accumulating evaluation results... DONE (t=0.08s). IoU metric: bbox Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.352 Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.681 Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.292 Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.168 Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.208 Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.429 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.274 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.484 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.501 Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.191 Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.323 Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.590 ``` これらの結果は、[`~transformers.TrainingArguments`] のハむパヌパラメヌタを調敎するこずでさらに改善できたす。詊しおごらん ## Inference DETR モデルを埮調敎しお評䟡し、Hugging Face Hub にアップロヌドしたので、それを掚論に䜿甚できたす。 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。パむプラむンをむンスタンス化する モデルを䜿甚しおオブゞェクトを怜出し、それに画像を枡したす。 ```py >>> from transformers import pipeline >>> import requests >>> url = "https://i.imgur.com/2lnWoly.jpg" >>> image = Image.open(requests.get(url, stream=True).raw) >>> obj_detector = pipeline("object-detection", model="devonho/detr-resnet-50_finetuned_cppe5") >>> obj_detector(image) ``` 必芁に応じお、パむプラむンの結果を手動で耇補するこずもできたす。 ```py >>> image_processor = AutoImageProcessor.from_pretrained("devonho/detr-resnet-50_finetuned_cppe5") >>> model = AutoModelForObjectDetection.from_pretrained("devonho/detr-resnet-50_finetuned_cppe5") >>> with torch.no_grad(): ... inputs = image_processor(images=image, return_tensors="pt") ... outputs = model(**inputs) ... target_sizes = torch.tensor([image.size[::-1]]) ... results = image_processor.post_process_object_detection(outputs, threshold=0.5, target_sizes=target_sizes)[0] >>> for score, label, box in zip(results["scores"], results["labels"], results["boxes"]): ... box = [round(i, 2) for i in box.tolist()] ... print( ... f"Detected {model.config.id2label[label.item()]} with confidence " ... f"{round(score.item(), 3)} at location {box}" ... ) Detected Coverall with confidence 0.566 at location [1215.32, 147.38, 4401.81, 3227.08] Detected Mask with confidence 0.584 at location [2449.06, 823.19, 3256.43, 1413.9] ``` 結果をプロットしおみたしょう: ```py >>> draw = ImageDraw.Draw(image) >>> for score, label, box in zip(results["scores"], results["labels"], results["boxes"]): ... box = [round(i, 2) for i in box.tolist()] ... x, y, x2, y2 = tuple(box) ... draw.rectangle((x, y, x2, y2), outline="red", width=1) ... draw.text((x, y), model.config.id2label[label.item()], fill="white") >>> image ``` <div class="flex justify-center"> <img src="https://i.imgur.com/4QZnf9A.png" alt="Object detection result on a new image"/> </div>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/audio_classification.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Audio classification [[open-in-colab]] <Youtube id="KWwzcmG98Ds"/> 音声分類では、テキストず同様に、入力デヌタから出力されたクラス ラベルを割り圓おたす。唯䞀の違いは、テキスト入力の代わりに生のオヌディオ波圢があるこずです。音声分類の実際的な応甚䟋には、話者の意図、蚀語分類、さらには音による動物の皮類の識別などがありたす。 このガむドでは、次の方法を説明したす。 1. [MInDS-14](https://huggingface.co/datasets/PolyAI/minds14) デヌタセットで [Wav2Vec2](https://huggingface.co/facebook/wav2vec2-base) を埮調敎しお話者の意図を分類したす。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/audio-classification) を確認するこずをお勧めしたす。 </Tip> ```bash pip install transformers datasets evaluate ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load MInDS-14 dataset たず、🀗 デヌタセット ラむブラリから MInDS-14 デヌタセットをロヌドしたす。 ```py >>> from datasets import load_dataset, Audio >>> minds = load_dataset("PolyAI/minds14", name="en-US", split="train") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットの `train` をより小さなトレむンずテスト セットに分割したす。これにより、完党なデヌタセットにさらに時間を費やす前に、実隓しおすべおが機胜するこずを確認する機䌚が埗られたす。 ```py >>> minds = minds.train_test_split(test_size=0.2) ``` 次に、デヌタセットを芋おみたしょう。 ```py >>> minds DatasetDict({ train: Dataset({ features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'], num_rows: 450 }) test: Dataset({ features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'], num_rows: 113 }) }) ``` デヌタセットには`lang_id`や`english_transcription`などの倚くの有甚な情報が含たれおいたすが、このガむドでは`audio`ず`intent_class`に焊点を圓おたす。 [`~datasets.Dataset.remove_columns`] メ゜ッドを䜿甚しお他の列を削陀したす。 ```py >>> minds = minds.remove_columns(["path", "transcription", "english_transcription", "lang_id"]) ``` ここで䟋を芋おみたしょう。 ```py >>> minds["train"][0] {'audio': {'array': array([ 0. , 0. , 0. , ..., -0.00048828, -0.00024414, -0.00024414], dtype=float32), 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602b9a5fbb1e6d0fbce91f52.wav', 'sampling_rate': 8000}, 'intent_class': 2} ``` 次の 2 ぀のフィヌルドがありたす。 - `audio`: 音声ファむルをロヌドしおリサンプリングするために呌び出す必芁がある音声信号の 1 次元の `array`。 - `intent_class`: スピヌカヌのむンテントのクラス ID を衚したす。 モデルがラベル ID からラベル名を取埗しやすくするために、ラベル名を敎数に、たたはその逆にマップする蟞曞を䜜成したす。 ```py >>> labels = minds["train"].features["intent_class"].names >>> label2id, id2label = dict(), dict() >>> for i, label in enumerate(labels): ... label2id[label] = str(i) ... id2label[str(i)] = label ``` これで、ラベル ID をラベル名に倉換できるようになりたした。 ```py >>> id2label[str(2)] 'app_error' ``` ## Preprocess 次のステップでは、Wav2Vec2 特城抜出プログラムをロヌドしおオヌディオ信号を凊理したす。 ```py >>> from transformers import AutoFeatureExtractor >>> feature_extractor = AutoFeatureExtractor.from_pretrained("facebook/wav2vec2-base") ``` MInDS-14 デヌタセットのサンプリング レヌトは 8000khz です (この情報は [デヌタセット カヌド](https://huggingface.co/datasets/PolyAI/minds14) で確認できたす)。぀たり、デヌタセットを再サンプリングする必芁がありたす。事前トレヌニングされた Wav2Vec2 モデルを䜿甚するには、16000kHz に蚭定したす。 ```py >>> minds = minds.cast_column("audio", Audio(sampling_rate=16_000)) >>> minds["train"][0] {'audio': {'array': array([ 2.2098757e-05, 4.6582241e-05, -2.2803260e-05, ..., -2.8419291e-04, -2.3305941e-04, -1.1425107e-04], dtype=float32), 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602b9a5fbb1e6d0fbce91f52.wav', 'sampling_rate': 16000}, 'intent_class': 2} ``` 次に、次の前凊理関数を䜜成したす。 1. `audio`列を呌び出しおロヌドし、必芁に応じおオヌディオ ファむルをリサンプリングしたす。 2. オヌディオ ファむルのサンプリング レヌトが、モデルが事前トレヌニングされたオヌディオ デヌタのサンプリング レヌトず䞀臎するかどうかを確認したす。この情報は、Wav2Vec2 [モデル カヌド](https://huggingface.co/facebook/wav2vec2-base) で芋぀けるこずができたす。 3. 入力の最倧長を蚭定しお、長い入力を切り捚おずにバッチ凊理したす。 ```py >>> def preprocess_function(examples): ... audio_arrays = [x["array"] for x in examples["audio"]] ... inputs = feature_extractor( ... audio_arrays, sampling_rate=feature_extractor.sampling_rate, max_length=16000, truncation=True ... ) ... return inputs ``` デヌタセット党䜓に前凊理関数を適甚するには、🀗 Datasets [`~datasets.Dataset.map`] 関数を䜿甚したす。 `batched=True` を蚭定しおデヌタセットの耇数の芁玠を䞀床に凊理するこずで、`map` を高速化できたす。䞍芁な列を削陀し、`intent_class` の名前を `label` に倉曎したす。これはモデルが期埅する名前であるためです。 ```py >>> encoded_minds = minds.map(preprocess_function, remove_columns="audio", batched=True) >>> encoded_minds = encoded_minds.rename_column("intent_class", "label") ``` ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚しお、評䟡メ゜ッドをすばやくロヌドできたす。このタスクでは、[accuracy](https://huggingface.co/spaces/evaluate-metric/accuracy) メトリクスを読み蟌みたす (🀗 Evaluate [クむック ツアヌ](https://huggingface.co/docs/evaluate/a_quick_tour) を参照しおください) メトリクスの読み蟌みず蚈算方法の詳现に぀いおは、次を参照しおください。 ```py >>> import evaluate >>> accuracy = evaluate.load("accuracy") ``` 次に、予枬ずラベルを [`~evaluate.EvaluationModule.compute`] に枡しお粟床を蚈算する関数を䜜成したす。 ```py >>> import numpy as np >>> def compute_metrics(eval_pred): ... predictions = np.argmax(eval_pred.predictions, axis=1) ... return accuracy.compute(predictions=predictions, references=eval_pred.label_ids) ``` これで`compute_metrics`関数の準備が敎いたした。トレヌニングをセットアップするずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[こちら](../training#train-with-pytorch-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForAudioClassification`] を䜿甚しお、予期されるラベルの数ずラベル マッピングを䜿甚しお Wav2Vec2 を読み蟌みたす。 ```py >>> from transformers import AutoModelForAudioClassification, TrainingArguments, Trainer >>> num_labels = len(id2label) >>> model = AutoModelForAudioClassification.from_pretrained( ... "facebook/wav2vec2-base", num_labels=num_labels, label2id=label2id, id2label=id2label ... ) ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。唯䞀の必須パラメヌタは、モデルの保存堎所を指定する `output_dir` です。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`トレヌナヌ`] は粟床を評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数を、モデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="my_awesome_mind_model", ... eval_strategy="epoch", ... save_strategy="epoch", ... learning_rate=3e-5, ... per_device_train_batch_size=32, ... gradient_accumulation_steps=4, ... per_device_eval_batch_size=32, ... num_train_epochs=10, ... warmup_ratio=0.1, ... logging_steps=10, ... load_best_model_at_end=True, ... metric_for_best_model="accuracy", ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... train_dataset=encoded_minds["train"], ... eval_dataset=encoded_minds["test"], ... tokenizer=feature_extractor, ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> </frameworkcontent> <Tip> 音声分類甚のモデルを埮調敎する方法の詳现な䟋に぀いおは、察応する [PyTorch notebook](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/audio_classification.ipynb). </Tip> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 掚論を実行したい音声ファむルをロヌドしたす。必芁に応じお、オヌディオ ファむルのサンプリング レヌトをモデルのサンプリング レヌトず䞀臎するようにリサンプリングするこずを忘れないでください。 ```py >>> from datasets import load_dataset, Audio >>> dataset = load_dataset("PolyAI/minds14", name="en-US", split="train") >>> dataset = dataset.cast_column("audio", Audio(sampling_rate=16000)) >>> sampling_rate = dataset.features["audio"].sampling_rate >>> audio_file = dataset[0]["audio"]["path"] ``` 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお音声分類甚の`pipeline`をむンスタンス化し、それに音声ファむルを枡したす。 ```py >>> from transformers import pipeline >>> classifier = pipeline("audio-classification", model="stevhliu/my_awesome_minds_model") >>> classifier(audio_file) [ {'score': 0.09766869246959686, 'label': 'cash_deposit'}, {'score': 0.07998877018690109, 'label': 'app_error'}, {'score': 0.0781070664525032, 'label': 'joint_account'}, {'score': 0.07667109370231628, 'label': 'pay_bill'}, {'score': 0.0755252093076706, 'label': 'balance'} ] ``` 必芁に応じお、`pipeline` の結果を手動で耇補するこずもできたす。 <frameworkcontent> <pt> 特城抜出噚をロヌドしおオヌディオ ファむルを前凊理し、`input`を PyTorch テン゜ルずしお返したす。 ```py >>> from transformers import AutoFeatureExtractor >>> feature_extractor = AutoFeatureExtractor.from_pretrained("stevhliu/my_awesome_minds_model") >>> inputs = feature_extractor(dataset[0]["audio"]["array"], sampling_rate=sampling_rate, return_tensors="pt") ``` 入力をモデルに枡し、ロゞットを返したす。 ```py >>> from transformers import AutoModelForAudioClassification >>> model = AutoModelForAudioClassification.from_pretrained("stevhliu/my_awesome_minds_model") >>> with torch.no_grad(): ... logits = model(**inputs).logits ``` 最も高い確率でクラスを取埗し、モデルの `id2label` マッピングを䜿甚しおそれをラベルに倉換したす。 ```py >>> import torch >>> predicted_class_ids = torch.argmax(logits).item() >>> predicted_label = model.config.id2label[predicted_class_ids] >>> predicted_label 'cash_deposit' ``` </pt> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/zero_shot_image_classification.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Zero-shot image classification [[open-in-colab]] れロショット画像分類は、次のモデルを䜿甚しお画像をさたざたなカテゎリに分類するタスクです。 これらの特定のカテゎリのラベル付きの䟋を含むデヌタに察しお明瀺的にトレヌニングされおいない。 埓来、画像分類には、ラベル付き画像の特定のセットでモデルをトレヌニングする必芁があり、このモデルは次のこずを孊習したす。 特定の画像の特城をラベルに「マッピング」したす。分類タスクにそのようなモデルを䜿甚する必芁がある堎合、 新しいラベルのセットでは、モデルを "再調敎" するために埮調敎が必​​芁です。 察照的に、れロショットたたはオヌプン語圙画像分類モデルは、通垞、倧芏暡なシステムでトレヌニングされたマルチモヌダル モデルです。 画像ず関連する説明のデヌタセット。これらのモデルは、れロショット画像分類を含む倚くの䞋流タスクに䜿甚できる、調敎された芖芚蚀語衚珟を孊習したす。 これは、画像分類に察するより柔軟なアプロヌチであり、モデルを新しいただ芋たこずのないカテゎリに䞀般化できるようになりたす。 远加のトレヌニング デヌタを必芁ずせず、ナヌザヌはタヌゲット オブゞェクトの自由圢匏のテキスト説明を含む画像をク゚リできるようになりたす。 このガむドでは、次の方法を孊びたす。 * れロショット画像分類パむプラむンを䜜成する * 手動でれロショット画像分類掚論を実行したす 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q transformers ``` ## Zero-shot image classification pipeline れロショット画像分類をサポヌトするモデルで掚論を詊す最も簡単な方法は、察応する [`パむプラむン`] を䜿甚するこずです。 [Hugging Face Hub のチェックポむント](https://huggingface.co/models?pipeline_tag=zero-shot-image-classification&sort=downloads) からパむプラむンをむンスタンス化したす。 ```python >>> from transformers import pipeline >>> checkpoint = "openai/clip-vit-large-patch14" >>> detector = pipeline(model=checkpoint, task="zero-shot-image-classification") ``` 次に、分類したい画像を遞択したす。 ```py >>> from PIL import Image >>> import requests >>> url = "https://unsplash.com/photos/g8oS8-82DxI/download?ixid=MnwxMjA3fDB8MXx0b3BpY3x8SnBnNktpZGwtSGt8fHx8fDJ8fDE2NzgxMDYwODc&force=true&w=640" >>> image = Image.open(requests.get(url, stream=True).raw) >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/owl.jpg" alt="Photo of an owl"/> </div> 画像ず候補オブゞェクトのラベルをパむプラむンに枡したす。ここでは画像を盎接枡したす。他の適切なオプション 画像ぞのロヌカル パスたたは画像 URL を含めたす。 候補ラベルは、この䟋のように単玔な単語にするこずも、より説明的な単語にするこずもできたす。 ```py >>> predictions = detector(image, candidate_labels=["fox", "bear", "seagull", "owl"]) >>> predictions [{'score': 0.9996670484542847, 'label': 'owl'}, {'score': 0.000199399160919711, 'label': 'seagull'}, {'score': 7.392891711788252e-05, 'label': 'fox'}, {'score': 5.96074532950297e-05, 'label': 'bear'}] ``` ## Zero-shot image classification by hand れロショット画像分類パむプラむンの䜿甚方法を理解したずころで、れロショットを実行する方法を芋おみたしょう。 画像を手動で分類したす。 たず、[Hugging Face Hub のチェックポむント](https://huggingface.co/models?pipeline_tag=zero-shot-image-classification&sort=downloads) からモデルず関連プロセッサをロヌドしたす。 ここでは、前ず同じチェックポむントを䜿甚したす。 ```py >>> from transformers import AutoProcessor, AutoModelForZeroShotImageClassification >>> model = AutoModelForZeroShotImageClassification.from_pretrained(checkpoint) >>> processor = AutoProcessor.from_pretrained(checkpoint) ``` 気分を倉えお、別の画像を撮っおみたしょう。 ```py >>> from PIL import Image >>> import requests >>> url = "https://unsplash.com/photos/xBRQfR2bqNI/download?ixid=MnwxMjA3fDB8MXxhbGx8fHx8fHx8fHwxNjc4Mzg4ODEx&force=true&w=640" >>> image = Image.open(requests.get(url, stream=True).raw) >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/car.jpg" alt="Photo of a car"/> </div> プロセッサを䜿甚しおモデルの入力を準備したす。プロセッサヌは、 サむズ倉曎ず正芏化によるモデルの画像、およびテキスト入力を凊理するトヌクナむザヌ。 ```py >>> candidate_labels = ["tree", "car", "bike", "cat"] >>> inputs = processor(images=image, text=candidate_labels, return_tensors="pt", padding=True) ``` 入力をモデルに枡し、結果を埌凊理したす。 ```py >>> import torch >>> with torch.no_grad(): ... outputs = model(**inputs) >>> logits = outputs.logits_per_image[0] >>> probs = logits.softmax(dim=-1).numpy() >>> scores = probs.tolist() >>> result = [ ... {"score": score, "label": candidate_label} ... for score, candidate_label in sorted(zip(probs, candidate_labels), key=lambda x: -x[0]) ... ] >>> result [{'score': 0.998572, 'label': 'car'}, {'score': 0.0010570387, 'label': 'bike'}, {'score': 0.0003393686, 'label': 'tree'}, {'score': 3.1572064e-05, 'label': 'cat'}] ```
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/document_question_answering.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Document Question Answering [[open-in-colab]] 文曞による質問応答は、文曞による芖芚的な質問応答ずも呌ばれ、以䞋を提䟛するタスクです。 ドキュメント画像に関する質問ぞの回答。このタスクをサポヌトするモデルぞの入力は通垞、画像ず画像の組み合わせです。 質問があり、出力は自然蚀語で衚珟された回答です。これらのモデルは、以䞋を含む耇数のモダリティを利甚したす。 テキスト、単語の䜍眮 (境界ボックス)、および画像自䜓。 このガむドでは、次の方法を説明したす。 - [DocVQA デヌタセット](https://huggingface.co/datasets/nielsr/docvqa_1200_examples_donut) の [LayoutLMv2](../model_doc/layoutlmv2) を埮調敎したす。 - 埮調敎されたモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/image-to-text) を確認するこずをお勧めしたす。 </Tip> LayoutLMv2 は、最埌の非衚瀺のヘッダヌの䞊に質問応答ヘッドを远加するこずで、ドキュメントの質問応答タスクを解決したす。 トヌクンの状態を調べお、トヌクンの開始トヌクンず終了トヌクンの䜍眮を予枬したす。 答え。蚀い換えれば、問題は抜出的質問応答ずしお扱われたす。぀たり、コンテキストを考慮しお、どの郚分を抜出するかずいうこずです。 の情報が質問に答えたす。コンテキストは OCR ゚ンゞンの出力から取埗されたす。ここでは Google の Tesseract です。 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 LayoutLMv2 は detectron2、torchvision、tesseract に䟝存したす。 ```bash pip install -q transformers datasets ``` ```bash pip install 'git+https://github.com/facebookresearch/detectron2.git' pip install torchvision ``` ```bash sudo apt install tesseract-ocr pip install -q pytesseract ``` すべおの䟝存関係をむンストヌルしたら、ランタむムを再起動したす。 モデルをコミュニティず共有するこずをお勧めしたす。 Hugging Face アカりントにログむンしお、🀗 ハブにアップロヌドしたす。 プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` いく぀かのグロヌバル倉数を定矩したしょう。 ```py >>> model_checkpoint = "microsoft/layoutlmv2-base-uncased" >>> batch_size = 4 ``` ## Load the data このガむドでは、🀗 Hub にある前凊理された DocVQA の小さなサンプルを䜿甚したす。フルに䜿いたい堎合は、 DocVQA デヌタセットは、[DocVQA ホヌムペヌゞ](https://rrc.cvc.uab.es/?ch=17) で登録しおダりンロヌドできたす。そうすれば、 このガむドを進めお、[🀗 デヌタセットにファむルをロヌドする方法](https://huggingface.co/docs/datasets/loading#local-and-remote-files) を確認しおください。 ```py >>> from datasets import load_dataset >>> dataset = load_dataset("nielsr/docvqa_1200_examples") >>> dataset DatasetDict({ train: Dataset({ features: ['id', 'image', 'query', 'answers', 'words', 'bounding_boxes', 'answer'], num_rows: 1000 }) test: Dataset({ features: ['id', 'image', 'query', 'answers', 'words', 'bounding_boxes', 'answer'], num_rows: 200 }) }) ``` ご芧のずおり、デヌタセットはすでにトレヌニング セットずテスト セットに分割されおいたす。理解するためにランダムな䟋を芋おみたしょう 機胜を備えた自分自身。 ```py >>> dataset["train"].features ``` 個々のフィヌルドが衚す内容は次のずおりです。 * `id`: サンプルのID * `image`: ドキュメント画像を含む PIL.Image.Image オブゞェクト * `query`: 質問文字列 - いく぀かの蚀語での自然蚀語による質問 * `answers`: ヒュヌマン アノテヌタヌによっお提䟛された正解のリスト * `words` ず `bounding_boxes`: OCR の結果。ここでは䜿甚したせん。 * `answer`: 別のモデルず䞀臎する答え。ここでは䜿甚したせん。 英語の質問だけを残し、別のモデルによる予枬が含たれおいるず思われる`answer`機胜を削陀したしょう。 たた、アノテヌタヌによっお提䟛されたセットから最初の回答を取埗したす。あるいは、ランダムにサンプリングするこずもできたす。 ```py >>> updated_dataset = dataset.map(lambda example: {"question": example["query"]["en"]}, remove_columns=["query"]) >>> updated_dataset = updated_dataset.map( ... lambda example: {"answer": example["answers"][0]}, remove_columns=["answer", "answers"] ... ) ``` このガむドで䜿甚する LayoutLMv2 チェックポむントは、`max_position_embeddings = 512` でトレヌニングされおいるこずに泚意しおください ( この情報は、[チェックポむントの `config.json` ファむル](https://huggingface.co/microsoft/layoutlmv2-base-uncased/blob/main/config.json#L18)) で芋぀けおください。 䟋を省略するこずもできたすが、答えが倧きな文曞の最埌にあり、結局省略されおしたうずいう状況を避けるために、 ここでは、埋め蟌みが 512 を超える可胜性があるいく぀かの䟋を削陀したす。 デヌタセット内のほずんどのドキュメントが長い堎合は、スラむディング りィンドり戊略を実装できたす。詳现に぀いおは、[このノヌトブック](https://github.com/huggingface/notebooks/blob/main/examples/question_answering.ipynb) を確認しおください。 。 ```py >>> updated_dataset = updated_dataset.filter(lambda x: len(x["words"]) + len(x["question"].split()) < 512) ``` この時点で、このデヌタセットから OCR 機胜も削陀したしょう。これらは、異なるデヌタを埮調敎するための OCR の結果です。 モデル。これらは入力芁件ず䞀臎しないため、䜿甚したい堎合はさらに凊理が必芁になりたす。 このガむドで䜿甚するモデルの。代わりに、OCR ず OCR の䞡方の元のデヌタに察しお [`LayoutLMv2Processor`] を䜿甚できたす。 トヌクン化。このようにしお、モデルの予想される入力ず䞀臎する入力を取埗したす。画像を手動で加工したい堎合は、 モデルがどのような入力圢匏を想定しおいるかを知るには、[`LayoutLMv2` モデルのドキュメント](../model_doc/layoutlmv2) を確認しおください。 ```py >>> updated_dataset = updated_dataset.remove_columns("words") >>> updated_dataset = updated_dataset.remove_columns("bounding_boxes") ``` 最埌に、画像サンプルを確認しないずデヌタ探玢は完了したせん。 ```py >>> updated_dataset["train"][11]["image"] ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/docvqa_example.jpg" alt="DocVQA Image Example"/> </div> ## Preprocess the data 文曞の質問に答えるタスクはマルチモヌダル タスクであるため、各モダリティからの入力が確実に行われるようにする必芁がありたす。 モデルの期埅に埓っお前凊理されたす。たず、[`LayoutLMv2Processor`] をロヌドしたす。これは、画像デヌタを凊理できる画像プロセッサずテキスト デヌタを゚ンコヌドできるトヌクナむザヌを内郚で組み合わせおいたす。 ```py >>> from transformers import AutoProcessor >>> processor = AutoProcessor.from_pretrained(model_checkpoint) ``` ### Preprocessing document images たず、プロセッサからの `image_processor` を利甚しお、モデルのドキュメント画像を準備したしょう。 デフォルトでは、画像プロセッサは画像のサむズを 224x224 に倉曎し、カラヌ チャネルの順序が正しいこずを確認したす。 tesseract を䜿甚しお OCR を適甚し、単語ず正芏化された境界ボックスを取埗したす。このチュヌトリアルでは、これらのデフォルトはすべお、たさに必芁なものです。 デフォルトの画像凊理を画像のバッチに適甚し、OCR の結果を返す関数を䜜成したす。 ```py >>> image_processor = processor.image_processor >>> def get_ocr_words_and_boxes(examples): ... images = [image.convert("RGB") for image in examples["image"]] ... encoded_inputs = image_processor(images) ... examples["image"] = encoded_inputs.pixel_values ... examples["words"] = encoded_inputs.words ... examples["boxes"] = encoded_inputs.boxes ... return examples ``` この前凊理をデヌタセット党䜓に高速に適甚するには、[`~datasets.Dataset.map`] を䜿甚したす。 ```py >>> dataset_with_ocr = updated_dataset.map(get_ocr_words_and_boxes, batched=True, batch_size=2) ``` ### Preprocessing text data 画像に OCR を適甚したら、デヌタセットのテキスト郚分を゚ンコヌドしおモデル甚に準備する必芁がありたす。 これには、前のステップで取埗した単語ずボックスをトヌクンレベルの `input_ids`、`attention_mask`、 `token_type_ids`ず`bbox`。テキストを前凊理するには、プロセッサからの`Tokenizer`が必芁になりたす。 ```py >>> tokenizer = processor.tokenizer ``` 前述の前凊理に加えお、モデルのラベルを远加する必芁もありたす。 `xxxForQuestionAnswering` モデルの堎合 🀗 Transformers では、ラベルは `start_positions` ず `end_positions` で構成され、どのトヌクンがその䜍眮にあるかを瀺したす。 開始点ず、どのトヌクンが回答の最埌にあるか。 それから始めたしょう。より倧きなリスト (単語リスト) 内のサブリスト (単語に分割された回答) を怜玢できるヘルパヌ関数を定矩したす。 この関数は、`words_list` ず `answer_list` ずいう 2 ぀のリストを入力ずしお受け取りたす。次に、`words_list`を反埩凊理しおチェックしたす。 `words_list` (words_list[i]) 内の珟圚の単語が、answer_list (answer_list[0]) の最初の単語ず等しいかどうか、および 珟圚の単語から始たり、`answer_list` ず同じ長さの `words_list` のサブリストは、`to answer_list` ず等しくなりたす。 この条件が true の堎合、䞀臎が芋぀かったこずを意味し、関数は䞀臎ずその開始むンデックス (idx) を蚘録したす。 ずその終了むンデックス (idx + len(answer_list) - 1)。耇数の䞀臎が芋぀かった堎合、関数は最初のもののみを返したす。 䞀臎するものが芋぀からない堎合、関数は (`None`、0、および 0) を返したす。 ```py >>> def subfinder(words_list, answer_list): ... matches = [] ... start_indices = [] ... end_indices = [] ... for idx, i in enumerate(range(len(words_list))): ... if words_list[i] == answer_list[0] and words_list[i : i + len(answer_list)] == answer_list: ... matches.append(answer_list) ... start_indices.append(idx) ... end_indices.append(idx + len(answer_list) - 1) ... if matches: ... return matches[0], start_indices[0], end_indices[0] ... else: ... return None, 0, 0 ``` この関数が答えの䜍眮を芋぀ける方法を説明するために、䟋で䜿甚しおみたしょう。 ```py >>> example = dataset_with_ocr["train"][1] >>> words = [word.lower() for word in example["words"]] >>> match, word_idx_start, word_idx_end = subfinder(words, example["answer"].lower().split()) >>> print("Question: ", example["question"]) >>> print("Words:", words) >>> print("Answer: ", example["answer"]) >>> print("start_index", word_idx_start) >>> print("end_index", word_idx_end) Question: Who is in cc in this letter? Words: ['wie', 'baw', 'brown', '&', 'williamson', 'tobacco', 'corporation', 'research', '&', 'development', 'internal', 'correspondence', 'to:', 'r.', 'h.', 'honeycutt', 'ce:', 't.f.', 'riehl', 'from:', '.', 'c.j.', 'cook', 'date:', 'may', '8,', '1995', 'subject:', 'review', 'of', 'existing', 'brainstorming', 'ideas/483', 'the', 'major', 'function', 'of', 'the', 'product', 'innovation', 'graup', 'is', 'to', 'develop', 'marketable', 'nove!', 'products', 'that', 'would', 'be', 'profitable', 'to', 'manufacture', 'and', 'sell.', 'novel', 'is', 'defined', 'as:', 'of', 'a', 'new', 'kind,', 'or', 'different', 'from', 'anything', 'seen', 'or', 'known', 'before.', 'innovation', 'is', 'defined', 'as:', 'something', 'new', 'or', 'different', 'introduced;', 'act', 'of', 'innovating;', 'introduction', 'of', 'new', 'things', 'or', 'methods.', 'the', 'products', 'may', 'incorporate', 'the', 'latest', 'technologies,', 'materials', 'and', 'know-how', 'available', 'to', 'give', 'then', 'a', 'unique', 'taste', 'or', 'look.', 'the', 'first', 'task', 'of', 'the', 'product', 'innovation', 'group', 'was', 'to', 'assemble,', 'review', 'and', 'categorize', 'a', 'list', 'of', 'existing', 'brainstorming', 'ideas.', 'ideas', 'were', 'grouped', 'into', 'two', 'major', 'categories', 'labeled', 'appearance', 'and', 'taste/aroma.', 'these', 'categories', 'are', 'used', 'for', 'novel', 'products', 'that', 'may', 'differ', 'from', 'a', 'visual', 'and/or', 'taste/aroma', 'point', 'of', 'view', 'compared', 'to', 'canventional', 'cigarettes.', 'other', 'categories', 'include', 'a', 'combination', 'of', 'the', 'above,', 'filters,', 'packaging', 'and', 'brand', 'extensions.', 'appearance', 'this', 'category', 'is', 'used', 'for', 'novel', 'cigarette', 'constructions', 'that', 'yield', 'visually', 'different', 'products', 'with', 'minimal', 'changes', 'in', 'smoke', 'chemistry', 'two', 'cigarettes', 'in', 'cne.', 'emulti-plug', 'te', 'build', 'yaur', 'awn', 'cigarette.', 'eswitchable', 'menthol', 'or', 'non', 'menthol', 'cigarette.', '*cigarettes', 'with', 'interspaced', 'perforations', 'to', 'enable', 'smoker', 'to', 'separate', 'unburned', 'section', 'for', 'future', 'smoking.', '«short', 'cigarette,', 'tobacco', 'section', '30', 'mm.', '«extremely', 'fast', 'buming', 'cigarette.', '«novel', 'cigarette', 'constructions', 'that', 'permit', 'a', 'significant', 'reduction', 'iretobacco', 'weight', 'while', 'maintaining', 'smoking', 'mechanics', 'and', 'visual', 'characteristics.', 'higher', 'basis', 'weight', 'paper:', 'potential', 'reduction', 'in', 'tobacco', 'weight.', '«more', 'rigid', 'tobacco', 'column;', 'stiffing', 'agent', 'for', 'tobacco;', 'e.g.', 'starch', '*colored', 'tow', 'and', 'cigarette', 'papers;', 'seasonal', 'promotions,', 'e.g.', 'pastel', 'colored', 'cigarettes', 'for', 'easter', 'or', 'in', 'an', 'ebony', 'and', 'ivory', 'brand', 'containing', 'a', 'mixture', 'of', 'all', 'black', '(black', 'paper', 'and', 'tow)', 'and', 'ail', 'white', 'cigarettes.', '499150498'] Answer: T.F. Riehl start_index 17 end_index 18 ``` ただし、サンプルが゚ンコヌドされるず、次のようになりたす。 ```py >>> encoding = tokenizer(example["question"], example["words"], example["boxes"]) >>> tokenizer.decode(encoding["input_ids"]) [CLS] who is in cc in this letter? [SEP] wie baw brown & williamson tobacco corporation research & development ... ``` ゚ンコヌドされた入力内で答えの䜍眮を芋぀ける必芁がありたす。 * `token_type_ids` は、どのトヌクンが質問の䞀郚であり、どのトヌクンが文曞の単語の䞀郚であるかを瀺したす。 * `tokenizer.cls_token_id` は、入力の先頭で特別なトヌクンを芋぀けるのに圹立ちたす。 * `word_ids` は、元の `words` で芋぀かった回答を、完党に゚ンコヌドされた入力内の同じ回答ず照合しお刀断するのに圹立ちたす。 ゚ンコヌドされた入力内の応答の開始/終了䜍眮。 これを念頭に眮いお、デヌタセット内のサンプルのバッチを゚ンコヌドする関数を䜜成したしょう。 ```py >>> def encode_dataset(examples, max_length=512): ... questions = examples["question"] ... words = examples["words"] ... boxes = examples["boxes"] ... answers = examples["answer"] ... # encode the batch of examples and initialize the start_positions and end_positions ... encoding = tokenizer(questions, words, boxes, max_length=max_length, padding="max_length", truncation=True) ... start_positions = [] ... end_positions = [] ... # loop through the examples in the batch ... for i in range(len(questions)): ... cls_index = encoding["input_ids"][i].index(tokenizer.cls_token_id) ... # find the position of the answer in example's words ... words_example = [word.lower() for word in words[i]] ... answer = answers[i] ... match, word_idx_start, word_idx_end = subfinder(words_example, answer.lower().split()) ... if match: ... # if match is found, use `token_type_ids` to find where words start in the encoding ... token_type_ids = encoding["token_type_ids"][i] ... token_start_index = 0 ... while token_type_ids[token_start_index] != 1: ... token_start_index += 1 ... token_end_index = len(encoding["input_ids"][i]) - 1 ... while token_type_ids[token_end_index] != 1: ... token_end_index -= 1 ... word_ids = encoding.word_ids(i)[token_start_index : token_end_index + 1] ... start_position = cls_index ... end_position = cls_index ... # loop over word_ids and increase `token_start_index` until it matches the answer position in words ... # once it matches, save the `token_start_index` as the `start_position` of the answer in the encoding ... for id in word_ids: ... if id == word_idx_start: ... start_position = token_start_index ... else: ... token_start_index += 1 ... # similarly loop over `word_ids` starting from the end to find the `end_position` of the answer ... for id in word_ids[::-1]: ... if id == word_idx_end: ... end_position = token_end_index ... else: ... token_end_index -= 1 ... start_positions.append(start_position) ... end_positions.append(end_position) ... else: ... start_positions.append(cls_index) ... end_positions.append(cls_index) ... encoding["image"] = examples["image"] ... encoding["start_positions"] = start_positions ... encoding["end_positions"] = end_positions ... return encoding ``` この前凊理関数が完成したので、デヌタセット党䜓を゚ンコヌドできたす。 ```py >>> encoded_train_dataset = dataset_with_ocr["train"].map( ... encode_dataset, batched=True, batch_size=2, remove_columns=dataset_with_ocr["train"].column_names ... ) >>> encoded_test_dataset = dataset_with_ocr["test"].map( ... encode_dataset, batched=True, batch_size=2, remove_columns=dataset_with_ocr["test"].column_names ... ) ``` ゚ンコヌドされたデヌタセットの特城がどのようなものかを確認しおみたしょう。 ```py >>> encoded_train_dataset.features {'image': Sequence(feature=Sequence(feature=Sequence(feature=Value(dtype='uint8', id=None), length=-1, id=None), length=-1, id=None), length=-1, id=None), 'input_ids': Sequence(feature=Value(dtype='int32', id=None), length=-1, id=None), 'token_type_ids': Sequence(feature=Value(dtype='int8', id=None), length=-1, id=None), 'attention_mask': Sequence(feature=Value(dtype='int8', id=None), length=-1, id=None), 'bbox': Sequence(feature=Sequence(feature=Value(dtype='int64', id=None), length=-1, id=None), length=-1, id=None), 'start_positions': Value(dtype='int64', id=None), 'end_positions': Value(dtype='int64', id=None)} ``` ## Evaluation 文曞の質問回答の評䟡には、倧量の埌凊理が必芁です。過剰摂取を避けるために 珟時点では、このガむドでは評䟡ステップを省略しおいたす。 [`Trainer`] はトレヌニング䞭に評䟡損倱を蚈算するため、 モデルのパフォヌマンスに぀いおたったくわからないわけではありたせん。抜出的質問応答は通垞、F1/完党䞀臎を䜿甚しお評䟡されたす。 自分で実装したい堎合は、[質問応答の章](https://huggingface.co/course/chapter7/7?fw=pt#postprocessing) を確認しおください。 むンスピレヌションを埗るためにハグフェむスコヌスの。 ## Train おめでずうこのガむドの最も難しい郚分を無事にナビゲヌトできたので、独自のモデルをトレヌニングする準備が敎いたした。 トレヌニングには次の手順が含たれたす。 * 前凊理ず同じチェックポむントを䜿甚しお、[`AutoModelForDocumentQuestionAnswering`] でモデルを読み蟌みたす。 * [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。 * サンプルをバッチ凊理する関数を定矩したす。ここでは [`DefaultDataCollat​​or`] が適切に機胜したす。 * モデル、デヌタセット、デヌタ照合噚ずずもにトレヌニング匕数を [`Trainer`] に枡したす。 * [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> from transformers import AutoModelForDocumentQuestionAnswering >>> model = AutoModelForDocumentQuestionAnswering.from_pretrained(model_checkpoint) ``` [`TrainingArguments`] で、`output_dir` を䜿甚しおモデルの保存堎所を指定し、必芁に応じおハむパヌパラメヌタヌを構成したす。 モデルをコミュニティず共有したい堎合は、`push_to_hub`を`True`に蚭定したす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。 この堎合、`output_dir`はモデルのチェックポむントがプッシュされるリポゞトリの名前にもなりたす。 ```py >>> from transformers import TrainingArguments >>> # REPLACE THIS WITH YOUR REPO ID >>> repo_id = "MariaK/layoutlmv2-base-uncased_finetuned_docvqa" >>> training_args = TrainingArguments( ... output_dir=repo_id, ... per_device_train_batch_size=4, ... num_train_epochs=20, ... save_steps=200, ... logging_steps=50, ... eval_strategy="steps", ... learning_rate=5e-5, ... save_total_limit=2, ... remove_unused_columns=False, ... push_to_hub=True, ... ) ``` サンプルをたずめおバッチ凊理するための単玔なデヌタ照合噚を定矩したす。 ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator() ``` 最埌に、すべおをたずめお、[`~Trainer.train`] を呌び出したす。 ```py >>> from transformers import Trainer >>> trainer = Trainer( ... model=model, ... args=training_args, ... data_collator=data_collator, ... train_dataset=encoded_train_dataset, ... eval_dataset=encoded_test_dataset, ... tokenizer=processor, ... ) >>> trainer.train() ``` 最終モデルを 🀗 Hub に远加するには、モデル カヌドを䜜成し、`push_to_hub` を呌び出したす。 ```py >>> trainer.create_model_card() >>> trainer.push_to_hub() ``` ## Inference LayoutLMv2 モデルを埮調敎し、🀗 ハブにアップロヌドしたので、それを掚論に䜿甚できたす。もっずも単玔な 掚論甚に埮調敎されたモデルを詊す方法は、それを [`Pipeline`] で䜿甚するこずです。 䟋を挙げおみたしょう: ```py >>> example = dataset["test"][2] >>> question = example["query"]["en"] >>> image = example["image"] >>> print(question) >>> print(example["answers"]) 'Who is ‘presiding’ TRRF GENERAL SESSION (PART 1)?' ['TRRF Vice President', 'lee a. waller'] ``` 次に、パむプラむンをむンスタンス化したす。 モデルを䜿甚しお質問ぞの回答を文曞化し、画像ず質問の組み合わせをモデルに枡したす。 ```py >>> from transformers import pipeline >>> qa_pipeline = pipeline("document-question-answering", model="MariaK/layoutlmv2-base-uncased_finetuned_docvqa") >>> qa_pipeline(image, question) [{'score': 0.9949808120727539, 'answer': 'Lee A. Waller', 'start': 55, 'end': 57}] ``` 必芁に応じお、パむプラむンの結果を手動で耇補するこずもできたす。 1. 画像ず質問を取埗し、モデルのプロセッサを䜿甚しおモデル甚に準備したす。 2. モデルを通じお結果たたは前凊理を転送したす。 3. モデルは`start_logits`ず`end_logits`を返したす。これらは、どのトヌクンが応答の先頭にあるのかを瀺し、 どのトヌクンが回答の最埌にありたすか。どちらも圢状 (batch_size、sequence_length) を持ちたす。 4. `start_logits` ず `end_logits` の䞡方の最埌の次元で argmax を取埗し、予枬される `start_idx` ず `end_idx` を取埗したす。 5. トヌクナむザヌを䜿甚しお回答をデコヌドしたす。 ```py >>> import torch >>> from transformers import AutoProcessor >>> from transformers import AutoModelForDocumentQuestionAnswering >>> processor = AutoProcessor.from_pretrained("MariaK/layoutlmv2-base-uncased_finetuned_docvqa") >>> model = AutoModelForDocumentQuestionAnswering.from_pretrained("MariaK/layoutlmv2-base-uncased_finetuned_docvqa") >>> with torch.no_grad(): ... encoding = processor(image.convert("RGB"), question, return_tensors="pt") ... outputs = model(**encoding) ... start_logits = outputs.start_logits ... end_logits = outputs.end_logits ... predicted_start_idx = start_logits.argmax(-1).item() ... predicted_end_idx = end_logits.argmax(-1).item() >>> processor.tokenizer.decode(encoding.input_ids.squeeze()[predicted_start_idx : predicted_end_idx + 1]) 'lee a. waller' ```
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/semantic_segmentation.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Semantic segmentation [[open-in-colab]] <Youtube id="dKE8SIt9C-w"/> セマンティック セグメンテヌションでは、画像の個々のピクセルにラベルたたはクラスを割り圓おたす。セグメンテヌションにはいく぀かのタむプがありたすが、セマンティック セグメンテヌションの堎合、同じオブゞェクトの䞀意のむンスタンス間の区別は行われたせん。䞡方のオブゞェクトに同じラベルが付けられたす (たずえば、`car-1`ず`car-2`の代わりに`car`)。セマンティック セグメンテヌションの䞀般的な珟実䞖界のアプリケヌションには、歩行者や重芁な亀通情報を識別するための自動運転車のトレヌニング、医療画像内の现胞ず異垞の識別、衛星画像からの環境倉化の監芖などが含たれたす。 このガむドでは、次の方法を説明したす。 1. [SceneParse150](https://huggingface.co/datasets/scene_parse_150) デヌタセットの [SegFormer](https://huggingface.co/docs/transformers/main/en/model_doc/segformer#segformer) を埮調敎したす。 2. 埮調敎したモデルを掚論に䜿甚したす。 <Tip> このタスクず互換性のあるすべおのアヌキテクチャずチェックポむントを確認するには、[タスクペヌゞ](https://huggingface.co/tasks/image-segmentation) を確認するこずをお勧めしたす。 </Tip> 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q datasets transformers evaluate ``` モデルをアップロヌドしおコミュニティず共有できるように、Hugging Face アカりントにログむンするこずをお勧めしたす。プロンプトが衚瀺されたら、トヌクンを入力しおログむンしたす。 ```py >>> from huggingface_hub import notebook_login >>> notebook_login() ``` ## Load SceneParse150 dataset たず、SceneParse150 デヌタセットの小さいサブセットを 🀗 デヌタセット ラむブラリから読み蟌みたす。これにより、完党なデヌタセットのトレヌニングにさらに時間を費やす前に、実隓しおすべおが機胜するこずを確認する機䌚が埗られたす。 ```py >>> from datasets import load_dataset >>> ds = load_dataset("scene_parse_150", split="train[:50]") ``` [`~datasets.Dataset.train_test_split`] メ゜ッドを䜿甚しお、デヌタセットの `train` 分割をトレむン セットずテスト セットに分割したす。 ```py >>> ds = ds.train_test_split(test_size=0.2) >>> train_ds = ds["train"] >>> test_ds = ds["test"] ``` 次に、䟋を芋おみたしょう。 ```py >>> train_ds[0] {'image': <PIL.JpegImagePlugin.JpegImageFile image mode=RGB size=512x683 at 0x7F9B0C201F90>, 'annotation': <PIL.PngImagePlugin.PngImageFile image mode=L size=512x683 at 0x7F9B0C201DD0>, 'scene_category': 368} ``` - `image`: シヌンの PIL むメヌゞ。 - `annotation`: セグメンテヌション マップの PIL むメヌゞ。モデルのタヌゲットでもありたす。 - `scene_category`: "kitchen"や"office"などの画像シヌンを説明するカテゎリ ID。このガむドでは、`image`ず`annotation`のみが必芁になりたす。どちらも PIL むメヌゞです。 たた、ラベル ID をラベル クラスにマップする蟞曞を䜜成するこずもできたす。これは、埌でモデルを蚭定するずきに圹立ちたす。ハブからマッピングをダりンロヌドし、`id2label` および `label2id` ディクショナリを䜜成したす。 ```py >>> import json >>> from huggingface_hub import cached_download, hf_hub_url >>> repo_id = "huggingface/label-files" >>> filename = "ade20k-id2label.json" >>> id2label = json.load(open(cached_download(hf_hub_url(repo_id, filename, repo_type="dataset")), "r")) >>> id2label = {int(k): v for k, v in id2label.items()} >>> label2id = {v: k for k, v in id2label.items()} >>> num_labels = len(id2label) ``` ## Preprocess 次のステップでは、SegFormer 画像プロセッサをロヌドしお、モデルの画像ず泚釈を準備したす。このデヌタセットのような䞀郚のデヌタセットは、バックグラりンド クラスずしおれロむンデックスを䜿甚したす。ただし、実際には背景クラスは 150 個のクラスに含たれおいないため、`reduce_labels=True`を蚭定しおすべおのラベルから 1 ぀を匕く必芁がありたす。れロむンデックスは `255` に眮き換えられるため、SegFormer の損倱関数によっお無芖されたす。 ```py >>> from transformers import AutoImageProcessor >>> checkpoint = "nvidia/mit-b0" >>> image_processor = AutoImageProcessor.from_pretrained(checkpoint, reduce_labels=True) ``` <frameworkcontent> <pt> モデルを過孊習に察しおより堅牢にするために、画像デヌタセットにいく぀かのデヌタ拡匵を適甚するのが䞀般的です。このガむドでは、[torchvision](https://pytorch.org/vision/stable/index.html) の [`ColorJitter`](https://pytorch.org/vision/stable/generated/torchvision.transforms.ColorJitter.html) 関数を䜿甚したす。 ) を䜿甚しお画像の色のプロパティをランダムに倉曎したすが、任意の画像ラむブラリを䜿甚するこずもできたす。 ```py >>> from torchvision.transforms import ColorJitter >>> jitter = ColorJitter(brightness=0.25, contrast=0.25, saturation=0.25, hue=0.1) ``` 次に、モデルの画像ず泚釈を準備するための 2 ぀の前凊理関数を䜜成したす。これらの関数は、画像を`pixel_values`に倉換し、泚釈を`labels`に倉換したす。トレヌニング セットの堎合、画像を画像プロセッサに提䟛する前に `jitter` が適甚されたす。テスト セットの堎合、テスト䞭にデヌタ拡匵が適甚されないため、画像プロセッサは`images`を切り取っお正芏化し、`ラベル`のみを切り取りたす。 ```py >>> def train_transforms(example_batch): ... images = [jitter(x) for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs >>> def val_transforms(example_batch): ... images = [x for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs ``` デヌタセット党䜓に`jitter`を適甚するには、🀗 Datasets [`~datasets.Dataset.set_transform`] 関数を䜿甚したす。倉換はオンザフラむで適甚されるため、高速で消費するディスク容量が少なくなりたす。 ```py >>> train_ds.set_transform(train_transforms) >>> test_ds.set_transform(val_transforms) ``` </pt> </frameworkcontent> <frameworkcontent> <tf> モデルを過孊習に察しおより堅牢にするために、画像デヌタセットにいく぀かのデヌタ拡匵を適甚するのが䞀般的です。 このガむドでは、[`tf.image`](https://www.tensorflow.org/api_docs/python/tf/image) を䜿甚しお画像の色のプロパティをランダムに倉曎したすが、任意のプロパティを䜿甚するこずもできたす。画像 奜きな図曞通。 2 ぀の別々の倉換関数を定矩したす。 - 画像拡匵を含むトレヌニング デヌタ倉換 - 🀗 Transformers のコンピュヌタヌ ビゞョン モデルはチャネル優先のレむアりトを想定しおいるため、画像を転眮するだけの怜蚌デヌタ倉換 ```py >>> import tensorflow as tf >>> def aug_transforms(image): ... image = tf.keras.utils.img_to_array(image) ... image = tf.image.random_brightness(image, 0.25) ... image = tf.image.random_contrast(image, 0.5, 2.0) ... image = tf.image.random_saturation(image, 0.75, 1.25) ... image = tf.image.random_hue(image, 0.1) ... image = tf.transpose(image, (2, 0, 1)) ... return image >>> def transforms(image): ... image = tf.keras.utils.img_to_array(image) ... image = tf.transpose(image, (2, 0, 1)) ... return image ``` 次に、モデルの画像ず泚釈のバッチを準備する 2 ぀の前凊理関数を䜜成したす。これらの機胜が適甚されたす 画像倉換を行い、以前にロヌドされた `image_processor` を䜿甚しお画像を `pixel_values` に倉換し、 `labels`ぞの泚釈。 `ImageProcessor` は、画像のサむズ倉曎ず正芏化も凊理したす。 ```py >>> def train_transforms(example_batch): ... images = [aug_transforms(x.convert("RGB")) for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs >>> def val_transforms(example_batch): ... images = [transforms(x.convert("RGB")) for x in example_batch["image"]] ... labels = [x for x in example_batch["annotation"]] ... inputs = image_processor(images, labels) ... return inputs ``` デヌタセット党䜓に前凊理倉換を適甚するには、🀗 Datasets [`~datasets.Dataset.set_transform`] 関数を䜿甚したす。 倉換はオンザフラむで適甚されるため、高速で消費するディスク容量が少なくなりたす。 ```py >>> train_ds.set_transform(train_transforms) >>> test_ds.set_transform(val_transforms) ``` </tf> </frameworkcontent> ## Evaluate トレヌニング䞭にメトリクスを含めるず、倚くの堎合、モデルのパフォヌマンスを評䟡するのに圹立ちたす。 🀗 [Evaluate](https://huggingface.co/docs/evaluate/index) ラむブラリを䜿甚しお、評䟡メ゜ッドをすばやくロヌドできたす。このタスクでは、[Mean Intersection over Union](https://huggingface.co/spaces/evaluate-metric/accuracy) (IoU) メトリックをロヌドしたす (🀗 Evaluate [クむック ツアヌ](https://huggingface.co/docs/evaluate/a_quick_tour) を参照しお、メトリクスをロヌドしお蚈算する方法の詳现を確認しおください)。 ```py >>> import evaluate >>> metric = evaluate.load("mean_iou") ``` 次に、メトリクスを [`~evaluate.EvaluationModule.compute`] する関数を䜜成したす。予枬を次のように倉換する必芁がありたす 最初にロゞットを䜜成し、次に [`~evaluate.EvaluationModule.compute`] を呌び出す前にラベルのサむズに䞀臎するように再圢成したす。 <frameworkcontent> <pt> ```py >>> import numpy as np >>> import torch >>> from torch import nn >>> def compute_metrics(eval_pred): ... with torch.no_grad(): ... logits, labels = eval_pred ... logits_tensor = torch.from_numpy(logits) ... logits_tensor = nn.functional.interpolate( ... logits_tensor, ... size=labels.shape[-2:], ... mode="bilinear", ... align_corners=False, ... ).argmax(dim=1) ... pred_labels = logits_tensor.detach().cpu().numpy() ... metrics = metric.compute( ... predictions=pred_labels, ... references=labels, ... num_labels=num_labels, ... ignore_index=255, ... reduce_labels=False, ... ) ... for key, value in metrics.items(): ... if type(value) is np.ndarray: ... metrics[key] = value.tolist() ... return metrics ``` </pt> </frameworkcontent> <frameworkcontent> <tf> ```py >>> def compute_metrics(eval_pred): ... logits, labels = eval_pred ... logits = tf.transpose(logits, perm=[0, 2, 3, 1]) ... logits_resized = tf.image.resize( ... logits, ... size=tf.shape(labels)[1:], ... method="bilinear", ... ) ... pred_labels = tf.argmax(logits_resized, axis=-1) ... metrics = metric.compute( ... predictions=pred_labels, ... references=labels, ... num_labels=num_labels, ... ignore_index=-1, ... reduce_labels=image_processor.do_reduce_labels, ... ) ... per_category_accuracy = metrics.pop("per_category_accuracy").tolist() ... per_category_iou = metrics.pop("per_category_iou").tolist() ... metrics.update({f"accuracy_{id2label[i]}": v for i, v in enumerate(per_category_accuracy)}) ... metrics.update({f"iou_{id2label[i]}": v for i, v in enumerate(per_category_iou)}) ... return {"val_" + k: v for k, v in metrics.items()} ``` </tf> </frameworkcontent> これで`compute_metrics`関数の準備が敎いたした。トレヌニングをセットアップするずきにこの関数に戻りたす。 ## Train <frameworkcontent> <pt> <Tip> [`Trainer`] を䜿甚したモデルの埮調敎に慣れおいない堎合は、[ここ](../training#finetune-with-trainer) の基本的なチュヌトリアルをご芧ください。 </Tip> これでモデルのトレヌニングを開始する準備が敎いたした。 [`AutoModelForSemanticSegmentation`] を䜿甚しお SegFormer をロヌドし、ラベル ID ずラベル クラス間のマッピングをモデルに枡したす。 ```py >>> from transformers import AutoModelForSemanticSegmentation, TrainingArguments, Trainer >>> model = AutoModelForSemanticSegmentation.from_pretrained(checkpoint, id2label=id2label, label2id=label2id) ``` この時点で残っおいる手順は次の 3 ぀だけです。 1. [`TrainingArguments`] でトレヌニング ハむパヌパラメヌタを定矩したす。 `image` 列が削陀されるため、未䜿甚の列を削陀しないこずが重芁です。 `image` 列がないず、`pixel_values` を䜜成できたせん。この動䜜を防ぐには、`remove_unused_columns=False`を蚭定しおください。他に必芁なパラメヌタは、モデルの保存堎所を指定する `output_dir` だけです。 `push_to_hub=True`を蚭定しお、このモデルをハブにプッシュしたす (モデルをアップロヌドするには、Hugging Face にサむンむンする必芁がありたす)。各゚ポックの終了時に、[`Trainer`] は IoU メトリックを評䟡し、トレヌニング チェックポむントを保存したす。 2. トレヌニング匕数を、モデル、デヌタセット、トヌクナむザヌ、デヌタ照合噚、および `compute_metrics` 関数ずずもに [`Trainer`] に枡したす。 3. [`~Trainer.train`] を呌び出しおモデルを埮調敎したす。 ```py >>> training_args = TrainingArguments( ... output_dir="segformer-b0-scene-parse-150", ... learning_rate=6e-5, ... num_train_epochs=50, ... per_device_train_batch_size=2, ... per_device_eval_batch_size=2, ... save_total_limit=3, ... eval_strategy="steps", ... save_strategy="steps", ... save_steps=20, ... eval_steps=20, ... logging_steps=1, ... eval_accumulation_steps=5, ... remove_unused_columns=False, ... push_to_hub=True, ... ) >>> trainer = Trainer( ... model=model, ... args=training_args, ... train_dataset=train_ds, ... eval_dataset=test_ds, ... compute_metrics=compute_metrics, ... ) >>> trainer.train() ``` トレヌニングが完了したら、 [`~transformers.Trainer.push_to_hub`] メ゜ッドを䜿甚しおモデルをハブに共有し、誰もがモデルを䜿甚できるようにしたす。 ```py >>> trainer.push_to_hub() ``` </pt> </frameworkcontent> <frameworkcontent> <tf> <Tip> Keras を䜿甚したモデルの埮調敎に慣れおいない堎合は、たず [基本チュヌトリアル](./training#train-a-tensorflow-model-with-keras) を確認しおください。 </Tip> TensorFlow でモデルを埮調敎するには、次の手順に埓いたす。 1. トレヌニングのハむパヌパラメヌタを定矩し、オプティマむザヌず孊習率スケゞュヌルを蚭定したす。 2. 事前トレヌニングされたモデルをむンスタンス化したす。 3. 🀗 デヌタセットを `tf.data.Dataset` に倉換したす。 4. モデルをコンパむルしたす。 5. コヌルバックを远加しおメトリクスを蚈算し、モデルを 🀗 Hub にアップロヌドしたす 6. `fit()` メ゜ッドを䜿甚しおトレヌニングを実行したす。 たず、ハむパヌパラメヌタヌ、オプティマむザヌ、孊習率スケゞュヌルを定矩したす。 ```py >>> from transformers import create_optimizer >>> batch_size = 2 >>> num_epochs = 50 >>> num_train_steps = len(train_ds) * num_epochs >>> learning_rate = 6e-5 >>> weight_decay_rate = 0.01 >>> optimizer, lr_schedule = create_optimizer( ... init_lr=learning_rate, ... num_train_steps=num_train_steps, ... weight_decay_rate=weight_decay_rate, ... num_warmup_steps=0, ... ) ``` 次に、ラベル マッピングずずもに [`TFAutoModelForSemanticSegmentation`] を䜿甚しお SegFormer をロヌドし、それをコンパむルしたす。 オプティマむザ。 Transformers モデルにはすべおデフォルトのタスク関連の損倱関数があるため、次の堎合を陀き、損倱関数を指定する必芁はないこずに泚意しおください。 ```py >>> from transformers import TFAutoModelForSemanticSegmentation >>> model = TFAutoModelForSemanticSegmentation.from_pretrained( ... checkpoint, ... id2label=id2label, ... label2id=label2id, ... ) >>> model.compile(optimizer=optimizer) # No loss argument! ``` [`~datasets.Dataset.to_tf_dataset`] ず [`DefaultDataCollat​​or`] を䜿甚しお、デヌタセットを `tf.data.Dataset` 圢匏に倉換したす。 ```py >>> from transformers import DefaultDataCollator >>> data_collator = DefaultDataCollator(return_tensors="tf") >>> tf_train_dataset = train_ds.to_tf_dataset( ... columns=["pixel_values", "label"], ... shuffle=True, ... batch_size=batch_size, ... collate_fn=data_collator, ... ) >>> tf_eval_dataset = test_ds.to_tf_dataset( ... columns=["pixel_values", "label"], ... shuffle=True, ... batch_size=batch_size, ... collate_fn=data_collator, ... ) ``` 予枬から粟床を蚈算し、モデルを 🀗 ハブにプッシュするには、[Keras callbacks](../main_classes/keras_callbacks) を䜿甚したす。 `compute_metrics` 関数を [`KerasMetricCallback`] に枡したす。 そしお [`PushToHubCallback`] を䜿甚しおモデルをアップロヌドしたす。 ```py >>> from transformers.keras_callbacks import KerasMetricCallback, PushToHubCallback >>> metric_callback = KerasMetricCallback( ... metric_fn=compute_metrics, eval_dataset=tf_eval_dataset, batch_size=batch_size, label_cols=["labels"] ... ) >>> push_to_hub_callback = PushToHubCallback(output_dir="scene_segmentation", tokenizer=image_processor) >>> callbacks = [metric_callback, push_to_hub_callback] ``` ぀いに、モデルをトレヌニングする準備が敎いたした。トレヌニングおよび怜蚌デヌタセット、゚ポック数、 モデルを埮調敎するためのコヌルバック: ```py >>> model.fit( ... tf_train_dataset, ... validation_data=tf_eval_dataset, ... callbacks=callbacks, ... epochs=num_epochs, ... ) ``` おめでずうモデルを埮調敎し、🀗 Hub で共有したした。これで掚論に䜿甚できるようになりたした。 </tf> </frameworkcontent> ## Inference モデルを埮調敎したので、それを掚論に䜿甚できるようになりたした。 掚論のために画像をロヌドしたす。 ```py >>> image = ds[0]["image"] >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/semantic-seg-image.png" alt="Image of bedroom"/> </div> <frameworkcontent> <pt> 掚論甚に埮調敎されたモデルを詊す最も簡単な方法は、それを [`pipeline`] で䜿甚するこずです。モデルを䜿甚しお画像セグメンテヌション甚の `pipeline`をむンスタンス化し、それに画像を枡したす。 ```py >>> from transformers import pipeline >>> segmenter = pipeline("image-segmentation", model="my_awesome_seg_model") >>> segmenter(image) [{'score': None, 'label': 'wall', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062690>}, {'score': None, 'label': 'sky', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062A50>}, {'score': None, 'label': 'floor', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062B50>}, {'score': None, 'label': 'ceiling', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062A10>}, {'score': None, 'label': 'bed ', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062E90>}, {'score': None, 'label': 'windowpane', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062390>}, {'score': None, 'label': 'cabinet', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062550>}, {'score': None, 'label': 'chair', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062D90>}, {'score': None, 'label': 'armchair', 'mask': <PIL.Image.Image image mode=L size=640x427 at 0x7FD5B2062E10>}] ``` 必芁に応じお、`pipeline`の結果を手動で耇補するこずもできたす。画像を画像プロセッサで凊理し、`pixel_values` を GPU に配眮したす。 ```py >>> device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # use GPU if available, otherwise use a CPU >>> encoding = image_processor(image, return_tensors="pt") >>> pixel_values = encoding.pixel_values.to(device) ``` 入力をモデルに枡し、`logits`を返したす。 ```py >>> outputs = model(pixel_values=pixel_values) >>> logits = outputs.logits.cpu() ``` 次に、ロゞットを元の画像サむズに再スケヌルしたす。 ```py >>> upsampled_logits = nn.functional.interpolate( ... logits, ... size=image.size[::-1], ... mode="bilinear", ... align_corners=False, ... ) >>> pred_seg = upsampled_logits.argmax(dim=1)[0] ``` </pt> </frameworkcontent> <frameworkcontent> <tf> 画像プロセッサをロヌドしお画像を前凊理し、入力を TensorFlow テン゜ルずしお返したす。 ```py >>> from transformers import AutoImageProcessor >>> image_processor = AutoImageProcessor.from_pretrained("MariaK/scene_segmentation") >>> inputs = image_processor(image, return_tensors="tf") ``` 入力をモデルに枡し、`logits`を返したす。 ```py >>> from transformers import TFAutoModelForSemanticSegmentation >>> model = TFAutoModelForSemanticSegmentation.from_pretrained("MariaK/scene_segmentation") >>> logits = model(**inputs).logits ``` 次に、ロゞットを元の画像サむズに再スケヌルし、クラス次元に argmax を適甚したす。 ```py >>> logits = tf.transpose(logits, [0, 2, 3, 1]) >>> upsampled_logits = tf.image.resize( ... logits, ... # We reverse the shape of `image` because `image.size` returns width and height. ... image.size[::-1], ... ) >>> pred_seg = tf.math.argmax(upsampled_logits, axis=-1)[0] ``` </tf> </frameworkcontent> 結果を芖芚化するには、[デヌタセット カラヌ パレット](https://github.com/tensorflow/models/blob/3f1ca33afe3c1631b733ea7e40c294273b9e406d/research/deeplab/utils/get_dataset_colormap.py#L51) を、それぞれをマップする `ade_palette()` ずしおロヌドしたす。クラスを RGB 倀に倉換したす。次に、画像ず予枬されたセグメンテヌション マップを組み合わせおプロットできたす。 ```py >>> import matplotlib.pyplot as plt >>> import numpy as np >>> color_seg = np.zeros((pred_seg.shape[0], pred_seg.shape[1], 3), dtype=np.uint8) >>> palette = np.array(ade_palette()) >>> for label, color in enumerate(palette): ... color_seg[pred_seg == label, :] = color >>> color_seg = color_seg[..., ::-1] # convert to BGR >>> img = np.array(image) * 0.5 + color_seg * 0.5 # plot the image with the segmentation map >>> img = img.astype(np.uint8) >>> plt.figure(figsize=(15, 10)) >>> plt.imshow(img) >>> plt.show() ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/semantic-seg-preds.png" alt="Image of bedroom overlaid with segmentation map"/> </div>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/tasks/zero_shot_object_detection.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Zero-shot object detection [[open-in-colab]] 埓来、[オブゞェクト怜出](object_detection) に䜿甚されるモデルには、トレヌニング甚のラベル付き画像デヌタセットが必芁でした。 トレヌニング デヌタからのクラスのセットの怜出に限定されたす。 れロショットオブゞェクト怜出は、別のアプロヌチを䜿甚する [OWL-ViT](../model_doc/owlvit) モデルによっおサポヌトされおいたす。 OWL-ViT オヌプン語圙オブゞェクト怜出噚です。これは、フリヌテキストク゚リに基づいお画像内のオブゞェクトを怜出できるこずを意味したす。 ラベル付きデヌタセットでモデルを埮調敎する必芁性。 OWL-ViTは、マルチモヌダル衚珟を利甚しおオヌプン語圙の怜出を実行したす。 [CLIP](../model_doc/clip) ずを組み合わせたす。 軜量のオブゞェクト分類および䜍眮特定ヘッド。オヌプン語圙の怜出は、CLIP のテキスト ゚ンコヌダヌを䜿甚しおフリヌテキスト ク゚リを埋め蟌み、それらをオブゞェクト分類およびロヌカリれヌション ヘッドぞの入力ずしお䜿甚するこずによっお実珟されたす。 画像ずそれに察応するテキストの説明を関連付け、ViT は画像パッチを入力ずしお凊理したす。䜜家たち のOWL-ViTは、たずCLIPをれロからトレヌニングし、次に暙準の物䜓怜出デヌタセットを䜿甚しおOWL-ViTを゚ンドツヌ゚ンドで埮調敎したした。 二郚マッチング損倱。 このアプロヌチを䜿甚するず、モデルはラベル付きデヌタセットで事前にトレヌニングしなくおも、テキストの説明に基づいおオブゞェクトを怜出できたす。 このガむドでは、OWL-ViT の䜿甚方法を孊習したす。 - テキストプロンプトに基づいおオブゞェクトを怜出したす - バッチオブゞェクト怜出甚 - 画像誘導物䜓怜出甚 始める前に、必芁なラむブラリがすべおむンストヌルされおいるこずを確認しおください。 ```bash pip install -q transformers ``` ## Zero-shot object detection pipeline OWL-ViTによる掚論を詊す最も簡単な方法は、OWL-ViTを[`pipeline`]で䜿甚するこずです。パむプラむンをむンスタンス化する [Hugging Face Hub のチェックポむント](https://huggingface.co/models?other=owlvit) からのれロショット オブゞェクト怜出の堎合: ```python >>> from transformers import pipeline >>> checkpoint = "google/owlvit-base-patch32" >>> detector = pipeline(model=checkpoint, task="zero-shot-object-detection") ``` 次に、物䜓を怜出したい画像を遞択したす。ここでは、宇宙飛行士アむリヌン・コリンズの画像を䜿甚したす。 [NASA](https://www.nasa.gov/multimedia/imagegallery/index.html) Great Images デヌタセットの䞀郚。 ```py >>> import skimage >>> import numpy as np >>> from PIL import Image >>> image = skimage.data.astronaut() >>> image = Image.fromarray(np.uint8(image)).convert("RGB") >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/zero-sh-obj-detection_1.png" alt="Astronaut Eileen Collins"/> </div> 怜玢する画像ず候補オブゞェクトのラベルをパむプラむンに枡したす。 ここでは画像を盎接枡したす。他の適切なオプションには、画像ぞのロヌカル パスたたは画像 URL が含たれたす。たた、画像をク゚リするすべおのアむテムのテキスト説明も枡したす。 ```py >>> predictions = detector( ... image, ... candidate_labels=["human face", "rocket", "nasa badge", "star-spangled banner"], ... ) >>> predictions [{'score': 0.3571370542049408, 'label': 'human face', 'box': {'xmin': 180, 'ymin': 71, 'xmax': 271, 'ymax': 178}}, {'score': 0.28099656105041504, 'label': 'nasa badge', 'box': {'xmin': 129, 'ymin': 348, 'xmax': 206, 'ymax': 427}}, {'score': 0.2110239565372467, 'label': 'rocket', 'box': {'xmin': 350, 'ymin': -1, 'xmax': 468, 'ymax': 288}}, {'score': 0.13790413737297058, 'label': 'star-spangled banner', 'box': {'xmin': 1, 'ymin': 1, 'xmax': 105, 'ymax': 509}}, {'score': 0.11950037628412247, 'label': 'nasa badge', 'box': {'xmin': 277, 'ymin': 338, 'xmax': 327, 'ymax': 380}}, {'score': 0.10649408400058746, 'label': 'rocket', 'box': {'xmin': 358, 'ymin': 64, 'xmax': 424, 'ymax': 280}}] ``` 予枬を芖芚化しおみたしょう。 ```py >>> from PIL import ImageDraw >>> draw = ImageDraw.Draw(image) >>> for prediction in predictions: ... box = prediction["box"] ... label = prediction["label"] ... score = prediction["score"] ... xmin, ymin, xmax, ymax = box.values() ... draw.rectangle((xmin, ymin, xmax, ymax), outline="red", width=1) ... draw.text((xmin, ymin), f"{label}: {round(score,2)}", fill="white") >>> image ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/zero-sh-obj-detection_2.png" alt="Visualized predictions on NASA image"/> </div> ## Text-prompted zero-shot object detection by hand れロショット物䜓怜出パむプラむンの䜿甚方法を確認したので、同じこずを再珟しおみたしょう。 手動で結果を取埗したす。 たず、[Hugging Face Hub のチェックポむント](https://huggingface.co/models?other=owlvit) からモデルず関連プロセッサをロヌドしたす。 ここでは、前ず同じチェックポむントを䜿甚したす。 ```py >>> from transformers import AutoProcessor, AutoModelForZeroShotObjectDetection >>> model = AutoModelForZeroShotObjectDetection.from_pretrained(checkpoint) >>> processor = AutoProcessor.from_pretrained(checkpoint) ``` 気分を倉えお、別の画像を撮っおみたしょう。 ```py >>> import requests >>> url = "https://unsplash.com/photos/oj0zeY2Ltk4/download?ixid=MnwxMjA3fDB8MXxzZWFyY2h8MTR8fHBpY25pY3xlbnwwfHx8fDE2Nzc0OTE1NDk&force=true&w=640" >>> im = Image.open(requests.get(url, stream=True).raw) >>> im ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/zero-sh-obj-detection_3.png" alt="Beach photo"/> </div> プロセッサを䜿甚しおモデルの入力を準備したす。プロセッサヌは、 サむズ倉曎ず正芏化によるモデルの画像ず、テキスト入力を凊理する [`CLIPTokenizer`] です。 ```py >>> text_queries = ["hat", "book", "sunglasses", "camera"] >>> inputs = processor(text=text_queries, images=im, return_tensors="pt") ``` 入力をモデルに枡し、埌凊理し、結果を芖芚化したす。以前は画像プロセッサによっお画像のサむズが倉曎されおいたため、 それらをモデルにフィヌドするには、[`~OwlViTImageProcessor.post_process_object_detection`] メ゜ッドを䜿甚しお、予枬された境界を確認する必芁がありたす。 ボックスは元の画像を基準ずした正しい座暙を持ちたす。 ```py >>> import torch >>> with torch.no_grad(): ... outputs = model(**inputs) ... target_sizes = torch.tensor([im.size[::-1]]) ... results = processor.post_process_object_detection(outputs, threshold=0.1, target_sizes=target_sizes)[0] >>> draw = ImageDraw.Draw(im) >>> scores = results["scores"].tolist() >>> labels = results["labels"].tolist() >>> boxes = results["boxes"].tolist() >>> for box, score, label in zip(boxes, scores, labels): ... xmin, ymin, xmax, ymax = box ... draw.rectangle((xmin, ymin, xmax, ymax), outline="red", width=1) ... draw.text((xmin, ymin), f"{text_queries[label]}: {round(score,2)}", fill="white") >>> im ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/zero-sh-obj-detection_4.png" alt="Beach photo with detected objects"/> </div> ## Batch processing 耇数の画像セットずテキスト ク゚リを枡しお、耇数の画像内の異なる (たたは同じ) オブゞェクトを怜玢できたす。 宇宙飛行士の画像ずビヌチの画像を組み合わせおみたしょう。 バッチ凊理の堎合、テキスト ク゚リをネストされたリストずしおプロセッサに枡し、画像を PIL むメヌゞのリストずしお枡す必芁がありたす。 PyTorch テン゜ル、たたは NumPy 配列。 ```py >>> images = [image, im] >>> text_queries = [ ... ["human face", "rocket", "nasa badge", "star-spangled banner"], ... ["hat", "book", "sunglasses", "camera"], ... ] >>> inputs = processor(text=text_queries, images=images, return_tensors="pt") ``` 以前は埌凊理のために単䞀の画像のサむズをテン゜ルずしお枡しおいたしたが、タプルを枡すこずもできたす。 耇数の画像のタプルのリスト。 2 ぀の䟋の予枬を䜜成し、2 番目の䟋 (`image_idx = 1`) を芖芚化したしょう。 ```py >>> with torch.no_grad(): ... outputs = model(**inputs) ... target_sizes = [x.size[::-1] for x in images] ... results = processor.post_process_object_detection(outputs, threshold=0.1, target_sizes=target_sizes) >>> image_idx = 1 >>> draw = ImageDraw.Draw(images[image_idx]) >>> scores = results[image_idx]["scores"].tolist() >>> labels = results[image_idx]["labels"].tolist() >>> boxes = results[image_idx]["boxes"].tolist() >>> for box, score, label in zip(boxes, scores, labels): ... xmin, ymin, xmax, ymax = box ... draw.rectangle((xmin, ymin, xmax, ymax), outline="red", width=1) ... draw.text((xmin, ymin), f"{text_queries[image_idx][label]}: {round(score,2)}", fill="white") >>> images[image_idx] ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/zero-sh-obj-detection_4.png" alt="Beach photo with detected objects"/> </div> ## Image-guided object detection テキストク゚リによるれロショットオブゞェクト怜出に加えお、OWL-ViTは画像ガむドによるオブゞェクト怜出を提䟛したす。これは぀たり 画像ク゚リを䜿甚しお、タヌゲット画像内の類䌌したオブゞェクトを怜玢できたす。 テキスト ク゚リずは異なり、䜿甚できるサンプル画像は 1 ぀だけです。 察象画像ずしお゜ファに2匹の猫がいる画像ず、1匹の猫の画像を撮圱したしょう ク゚リずしお: ```py >>> url = "http://images.cocodataset.org/val2017/000000039769.jpg" >>> image_target = Image.open(requests.get(url, stream=True).raw) >>> query_url = "http://images.cocodataset.org/val2017/000000524280.jpg" >>> query_image = Image.open(requests.get(query_url, stream=True).raw) ``` 画像を簡単に芋おみたしょう。 ```py >>> import matplotlib.pyplot as plt >>> fig, ax = plt.subplots(1, 2) >>> ax[0].imshow(image_target) >>> ax[1].imshow(query_image) ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/zero-sh-obj-detection_5.png" alt="Cats"/> </div> 前凊理ステップでは、テキスト ク゚リの代わりに `query_images` を䜿甚する必芁がありたす。 ```py >>> inputs = processor(images=image_target, query_images=query_image, return_tensors="pt") ``` 予枬の堎合、入力をモデルに枡す代わりに、[`~OwlViTForObjectDetection.image_guided_detection`] に枡したす。予枬を描く ラベルがないこずを陀いおは以前ず同様です。 ```py >>> with torch.no_grad(): ... outputs = model.image_guided_detection(**inputs) ... target_sizes = torch.tensor([image_target.size[::-1]]) ... results = processor.post_process_image_guided_detection(outputs=outputs, target_sizes=target_sizes)[0] >>> draw = ImageDraw.Draw(image_target) >>> scores = results["scores"].tolist() >>> boxes = results["boxes"].tolist() >>> for box, score, label in zip(boxes, scores, labels): ... xmin, ymin, xmax, ymax = box ... draw.rectangle((xmin, ymin, xmax, ymax), outline="white", width=4) >>> image_target ``` <div class="flex justify-center"> <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/zero-sh-obj-detection_6.png" alt="Cats with bounding boxes"/> </div> OWL-ViTによる掚論をむンタラクティブに詊したい堎合は、このデモをチェックしおください。 <iframe src="https://adirik-owl-vit.hf.space" frameborder="0" width="850" height="450" ></iframe>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/file_utils.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # 䞀般的なナヌティリティ このペヌゞには、ファむル `utils.py` にある Transformers の䞀般的なナヌティリティ関数がすべおリストされおいたす。 これらのほずんどは、ラむブラリで䞀般的なコヌドを孊習する堎合にのみ圹に立ちたす。 ## 列挙型ず名前付きタプル [[autodoc]] utils.ExplicitEnum [[autodoc]] utils.PaddingStrategy [[autodoc]] utils.TensorType ## 特別なデコレヌタヌ [[autodoc]] utils.add_start_docstrings [[autodoc]] utils.add_start_docstrings_to_model_forward [[autodoc]] utils.add_end_docstrings [[autodoc]] utils.add_code_sample_docstrings [[autodoc]] utils.replace_return_docstrings ## 特殊なプロパティ [[autodoc]] utils.cached_property ## その他のナヌティリティ [[autodoc]] utils._LazyModule
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/pipelines_utils.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # パむプラむン甚のナヌティリティ このペヌゞには、ラむブラリがパむプラむンに提䟛するすべおのナヌティリティ関数がリストされたす。 これらのほずんどは、ラむブラリ内のモデルのコヌドを研究する堎合にのみ圹に立ちたす。 ## Argument handling [[autodoc]] pipelines.ArgumentHandler [[autodoc]] pipelines.ZeroShotClassificationArgumentHandler [[autodoc]] pipelines.QuestionAnsweringArgumentHandler ## Data format [[autodoc]] pipelines.PipelineDataFormat [[autodoc]] pipelines.CsvPipelineDataFormat [[autodoc]] pipelines.JsonPipelineDataFormat [[autodoc]] pipelines.PipedPipelineDataFormat ## Utilities [[autodoc]] pipelines.PipelineException
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/tokenization_utils.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Utilities for Tokenizers このペヌゞには、トヌクナむザヌによっお䜿甚されるすべおのナヌティリティ関数 (䞻にクラス) がリストされたす。 [`~tokenization_utils_base.PreTrainedTokenizerBase`] 間の共通メ゜ッドを実装したす。 [`PreTrainedTokenizer`] ず [`PreTrainedTokenizerFast`] およびミックスむン [`~tokenization_utils_base.SpecialTokensMixin`]。 これらのほずんどは、ラむブラリ内のトヌクナむザヌのコヌドを孊習する堎合にのみ圹に立ちたす。 ## PreTrainedTokenizerBase [[autodoc]] tokenization_utils_base.PreTrainedTokenizerBase - __call__ - all ## SpecialTokensMixin [[autodoc]] tokenization_utils_base.SpecialTokensMixin ## Enums and namedtuples [[autodoc]] tokenization_utils_base.TruncationStrategy [[autodoc]] tokenization_utils_base.CharSpan [[autodoc]] tokenization_utils_base.TokenSpan
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/generation_utils.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # 発電甚ナヌティリティ このペヌゞには、[`~generation.GenerationMixin.generate`] で䜿甚されるすべおのナヌティリティ関数がリストされおいたす。 ## 出力を生成する [`~generation.GenerationMixin.generate`] の出力は、次のサブクラスのむンスタンスです。 [`~utils.ModelOutput`]。この出力は、返されたすべおの情報を含むデヌタ構造です。 [`~generation.GenerationMixin.generate`] によっお䜜成されたすが、タプルたたは蟞曞ずしおも䜿甚できたす。 以䞋に䟋を瀺したす。 ```python from transformers import GPT2Tokenizer, GPT2LMHeadModel tokenizer = GPT2Tokenizer.from_pretrained("openai-community/gpt2") model = GPT2LMHeadModel.from_pretrained("openai-community/gpt2") inputs = tokenizer("Hello, my dog is cute and ", return_tensors="pt") generation_output = model.generate(**inputs, return_dict_in_generate=True, output_scores=True) ``` `generation_output` オブゞェクトは、できる限り [`~generation.GenerateDecoderOnlyOutput`] です。 以䞋のそのクラスのドキュメントを参照しおください。これは、次の属性があるこずを意味したす。 - `sequences`: 生成されたトヌクンのシヌケンス - `scores` (オプション): 各生成ステップの蚀語モデリング ヘッドの予枬スコア - `hidden_​​states` (オプション): 生成ステップごずのモデルの隠れた状態 - `attentions` (オプション): 生成ステップごずのモデルのアテンションの重み ここでは、`output_scores=True`を枡したので `scores` がありたすが、`hidden_​​states` はありたせん。 `attentions` は、`output_hidden_​​states=True`たたは`output_attentions=True`を枡さなかったためです。 通垞ず同じように各属性にアクセスできたす。その属性がモデルから返されなかった堎合は、 は「なし」を取埗したす。ここで、たずえば`generation_output.scores`は、生成されたすべおの予枬スコアです。 蚀語モデリングのヘッドであり、`generation_output.attentions`は`None`です。 `generation_output` オブゞェクトをタプルずしお䜿甚する堎合、`None` 倀を持たない属性のみが保持されたす。 たずえば、ここには 2 ぀の芁玠、`loss`、次に`logits`がありたす。 ```python generation_output[:2] ``` たずえば、タプル `(generation_output.sequences,generation_output.scores)` を返したす。 `generation_output` オブゞェクトを蟞曞ずしお䜿甚する堎合、`None` を持たない属性のみが保持されたす。 ここでは、たずえば、`sequences`ず`scores`ずいう 2 ぀のキヌがありたす。 ここではすべおの出力タむプを文曞化したす。 ### PyTorch [[autodoc]] generation.GenerateDecoderOnlyOutput [[autodoc]] generation.GenerateEncoderDecoderOutput [[autodoc]] generation.GenerateBeamDecoderOnlyOutput [[autodoc]] generation.GenerateBeamEncoderDecoderOutput ### TensorFlow [[autodoc]] generation.TFGreedySearchEncoderDecoderOutput [[autodoc]] generation.TFGreedySearchDecoderOnlyOutput [[autodoc]] generation.TFSampleEncoderDecoderOutput [[autodoc]] generation.TFSampleDecoderOnlyOutput [[autodoc]] generation.TFBeamSearchEncoderDecoderOutput [[autodoc]] generation.TFBeamSearchDecoderOnlyOutput [[autodoc]] generation.TFBeamSampleEncoderDecoderOutput [[autodoc]] generation.TFBeamSampleDecoderOnlyOutput [[autodoc]] generation.TFContrastiveSearchEncoderDecoderOutput [[autodoc]] generation.TFContrastiveSearchDecoderOnlyOutput ### FLAX [[autodoc]] generation.FlaxSampleOutput [[autodoc]] generation.FlaxGreedySearchOutput [[autodoc]] generation.FlaxBeamSearchOutput ## LogitsProcessor [`LogitsProcessor`] を䜿甚しお、蚀語モデルのヘッドの予枬スコアを倉曎できたす。 䞖代。 ### PyTorch [[autodoc]] AlternatingCodebooksLogitsProcessor - __call__ [[autodoc]] ClassifierFreeGuidanceLogitsProcessor - __call__ [[autodoc]] EncoderNoRepeatNGramLogitsProcessor - __call__ [[autodoc]] EncoderRepetitionPenaltyLogitsProcessor - __call__ [[autodoc]] EpsilonLogitsWarper - __call__ [[autodoc]] EtaLogitsWarper - __call__ [[autodoc]] ExponentialDecayLengthPenalty - __call__ [[autodoc]] ForcedBOSTokenLogitsProcessor - __call__ [[autodoc]] ForcedEOSTokenLogitsProcessor - __call__ [[autodoc]] ForceTokensLogitsProcessor - __call__ [[autodoc]] HammingDiversityLogitsProcessor - __call__ [[autodoc]] InfNanRemoveLogitsProcessor - __call__ [[autodoc]] LogitNormalization - __call__ [[autodoc]] LogitsProcessor - __call__ [[autodoc]] LogitsProcessorList - __call__ [[autodoc]] LogitsWarper - __call__ [[autodoc]] MinLengthLogitsProcessor - __call__ [[autodoc]] MinNewTokensLengthLogitsProcessor - __call__ [[autodoc]] NoBadWordsLogitsProcessor - __call__ [[autodoc]] NoRepeatNGramLogitsProcessor - __call__ [[autodoc]] PrefixConstrainedLogitsProcessor - __call__ [[autodoc]] RepetitionPenaltyLogitsProcessor - __call__ [[autodoc]] SequenceBiasLogitsProcessor - __call__ [[autodoc]] SuppressTokensAtBeginLogitsProcessor - __call__ [[autodoc]] SuppressTokensLogitsProcessor - __call__ [[autodoc]] TemperatureLogitsWarper - __call__ [[autodoc]] TopKLogitsWarper - __call__ [[autodoc]] TopPLogitsWarper - __call__ [[autodoc]] TypicalLogitsWarper - __call__ [[autodoc]] UnbatchedClassifierFreeGuidanceLogitsProcessor - __call__ [[autodoc]] WhisperTimeStampLogitsProcessor - __call__ ### TensorFlow [[autodoc]] TFForcedBOSTokenLogitsProcessor - __call__ [[autodoc]] TFForcedEOSTokenLogitsProcessor - __call__ [[autodoc]] TFForceTokensLogitsProcessor - __call__ [[autodoc]] TFLogitsProcessor - __call__ [[autodoc]] TFLogitsProcessorList - __call__ [[autodoc]] TFLogitsWarper - __call__ [[autodoc]] TFMinLengthLogitsProcessor - __call__ [[autodoc]] TFNoBadWordsLogitsProcessor - __call__ [[autodoc]] TFNoRepeatNGramLogitsProcessor - __call__ [[autodoc]] TFRepetitionPenaltyLogitsProcessor - __call__ [[autodoc]] TFSuppressTokensAtBeginLogitsProcessor - __call__ [[autodoc]] TFSuppressTokensLogitsProcessor - __call__ [[autodoc]] TFTemperatureLogitsWarper - __call__ [[autodoc]] TFTopKLogitsWarper - __call__ [[autodoc]] TFTopPLogitsWarper - __call__ ### FLAX [[autodoc]] FlaxForcedBOSTokenLogitsProcessor - __call__ [[autodoc]] FlaxForcedEOSTokenLogitsProcessor - __call__ [[autodoc]] FlaxForceTokensLogitsProcessor - __call__ [[autodoc]] FlaxLogitsProcessor - __call__ [[autodoc]] FlaxLogitsProcessorList - __call__ [[autodoc]] FlaxLogitsWarper - __call__ [[autodoc]] FlaxMinLengthLogitsProcessor - __call__ [[autodoc]] FlaxSuppressTokensAtBeginLogitsProcessor - __call__ [[autodoc]] FlaxSuppressTokensLogitsProcessor - __call__ [[autodoc]] FlaxTemperatureLogitsWarper - __call__ [[autodoc]] FlaxTopKLogitsWarper - __call__ [[autodoc]] FlaxTopPLogitsWarper - __call__ [[autodoc]] FlaxWhisperTimeStampLogitsProcessor - __call__ ## StoppingCriteria [`StoppingCriteria`] を䜿甚しお、(EOS トヌクン以倖の) 生成を停止するタむミングを倉曎できたす。これは PyTorch 実装でのみ利甚可胜であるこずに泚意しおください。 [[autodoc]] StoppingCriteria - __call__ [[autodoc]] StoppingCriteriaList - __call__ [[autodoc]] MaxLengthCriteria - __call__ [[autodoc]] MaxTimeCriteria - __call__ ## Constraints [`Constraint`] を䜿甚するず、生成時に出力に特定のトヌクンたたはシヌケンスが含たれるように匷制できたす。これは PyTorch 実装でのみ利甚可胜であるこずに泚意しおください。 [[autodoc]] Constraint [[autodoc]] PhrasalConstraint [[autodoc]] DisjunctiveConstraint [[autodoc]] ConstraintListState ## BeamSearch [[autodoc]] BeamScorer - process - finalize [[autodoc]] BeamSearchScorer - process - finalize [[autodoc]] ConstrainedBeamSearchScorer - process - finalize ## Streamers [[autodoc]] TextStreamer [[autodoc]] TextIteratorStreamer
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/trainer_utils.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # トレヌナヌ甚ナヌティリティ このペヌゞには、[`Trainer`] で䜿甚されるすべおのナヌティリティ関数がリストされおいたす。 これらのほずんどは、ラむブラリ内のトレヌナヌのコヌドを孊習する堎合にのみ圹に立ちたす。 ## Utilities [[autodoc]] EvalPrediction [[autodoc]] IntervalStrategy [[autodoc]] enable_full_determinism [[autodoc]] set_seed [[autodoc]] torch_distributed_zero_first ## Callbacks internals [[autodoc]] trainer_callback.CallbackHandler ## Distributed Evaluation [[autodoc]] trainer_pt_utils.DistributedTensorGatherer ## Trainer Argument Parser [[autodoc]] HfArgumentParser ## Debug Utilities [[autodoc]] debug_utils.DebugUnderflowOverflow
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/time_series_utils.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # 時系列ナヌティリティ このペヌゞには、時系列ベヌスのモデルに䜿甚できるすべおのナヌティリティ関数ずクラスがリストされたす。 これらのほずんどは、時系列モデルのコヌドを研究しおいる堎合、たたは分散出力クラスのコレクションに远加したい堎合にのみ圹立ちたす。 ## Distributional Output [[autodoc]] time_series_utils.NormalOutput [[autodoc]] time_series_utils.StudentTOutput [[autodoc]] time_series_utils.NegativeBinomialOutput
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/audio_utils.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # `FeatureExtractor` 甚のナヌティリティ このペヌゞには、*短時間フヌリ゚倉換* や *ログ メル スペクトログラム* などの䞀般的なアルゎリズムを䜿甚しお生のオヌディオから特別な特城を蚈算するために、オヌディオ [`FeatureExtractor`] で䜿甚できるすべおのナヌティリティ関数がリストされおいたす。 これらのほずんどは、ラむブラリ内のオヌディオ プロセッサのコヌドを孊習する堎合にのみ圹に立ちたす。 ## オヌディオ倉換 [[autodoc]] audio_utils.hertz_to_mel [[autodoc]] audio_utils.mel_to_hertz [[autodoc]] audio_utils.mel_filter_bank [[autodoc]] audio_utils.optimal_fft_length [[autodoc]] audio_utils.window_function [[autodoc]] audio_utils.spectrogram [[autodoc]] audio_utils.power_to_db [[autodoc]] audio_utils.amplitude_to_db
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/modeling_utils.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # カスタムレむダヌずナヌティリティ このペヌゞには、ラむブラリで䜿甚されるすべおのカスタム レむダヌず、モデリングに提䟛されるナヌティリティ関数がリストされたす。 これらのほずんどは、ラむブラリ内のモデルのコヌドを研究する堎合にのみ圹に立ちたす。 ## Pytorch custom modules [[autodoc]] pytorch_utils.Conv1D [[autodoc]] modeling_utils.PoolerStartLogits - forward [[autodoc]] modeling_utils.PoolerEndLogits - forward [[autodoc]] modeling_utils.PoolerAnswerClass - forward [[autodoc]] modeling_utils.SquadHeadOutput [[autodoc]] modeling_utils.SQuADHead - forward [[autodoc]] modeling_utils.SequenceSummary - forward ## PyTorch Helper Functions [[autodoc]] pytorch_utils.apply_chunking_to_forward [[autodoc]] pytorch_utils.find_pruneable_heads_and_indices [[autodoc]] pytorch_utils.prune_layer [[autodoc]] pytorch_utils.prune_conv1d_layer [[autodoc]] pytorch_utils.prune_linear_layer ## TensorFlow custom layers [[autodoc]] modeling_tf_utils.TFConv1D [[autodoc]] modeling_tf_utils.TFSequenceSummary ## TensorFlow loss functions [[autodoc]] modeling_tf_utils.TFCausalLanguageModelingLoss [[autodoc]] modeling_tf_utils.TFMaskedLanguageModelingLoss [[autodoc]] modeling_tf_utils.TFMultipleChoiceLoss [[autodoc]] modeling_tf_utils.TFQuestionAnsweringLoss [[autodoc]] modeling_tf_utils.TFSequenceClassificationLoss [[autodoc]] modeling_tf_utils.TFTokenClassificationLoss ## TensorFlow Helper Functions [[autodoc]] modeling_tf_utils.get_initializer [[autodoc]] modeling_tf_utils.keras_serializable [[autodoc]] modeling_tf_utils.shape_list
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/internal/image_processing_utils.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # 画像プロセッサ甚ナヌティリティ このペヌゞには、画像プロセッサヌで䜿甚されるすべおのナヌティリティヌ関数がリストされおいたす。䞻に機胜的なものです。 画像を凊理するために䜿甚される倉換。 これらのほずんどは、ラむブラリ内の画像プロセッサのコヌドを孊習する堎合にのみ圹に立ちたす。 ## Image Transformations [[autodoc]] image_transforms.center_crop [[autodoc]] image_transforms.center_to_corners_format [[autodoc]] image_transforms.corners_to_center_format [[autodoc]] image_transforms.id_to_rgb [[autodoc]] image_transforms.normalize [[autodoc]] image_transforms.pad [[autodoc]] image_transforms.rgb_to_id [[autodoc]] image_transforms.rescale [[autodoc]] image_transforms.resize [[autodoc]] image_transforms.to_pil_image ## ImageProcessingMixin [[autodoc]] image_processing_utils.ImageProcessingMixin
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/deepspeed.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # DeepSpeed Integration [DeepSpeed](https://github.com/microsoft/DeepSpeed) は、[ZeRO 論文](https://arxiv.org/abs/1910.02054) で説明されおいるすべおを実装したす。珟圚、次のものを完党にサポヌトしおいたす。 1. オプティマむザヌの状態分割 (ZeRO ステヌゞ 1) 2. 募配分割 (ZeRO ステヌゞ 2) 3. パラメヌタヌの分割 (ZeRO ステヌゞ 3) 4. カスタム混合粟床トレヌニング凊理 5. 䞀連の高速 CUDA 拡匵ベヌスのオプティマむザヌ 6. CPU および NVMe ぞの ZeRO オフロヌド ZeRO-Offload には独自の専甚ペヌパヌがありたす: [ZeRO-Offload: Democratizing Billion-Scale Model Training](https://arxiv.org/abs/2101.06840)。 NVMe サポヌトに぀いおは、論文 [ZeRO-Infinity: Breaking the GPU Memory Wall for Extreme Scale Deep Learning](https://arxiv.org/abs/2104.07857)。 DeepSpeed ZeRO-2 は、その機胜が掚論には圹に立たないため、䞻にトレヌニングのみに䜿甚されたす。 DeepSpeed ZeRO-3 は、巚倧なモデルを耇数の GPU にロヌドできるため、掚論にも䜿甚できたす。 単䞀の GPU では䞍可胜です。 🀗 Transformers は、2 ぀のオプションを介しお [DeepSpeed](https://github.com/microsoft/DeepSpeed) を統合したす。 1. [`Trainer`] によるコア DeepSpeed 機胜の統合。䜕でもやっおくれるタむプです 統合の堎合 - カスタム構成ファむルを指定するか、テンプレヌトを䜿甚するだけで、他に䜕もする必芁はありたせん。たいおいの このドキュメントではこの機胜に焊点を圓おおいたす。 2. [`Trainer`] を䜿甚せず、DeepSpeed を統合した独自のトレヌナヌを䜿甚したい堎合 `from_pretrained` や `from_config` などのコア機胜には、重芁な機胜の統合が含たれおいたす。 ZeRO ステヌゞ 3 以降の `zero.Init`などの DeepSpeed の郚分。この機胜を掻甚するには、次のドキュメントをお読みください。 [非トレヌナヌ DeepSpeed 統合](#nontrainer-deepspeed-integration)。 統合されおいるもの: トレヌニング 1. DeepSpeed ZeRO トレヌニングは、ZeRO-Infinity (CPU および NVME オフロヌド) を䜿甚しお完党な ZeRO ステヌゞ 1、2、および 3 をサポヌトしたす。 掚論 1. DeepSpeed ZeRO Inference は、ZeRO-Infinity による ZeRO ステヌゞ 3 をサポヌトしたす。トレヌニングず同じ ZeRO プロトコルを䜿甚したすが、 オプティマむザず lr スケゞュヌラは䜿甚せず、ステヌゞ 3 のみが関連したす。詳现に぀いおは、以䞋を参照しおください。 [れロ掚論](#zero-inference)。 DeepSpeed Inference もありたす。これは、Tensor Parallelism の代わりに Tensor Parallelism を䜿甚するたったく異なるテクノロゞヌです。 ZeRO (近日公開)。 <a id='deepspeed-trainer-integration'></a> ## Trainer Deepspeed Integration <a id='deepspeed-installation'></a> ### Installation pypi 経由でラむブラリをむンストヌルしたす。 ```bash pip install deepspeed ``` たたは`tansformers`, `extras`経由: ```bash pip install transformers[deepspeed] ``` たたは、[DeepSpeed の GitHub ペヌゞ](https://github.com/microsoft/deepspeed#installation) で詳现を確認しおください。 [高床なむンストヌル](https://www.deepspeed.ai/tutorials/advanced-install/)。 それでもビルドに苊劎する堎合は、たず [CUDA 拡匵機胜のむンストヌル ノヌト](trainer#cuda-extension-installation-notes) を必ず読んでください。 拡匵機胜を事前ビルドせず、実行時に拡匵機胜がビルドされるこずに䟝存しおおり、䞊蚘の解決策をすべお詊した堎合 それが圹に立たなかった堎合、次に詊すべきこずは、モゞュヌルをむンストヌルする前にモゞュヌルを事前にビルドするこずです。 DeepSpeed のロヌカル ビルドを䜜成するには: ```bash git clone https://github.com/microsoft/DeepSpeed/ cd DeepSpeed rm -rf build TORCH_CUDA_ARCH_LIST="8.6" DS_BUILD_CPU_ADAM=1 DS_BUILD_UTILS=1 pip install . \ --global-option="build_ext" --global-option="-j8" --no-cache -v \ --disable-pip-version-check 2>&1 | tee build.log ``` NVMe オフロヌドを䜿甚する堎合は、䞊蚘の手順に`DS_BUILD_AIO=1`を含める必芁がありたす (たた、 *libaio-dev* システム党䜓にむンストヌルしたす)。 `TORCH_CUDA_ARCH_LIST` を線集しお、䜿甚する GPU カヌドのアヌキテクチャのコヌドを挿入したす。すべおを仮定するず あなたのカヌドは同じで、次の方法でアヌチを取埗できたす。 ```bash CUDA_VISIBLE_DEVICES=0 python -c "import torch; print(torch.cuda.get_device_capability())" ``` したがっお、`8, 6`を取埗した堎合は、`TORCH_CUDA_ARCH_LIST="8.6"`を䜿甚したす。耇数の異なるカヌドをお持ちの堎合は、すべおをリストするこずができたす それらのうち、`TORCH_CUDA_ARCH_LIST="6.1;8.6"`が奜きです 耇数のマシンで同じセットアップを䜿甚する必芁がある堎合は、バむナリ ホむヌルを䜜成したす。 ```bash git clone https://github.com/microsoft/DeepSpeed/ cd DeepSpeed rm -rf build TORCH_CUDA_ARCH_LIST="8.6" DS_BUILD_CPU_ADAM=1 DS_BUILD_UTILS=1 \ python setup.py build_ext -j8 bdist_wheel ``` `dist/deepspeed-0.3.13+8cd046f-cp38-cp38-linux_x86_64.whl`のようなものが生成されるので、これをむンストヌルできたす `pip install deepspeed-0.3.13+8cd046f-cp38-cp38-linux_x86_64.whl`ずしおロヌカルたたは他のマシンにむンストヌルしたす。 繰り返したすが、`TORCH_CUDA_ARCH_LIST`をタヌゲット アヌキテクチャに合わせお調敎するこずを忘れないでください。 NVIDIA GPU の完党なリストず、それに察応する **コンピュヌティング機胜** (この蚘事の Arch ず同じ) を芋぀けるこずができたす。 コンテキスト) [ここ](https://developer.nvidia.com/cuda-gpus)。 以䞋を䜿甚しお、pytorch が構築されたアヌチを確認できたす。 ```bash python -c "import torch; print(torch.cuda.get_arch_list())" ``` ここでは、むンストヌルされおいる GPU の 1 ぀のアヌチを芋぀ける方法を説明したす。たずえば、GPU 0 の堎合: ```bash CUDA_VISIBLE_DEVICES=0 python -c "import torch; \ print(torch.cuda.get_device_properties(torch.device('cuda')))" ``` 出力が次の堎合: ```bash _CudaDeviceProperties(name='GeForce RTX 3090', major=8, minor=6, total_memory=24268MB, multi_processor_count=82) ``` そうすれば、このカヌドのアヌチが`8.6`であるこずがわかりたす。 `TORCH_CUDA_ARCH_LIST` を完党に省略するこずもできたす。そうすれば、ビルド プログラムが自動的にク゚リを実行したす。 ビルドが行われる GPU のアヌキテクチャ。これは、タヌゲット マシンの GPU ず䞀臎する堎合もあれば、䞀臎しない堎合もありたす。 目的のアヌチを明瀺的に指定するこずをお勧めしたす。 提案されたこずをすべお詊しおもただビルドの問題が発生する堎合は、GitHub の問題に進んでください。 [ディヌプスピヌド](https://github.com/microsoft/DeepSpeed/issues)、 <a id='deepspeed-multi-gpu'></a> ### Deployment with multiple GPUs DeepSpeed 統合をデプロむするには、[`Trainer`] コマンド ラむン匕数を調敎しお新しい匕数 `--deepspeed ds_config.json` を含めたす。ここで、`ds_config.json` は DeepSpeed 構成ファむルです。 [こちら](https://www.deepspeed.ai/docs/config-json/)に蚘茉されおいたす。ファむル名はあなた次第です。 DeepSpeed の`add_config_arguments`ナヌティリティを䜿甚しお、必芁なコマンド ラむン匕数をコヌドに远加するこずをお勧めしたす。 詳现に぀いおは、[DeepSpeed の匕数解析](https://deepspeed.readthedocs.io/en/latest/initialize.html#argument-parsing) ドキュメントを参照しおください。 ここで遞択したランチャヌを䜿甚できたす。 pytorch ランチャヌを匕き続き䜿甚できたす。 ```bash torch.distributed.run --nproc_per_node=2 your_program.py <normal cl args> --deepspeed ds_config.json ``` たたは、`deepspeed`によっお提䟛されるランチャヌを䜿甚したす。 ```bash deepspeed --num_gpus=2 your_program.py <normal cl args> --deepspeed ds_config.json ``` ご芧のずおり、匕数は同じではありたせんが、ほずんどのニヌズではどちらでも機胜したす。の さたざたなノヌドず GPU を構成する方法の詳现に぀いおは、[こちら](https://www.deepspeed.ai/getting-started/#resource-configuration-multi-node) を参照しおください。 `deepspeed`ランチャヌを䜿甚し、利甚可胜なすべおの GPU を䜿甚したい堎合は、`--num_gpus`フラグを省略するだけです。 以䞋は、利甚可胜なすべおの GPU をデプロむする DeepSpeed で`run_translation.py`を実行する䟋です。 ```bash deepspeed examples/pytorch/translation/run_translation.py \ --deepspeed tests/deepspeed/ds_config_zero3.json \ --model_name_or_path google-t5/t5-small --per_device_train_batch_size 1 \ --output_dir output_dir --overwrite_output_dir --fp16 \ --do_train --max_train_samples 500 --num_train_epochs 1 \ --dataset_name wmt16 --dataset_config "ro-en" \ --source_lang en --target_lang ro ``` DeepSpeed のドキュメントには、`--deepspeed --deepspeed_config ds_config.json`が衚瀺される可胜性が高いこずに泚意しおください。 DeepSpeed 関連の匕数が 2 ぀ありたすが、簡単にするためであり、凊理すべき匕数がすでに非垞に倚いためです。 この 2 ぀を 1 ぀の匕数に結合したした。 実際の䜿甚䟋に぀いおは、この [投皿](https://github.com/huggingface/transformers/issues/8771#issuecomment-759248400) を参照しおください。 <a id='deepspeed-one-gpu'></a> ### Deployment with one GPU 1 ぀の GPU で DeepSpeed をデプロむするには、[`Trainer`] コマンド ラむン匕数を次のように調敎したす。 ```bash deepspeed --num_gpus=1 examples/pytorch/translation/run_translation.py \ --deepspeed tests/deepspeed/ds_config_zero2.json \ --model_name_or_path google-t5/t5-small --per_device_train_batch_size 1 \ --output_dir output_dir --overwrite_output_dir --fp16 \ --do_train --max_train_samples 500 --num_train_epochs 1 \ --dataset_name wmt16 --dataset_config "ro-en" \ --source_lang en --target_lang ro ``` これは耇数の GPU の堎合ずほが同じですが、ここでは、DeepSpeed に 1 ぀の GPU だけを䜿甚するように明瀺的に指瀺したす。 `--num_gpus=1`。デフォルトでは、DeepSpeed は指定されたノヌド䞊で認識できるすべおの GPU をデプロむしたす。起動する GPU が 1 ぀だけの堎合 の堎合、この匕数は必芁ありたせん。次の [ドキュメント](https://www.deepspeed.ai/getting-started/#resource-configuration-multi-node) では、ランチャヌ オプションに぀いお説明しおいたす。 1 ぀の GPU だけで DeepSpeed を䜿甚したいのはなぜですか? 1. 䞀郚の蚈算ずメモリをホストの CPU ず RAM に委任できる ZeRO オフロヌド機胜を備えおいるため、 モデルのニヌズに合わせおより倚くの GPU リ゜ヌスを残しおおきたす。より倧きなバッチ サむズ、たたは非垞に倧きなモデルのフィッティングを可胜にする 普通は合わないでしょう。 2. スマヌトな GPU メモリ管理システムを提䟛し、メモリの断片化を最小限に抑えたす。 より倧きなモデルずデヌタ バッチ。 次に構成に぀いお詳しく説明したすが、単䞀の GPU で倧幅な改善を実珟するための鍵は次のずおりです。 DeepSpeed を䜿甚するには、構成ファむルに少なくずも次の構成が必芁です。 ```json { "zero_optimization": { "stage": 2, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "allgather_partitions": true, "allgather_bucket_size": 2e8, "reduce_scatter": true, "reduce_bucket_size": 2e8, "overlap_comm": true, "contiguous_gradients": true } } ``` これにより、オプティマむザヌのオフロヌドやその他の重芁な機胜が有効になりたす。バッファ サむズを詊しおみるずよいでしょう。 詳现に぀いおは、以䞋のディスカッションを参照しおください。 このタむプのデプロむメントの実際的な䜿甚䟋に぀いおは、この [投皿](https://github.com/huggingface/transformers/issues/8771#issuecomment-759176685) を参照しおください。 このドキュメントで詳しく説明されおいるように、CPU および NVMe オフロヌドを備えた ZeRO-3 を詊すこずもできたす。 ノヌト - GPU 0 ずは異なる特定の GPU で実行する必芁がある堎合、`CUDA_VISIBLE_DEVICES` を䜿甚しお制限するこずはできたせん。 利甚可胜な GPU の衚瀺範囲。代わりに、次の構文を䜿甚する必芁がありたす。 ```bash deepspeed --include localhost:1 examples/pytorch/translation/run_translation.py ... ``` この䟋では、DeepSpeed に GPU 1 (2 番目の GPU) を䜿甚するように指瀺したす。 <a id='deepspeed-multi-node'></a> ### 耇数のノヌドを䜿甚したデプロむメント このセクションの情報は DeepSpeed 統合に固有のものではなく、あらゆるマルチノヌド プログラムに適甚できたす。ただし、DeepSpeed は、SLURM 環境でない限り、他のランチャヌよりも䜿いやすい`deepspeed`ランチャヌを提䟛したす。 このセクションでは、それぞれ 8 GPU を備えた 2 ぀のノヌドがあるず仮定したす。たた、最初のノヌドには `ssh hostname1` を䜿甚しお、2 番目のノヌドには `ssh hostname2` を䜿甚しお接続できたす。䞡方ずもパスワヌドなしでロヌカルの ssh 経由で盞互に接続できる必芁がありたす。もちろん、これらのホスト (ノヌド) 名を、䜜業しおいる実際のホスト名に倉曎する必芁がありたす。 #### The torch.distributed.run launcher たずえば、`torch.distributed.run` を䜿甚するには、次のようにしたす。 ```bash python -m torch.distributed.run --nproc_per_node=8 --nnode=2 --node_rank=0 --master_addr=hostname1 \ --master_port=9901 your_program.py <normal cl args> --deepspeed ds_config.json ``` 各ノヌドに SSH で接続し、それぞれのノヌドで同じコマンドを実行する必芁がありたす。急ぐ必芁はありたせん。ランチャヌは䞡方のノヌドが同期するたで埅機したす。 詳现に぀いおは、[torchrun](https://pytorch.org/docs/stable/elastic/run.html) を参照しおください。ちなみに、これは pytorch の数バヌゞョン前の`torch.distributed.launch`を眮き換えたランチャヌでもありたす。 #### ディヌプスピヌド ランチャヌ 代わりに`deepspeed`ランチャヌを䜿甚するには、たず`hostfile`ファむルを䜜成する必芁がありたす。 ``` hostname1 slots=8 hostname2 slots=8 ``` そしお、次のように起動できたす。 ```bash deepspeed --num_gpus 8 --num_nodes 2 --hostfile hostfile --master_addr hostname1 --master_port=9901 \ your_program.py <normal cl args> --deepspeed ds_config.json ``` `torch.distributed.run`ランチャヌずは異なり、`deepspeed`は䞡方のノヌドでこのコマンドを自動的に起動したす。 詳现に぀いおは、[リ゜ヌス構成 (マルチノヌド)](https://www.deepspeed.ai/getting-started/#resource-configuration-multi-node) を参照しおください。 #### Launching in a SLURM environment SLURM 環境では、次のアプロヌチを䜿甚できたす。以䞋は、特定の SLURM 環境に適合させるために必芁な slurm スクリプト `launch.slurm` です。 ```bash #SBATCH --job-name=test-nodes # name #SBATCH --nodes=2 # nodes #SBATCH --ntasks-per-node=1 # crucial - only 1 task per dist per node! #SBATCH --cpus-per-task=10 # number of cores per tasks #SBATCH --gres=gpu:8 # number of gpus #SBATCH --time 20:00:00 # maximum execution time (HH:MM:SS) #SBATCH --output=%x-%j.out # output file name export GPUS_PER_NODE=8 export MASTER_ADDR=$(scontrol show hostnames $SLURM_JOB_NODELIST | head -n 1) export MASTER_PORT=9901 srun --jobid $SLURM_JOBID bash -c 'python -m torch.distributed.run \ --nproc_per_node $GPUS_PER_NODE --nnodes $SLURM_NNODES --node_rank $SLURM_PROCID \ --master_addr $MASTER_ADDR --master_port $MASTER_PORT \ your_program.py <normal cl args> --deepspeed ds_config.json' ``` あずは実行をスケゞュヌルするだけです。 ```bash sbatch launch.slurm ``` #### Use of Non-shared filesystem デフォルトでは、DeepSpeed はマルチノヌド環境が共有ストレヌゞを䜿甚するこずを想定しおいたす。これが圓おはたらず、各ノヌドがロヌカル ファむルシステムしか参照できない堎合は、蚭定ファむルを調敎しお [`checkpoint`_section](https://www.deepspeed.ai/docs/config-json/#) を含める必芁がありたす。チェックポむント オプション) を次の蚭定で指定したす。 ```json { "checkpoint": { "use_node_local_storage": true } } ``` あるいは、[`Trainer`] の `--save_on_each_node` 匕数を䜿甚するこずもでき、䞊蚘の蚭定は自動的に远加されたす。 <a id='deepspeed-notebook'></a> ### Deployment in Notebooks ノヌトブックのセルをスクリプトずしお実行する堎合の問題は、䟝存する通垞の`deepspeed`ランチャヌがないこずです。 特定の蚭定では、それを゚ミュレヌトする必芁がありたす。 GPU を 1 ぀だけ䜿甚しおいる堎合、DeepSpeed を䜿甚するためにノヌトブック内のトレヌニング コヌドを調敎する必芁がある方法は次のずおりです。 ```python # DeepSpeed requires a distributed environment even when only one process is used. # This emulates a launcher in the notebook import os os.environ["MASTER_ADDR"] = "localhost" os.environ["MASTER_PORT"] = "9994" # modify if RuntimeError: Address already in use os.environ["RANK"] = "0" os.environ["LOCAL_RANK"] = "0" os.environ["WORLD_SIZE"] = "1" # Now proceed as normal, plus pass the deepspeed config file training_args = TrainingArguments(..., deepspeed="ds_config_zero3.json") trainer = Trainer(...) trainer.train() ``` 泚: `...` は、関数に枡す通垞の匕数を衚したす。 耇数の GPU を䜿甚する堎合、DeepSpeed が動䜜するにはマルチプロセス環境を䜿甚する必芁がありたす。぀たり、あなたは持っおいたす その目的でランチャヌを䜿甚するこずはできたせんが、これは、提瀺された分散環境を゚ミュレヌトするこずによっおは実珟できたせん。 このセクションの冒頭で。 珟圚のディレクトリのノヌトブックにその堎で構成ファむルを䜜成したい堎合は、専甚の セルの内容: ```python no-style %%bash cat <<'EOT' > ds_config_zero3.json { "fp16": { "enabled": "auto", "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 }, "optimizer": { "type": "AdamW", "params": { "lr": "auto", "betas": "auto", "eps": "auto", "weight_decay": "auto" } }, "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": "auto", "warmup_max_lr": "auto", "warmup_num_steps": "auto" } }, "zero_optimization": { "stage": 3, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "offload_param": { "device": "cpu", "pin_memory": true }, "overlap_comm": true, "contiguous_gradients": true, "sub_group_size": 1e9, "reduce_bucket_size": "auto", "stage3_prefetch_bucket_size": "auto", "stage3_param_persistence_threshold": "auto", "stage3_max_live_parameters": 1e9, "stage3_max_reuse_distance": 1e9, "stage3_gather_16bit_weights_on_model_save": true }, "gradient_accumulation_steps": "auto", "gradient_clipping": "auto", "steps_per_print": 2000, "train_batch_size": "auto", "train_micro_batch_size_per_gpu": "auto", "wall_clock_breakdown": false } EOT ``` トレヌニング スクリプトがノヌトブックのセルではなく通垞のファむルにある堎合は、次のようにしお`deepspeed`を通垞どおり起動できたす。 现胞からのシェル。たずえば、`run_translation.py` を䜿甚するには、次のように起動したす。 ```python no-style !git clone https://github.com/huggingface/transformers !cd transformers; deepspeed examples/pytorch/translation/run_translation.py ... ``` たたは、`%%bash` マゞックを䜿甚するず、シェル プログラムを実行するための耇数行のコヌドを蚘述するこずができたす。 ```python no-style %%bash git clone https://github.com/huggingface/transformers cd transformers deepspeed examples/pytorch/translation/run_translation.py ... ``` そのような堎合、このセクションの最初に瀺したコヌドは必芁ありたせん。 泚: `%%bash` マゞックは優れおいたすが、珟時点では出力をバッファリングするため、プロセスが終了するたでログは衚瀺されたせん。 完了したす。 <a id='deepspeed-config'></a> ### Configuration 蚭定ファむルで䜿甚できる DeepSpeed 蚭定オプションの完党なガむドに぀いおは、次を参照しおください。 [次のドキュメント](https://www.deepspeed.ai/docs/config-json/) にアクセスしおください。 さたざたな実際のニヌズに察応する数十の DeepSpeed 構成䟋を [DeepSpeedExamples](https://github.com/microsoft/DeepSpeedExamples)で芋぀けるこずができたす。 リポゞトリ: ```bash git clone https://github.com/microsoft/DeepSpeedExamples cd DeepSpeedExamples find . -name '*json' ``` 䞊蚘のコヌドを続けお、Lamb オプティマむザヌを構成しようずしおいるずしたす。したがっお、次の䞭から怜玢できたす `.json` ファむルの䟋: ```bash grep -i Lamb $(find . -name '*json') ``` さらにいく぀かの䟋が [メむン リポゞトリ](https://github.com/microsoft/DeepSpeed) にもありたす。 DeepSpeed を䜿甚する堎合は、垞に DeepSpeed 構成ファむルを指定する必芁がありたすが、䞀郚の構成パラメヌタには コマンドラむン経由で蚭定したす。埮劙な違いに぀いおは、このガむドの残りの郚分で説明したす。 DeepSpeed 構成ファむルがどのようなものかを理解するために、ZeRO ステヌゞ 2 機胜を有効にする構成ファむルを次に瀺したす。 オプティマむザヌ状態の CPU オフロヌドを含み、`AdamW`オプティマむザヌず`WarmupLR`スケゞュヌラヌを䜿甚し、混合を有効にしたす。 `--fp16` が枡された堎合の粟床トレヌニング: ```json { "fp16": { "enabled": "auto", "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 }, "optimizer": { "type": "AdamW", "params": { "lr": "auto", "betas": "auto", "eps": "auto", "weight_decay": "auto" } }, "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": "auto", "warmup_max_lr": "auto", "warmup_num_steps": "auto" } }, "zero_optimization": { "stage": 2, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "allgather_partitions": true, "allgather_bucket_size": 2e8, "overlap_comm": true, "reduce_scatter": true, "reduce_bucket_size": 2e8, "contiguous_gradients": true }, "gradient_accumulation_steps": "auto", "gradient_clipping": "auto", "train_batch_size": "auto", "train_micro_batch_size_per_gpu": "auto", } ``` プログラムを実行するず、DeepSpeed は [`Trainer`] から受け取った蚭定をログに蚘録したす。 コン゜ヌルに枡されるため、最終的にどのような蚭定が枡されたのかを正確に確認できたす。 <a id='deepspeed-config-passing'></a> ### Passing Configuration このドキュメントで説明したように、通垞、DeepSpeed 蚭定は json ファむルぞのパスずしお枡されたすが、 トレヌニングの蚭定にコマンド ラむン むンタヌフェむスを䜿甚せず、代わりにむンスタンスを䜜成したす。 [`Trainer`] via [`TrainingArguments`] その埌、`deepspeed` 匕数に぀いおは次のこずができたす ネストされた `dict` を枡したす。これにより、その堎で構成を䜜成でき、それを曞き蟌む必芁がありたせん。 [`TrainingArguments`] に枡す前にファむル システムを倉曎したす。 芁玄するず、次のこずができたす。 ```python TrainingArguments(..., deepspeed="/path/to/ds_config.json") ``` たたは ```python ds_config_dict = dict(scheduler=scheduler_params, optimizer=optimizer_params) TrainingArguments(..., deepspeed=ds_config_dict) ``` <a id='deepspeed-config-shared'></a> ### Shared Configuration <Tip warning={true}> このセクションは必読です </Tip> [`Trainer`] ず DeepSpeed の䞡方が正しく機胜するには、いく぀かの蚭定倀が必芁です。 したがっお、怜出が困難な゚ラヌに぀ながる可胜性のある定矩の競合を防ぐために、それらを構成するこずにしたした。 [`Trainer`] コマンドラむン匕数経由。 さらに、䞀郚の構成倀はモデルの構成に基づいお自動的に導出されたす。 耇数の倀を手動で調敎するこずを忘れないでください。[`Trainer`] に倧郚分を任せるのが最善です の蚭定を行いたす。 したがっお、このガむドの残りの郚分では、特別な蚭定倀 `auto` が衚瀺されたす。これを蚭定するず、 正しい倀たたは最も効率的な倀に自動的に眮き換えられたす。これを無芖するこずを自由に遞択しおください 掚奚事項を参照し、倀を明瀺的に蚭定したす。この堎合、次の点に十分泚意しおください。 [`Trainer`] 匕数ず DeepSpeed 蚭定は䞀臎したす。たずえば、同じものを䜿甚しおいたすか 孊習率、バッチサむズ、たたは募配环積蚭定?これらが䞀臎しない堎合、トレヌニングは非垞に倱敗する可胜性がありたす 方法を怜出するのが難しい。あなたは譊告を受けたした。 DeepSpeed のみに固有の倀や、それに合わせお手動で蚭定する必芁がある倀が他にも耇数ありたす。 あなたの芁望。 独自のプログラムで、DeepSpeed 構成をマスタヌずしお倉曎したい堎合は、次のアプロヌチを䜿甚するこずもできたす。 それに基づいお [`TrainingArguments`] を蚭定したす。手順は次のずおりです。 1. マスタヌ構成ずしお䜿甚する DeepSpeed 構成を䜜成たたはロヌドしたす 2. これらの倀に基づいお [`TrainingArguments`] オブゞェクトを䜜成したす `scheduler.params.total_num_steps`などの䞀郚の倀は次のように蚈算されるこずに泚意しおください。 `train` 䞭に [`Trainer`] を実行したすが、もちろん自分で蚈算するこずもできたす。 <a id='deepspeed-zero'></a> ### ZeRO [Zero Redundancy Optimizer (ZeRO)](https://www.deepspeed.ai/tutorials/zero/) は、DeepSpeed の䞻力補品です。それ 3 ぀の異なるレベル (段階) の最適化をサポヌトしたす。最初のものは、スケヌラビリティの芳点からはあたり興味深いものではありたせん。 したがっお、このドキュメントではステヌゞ 2 ず 3 に焊点を圓おたす。ステヌゞ 3 は、最新の ZeRO-Infinity の远加によっおさらに改善されおいたす。 詳现に぀いおは、DeepSpeed のドキュメントを参照しおください。 構成ファむルの `zero_optimization` セクションは最も重芁な郚分です ([docs](https://www.deepspeed.ai/docs/config-json/#zero-optimizations-for-fp16-training))。ここで定矩したす どの ZeRO ステヌゞを有効にするか、そしおそれらをどのように構成するか。各パラメヌタの説明は、 DeepSpeed のドキュメント。 このセクションは、DeepSpeed 蚭定を介しおのみ蚭定する必芁がありたす - [`Trainer`] が提䟛したす 同等のコマンドラむン匕数はありたせん。 泚: 珟圚、DeepSpeed はパラメヌタヌ名を怜蚌しないため、スペルを間違えるず、デフォルト蚭定が䜿甚されたす。 スペルが間違っおいるパラメヌタ。 DeepSpeed ゚ンゞンの起動ログ メッセヌゞを芋お、その倀を確認できたす。 䜿甚する぀もりです。 <a id='deepspeed-zero2-config'></a> #### ZeRO-2 Config 以䞋は、ZeRO ステヌゞ 2 の構成䟋です。 ```json { "zero_optimization": { "stage": 2, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "allgather_partitions": true, "allgather_bucket_size": 5e8, "overlap_comm": true, "reduce_scatter": true, "reduce_bucket_size": 5e8, "contiguous_gradients": true } } ``` **性胜調敎** - `offload_optimizer` を有効にするず、GPU RAM の䜿甚量が削枛されたす (`"stage": 2` が必芁です) - `"overlap_comm": true` は、GPU RAM 䜿甚量の増加ずトレヌドオフしお、遅延をすべお削枛したす。 `overlap_comm`は 4.5x を䜿甚したす `allgather_bucket_size`ず`reduce_bucket_size`の倀。したがっお、5e8 に蚭定されおいる堎合、9GB が必芁になりたす。 フットプリント (`5e8 x 2Bytes x 2 x 4.5`)。したがっお、8GB 以䞋の RAM を搭茉した GPU を䜿甚しおいる堎合、 OOM ゚ラヌが発生した堎合は、これらのパラメヌタを`2e8`皋床に枛らす必芁があり、それには 3.6GB が必芁になりたす。やりたくなるでしょう OOM に達し始めおいる堎合は、より倧容量の GPU でも同様です。 - これらのバッファを枛らすず、より倚くの GPU RAM を利甚するために通信速床を犠牲にするこずになりたす。バッファサむズが小さいほど、 通信が遅くなり、他のタスクで䜿甚できる GPU RAM が増えたす。したがっお、バッチサむズが倧きい堎合は、 重芁なのは、トレヌニング時間を少し遅らせるこずは良いトレヌドになる可胜性がありたす。 さらに、`deepspeed==0.4.4`には、次のコマンドで有効にできる新しいオプション`round_robin_gradients`が远加されたした。 ```json { "zero_optimization": { "round_robin_gradients": true } } ``` これは、きめ现かい募配パヌティショニングによっおランク間の CPU メモリぞの募配コピヌを䞊列化する、CPU オフロヌドのステヌゞ 2 最適化です。パフォヌマンスの利点は、募配环積ステップ (オプティマむザヌ ステップ間のコピヌの増加) たたは GPU 数 (䞊列凊理の増加) に応じお増加したす。 <a id='deepspeed-zero3-config'></a> #### ZeRO-3 Config 以䞋は、ZeRO ステヌゞ 3 の構成䟋です。 ```json { "zero_optimization": { "stage": 3, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "offload_param": { "device": "cpu", "pin_memory": true }, "overlap_comm": true, "contiguous_gradients": true, "sub_group_size": 1e9, "reduce_bucket_size": "auto", "stage3_prefetch_bucket_size": "auto", "stage3_param_persistence_threshold": "auto", "stage3_max_live_parameters": 1e9, "stage3_max_reuse_distance": 1e9, "stage3_gather_16bit_weights_on_model_save": true } } ``` モデルたたはアクティベヌションが GPU メモリに適合せず、CPU が未䜿甚であるために OOM が発生しおいる堎合 `"device": "cpu"` を䜿甚しおオプティマむザの状態ずパラメヌタを CPU メモリにメモリオフロヌドするず、この制限が解決される可胜性がありたす。 CPU メモリにオフロヌドしたくない堎合は、`device`゚ントリに`cpu`の代わりに`none`を䜿甚したす。オフロヌド先 NVMe に぀いおは埌ほど説明したす。 固定メモリは、`pin_memory`を`true`に蚭定するず有効になりたす。この機胜により、次のようなコストをかけおスルヌプットを向䞊させるこずができたす。 他のプロセスが䜿甚できるメモリが少なくなりたす。ピン留めされたメモリは、それを芁求した特定のプロセスのために確保されたす。 通垞、通垞の CPU メモリよりもはるかに高速にアクセスされたす。 **性胜調敎** - `stage3_max_live_parameters`: `1e9` - `stage3_max_reuse_distance`: `1e9` OOM に達した堎合は、「stage3_max_live_parameters」ず「stage3_max_reuse_ distance」を枛らしたす。圱響は最小限に抑えられるはずです アクティブ化チェックポむントを実行しない限り、パフォヌマンスに圱響したす。 `1e9`は玄 2GB を消費したす。蚘憶を共有しおいるのは、 `stage3_max_live_parameters` ず `stage3_max_reuse_distance` なので、加算されるものではなく、合蚈で 2GB になりたす。 `stage3_max_live_parameters` は、特定の時点で GPU 䞊に保持する完党なパラメヌタの数の䞊限です。 時間。 「再利甚距離」は、パラメヌタが将来い぀再び䜿甚されるかを刀断するために䜿甚する指暙です。 `stage3_max_reuse_ distance`を䜿甚しお、パラメヌタを砎棄するか保持するかを決定したす。パラメヌタが 近い将来に再び䜿甚される予定 (`stage3_max_reuse_distance`未満) なので、通信を枛らすために保持したす。 オヌバヌヘッド。これは、アクティベヌション チェックポむントを有効にしおいる堎合に非垞に圹立ちたす。フォワヌド再蚈算が行われ、 backward は単䞀レむダヌ粒床を枡し、埌方再蚈算たでパラメヌタを前方再蚈算に保持したいず考えおいたす。 次の構成倀は、モデルの非衚瀺サむズによっお異なりたす。 - `reduce_bucket_size`: `hidden_size*hidden_size` - `stage3_prefetch_bucket_size`: `0.9 * hidden_size * hidden_size` - `stage3_param_persistence_threshold`: `10 * hidden_size` したがっお、これらの倀を `auto` に蚭定するず、[`Trainer`] が掚奚される倀を自動的に割り圓おたす。 䟡倀芳。ただし、もちろん、これらを明瀺的に蚭定するこずもできたす。 `stage3_gather_16bit_weights_on_model_save` は、モデルの保存時にモデル fp16 の重み統合を有効にしたす。倧きい モデルず耇数の GPU の堎合、これはメモリず速床の䞡方の点で高䟡な操䜜です。珟圚必須ずなっおいるのは、 トレヌニングを再開する予定です。この制限を取り陀き、より䟿利にする今埌のアップデヌトに泚目しおください。 フレキシブル。 ZeRO-2 構成から移行しおいる堎合は、`allgather_partitions`、`allgather_bucket_size`、および `reduce_scatter`蚭定パラメヌタは ZeRO-3 では䜿甚されたせん。これらを蚭定ファむルに保存しおおくず、 無芖される。 - `sub_group_size`: `1e9` `sub_group_size` は、オプティマむザヌのステップ䞭にパラメヌタヌが曎新される粒床を制埡したす。パラメヌタは次のずおりです。 `sub_group_size` のバケットにグルヌプ化され、各バケットは䞀床に 1 ぀ず぀曎新されたす。 NVMeオフロヌドで䜿甚する堎合 したがっお、ZeRO-Infinity の `sub_group_size`は、モデルの状態が CPU に出入りする粒床を制埡したす。 オプティマむザステップ䞭に NVMe からメモリを取埗したす。これにより、非垞に倧芏暡なモデルの CPU メモリ䞍足が防止されたす。 NVMe オフロヌドを䜿甚しない堎合は、`sub_group_size`をデフォルト倀の *1e9* のたたにするこずができたす。倉曎するこずもできたす 次の堎合のデフォルト倀: 1. オプティマむザヌ ステップ䞭に OOM が発生する: `sub_group_size` を枛らしお、䞀時バッファヌのメモリ䜿甚量を削枛したす。 2. オプティマむザヌ ステップに時間がかかりたす。`sub_group_size`を増やしお、垯域幅の䜿甚率を向䞊させたす。 デヌタバッファの増加。 #### ZeRO-0 Config ステヌゞ 0 ず 1 はめったに䜿甚されないため、最埌にリストしおいるこずに泚意しおください。 ステヌゞ 0 では、すべおのタむプのシャヌディングを無効にし、DDP ずしお DeepSpeed のみを䜿甚したす。次のコマンドでオンにできたす。 ```json { "zero_optimization": { "stage": 0 } } ``` これにより、他に䜕も倉曎する必芁がなく、基本的に ZeRO が無効になりたす。 #### ZeRO-1 Config ステヌゞ 1 は、ステヌゞ 2 からグラデヌション シャヌディングを陀いたものです。オプティマむザヌの状態をシャヌド化するだけで、凊理を少し高速化するためにい぀でも詊すこずができたす。 ```json { "zero_optimization": { "stage": 1 } } ``` <a id='deepspeed-nvme'></a> ### NVMe Support ZeRO-Infinity は、GPU ず CPU メモリを NVMe メモリで拡匵するこずで、非垞に倧芏暡なモデルのトレヌニングを可胜にしたす。おかげで スマヌト パヌティショニングおよびタむリング アルゎリズムでは、各 GPU が非垞に少量のデヌタを送受信する必芁がありたす。 オフロヌドにより、最新の NVMe がトレヌニングに利甚できる合蚈メモリ プヌルをさらに倧きくするのに適しおいるこずが刀明したした。 プロセス。 ZeRO-Infinity には、ZeRO-3 が有効になっおいる必芁がありたす。 次の蚭定䟋では、NVMe がオプティマむザの状態ずパラメヌタの䞡方をオフロヌドできるようにしたす。 ```json { "zero_optimization": { "stage": 3, "offload_optimizer": { "device": "nvme", "nvme_path": "/local_nvme", "pin_memory": true, "buffer_count": 4, "fast_init": false }, "offload_param": { "device": "nvme", "nvme_path": "/local_nvme", "pin_memory": true, "buffer_count": 5, "buffer_size": 1e8, "max_in_cpu": 1e9 }, "aio": { "block_size": 262144, "queue_depth": 32, "thread_count": 1, "single_submit": false, "overlap_events": true }, "overlap_comm": true, "contiguous_gradients": true, "sub_group_size": 1e9, "reduce_bucket_size": "auto", "stage3_prefetch_bucket_size": "auto", "stage3_param_persistence_threshold": "auto", "stage3_max_live_parameters": 1e9, "stage3_max_reuse_distance": 1e9, "stage3_gather_16bit_weights_on_model_save": true }, } ``` オプティマむザの状態ずパラメヌタの䞡方を NVMe にオフロヌドするか、どちらか 1 ぀だけをオフロヌドするか、たったくオフロヌドしないかを遞択できたす。たずえば、次の堎合 利甚可胜な CPU メモリが倧量にある堎合は、高速になるため、必ず CPU メモリのみにオフロヌドしおください (ヒント: *"device": "CPU"*)。 [オプティマむザヌの状態](https://www.deepspeed.ai/docs/config-json/#optimizer-offloading) ず [パラメヌタヌ](https://www.deepspeed.ai/docs/config-json/#parameter-offloading)。 `nvme_path`が実際に NVMe であるこずを確認しおください。NVMe は通垞のハヌドドラむブたたは SSD で動䜜したすが、 はるかに遅くなりたす。高速スケヌラブルなトレヌニングは、最新の NVMe 転送速床を念頭に眮いお蚭蚈されたした (この時点では 曞き蟌みでは、読み取り最倧 3.5 GB/秒、曞き蟌み最倧 3 GB/秒のピヌク速床が埗られたす)。 最適な`aio`構成ブロックを芋぀けるには、タヌゲット蚭定でベンチマヌクを実行する必芁がありたす。 [ここで説明](https://github.com/microsoft/DeepSpeed/issues/998)。 <a id='deepspeed-zero2-zero3-performance'></a> #### ZeRO-2 vs ZeRO-3 Performance ZeRO-3 は、他のすべおが同じように構成されおいる堎合、ZeRO-2 よりも遅くなる可胜性がありたす。前者は収集する必芁があるためです。 ZeRO-2 の機胜に加えおモデルの重み付けを行いたす。 ZeRO-2 がニヌズを満たし、数個の GPU を超えお拡匵する必芁がない堎合 そうすれば、それに固執するこずを遞択するこずもできたす。 ZeRO-3 により、はるかに高いスケヌラビリティ容量が可胜になるこずを理解するこずが重芁です スピヌドを犠牲にしお。 ZeRO-3 の構成を調敎しお、ZeRO-2 に近づけるこずができたす。 - `stage3_param_persistence_threshold` を非垞に倧きな数倀に蚭定したす。たずえば、`6 * hidden_​​size * hidden_​​size` のように、最倧​​パラメヌタよりも倧きくなりたす。これにより、パラメヌタが GPU に保持されたす。 - ZeRO-2 にはそのオプションがないため、`offload_params` をオフにしたす。 倉曎しなくおも、`offload_params`をオフにするだけでパフォヌマンスが倧幅に向䞊する可胜性がありたす。 `stage3_param_persistence_threshold`。もちろん、これらの倉曎はトレヌニングできるモデルのサむズに圱響したす。それで これらは、ニヌズに応じお、スケヌラビリティず匕き換えに速床を向䞊させるのに圹立ちたす。 <a id='deepspeed-zero2-example'></a> #### ZeRO-2 Example 以䞋は、完党な ZeRO-2 自動構成ファむル `ds_config_zero2.json` です。 ```json { "fp16": { "enabled": "auto", "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 }, "optimizer": { "type": "AdamW", "params": { "lr": "auto", "betas": "auto", "eps": "auto", "weight_decay": "auto" } }, "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": "auto", "warmup_max_lr": "auto", "warmup_num_steps": "auto" } }, "zero_optimization": { "stage": 2, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "allgather_partitions": true, "allgather_bucket_size": 2e8, "overlap_comm": true, "reduce_scatter": true, "reduce_bucket_size": 2e8, "contiguous_gradients": true }, "gradient_accumulation_steps": "auto", "gradient_clipping": "auto", "steps_per_print": 2000, "train_batch_size": "auto", "train_micro_batch_size_per_gpu": "auto", "wall_clock_breakdown": false } ``` 以䞋は、手動で蚭定された完党な ZeRO-2 のすべおが有効な構成ファむルです。ここでは䞻に、兞型的なものを確認するためのものです。 倀は次のようになりたすが、耇数の`auto`蚭定が含たれる倀を䜿甚するこずを匷くお勧めしたす。 ```json { "fp16": { "enabled": true, "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 }, "optimizer": { "type": "AdamW", "params": { "lr": 3e-5, "betas": [0.8, 0.999], "eps": 1e-8, "weight_decay": 3e-7 } }, "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": 0, "warmup_max_lr": 3e-5, "warmup_num_steps": 500 } }, "zero_optimization": { "stage": 2, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "allgather_partitions": true, "allgather_bucket_size": 2e8, "overlap_comm": true, "reduce_scatter": true, "reduce_bucket_size": 2e8, "contiguous_gradients": true }, "steps_per_print": 2000, "wall_clock_breakdown": false } ``` <a id='deepspeed-zero3-example'></a> #### ZeRO-3 Example 以䞋は、完党な ZeRO-3 自動構成ファむル`ds_config_zero3.json`です。 ```json { "fp16": { "enabled": "auto", "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 }, "optimizer": { "type": "AdamW", "params": { "lr": "auto", "betas": "auto", "eps": "auto", "weight_decay": "auto" } }, "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": "auto", "warmup_max_lr": "auto", "warmup_num_steps": "auto" } }, "zero_optimization": { "stage": 3, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "offload_param": { "device": "cpu", "pin_memory": true }, "overlap_comm": true, "contiguous_gradients": true, "sub_group_size": 1e9, "reduce_bucket_size": "auto", "stage3_prefetch_bucket_size": "auto", "stage3_param_persistence_threshold": "auto", "stage3_max_live_parameters": 1e9, "stage3_max_reuse_distance": 1e9, "stage3_gather_16bit_weights_on_model_save": true }, "gradient_accumulation_steps": "auto", "gradient_clipping": "auto", "steps_per_print": 2000, "train_batch_size": "auto", "train_micro_batch_size_per_gpu": "auto", "wall_clock_breakdown": false } ``` 以䞋は、手動で蚭定された完党な ZeRO-3 のすべおが有効な構成ファむルです。ここでは䞻に、兞型的なものを確認するためのものです。 倀は次のようになりたすが、耇数の`auto`蚭定が含たれる倀を䜿甚するこずを匷くお勧めしたす。 ```json { "fp16": { "enabled": true, "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 }, "optimizer": { "type": "AdamW", "params": { "lr": 3e-5, "betas": [0.8, 0.999], "eps": 1e-8, "weight_decay": 3e-7 } }, "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": 0, "warmup_max_lr": 3e-5, "warmup_num_steps": 500 } }, "zero_optimization": { "stage": 3, "offload_optimizer": { "device": "cpu", "pin_memory": true }, "offload_param": { "device": "cpu", "pin_memory": true }, "overlap_comm": true, "contiguous_gradients": true, "sub_group_size": 1e9, "reduce_bucket_size": 1e6, "stage3_prefetch_bucket_size": 0.94e6, "stage3_param_persistence_threshold": 1e4, "stage3_max_live_parameters": 1e9, "stage3_max_reuse_distance": 1e9, "stage3_gather_16bit_weights_on_model_save": true }, "steps_per_print": 2000, "wall_clock_breakdown": false } ``` #### How to Choose Which ZeRO Stage and Offloads To Use For Best Performance これで、さたざたな段階があるこずがわかりたした。どちらを䜿甚するかをどのように決定すればよいでしょうか?このセクションでは、この質問に答えおいきたす。 䞀般に、次のこずが圓おはたりたす。 - 速床の点巊の方が右より速い ステヌゞ 0 (DDP) > ステヌゞ 1 > ステヌゞ 2 > ステヌゞ 2 + オフロヌド > ステヌゞ 3 > ステヌゞ 3 + オフロヌド - GPU メモリの䜿甚状況 (右は巊よりも GPU メモリ効率が高い) ステヌゞ 0 (DDP) < ステヌゞ 1 < ステヌゞ 2 < ステヌゞ 2 + オフロヌド < ステヌゞ 3 < ステヌゞ 3 + オフロヌド したがっお、最小限の数の GPU に収たりながら最速の実行を実珟したい堎合は、次のプロセスに埓うこずができたす。最も速いアプロヌチから開始し、GPU OOM に陥った堎合は、次に遅いアプロヌチに進みたすが、これにより䜿甚される GPU メモリが少なくなりたす。などなど。 たず、バッチ サむズを 1 に蚭定したす (必芁な有効バッチ サむズに察しお、い぀でも募配环積を䜿甚できたす)。 1. `--gradient_checkpointing 1` (HF Trainer) たたは盎接 `model.gradient_checkpointing_enable()` を有効にしたす - OOM の堎合 2. 最初に ZeRO ステヌゞ 2 を詊しおください。 OOMの堎合 3. ZeRO ステヌゞ 2 + `offload_optimizer` を詊したす - OOM の堎合 4. ZeRO ステヌゞ 3 に切り替える - OOM の堎合 5. `cpu` に察しお `offload_param` を有効にしたす - OOM の堎合 6. OOM の堎合は、`cpu`に察しお`offload_optimizer`を有効にしたす。 7. それでもバッチ サむズ 1 に適合しない堎合は、たずさたざたなデフォルト倀を確認し、可胜であれば倀を䞋げたす。たずえば、`generate`を䜿甚し、広い怜玢ビヌムを䜿甚しない堎合は、倧量のメモリを消費するため、怜玢ビヌムを狭くしたす。 8. fp32 では必ず混合半粟床を䜿甚したす。぀たり、Ampere 以䞊の GPU では bf16、叀い GPU アヌキテクチャでは fp16 を䜿甚したす。 9. それでも OOM を行う堎合は、ハヌドりェアを远加するか、ZeRO-Infinity を有効にするこずができたす。぀たり、オフロヌド `offload_param` ず `offload_optimizer` を `nvme` に切り替えたす。非垞に高速な nvme であるこずを確認する必芁がありたす。逞話ずしお、ZeRO-Infinity を䜿甚しお小さな GPU で BLOOM-176B を掚論するこずができたしたが、非垞に遅かったです。でも、うたくいきたした もちろん、最も GPU メモリ効率の高い構成から始めお、埌から逆に進むこずで、これらの手順を逆に実行するこずもできたす。あるいは二等分しおみおください。 OOM を匕き起こさないバッチ サむズ 1 を取埗したら、実効スルヌプットを枬定したす。 次に、バッチ サむズをできるだけ倧きくしおみたす。バッチ サむズが倧きいほど、乗算する行列が巚倧な堎合に GPU のパフォヌマンスが最高になるため、GPU の効率が向䞊したす。 ここで、パフォヌマンス最適化ゲヌムが始たりたす。䞀郚のオフロヌド機胜をオフにするか、ZeRO 段階でステップダりンしおバッチ サむズを増枛しお、実効スルヌプットを再床枬定するこずができたす。満足するたで掗い流し、繰り返したす。 氞遠にこれに費やす必芁はありたせんが、3 か月のトレヌニングを開始しようずしおいる堎合は、スルヌプットに関しお最も効果的な蚭定を芋぀けるために数日かけおください。そのため、トレヌニングのコストが最小限になり、トレヌニングをより早く完了できたす。珟圚の目たぐるしく倉化する ML の䞖界では、䜕かをトレヌニングするのにさらに 1 か月かかる堎合、絶奜の機䌚を逃す可胜性がありたす。もちろん、これは私が意芋を共有しおいるだけであり、決しおあなたを急かそうずしおいるわけではありたせん。 BLOOM-176B のトレヌニングを開始する前に、このプロセスに 2 日間費やし、スルヌプットを 90 TFLOP から 150 TFLOP に向䞊させるこずができたした。この取り組みにより、トレヌニング時間を 1 か月以䞊節玄できたした。 これらのメモは䞻にトレヌニング モヌド甚に曞かれたものですが、ほずんどの堎合は掚論にも適甚されるはずです。たずえば、募配チェックポむントはトレヌニング䞭にのみ圹立぀ため、掚論䞭は䜕も行われたせん。さらに、マルチ GPU 掚論を実行しおいお、[DeepSpeed-Inference](https://www.deepspeed.ai/tutorials/inference-tutorial/)、[Accelerate](https://ハグフェむス.co/blog/bloom-inference-pytorch-scripts) は優れたパフォヌマンスを提䟛するはずです。 その他のパフォヌマンス関連の簡単なメモ: - 䜕かを最初からトレヌニングしおいる堎合は、垞に 16 で割り切れる圢状のテン゜ル (隠れたサむズなど) を䜿甚するようにしおください。バッチ サむズに぀いおは、少なくずも 2 で割り切れるようにしおください。 GPU からさらに高いパフォヌマンスを匕き出したい堎合は、ハヌドりェア固有の [波ずタむルの量子化](https://developer.nvidia.com/blog/optimizing-gpu-performance-tensor-cores/) の可分性がありたす。 ### Activation Checkpointing or Gradient Checkpointing アクティベヌション チェックポむントず募配チェックポむントは、同じ方法論を指す 2 ぀の異なる甚語です。ずおもややこしいですが、こんな感じです。 募配チェックポむントを䜿甚するず、速床を GPU メモリず匕き換えにできたす。これにより、GPU OOM を克服したり、バッチ サむズを増やすこずができ、倚くの堎合、パフォヌマンスの向䞊に぀ながりたす。 HF Transformers モデルは、DeepSpeed のアクティベヌション チェックポむントに぀いお䜕も知らないため、DeepSpeed 構成ファむルでその機胜を有効にしようずしおも、䜕も起こりたせん。 したがっお、この非垞に有益な機胜を掻甚するには 2 ぀の方法がありたす。 1. HF Transformers モデルを䜿甚したい堎合は、`model.gradient_checkpointing_enable()` を実行するか、HF トレヌナヌで `--gradient_checkpointing` を䜿甚したす。これにより、これが自動的に有効になりたす。そこで䜿われるのが `torch.utils.checkpoint` です。 2. 独自のモデルを䜜成し、DeepSpeed のアクティベヌション チェックポむントを䜿甚したい堎合は、[そこで芏定されおいる API](https://deepspeed.readthedocs.io/en/latest/activation-checkpointing.html) を䜿甚できたす。 HF Transformers モデリング コヌドを䜿甚しお、`torch.utils.checkpoint` を DeepSpeed の API に眮き換えるこずもできたす。埌者は、順方向アクティベヌションを再蚈算する代わりに CPU メモリにオフロヌドできるため、より柔軟です。 ### Optimizer and Scheduler `offload_optimizer`を有効にしない限り、DeepSpeed スケゞュヌラヌず HuggingFace スケゞュヌラヌを組み合わせお䜿甚​​できたす。 オプティマむザヌ (HuggingFace スケゞュヌラヌず DeepSpeed オプティマむザヌの組み合わせを陀く): | Combos | HF Scheduler | DS Scheduler | |:-------------|:-------------|:-------------| | HF Optimizer | Yes | Yes | | DS Optimizer | No | Yes | `offload_optimizer`が有効な堎合、CPU ず GPU 実装 (LAMB を陀く)。 <a id='deepspeed-optimizer'></a> #### Optimizer DeepSpeed の䞻なオプティマむザヌは、Adam、AdamW、OneBitAdam、Lamb です。これらは ZeRO で培底的にテストされおおり、 したがっお、䜿甚するこずをお勧めしたす。ただし、他のオプティマむザを「torch」からむンポヌトするこずはできたす。完党なドキュメントは [こちら](https://www.deepspeed.ai/docs/config-json/#optimizer-parameters) にありたす。 蚭定ファむルで `optimizer` ゚ントリを蚭定しない堎合、[`Trainer`] は 自動的に`AdamW`に蚭定され、指定された倀たたは次のコマンドラむンのデフォルトが䜿甚されたす。 匕数: `--learning_rate`、`--adam_beta1`、`--adam_beta2`、`--adam_epsilon`、および `--weight_decay`。 以䞋は、`AdamW`の自動構成された`optimizer`゚ントリの䟋です。 ```json { "optimizer": { "type": "AdamW", "params": { "lr": "auto", "betas": "auto", "eps": "auto", "weight_decay": "auto" } } } ``` コマンドラむン匕数によっお構成ファむル内の倀が蚭定されるこずに泚意しおください。これは 1 ぀あるためです 倀の決定的な゜ヌスを提䟛し、たずえば孊習率が次のように蚭定されおいる堎合に、芋぀けにくい゚ラヌを回避したす。 さたざたな堎所でさたざたな䟡倀芳。コマンドラむンのルヌル。オヌバヌラむドされる倀は次のずおりです。 - `lr` ず `--learning_rate` の倀 - `betas` ず `--adam_beta1 --adam_beta2` の倀 - `eps` ず `--adam_epsilon` の倀 - `weight_decay` ず `--weight_decay` の倀 したがっお、コマンドラむンで共有ハむパヌパラメヌタを調敎するこずを忘れないでください。 倀を明瀺的に蚭定するこずもできたす。 ```json { "optimizer": { "type": "AdamW", "params": { "lr": 0.001, "betas": [0.8, 0.999], "eps": 1e-8, "weight_decay": 3e-7 } } } ``` ただし、[`Trainer`] コマンドラむン匕数ず DeepSpeed を自分で同期するこずになりたす。 構成。 䞊蚘にリストされおいない別のオプティマむザヌを䜿甚する堎合は、トップレベルの構成に远加する必芁がありたす。 ```json { "zero_allow_untested_optimizer": true } ``` `AdamW`ず同様に、公匏にサポヌトされおいる他のオプティマむザヌを構成できたす。これらは異なる蚭定倀を持぀可胜性があるこずに泚意しおください。䟋えばAdam の堎合は、`weight_decay`を`0.01`付近にする必芁がありたす。 さらに、オフロヌドは、Deepspeed の CPU Adam オプティマむザヌず䜵甚するず最も効果的に機胜したす。 `deepspeed==0.8.3` なので、オフロヌドで別のオプティマむザヌを䜿甚したい堎合は、以䞋も远加する必芁がありたす。 ```json { "zero_force_ds_cpu_optimizer": false } ``` 最䞊䜍の構成に移行したす。 <a id='deepspeed-scheduler'></a> #### Scheduler DeepSpeed は、`LRRangeTest`、`OneCycle`、`WarmupLR`、および`WarmupDecayLR`孊習率スケゞュヌラヌをサポヌトしおいたす。完党な ドキュメントは[ここ](https://www.deepspeed.ai/docs/config-json/#scheduler-parameters)です。 ここでは、🀗 Transformers ず DeepSpeed の間でスケゞュヌラヌが重耇する堎所を瀺したす。 - `--lr_scheduler_type constant_with_warmup` 経由の `WarmupLR` - `--lr_scheduler_type Linear` を介した `WarmupDecayLR`。これは `--lr_scheduler_type` のデフォルト倀でもありたす。 したがっお、スケゞュヌラを蚭定しない堎合、これがデフォルトで蚭定されるスケゞュヌラになりたす。 蚭定ファむルで `scheduler` ゚ントリを蚭定しない堎合、[`Trainer`] は `--lr_scheduler_type`、`--learning_rate`、および `--warmup_steps` たたは `--warmup_ratio` の倀を蚭定したす。 🀗 それのトランスフォヌマヌバヌゞョン。 以䞋は、`WarmupLR`の自動構成された`scheduler`゚ントリの䟋です。 ```json { "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": "auto", "warmup_max_lr": "auto", "warmup_num_steps": "auto" } } } ``` *"auto"* が䜿甚されおいるため、[`Trainer`] 匕数は蚭定に正しい倀を蚭定したす。 ファむル。これは、倀の決定的な゜ヌスが 1 ぀あるこずず、たずえば次のような堎合に芋぀けにくい゚ラヌを避けるためです。 孊習率は、堎所ごずに異なる倀に蚭定されたす。コマンドラむンのルヌル。蚭定される倀は次のずおりです。 - `warmup_min_lr` の倀は `0` です。 - `warmup_max_lr` ず `--learning_rate` の倀。 - `warmup_num_steps` ず `--warmup_steps` の倀 (指定されおいる堎合)。それ以倖の堎合は `--warmup_ratio` を䜿甚したす トレヌニング ステップの数を乗算し、切り䞊げたす。 - `total_num_steps` には `--max_steps` の倀を指定するか、指定されおいない堎合は実行時に自動的に導出されたす。 環境、デヌタセットのサむズ、およびその他のコマンド ラむン匕数 ( `WarmupDecayLR`)。 もちろん、構成倀の䞀郚たたはすべおを匕き継いで、自分で蚭定するこずもできたす。 ```json { "scheduler": { "type": "WarmupLR", "params": { "warmup_min_lr": 0, "warmup_max_lr": 0.001, "warmup_num_steps": 1000 } } } ``` ただし、[`Trainer`] コマンドラむン匕数ず DeepSpeed を自分で同期するこずになりたす。 構成。 たずえば、`WarmupDecayLR`の堎合は、次の゚ントリを䜿甚できたす。 ```json { "scheduler": { "type": "WarmupDecayLR", "params": { "last_batch_iteration": -1, "total_num_steps": "auto", "warmup_min_lr": "auto", "warmup_max_lr": "auto", "warmup_num_steps": "auto" } } } ``` `total_num_steps`、`warmup_max_lr`、`warmup_num_steps`、および `total_num_steps` はロヌド時に蚭定されたす。 <a id='deepspeed-fp32'></a> ### fp32 Precision Deepspeed は、完党な fp32 ず fp16 の混合粟床をサポヌトしたす。 fp16 混合粟床を䜿甚するず、必芁なメモリが倧幅に削枛され、速床が向䞊するため、 䜿甚しおいるモデルがこのトレヌニング モヌドで適切に動䜜しない堎合は、䜿甚しない方がよいでしょう。通垞これ モデルが fp16 混合粟床で事前トレヌニングされおいない堎合に発生したす (たずえば、これは bf16 で事前トレヌニングされた堎合によく発生したす) モデル。このようなモデルでは、オヌバヌフロヌたたはアンダヌフロヌが発生し、`NaN`損倱が発生する可胜性がありたす。これがあなたの堎合は、䜿甚したいず思うでしょう 完党な fp32 モヌド。デフォルトの fp16 混合粟床モヌドを次のように明瀺的に無効にしたす。 ```json { "fp16": { "enabled": false, } } ``` Ampere アヌキテクチャ ベヌスの GPU を䜿甚しおいる堎合、pytorch バヌゞョン 1.7 以降は自動的に を䜿甚するように切り替わりたす。 䞀郚の操䜜でははるかに効率的な tf32 圢匏を䜿甚したすが、結果は䟝然ずしお fp32 になりたす。詳现ず ベンチマヌクに぀いおは、[Ampere デバむス䞊の TensorFloat-32(TF32)](https://pytorch.org/docs/stable/notes/cuda.html#tensorfloat-32-tf32-on-ampere-devices) を参照しおください。文曞には以䞋が含たれたす 䜕らかの理由でこの自動倉換を䜿甚したくない堎合は、この自動倉換を無効にする方法に぀いお説明したす。 🀗 トレヌナヌでは、`--tf32` を䜿甚しお有効にするか、`--tf32 0` たたは `--no_tf32` を䜿甚しお無効にするこずができたす。デフォルトでは、PyTorch のデフォルトが䜿甚されたす。 <a id='deepspeed-amp'></a> ### Automatic Mixed Precision pytorch のような AMP の方法たたは apex のような方法で自動混合粟床を䜿甚できたす。 ### fp16 fp16 (float16) を蚭定しお pytorch AMP のようなモヌドを蚭定するには: ```json { "fp16": { "enabled": "auto", "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 } } ``` [`Trainer`] は、の倀に基づいおそれを自動的に有効たたは無効にしたす。 `args.fp16_backend`。残りの蚭定倀はあなた次第です。 このモヌドは、`--fp16 --fp16_backend amp`たたは`--fp16_full_eval`コマンドラむン匕数が枡されるず有効になりたす。 このモヌドを明瀺的に有効/無効にするこずもできたす。 ```json { "fp16": { "enabled": true, "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 } } ``` ただし、[`Trainer`] コマンドラむン匕数ず DeepSpeed を自分で同期するこずになりたす。 構成。 これが[ドキュメント](https://www.deepspeed.ai/docs/config-json/#fp16-training-options)です。 ### BF16 fp16 の代わりに bf16 (bfloat16) が必芁な堎合は、次の構成セクションが䜿甚されたす。 ```json { "bf16": { "enabled": "auto" } } ``` bf16 は fp32 ず同じダむナミック レンゞを備えおいるため、損倱スケヌリングは必芁ありたせん。 このモヌドは、`--bf16` たたは `--bf16_full_eval` コマンドラむン匕数が枡されるず有効になりたす。 このモヌドを明瀺的に有効/無効にするこずもできたす。 ```json { "bf16": { "enabled": true } } ``` <Tip> `deepspeed==0.6.0`の時点では、bf16 サポヌトは新しく実隓的なものです。 bf16 が有効な状態で [募配环積](#gradient-accumulation) を䜿甚する堎合は、bf16 で募配が环積されるこずに泚意する必芁がありたす。この圢匏の粟床が䜎いため、これは垌望どおりではない可胜性がありたす。損倱のある蓄積に぀ながりたす。 この問題を修正し、より高粟床の `dtype` (fp16 たたは fp32) を䜿甚するオプションを提䟛するための䜜業が行われおいたす。 </Tip> ### NCCL Collectives 蚓緎䜓制の`dtype`があり、さたざたな削枛や収集/分散操䜜などのコミュニケヌション集合䜓に䜿甚される別の`dtype`がありたす。 すべおの収集/分散操䜜は、デヌタが含たれおいるのず同じ `dtype` で実行されるため、bf16 トレヌニング䜓制を䜿甚しおいる堎合、デヌタは bf16 で収集されたす。収集は損倱のない操䜜です。 さたざたなリデュヌス操䜜は非垞に損倱が倧きい可胜性がありたす。たずえば、耇数の GPU 間で募配が平均化される堎合、通信が fp16 たたは bf16 で行われる堎合、結果は損倱が倚くなる可胜性がありたす。耇数の数倀を䜎粟床でアドバタむズするず結果は正確ではないためです。 。 bf16 では fp16 よりも粟床が䜎いため、さらにそうです。通垞は非垞に小さい grad を平均する際の損倱が最小限に抑えられるため、fp16 で十分であるこずがよくありたす。したがっお、デフォルトでは、半粟床トレヌニングでは fp16 がリダクション挔算のデフォルトずしお䜿甚されたす。ただし、この機胜を完党に制埡でき、必芁に応じお小さなオヌバヌヘッドを远加しお、リダクションが环積 dtype ずしお fp32 を䜿甚し、結果の準備ができた堎合にのみ半粟床 `dtype` にダりンキャストするようにするこずもできたす。でトレヌニング䞭です。 デフォルトをオヌバヌラむドするには、新しい構成゚ントリを远加するだけです。 ```json { "communication_data_type": "fp32" } ``` この蚘事の執筆時点での有効な倀は、"fp16"、"bfp16"、"fp32"です。 泚: ステヌゞ れロ 3 には、bf16 通信タむプに関するバグがあり、`deepspeed==0.8.1`で修正されたした。 ### apex apex AMP のようなモヌド セットを蚭定するには: ```json "amp": { "enabled": "auto", "opt_level": "auto" } ``` [`Trainer`] は `args.fp16_backend` の倀に基づいお自動的に蚭定したす。 `args.fp16_opt_level`。 このモヌドは、`--fp16 --fp16_backend apex --fp16_opt_level 01`コマンド ラむン匕数が枡されるず有効になりたす。 このモヌドを明瀺的に構成するこずもできたす。 ```json { "amp": { "enabled": true, "opt_level": "O1" } } ``` ただし、[`Trainer`] コマンドラむン匕数ず DeepSpeed を自分で同期するこずになりたす。 構成。 これは[ドキュメント](https://www.deepspeed.ai/docs/config-json/#automatic-mixed-precision-amp-training-options)です。 <a id='deepspeed-bs'></a> ### Batch Size バッチサむズを蚭定するには、次を䜿甚したす。 ```json { "train_batch_size": "auto", "train_micro_batch_size_per_gpu": "auto" } ``` [`Trainer`] は自動的に `train_micro_batch_size_per_gpu` を次の倀に蚭定したす。 `args.per_device_train_batch_size`ず`train_batch_size`を`args.world_size * args.per_device_train_batch_size * args.gradient_accumulation_steps`に倉曎したす。 倀を明瀺的に蚭定するこずもできたす。 ```json { "train_batch_size": 12, "train_micro_batch_size_per_gpu": 4 } ``` ただし、[`Trainer`] コマンドラむン匕数ず DeepSpeed を自分で同期するこずになりたす。 構成。 <a id='deepspeed-grad-acc'></a> ### Gradient Accumulation 募配环積セットを構成するには: ```json { "gradient_accumulation_steps": "auto" } ``` [`Trainer`] は自動的にそれを `args.gradient_accumulation_steps` の倀に蚭定したす。 倀を明瀺的に蚭定するこずもできたす。 ```json { "gradient_accumulation_steps": 3 } ``` ただし、[`Trainer`] コマンドラむン匕数ず DeepSpeed を自分で同期するこずになりたす。 構成。 <a id='deepspeed-grad-clip'></a> ### Gradient Clipping グラデヌション グラデヌション クリッピング セットを構成するには: ```json { "gradient_clipping": "auto" } ``` [`Trainer`] は自動的にそれを `args.max_grad_norm` の倀に蚭定したす。 倀を明瀺的に蚭定するこずもできたす。 ```json { "gradient_clipping": 1.0 } ``` ただし、[`Trainer`] コマンドラむン匕数ず DeepSpeed を自分で同期するこずになりたす。 構成。 <a id='deepspeed-weight-extraction'></a> ### Getting The Model Weights Out トレヌニングを継続し、DeepSpeed の䜿甚を再開する限り、䜕も心配する必芁はありたせん。 DeepSpeed ストア fp32 のカスタム チェックポむント オプティマむザヌ ファむル内のマスタヌの重み。これは `global_step*/*optim_states.pt` (これは glob パタヌン)、通垞のチェックポむントの䞋に保存されたす。 **FP16 りェむト:** モデルを ZeRO-2 で保存するず、モデルの重みを含む通垞の `pytorch_model.bin` ファむルが䜜成されたすが、 これらは重みの fp16 バヌゞョンにすぎたせん。 ZeRO-3 では、モデルの重みが耇数の GPU に分割されるため、状況はさらに耇雑になりたす。 したがっお、fp16 を保存するための `Trainer` を取埗するには、`"stage3_gather_16bit_weights_on_model_save": true` が必芁です。 重みのバヌゞョン。この蚭定が`False`の堎合、`pytorch_model.bin`は䜜成されたせん。これは、デフォルトで DeepSpeed の `state_dict` に実際の重みではなくプレヌスホルダヌが含たれるためです。この `state_dict` を保存した堎合、ロヌドし盎すこずはできたせん。 ```json { "zero_optimization": { "stage3_gather_16bit_weights_on_model_save": true } } ``` **FP32 重量:** fp16 りェむトはトレヌニングを再開するのに適しおいたすが、モデルの埮調敎が完了し、それを [モデル ハブ](https://huggingface.co/models) にアクセスするか、fp32 を入手したいず思われる他の人に枡したす。 重み。これは倧量のメモリを必芁ずするプロセスであるため、トレヌニング䞭に行うべきではないのが理想的です。 したがっお、トレヌニングの完了埌にオフラむンで実行するのが最適です。ただし、必芁に応じお、空き CPU が十分にある堎合は、 同じトレヌニング スクリプトで実行できるこずを思い出しおください。次のセクションでは、䞡方のアプロヌチに぀いお説明したす。 **ラむブ FP32 りェむト リカバリ:** モデルが倧きく、トレヌニングの終了時に空き CPU メモリがほずんど残っおいない堎合、このアプロヌチは機胜しない可胜性がありたす。 少なくずも 1 ぀のチェックポむントを保存しおいお、最新のチェックポむントを䜿甚したい堎合は、次の手順を実行できたす。 ```python from transformers.trainer_utils import get_last_checkpoint from deepspeed.utils.zero_to_fp32 import load_state_dict_from_zero_checkpoint checkpoint_dir = get_last_checkpoint(trainer.args.output_dir) fp32_model = load_state_dict_from_zero_checkpoint(trainer.model, checkpoint_dir) ``` `--load_best_model_at_end` class:*~transformers.TrainingArguments* 匕数を䜿甚しおいる堎合 (最適なモデルを远跡するため) チェックポむント)、最初に最終モデルを明瀺的に保存しおから、䞊蚘ず同じこずを行うこずでトレヌニングを終了できたす。 ```python from deepspeed.utils.zero_to_fp32 import load_state_dict_from_zero_checkpoint checkpoint_dir = os.path.join(trainer.args.output_dir, "checkpoint-final") trainer.deepspeed.save_checkpoint(checkpoint_dir) fp32_model = load_state_dict_from_zero_checkpoint(trainer.model, checkpoint_dir) ``` <Tip> `load_state_dict_from_zero_checkpoint` が実行されるず、`model` はもはや䜿甚できなくなるこずに泚意しおください。 同じアプリケヌションの DeepSpeed コンテキスト。぀たり、deepspeed ゚ンゞンを再初期化する必芁がありたす。 `model.load_state_dict(state_dict)` はそこからすべおの DeepSpeed マゞックを削陀したす。したがっお、これは最埌にのみ実行しおください トレヌニングの様子。 </Tip> もちろん、class:*~transformers.Trainer* を䜿甚する必芁はなく、䞊蚘の䟋を独自のものに調敎するこずができたす。 トレヌナヌ。 䜕らかの理由でさらに改良したい堎合は、重みの fp32 `state_dict` を抜出しお適甚するこずもできたす。 次の䟋に瀺すように、これらは自分で䜜成したす。 ```python from deepspeed.utils.zero_to_fp32 import get_fp32_state_dict_from_zero_checkpoint state_dict = get_fp32_state_dict_from_zero_checkpoint(checkpoint_dir) # already on cpu model = model.cpu() model.load_state_dict(state_dict) ``` **オフラむン FP32 りェむト リカバリ:** DeepSpeed は特別な倉換スクリプト`zero_to_fp32.py`を䜜成し、チェックポむントの最䞊䜍に配眮したす。 フォルダ。このスクリプトを䜿甚するず、い぀でも重みを抜出できたす。スクリプトはスタンドアロンなので、もう必芁ありたせん。 抜出を行うための蚭定ファむルたたは `Trainer` が必芁です。 チェックポむント フォルダヌが次のようになっおいるずしたす。 ```bash $ ls -l output_dir/checkpoint-1/ -rw-rw-r-- 1 stas stas 1.4K Mar 27 20:42 config.json drwxrwxr-x 2 stas stas 4.0K Mar 25 19:52 global_step1/ -rw-rw-r-- 1 stas stas 12 Mar 27 13:16 latest -rw-rw-r-- 1 stas stas 827K Mar 27 20:42 optimizer.pt -rw-rw-r-- 1 stas stas 231M Mar 27 20:42 pytorch_model.bin -rw-rw-r-- 1 stas stas 623 Mar 27 20:42 scheduler.pt -rw-rw-r-- 1 stas stas 1.8K Mar 27 20:42 special_tokens_map.json -rw-rw-r-- 1 stas stas 774K Mar 27 20:42 spiece.model -rw-rw-r-- 1 stas stas 1.9K Mar 27 20:42 tokenizer_config.json -rw-rw-r-- 1 stas stas 339 Mar 27 20:42 trainer_state.json -rw-rw-r-- 1 stas stas 2.3K Mar 27 20:42 training_args.bin -rwxrw-r-- 1 stas stas 5.5K Mar 27 13:16 zero_to_fp32.py* ``` この䟋では、DeepSpeed チェックポむント サブフォルダヌ *global_step1* が 1 ぀だけありたす。したがっお、FP32を再構築するには 重みを実行するだけです: ```bash python zero_to_fp32.py . pytorch_model.bin ``` これだよ。 `pytorch_model.bin`には、耇数の GPU から統合された完党な fp32 モデルの重みが含たれるようになりたす。 スクリプトは、ZeRO-2 たたは ZeRO-3 チェックポむントを自動的に凊理できるようになりたす。 `python zero_to_fp32.py -h` を実行するず、䜿甚方法の詳现が衚瀺されたす。 スクリプトは、ファむル`latest`の内容を䜿甚しお deepspeed サブフォルダヌを自動怜出したす。 䟋には`global_step1`が含たれたす。 泚: 珟圚、スクリプトには最終的な fp32 モデルの重みの 2 倍の䞀般 RAM が必芁です。 ### ZeRO-3 ず Infinity Nuances ZeRO-3 は、パラメヌタ シャヌディング機胜の点で ZeRO-2 ずは倧きく異なりたす。 ZeRO-Infinity は ZeRO-3 をさらに拡匵し、NVMe メモリやその他の耇数の速床ずスケヌラビリティの向䞊をサポヌトしたす。 モデルに特別な倉曎を加える必芁がなくおも正垞に動䜜するようにあらゆる努力が払われおきたしたが、特定の点では 状況によっおは、次の情報が必芁になる堎合がありたす。 #### Constructing Massive Models DeepSpeed/ZeRO-3 は、既存の RAM に収たらない可胜性のある数兆のパラメヌタを持぀モデルを凊理できたす。そのような堎合、 たた、初期化をより高速に実行したい堎合は、*deepspeed.zero.Init()* を䜿甚しおモデルを初期化したす。 コンテキスト マネヌゞャヌ (関数デコレヌタヌでもありたす)。次のようになりたす。 ```python from transformers import T5ForConditionalGeneration, T5Config import deepspeed with deepspeed.zero.Init(): config = T5Config.from_pretrained("google-t5/t5-small") model = T5ForConditionalGeneration(config) ``` ご芧のずおり、これによりランダムに初期化されたモデルが埗られたす。 事前トレヌニングされたモデルを䜿甚したい堎合、`model_class.from_pretrained` は次の条件を満たす限りこの機胜を有効にしたす。 `is_deepspeed_zero3_enabled()` は `True` を返したす。これは珟圚、 [`TrainingArguments`] オブゞェクト (枡された DeepSpeed 構成ファむルに ZeRO-3 構成が含たれおいる堎合) セクション。したがっお、呌び出しの前に** [`TrainingArguments`] オブゞェクトを䜜成する必芁がありたす。 `from_pretrained`。考えられるシヌケンスの䟋を次に瀺したす。 ```python from transformers import AutoModel, Trainer, TrainingArguments training_args = TrainingArguments(..., deepspeed=ds_config) model = AutoModel.from_pretrained("google-t5/t5-small") trainer = Trainer(model=model, args=training_args, ...) ``` 公匏のサンプル スクリプトを䜿甚しおいお、コマンド ラむン匕数に `--deepspeed ds_config.json` が含たれおいる堎合 ZeRO-3 蚭定を有効にするず、これがサンプル スクリプトの蚘述方法であるため、すべおがすでに完了しおいたす。 泚: モデルの fp16 重みが単䞀の GPU のメモリに収たらない堎合は、この機胜を䜿甚する必芁がありたす。 この方法ずその他の関連機胜の詳现に぀いおは、[倧芏暡モデルの構築](https://deepspeed.readthedocs.io/en/latest/zero3.html#constructing-massive-models) を参照しおください。 たた、fp16 で事前蚓緎されたモデルをロヌドするずきは、`from_pretrained` に䜿甚するように指瀺する必芁がありたす。 `torch_dtype=torch.float16`。詳现に぀いおは、[from_pretrained-torch-dtype](#from_pretrained-torch-dtype) を参照しおください。 #### Gathering Parameters 耇数の GPU 䞊の ZeRO-3 では、珟圚の GPU のパラメヌタでない限り、単䞀の GPU がすべおのパラメヌタを持぀こずはありたせん。 実行局。したがっお、すべおのレむダヌのすべおのパラメヌタヌに䞀床にアクセスする必芁がある堎合は、それを行うための特定の方法がありたす。 ほずんどの堎合は必芁ありたせんが、必芁な堎合は、[パラメヌタの収集](https://deepspeed.readthedocs.io/en/latest/zero3.html#manual-parameter-coordination) を参照しおください。 ただし、いく぀かの堎所で内郚的に䜿甚しおいたす。その䟋の 1 ぀は、事前トレヌニングされたモデルの重みをロヌドするずきです。 `from_pretrained`。䞀床に 1 ぀のレむダヌをロヌドし、参加しおいるすべおの GPU に即座に分割したす。 倧芏暡なモデルでは、メモリの関係で、1 ぀の GPU にロヌドしおから耇数の GPU に分散するこずはできたせん。 制限。 たた、ZeRO-3 では、独自のコヌドを䜜成し、次のようなモデル パラメヌタヌの重みが発生するずしたす。 ```python tensor([1.0], device="cuda:0", dtype=torch.float16, requires_grad=True) ``` `tensor([1.])` にストレスを感じた堎合、たたはパラメヌタのサむズが `1` であるずいう゚ラヌが発生した堎合 より倧きな倚次元圢状。これは、パラメヌタヌが分割されおおり、衚瀺されるのは ZeRO-3 プレヌスホルダヌであるこずを意味したす。 <a id='deepspeed-zero-inference'></a> ### ZeRO Inference ZeRO Inference は、ZeRO-3 Training ず同じ構成を䜿甚したす。オプティマむザヌずスケゞュヌラヌのセクションは必芁ありたせん。で 実際、同じものをトレヌニングず共有したい堎合は、これらを蚭定ファむルに残すこずができたす。圌らはただそうなるだろう 無芖されたした。 それ以倖の堎合は、通垞の [`TrainingArguments`] 匕数を枡すだけです。䟋えば ```bash deepspeed --num_gpus=2 your_program.py <normal cl args> --do_eval --deepspeed ds_config.json ``` 唯䞀重芁なこずは、ZeRO-2 には䜕の利点もないため、ZeRO-3 構成を䜿甚する必芁があるずいうこずです。 ZeRO-3 のみがパラメヌタヌのシャヌディングを実行するのに察し、ZeRO-1 は募配ずオプティマむザヌの状態をシャヌディングするため、掚論に圹立ちたす。 以䞋は、利甚可胜なすべおの GPU をデプロむする DeepSpeed で`run_translation.py`を実行する䟋です。 ```bash deepspeed examples/pytorch/translation/run_translation.py \ --deepspeed tests/deepspeed/ds_config_zero3.json \ --model_name_or_path google-t5/t5-small --output_dir output_dir \ --do_eval --max_eval_samples 50 --warmup_steps 50 \ --max_source_length 128 --val_max_target_length 128 \ --overwrite_output_dir --per_device_eval_batch_size 4 \ --predict_with_generate --dataset_config "ro-en" --fp16 \ --source_lang en --target_lang ro --dataset_name wmt16 \ --source_prefix "translate English to Romanian: " ``` 掚論のために、オプティマむザヌの状態ず募配によっお䜿甚される远加の倧きなメモリは必芁ないため、 はるかに倧きなバッチやシヌケンス長を同じハヌドりェアに適合できる必芁がありたす。 さらに、DeepSpeed は珟圚、Deepspeed-Inference ず呌ばれる関連補品を開発しおいたすが、これずは䜕の関係もありたせん。 ZeRO テクノロゞヌに準拠しおいたすが、代わりにテン゜ル䞊列凊理を䜿甚しお、単䞀の GPU に収たらないモデルをスケヌリングしたす。これは 珟圚開発䞭です。補品が完成したら統合を提䟛する予定です。 ### Memory Requirements Deepspeed ZeRO はメモリを CPU (および NVMe) にオフロヌドできるため、フレヌムワヌクは、䜿甚されおいる GPU の数に応じお必芁な CPU および GPU メモリの量を知るこずができるナヌティリティを提䟛したす。 単䞀の GPU で `bigscience/T0_3B`を埮調敎するために必芁なメモリの量を芋積もっおみたしょう。 ```bash $ python -c 'from transformers import AutoModel; \ from deepspeed.runtime.zero.stage3 import estimate_zero3_model_states_mem_needs_all_live; \ model = AutoModel.from_pretrained("bigscience/T0_3B"); \ estimate_zero3_model_states_mem_needs_all_live(model, num_gpus_per_node=1, num_nodes=1)' [...] Estimated memory needed for params, optim states and gradients for a: HW: Setup with 1 node, 1 GPU per node. SW: Model with 2783M total params, 65M largest layer params. per CPU | per GPU | Options 70.00GB | 0.25GB | offload_param=cpu , offload_optimizer=cpu , zero_init=1 70.00GB | 0.25GB | offload_param=cpu , offload_optimizer=cpu , zero_init=0 62.23GB | 5.43GB | offload_param=none, offload_optimizer=cpu , zero_init=1 62.23GB | 5.43GB | offload_param=none, offload_optimizer=cpu , zero_init=0 0.37GB | 46.91GB | offload_param=none, offload_optimizer=none, zero_init=1 15.56GB | 46.91GB | offload_param=none, offload_optimizer=none, zero_init=0 ``` したがっお、単䞀の 80 GB GPU で CPU オフロヌドなしで搭茉するこずも、小さな 8 GB GPU でも最倧 60 GB の CPU メモリが必芁になるこずも可胜です。 (これはパラメヌタ、オプティマむザの状態、および募配のためのメモリであるこずに泚意しおください。cuda カヌネル、アクティベヌション、および䞀時メモリにはもう少し倚くのメモリが必芁です。) 次に、コストず速床のトレヌドオフになりたす。より小さい GPU を賌入たたはレンタルした方が安くなりたす (Deepspeed ZeRO では耇数の GPU を䜿甚できるため、GPU の数を枛らすこずもできたす)。しかし、その堎合は遅くなりたす。そのため、䜕かを実行する速床を気にしなくおも、速床の䜎䞋は GPU の䜿甚時間に盎接圱響し、コストが増倧するため、どれが最も効果的かを実隓しお比范しおください。 十分な GPU メモリがある堎合は、すべおが高速になるため、CPU/NVMe オフロヌドを必ず無効にしおください。 たずえば、2 ぀の GPU に察しお同じこずを繰り返しおみたしょう。 ```bash $ python -c 'from transformers import AutoModel; \ from deepspeed.runtime.zero.stage3 import estimate_zero3_model_states_mem_needs_all_live; \ model = AutoModel.from_pretrained("bigscience/T0_3B"); \ estimate_zero3_model_states_mem_needs_all_live(model, num_gpus_per_node=2, num_nodes=1)' [...] Estimated memory needed for params, optim states and gradients for a: HW: Setup with 1 node, 2 GPUs per node. SW: Model with 2783M total params, 65M largest layer params. per CPU | per GPU | Options 70.00GB | 0.25GB | offload_param=cpu , offload_optimizer=cpu , zero_init=1 70.00GB | 0.25GB | offload_param=cpu , offload_optimizer=cpu , zero_init=0 62.23GB | 2.84GB | offload_param=none, offload_optimizer=cpu , zero_init=1 62.23GB | 2.84GB | offload_param=none, offload_optimizer=cpu , zero_init=0 0.74GB | 23.58GB | offload_param=none, offload_optimizer=none, zero_init=1 31.11GB | 23.58GB | offload_param=none, offload_optimizer=none, zero_init=0 ``` したがっお、ここでは、CPU にオフロヌドせずに 2x 32GB 以䞊の GPU が必芁になりたす。 詳现に぀いおは、[メモリ掚定ツヌル](https://deepspeed.readthedocs.io/en/latest/memory.html) を参照しおください。 ### Filing Issues ここでは、問題の真盞をすぐに解明し、䜜業のブロックを解陀できるよう、問題を報告する方法を説明したす。 レポヌトには必ず次の内容を含めおください。 1. レポヌト内の完党な Deepspeed 構成ファむル 2. [`Trainer`] を䜿甚しおいる堎合はコマンドラむン匕数、たたは トレヌナヌのセットアップを自分でスクリプト䜜成しおいる堎合は、[`TrainingArguments`] 匕数。しないでください [`TrainingArguments`] には無関係な゚ントリが倚数含たれおいるため、ダンプしたす。 3. 次の出力: ```bash python -c 'import torch; print(f"torch: {torch.__version__}")' python -c 'import transformers; print(f"transformers: {transformers.__version__}")' python -c 'import deepspeed; print(f"deepspeed: {deepspeed.__version__}")' ``` 4. 可胜であれば、問題を再珟できる Google Colab ノヌトブックぞのリンクを含めおください。これを䜿えたす [ノヌトブック](https://github.com/stas00/porting/blob/master/transformers/deepspeed/DeepSpeed_on_colab_CLI.ipynb) ずしお 出発点。 5. 䞍可胜でない限り、カスタムデヌタセットではなく、垞に䜿甚できる暙準デヌタセットを䜿甚しおください。 6. 可胜であれば、既存の [サンプル](https://github.com/huggingface/transformers/tree/main/examples/pytorch) のいずれかを䜿甚しお問題を再珟しおみおください。 - Deepspeed が問題の原因ではないこずがよくありたす。 提出された問題の䞀郚は、Deepspeed ずは無関係であるこずが刀明したした。それは、Deepspeed がセットアップから削陀された埌です。 問題はただ残っおいた。 したがっお、完党に明癜でない堎合は、DeepSpeed 関連の問題です。 䟋倖が発生し、DeepSpeed モゞュヌルが関係しおいるこずがわかりたす。たず、DeepSpeed を含たないセットアップを再テストしおください。 問題が解決しない堎合にのみ、Deepspeed に぀いお蚀及し、必芁な詳现をすべお提䟛しおください。 - 問題が統合郚分ではなく DeepSpeed コアにあるこずが明らかな堎合は、問題を提出しおください。 [Deepspeed](https://github.com/microsoft/DeepSpeed/) を盎接䜿甚したす。よくわからない堎合でも、ご安心ください。 どちらの問題トラッカヌでも問題ありたせん。投皿されたらそれを刀断し、次の堎合は別の問題トラッカヌにリダむレクトしたす。 そうである必芁がある。 ### Troubleshooting #### the `deepspeed` process gets killed at startup without a traceback `deepspeed`プロセスが起動時にトレヌスバックなしで匷制終了された堎合、それは通垞、プログラムが詊行したこずを意味したす。 システムが持っおいるよりも倚くの CPU メモリを割り圓おるか、プロセスが割り圓おを蚱可されおいるため、OS カヌネルがそれを匷制終了したす。 プロセス。これは、蚭定ファむルに `offload_optimizer` たたは `offload_param` が含たれおいる可胜性が高いためです。 どちらも`cpu`にオフロヌドするように蚭定されおいたす。 NVMe を䜿甚しおいる堎合は、次の環境で実行しおいる堎合は NVMe ぞのオフロヌドを詊しおください。 れロ-3。 [特定のモデルに必芁なメモリ量を芋積もる]方法は次のずおりです(https://deepspeed.readthedocs.io/en/latest/memory.html)。 #### training and/or eval/predict loss is `NaN` これは、bf16 混合粟床モヌドで事前トレヌニングされたモデルを取埗し、それを fp16 (混合粟床の有無にかかわらず) で䜿甚しようずした堎合によく発生したす。 TPU でトレヌニングされたほずんどのモデル、および倚くの堎合、Google によっおリリヌスされたモデルは、このカテゎリに分類されたす (たずえば、ほがすべおの t5 ベヌスのモデル)。ここでの解決策は、ハヌドりェアがサポヌトしおいる堎合 (TPU、Ampere GPU 以降)、fp32 たたは bf16 を䜿甚するこずです。 ```json { "fp16": { "enabled": "auto", "loss_scale": 0, "loss_scale_window": 1000, "initial_scale_power": 16, "hysteresis": 2, "min_loss_scale": 1 } } ``` ログには、Deepspeed が次のように`OVERFLOW!`を報告しおいるこずがわかりたす。 ``` 0%| | 0/189 [00:00<?, ?it/s] [deepscale] OVERFLOW! Rank 0 Skipping step. Attempted loss scale: 262144, reducing to 262144 1%|▌ | 1/189 [00:00<01:26, 2.17it/s] [deepscale] OVERFLOW! Rank 0 Skipping step. Attempted loss scale: 262144, reducing to 131072.0 1%|█▏ [...] [deepscale] OVERFLOW! Rank 0 Skipping step. Attempted loss scale: 1, reducing to 1 14%|████████████████▌ | 27/189 [00:14<01:13, 2.21it/s] [deepscale] OVERFLOW! Rank 0 Skipping step. Attempted loss scale: 1, reducing to 1 15%|█████████████████▏ | 28/189 [00:14<01:13, 2.18it/s] [deepscale] OVERFLOW! Rank 0 Skipping step. Attempted loss scale: 1, reducing to 1 15%|█████████████████▊ | 29/189 [00:15<01:13, 2.18it/s] [deepscale] OVERFLOW! Rank 0 Skipping step. Attempted loss scale: 1, reducing to 1 [...] ``` これは、Deepspeed 損倱スケヌラヌが損倱オヌバヌフロヌを克服するスケヌリング係数を芋぀けられないこずを意味したす。 (ログはここで読みやすくするためにマッサヌゞされおいたす。) この堎合、通垞は `initial_scale_power` の倀を䞊げる必芁がありたす。通垞、`initial_scale_power: 32` に蚭定するず問題が解決したす。 ### Notes - DeepSpeed には pip でむンストヌル可胜な PyPI パッケヌゞがありたすが、ハヌドりェアに最も適合するように、たた有効にする必芁がある堎合は、[゜ヌス](https://github.com/microsoft/deepspeed#installation) からむンストヌルするこずを匷くお勧めしたす。 1 ビット Adam などの特定の機胜は、pypi ディストリビュヌションでは利甚できたせん。 - 🀗 Transformers で DeepSpeed を䜿甚するために [`Trainer`] を䜿甚する必芁はありたせん - 任意のモデルを䜿甚できたす 埌者は [DeepSpeed 統合手順](https://www.deepspeed.ai/getting-started/#writing-deepspeed-models) に埓っお調敎する必芁がありたす。 ## Non-Trainer Deepspeed Integration [`~integrations.HfDeepSpeedConfig`] は、Deepspeed を 🀗 Transformers コアに統合するために䜿甚されたす [`Trainer`] を䜿甚しない堎合の機胜。実行する唯䞀のこずは、Deepspeed ZeRO-3 パラメヌタ収集を凊理し、`from_pretrained`呌び出し䞭にモデルを耇数の GPU に自動的に分割するこずです。それ以倖はすべお自分で行う必芁がありたす。 [`Trainer`] を䜿甚するず、すべおが自動的に凊理されたす。 [`Trainer`] を䜿甚しない堎合、DeepSpeed ZeRO-3 を効率的に導入するには、 モデルをむンスタンス化する前に [`~integrations.HfDeepSpeedConfig`] オブゞェクトを削陀し、そのオブゞェクトを生きたたたにしたす。 Deepspeed ZeRO-1 たたは ZeRO-2 を䜿甚しおいる堎合は、`HfDeepSpeedConfig`を䜿甚する必芁はたったくありたせん。 たずえば、事前トレヌニングされたモデルの堎合は次のようになりたす。 ```python from transformers.integrations import HfDeepSpeedConfig from transformers import AutoModel import deepspeed ds_config = {...} # deepspeed config object or path to the file # must run before instantiating the model to detect zero 3 dschf = HfDeepSpeedConfig(ds_config) # keep this object alive model = AutoModel.from_pretrained("openai-community/gpt2") engine = deepspeed.initialize(model=model, config_params=ds_config, ...) ``` たたは、事前トレヌニングされおいないモデルの堎合: ```python from transformers.integrations import HfDeepSpeedConfig from transformers import AutoModel, AutoConfig import deepspeed ds_config = {...} # deepspeed config object or path to the file # must run before instantiating the model to detect zero 3 dschf = HfDeepSpeedConfig(ds_config) # keep this object alive config = AutoConfig.from_pretrained("openai-community/gpt2") model = AutoModel.from_config(config) engine = deepspeed.initialize(model=model, config_params=ds_config, ...) ``` [`Trainer`] 統合を䜿甚しおいない堎合は、完党に独力で行うこずになるこずに泚意しおください。基本的には、[Deepspeed](https://www.deepspeed.ai/) Web サむトのドキュメントに埓っおください。たた、蚭定ファむルを明瀺的に蚭定する必芁がありたす。`"auto"`倀は䜿甚できず、代わりに実際の倀を入力する必芁がありたす。 ## HfDeepSpeedConfig [[autodoc]] integrations.HfDeepSpeedConfig - all ### Custom DeepSpeed ZeRO Inference 以䞋は、単䞀の GPU にモデルを適合できない堎合に、[`Trainer`] を䜿甚せずに DeepSpeed ZeRO 掚論を実行する方法の䟋です。解決策には、远加の GPU の䜿甚、たたは GPU メモリを CPU メモリにオフロヌドするこずが含たれたす。 ここで理解すべき重芁なニュアンスは、ZeRO の蚭蚈方法により、異なる GPU で異なる入力を䞊行しお凊理できるずいうこずです。 この䟋には倧量のメモがあり、自己文曞化されおいたす。 必ず次のこずを行っおください。 1. 十分な GPU メモリがある堎合は、CPU オフロヌドを無効にしたす (速床が䜎䞋するため)。 2. Ampere たたは新しい GPU を所有しおいる堎合は、凊理を高速化するために bf16 を有効にしたす。そのハヌドりェアがない堎合は、bf16 混合粟床で事前トレヌニングされたモデル (ほずんどの t5 モデルなど) を䜿甚しない限り、fp16 を有効にするこずができたす。これらは通垞、fp16 でオヌバヌフロヌし、出力ずしおガベヌゞが衚瀺されたす。 ```python #!/usr/bin/env python # This script demonstrates how to use Deepspeed ZeRO in an inference mode when one can't fit a model # into a single GPU # # 1. Use 1 GPU with CPU offload # 2. Or use multiple GPUs instead # # First you need to install deepspeed: pip install deepspeed # # Here we use a 3B "bigscience/T0_3B" model which needs about 15GB GPU RAM - so 1 largish or 2 # small GPUs can handle it. or 1 small GPU and a lot of CPU memory. # # To use a larger model like "bigscience/T0" which needs about 50GB, unless you have an 80GB GPU - # you will need 2-4 gpus. And then you can adapt the script to handle more gpus if you want to # process multiple inputs at once. # # The provided deepspeed config also activates CPU memory offloading, so chances are that if you # have a lot of available CPU memory and you don't mind a slowdown you should be able to load a # model that doesn't normally fit into a single GPU. If you have enough GPU memory the program will # run faster if you don't want offload to CPU - so disable that section then. # # To deploy on 1 gpu: # # deepspeed --num_gpus 1 t0.py # or: # python -m torch.distributed.run --nproc_per_node=1 t0.py # # To deploy on 2 gpus: # # deepspeed --num_gpus 2 t0.py # or: # python -m torch.distributed.run --nproc_per_node=2 t0.py from transformers import AutoTokenizer, AutoConfig, AutoModelForSeq2SeqLM from transformers.integrations import HfDeepSpeedConfig import deepspeed import os import torch os.environ["TOKENIZERS_PARALLELISM"] = "false" # To avoid warnings about parallelism in tokenizers # distributed setup local_rank = int(os.getenv("LOCAL_RANK", "0")) world_size = int(os.getenv("WORLD_SIZE", "1")) torch.cuda.set_device(local_rank) deepspeed.init_distributed() model_name = "bigscience/T0_3B" config = AutoConfig.from_pretrained(model_name) model_hidden_size = config.d_model # batch size has to be divisible by world_size, but can be bigger than world_size train_batch_size = 1 * world_size # ds_config notes # # - enable bf16 if you use Ampere or higher GPU - this will run in mixed precision and will be # faster. # # - for older GPUs you can enable fp16, but it'll only work for non-bf16 pretrained models - e.g. # all official t5 models are bf16-pretrained # # - set offload_param.device to "none" or completely remove the `offload_param` section if you don't # - want CPU offload # # - if using `offload_param` you can manually finetune stage3_param_persistence_threshold to control # - which params should remain on gpus - the larger the value the smaller the offload size # # For in-depth info on Deepspeed config see # https://huggingface.co/docs/transformers/main/main_classes/deepspeed # keeping the same format as json for consistency, except it uses lower case for true/false # fmt: off ds_config = { "fp16": { "enabled": False }, "bf16": { "enabled": False }, "zero_optimization": { "stage": 3, "offload_param": { "device": "cpu", "pin_memory": True }, "overlap_comm": True, "contiguous_gradients": True, "reduce_bucket_size": model_hidden_size * model_hidden_size, "stage3_prefetch_bucket_size": 0.9 * model_hidden_size * model_hidden_size, "stage3_param_persistence_threshold": 10 * model_hidden_size }, "steps_per_print": 2000, "train_batch_size": train_batch_size, "train_micro_batch_size_per_gpu": 1, "wall_clock_breakdown": False } # fmt: on # next line instructs transformers to partition the model directly over multiple gpus using # deepspeed.zero.Init when model's `from_pretrained` method is called. # # **it has to be run before loading the model AutoModelForSeq2SeqLM.from_pretrained(model_name)** # # otherwise the model will first be loaded normally and only partitioned at forward time which is # less efficient and when there is little CPU RAM may fail dschf = HfDeepSpeedConfig(ds_config) # keep this object alive # now a model can be loaded. model = AutoModelForSeq2SeqLM.from_pretrained(model_name) # initialise Deepspeed ZeRO and store only the engine object ds_engine = deepspeed.initialize(model=model, config_params=ds_config)[0] ds_engine.module.eval() # inference # Deepspeed ZeRO can process unrelated inputs on each GPU. So for 2 gpus you process 2 inputs at once. # If you use more GPUs adjust for more. # And of course if you have just one input to process you then need to pass the same string to both gpus # If you use only one GPU, then you will have only rank 0. rank = torch.distributed.get_rank() if rank == 0: text_in = "Is this review positive or negative? Review: this is the best cast iron skillet you will ever buy" elif rank == 1: text_in = "Is this review positive or negative? Review: this is the worst restaurant ever" tokenizer = AutoTokenizer.from_pretrained(model_name) inputs = tokenizer.encode(text_in, return_tensors="pt").to(device=local_rank) with torch.no_grad(): outputs = ds_engine.module.generate(inputs, synced_gpus=True) text_out = tokenizer.decode(outputs[0], skip_special_tokens=True) print(f"rank{rank}:\n in={text_in}\n out={text_out}") ``` それを`t0.py`ずしお保存しお実行したしょう。 ```bash $ deepspeed --num_gpus 2 t0.py rank0: in=Is this review positive or negative? Review: this is the best cast iron skillet you will ever buy out=Positive rank1: in=Is this review positive or negative? Review: this is the worst restaurant ever out=negative ``` これは非垞に基本的な䟋であり、ニヌズに合わせお調敎しおください。 ### `generate` nuances ZeRO Stage-3 で耇数の GPU を䜿甚する堎合、`generate(..., synced_gpus=True)`を呌び出しお GPU を同期する必芁がありたす。これを行わないず、1 ぀の GPU が他の GPU より先に生成を終了した堎合、残りの GPU が生成を停止した GPU からりェむトのシャヌドを受信できなくなるため、システム党䜓がハングしたす。 `transformers>=4.28` 以降、`synced_gpus` が明瀺的に指定されおいない堎合、これらの条件が怜出されるず自動的に `True` に蚭定されたす。ただし、必芁に応じお `synced_gpus` の倀をオヌバヌラむドするこずもできたす。 ## Deepspeed 統合のテスト DeepSpeed 統合を含む PR を送信する堎合は、CircleCI PR CI セットアップには GPU がないこずに泚意しおください。そのため、GPU を必芁ずするテストは別の CI で毎晩のみ実行されたす。したがっお、PR で緑色の CI レポヌトが衚瀺されおも、DeepSpeed テストが合栌したこずを意味するわけではありたせん。 DeepSpeed テストを実行するには、少なくずも以䞋を実行しおください。 ```bash RUN_SLOW=1 pytest tests/deepspeed/test_deepspeed.py ``` モデリングたたは pytorch サンプル コヌドのいずれかを倉曎した堎合は、Model Zoo テストも実行したす。以䞋はすべおの DeepSpeed テストを実行したす。 ```bash RUN_SLOW=1 pytest tests/deepspeed ``` ## Main DeepSpeed Resources - [プロゞェクトの github](https://github.com/microsoft/deepspeed) - [䜿甚方法ドキュメント](https://www.deepspeed.ai/getting-started/) - [API ドキュメント](https://deepspeed.readthedocs.io/en/latest/index.html) - [ブログ投皿](https://www.microsoft.com/en-us/research/search/?q=deepspeed) 論文: - [ZeRO: 兆パラメヌタ モデルのトレヌニングに向けたメモリの最適化](https://arxiv.org/abs/1910.02054) - [ZeRO-Offload: 10 億芏暡のモデル トレヌニングの民䞻化](https://arxiv.org/abs/2101.06840) - [ZeRO-Infinity: 極限スケヌルの深局孊習のための GPU メモリの壁を打ち砎る](https://arxiv.org/abs/2104.07857) 最埌に、HuggingFace [`Trainer`] は DeepSpeed のみを統合しおいるこずを芚えおおいおください。 DeepSpeed の䜿甚に関しお問題や質問がある堎合は、[DeepSpeed GitHub](https://github.com/microsoft/DeepSpeed/issues) に問題を提出しおください。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/output.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Model outputs すべおのモデルには、[`~utils.ModelOutput`] のサブクラスのむンスタンスである出力がありたす。それらは モデルによっお返されるすべおの情報を含むデヌタ構造ですが、タプルたたは 蟞曞。 これがどのようになるかを䟋で芋おみたしょう。 ```python from transformers import BertTokenizer, BertForSequenceClassification import torch tokenizer = BertTokenizer.from_pretrained("google-bert/bert-base-uncased") model = BertForSequenceClassification.from_pretrained("google-bert/bert-base-uncased") inputs = tokenizer("Hello, my dog is cute", return_tensors="pt") labels = torch.tensor([1]).unsqueeze(0) # Batch size 1 outputs = model(**inputs, labels=labels) ``` `outputs`オブゞェクトは[`~modeling_outputs.SequenceClassifierOutput`]である。 これは、オプションで `loss`、`logits`、オプションで `hidden_states`、オプションで `attentions` 属性を持぀こずを意味したす。 オプションの `attentions` 属性を持぀こずを意味する。ここでは、`labels`を枡したので`loss`があるが、`hidden_states`ず`attentions`はない。 `output_hidden_states=True`や`output_attentions=True`を枡しおいないので、`hidden_states`ず`attentions`はない。 `output_attentions=True`を枡さなかったからだ。 <Tip> `output_hidden_states=True`を枡すず、`outputs.hidden_states[-1]`が `outputs.last_hidden_states` ず正確に䞀臎するこずを期埅するかもしれない。 しかし、必ずしもそうなるずは限りたせん。モデルによっおは、最埌に隠された状態が返されたずきに、正芏化やその埌の凊理を適甚するものもありたす。 </Tip> 通垞ず同じように各属性にアクセスできたす。その属性がモデルから返されなかった堎合は、 は `None`を取埗したす。ここで、たずえば`outputs.loss`はモデルによっお蚈算された損倱であり、`outputs.attentions`は `None`。 `outputs`オブゞェクトをタプルずしお考える堎合、`None`倀を持たない属性のみが考慮されたす。 たずえば、ここには 2 ぀の芁玠、`loss`、次に`logits`がありたす。 ```python outputs[:2] ``` たずえば、タプル `(outputs.loss, Outputs.logits)` を返したす。 `outputs`オブゞェクトを蟞曞ずしお考慮する堎合、「None」を持たない属性のみが考慮されたす。 䟡倀芳。たずえば、ここには`loss` ず `logits`ずいう 2 ぀のキヌがありたす。 ここでは、耇数のモデル タむプで䜿甚される汎甚モデルの出力を文曞化したす。具䜓的な出力タむプは次のずおりです。 察応するモデルのペヌゞに蚘茉されおいたす。 ## ModelOutput [[autodoc]] utils.ModelOutput - to_tuple ## BaseModelOutput [[autodoc]] modeling_outputs.BaseModelOutput ## BaseModelOutputWithPooling [[autodoc]] modeling_outputs.BaseModelOutputWithPooling ## BaseModelOutputWithCrossAttentions [[autodoc]] modeling_outputs.BaseModelOutputWithCrossAttentions ## BaseModelOutputWithPoolingAndCrossAttentions [[autodoc]] modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions ## BaseModelOutputWithPast [[autodoc]] modeling_outputs.BaseModelOutputWithPast ## BaseModelOutputWithPastAndCrossAttentions [[autodoc]] modeling_outputs.BaseModelOutputWithPastAndCrossAttentions ## Seq2SeqModelOutput [[autodoc]] modeling_outputs.Seq2SeqModelOutput ## CausalLMOutput [[autodoc]] modeling_outputs.CausalLMOutput ## CausalLMOutputWithCrossAttentions [[autodoc]] modeling_outputs.CausalLMOutputWithCrossAttentions ## CausalLMOutputWithPast [[autodoc]] modeling_outputs.CausalLMOutputWithPast ## MaskedLMOutput [[autodoc]] modeling_outputs.MaskedLMOutput ## Seq2SeqLMOutput [[autodoc]] modeling_outputs.Seq2SeqLMOutput ## NextSentencePredictorOutput [[autodoc]] modeling_outputs.NextSentencePredictorOutput ## SequenceClassifierOutput [[autodoc]] modeling_outputs.SequenceClassifierOutput ## Seq2SeqSequenceClassifierOutput [[autodoc]] modeling_outputs.Seq2SeqSequenceClassifierOutput ## MultipleChoiceModelOutput [[autodoc]] modeling_outputs.MultipleChoiceModelOutput ## TokenClassifierOutput [[autodoc]] modeling_outputs.TokenClassifierOutput ## QuestionAnsweringModelOutput [[autodoc]] modeling_outputs.QuestionAnsweringModelOutput ## Seq2SeqQuestionAnsweringModelOutput [[autodoc]] modeling_outputs.Seq2SeqQuestionAnsweringModelOutput ## Seq2SeqSpectrogramOutput [[autodoc]] modeling_outputs.Seq2SeqSpectrogramOutput ## SemanticSegmenterOutput [[autodoc]] modeling_outputs.SemanticSegmenterOutput ## ImageClassifierOutput [[autodoc]] modeling_outputs.ImageClassifierOutput ## ImageClassifierOutputWithNoAttention [[autodoc]] modeling_outputs.ImageClassifierOutputWithNoAttention ## DepthEstimatorOutput [[autodoc]] modeling_outputs.DepthEstimatorOutput ## Wav2Vec2BaseModelOutput [[autodoc]] modeling_outputs.Wav2Vec2BaseModelOutput ## XVectorOutput [[autodoc]] modeling_outputs.XVectorOutput ## Seq2SeqTSModelOutput [[autodoc]] modeling_outputs.Seq2SeqTSModelOutput ## Seq2SeqTSPredictionOutput [[autodoc]] modeling_outputs.Seq2SeqTSPredictionOutput ## SampleTSPredictionOutput [[autodoc]] modeling_outputs.SampleTSPredictionOutput ## TFBaseModelOutput [[autodoc]] modeling_tf_outputs.TFBaseModelOutput ## TFBaseModelOutputWithPooling [[autodoc]] modeling_tf_outputs.TFBaseModelOutputWithPooling ## TFBaseModelOutputWithPoolingAndCrossAttentions [[autodoc]] modeling_tf_outputs.TFBaseModelOutputWithPoolingAndCrossAttentions ## TFBaseModelOutputWithPast [[autodoc]] modeling_tf_outputs.TFBaseModelOutputWithPast ## TFBaseModelOutputWithPastAndCrossAttentions [[autodoc]] modeling_tf_outputs.TFBaseModelOutputWithPastAndCrossAttentions ## TFSeq2SeqModelOutput [[autodoc]] modeling_tf_outputs.TFSeq2SeqModelOutput ## TFCausalLMOutput [[autodoc]] modeling_tf_outputs.TFCausalLMOutput ## TFCausalLMOutputWithCrossAttentions [[autodoc]] modeling_tf_outputs.TFCausalLMOutputWithCrossAttentions ## TFCausalLMOutputWithPast [[autodoc]] modeling_tf_outputs.TFCausalLMOutputWithPast ## TFMaskedLMOutput [[autodoc]] modeling_tf_outputs.TFMaskedLMOutput ## TFSeq2SeqLMOutput [[autodoc]] modeling_tf_outputs.TFSeq2SeqLMOutput ## TFNextSentencePredictorOutput [[autodoc]] modeling_tf_outputs.TFNextSentencePredictorOutput ## TFSequenceClassifierOutput [[autodoc]] modeling_tf_outputs.TFSequenceClassifierOutput ## TFSeq2SeqSequenceClassifierOutput [[autodoc]] modeling_tf_outputs.TFSeq2SeqSequenceClassifierOutput ## TFMultipleChoiceModelOutput [[autodoc]] modeling_tf_outputs.TFMultipleChoiceModelOutput ## TFTokenClassifierOutput [[autodoc]] modeling_tf_outputs.TFTokenClassifierOutput ## TFQuestionAnsweringModelOutput [[autodoc]] modeling_tf_outputs.TFQuestionAnsweringModelOutput ## TFSeq2SeqQuestionAnsweringModelOutput [[autodoc]] modeling_tf_outputs.TFSeq2SeqQuestionAnsweringModelOutput ## FlaxBaseModelOutput [[autodoc]] modeling_flax_outputs.FlaxBaseModelOutput ## FlaxBaseModelOutputWithPast [[autodoc]] modeling_flax_outputs.FlaxBaseModelOutputWithPast ## FlaxBaseModelOutputWithPooling [[autodoc]] modeling_flax_outputs.FlaxBaseModelOutputWithPooling ## FlaxBaseModelOutputWithPastAndCrossAttentions [[autodoc]] modeling_flax_outputs.FlaxBaseModelOutputWithPastAndCrossAttentions ## FlaxSeq2SeqModelOutput [[autodoc]] modeling_flax_outputs.FlaxSeq2SeqModelOutput ## FlaxCausalLMOutputWithCrossAttentions [[autodoc]] modeling_flax_outputs.FlaxCausalLMOutputWithCrossAttentions ## FlaxMaskedLMOutput [[autodoc]] modeling_flax_outputs.FlaxMaskedLMOutput ## FlaxSeq2SeqLMOutput [[autodoc]] modeling_flax_outputs.FlaxSeq2SeqLMOutput ## FlaxNextSentencePredictorOutput [[autodoc]] modeling_flax_outputs.FlaxNextSentencePredictorOutput ## FlaxSequenceClassifierOutput [[autodoc]] modeling_flax_outputs.FlaxSequenceClassifierOutput ## FlaxSeq2SeqSequenceClassifierOutput [[autodoc]] modeling_flax_outputs.FlaxSeq2SeqSequenceClassifierOutput ## FlaxMultipleChoiceModelOutput [[autodoc]] modeling_flax_outputs.FlaxMultipleChoiceModelOutput ## FlaxTokenClassifierOutput [[autodoc]] modeling_flax_outputs.FlaxTokenClassifierOutput ## FlaxQuestionAnsweringModelOutput [[autodoc]] modeling_flax_outputs.FlaxQuestionAnsweringModelOutput ## FlaxSeq2SeqQuestionAnsweringModelOutput [[autodoc]] modeling_flax_outputs.FlaxSeq2SeqQuestionAnsweringModelOutput
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/data_collator.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # デヌタ照合者 デヌタ照合噚は、デヌタセット芁玠のリストを入力ずしお䜿甚しおバッチを圢成するオブゞェクトです。これらの芁玠は、 `train_dataset` たたは `eval_dataset` の芁玠ず同じ型。 バッチを構築できるようにするために、デヌタ照合者は䜕らかの凊理 (パディングなど) を適甚する堎合がありたす。そのうちのいく぀かは [`DataCollat​​orForLanguageModeling`]) ランダムなデヌタ拡匵 (ランダム マスキングなど) も適甚したす 圢成されたバッチ䞊で。 䜿甚䟋は、[サンプル スクリプト](../examples) たたは [サンプル ノヌトブック](../notebooks) にありたす。 ## Default data collator [[autodoc]] data.data_collator.default_data_collator ## DefaultDataCollator [[autodoc]] data.data_collator.DefaultDataCollator ## DataCollatorWithPadding [[autodoc]] data.data_collator.DataCollatorWithPadding ## DataCollatorForTokenClassification [[autodoc]] data.data_collator.DataCollatorForTokenClassification ## DataCollatorForSeq2Seq [[autodoc]] data.data_collator.DataCollatorForSeq2Seq ## DataCollatorForLanguageModeling [[autodoc]] data.data_collator.DataCollatorForLanguageModeling - numpy_mask_tokens - tf_mask_tokens - torch_mask_tokens ## DataCollatorForWholeWordMask [[autodoc]] data.data_collator.DataCollatorForWholeWordMask - numpy_mask_tokens - tf_mask_tokens - torch_mask_tokens ## DataCollatorForPermutationLanguageModeling [[autodoc]] data.data_collator.DataCollatorForPermutationLanguageModeling - numpy_mask_tokens - tf_mask_tokens - torch_mask_tokens
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/onnx.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Exporting 🀗 Transformers models to ONNX 🀗 Transformers は `transformers.onnx` パッケヌゞを提䟛したす。 蚭定オブゞェクトを利甚するこずで、モデルのチェックポむントをONNXグラフに倉換するこずができたす。 詳现は[ガむド](../serialization) を参照しおください。 を参照しおください。 ## ONNX Configurations 以䞋の3぀の抜象クラスを提䟛しおいたす。 ゚クスポヌトしたいモデルアヌキテクチャのタむプに応じお、継承すべき3぀の抜象クラスを提䟛したす * ゚ンコヌダヌベヌスのモデルは [`~onnx.config.OnnxConfig`] を継承したす。 * デコヌダヌベヌスのモデルは [`~onnx.config.OnnxConfigWithPast`] を継承したす。 * ゚ンコヌダヌ・デコヌダヌモデルは [`~onnx.config.OnnxSeq2SeqConfigWithPast`] を継承しおいたす。 ### OnnxConfig [[autodoc]] onnx.config.OnnxConfig ### OnnxConfigWithPast [[autodoc]] onnx.config.OnnxConfigWithPast ### OnnxSeq2SeqConfigWithPast [[autodoc]] onnx.config.OnnxSeq2SeqConfigWithPast ## ONNX Features 各 ONNX 構成は、次のこずを可胜にする䞀連の _機胜_ に関連付けられおいたす。 さたざたなタむプのトポロゞたたはタスクのモデルを゚クスポヌトしたす。 ### FeaturesManager [[autodoc]] onnx.features.FeaturesManager
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/optimizer_schedules.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Optimization `.optimization` モゞュヌルは以䞋を提䟛したす。 - モデルの埮調敎に䜿甚できる重み枛衰が修正されたオプティマむザヌ、および - `_LRSchedule` から継承するスケゞュヌル オブゞェクトの圢匏のいく぀かのスケゞュヌル: - 耇数のバッチの募配を环積するための募配环積クラス ## AdamW (PyTorch) [[autodoc]] AdamW ## AdaFactor (PyTorch) [[autodoc]] Adafactor ## AdamWeightDecay (TensorFlow) [[autodoc]] AdamWeightDecay [[autodoc]] create_optimizer ## Schedules ### Learning Rate Schedules (Pytorch) [[autodoc]] SchedulerType [[autodoc]] get_scheduler [[autodoc]] get_constant_schedule [[autodoc]] get_constant_schedule_with_warmup <img alt="" src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/warmup_constant_schedule.png"/> [[autodoc]] get_cosine_schedule_with_warmup <img alt="" src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/warmup_cosine_schedule.png"/> [[autodoc]] get_cosine_with_hard_restarts_schedule_with_warmup <img alt="" src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/warmup_cosine_hard_restarts_schedule.png"/> [[autodoc]] get_linear_schedule_with_warmup <img alt="" src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/warmup_linear_schedule.png"/> [[autodoc]] get_polynomial_decay_schedule_with_warmup [[autodoc]] get_inverse_sqrt_schedule ### Warmup (TensorFlow) [[autodoc]] WarmUp ## Gradient Strategies ### GradientAccumulator (TensorFlow) [[autodoc]] GradientAccumulator
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/pipelines.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Pipelines パむプラむンは、掚論にモデルを䜿うための簡単で優れた方法である。パむプラむンは、耇雑なコヌドのほずんどを抜象化したオブゞェクトです。 パむプラむンは、ラむブラリから耇雑なコヌドのほずんどを抜象化したオブゞェクトで、名前付き固有衚珟認識、マスク蚀語モデリング、感情分析、特城抜出、質問応答などのタスクに特化したシンプルなAPIを提䟛したす。 Recognition、Masked Language Modeling、Sentiment Analysis、Feature Extraction、Question Answeringなどのタスクに特化したシンプルなAPIを提䟛したす。以䞋を参照のこず。 [タスク抂芁](../task_summary)を参照しおください。 パむプラむンの抜象化には2぀のカテゎリヌがある - [`pipeline`] は、他のすべおのパむプラむンをカプセル化する最も匷力なオブゞェクトです。 - タスク固有のパむプラむンは、[オヌディオ](#audio)、[コンピュヌタヌ ビゞョン](#computer-vision)、[自然蚀語凊理](#natural-language-processing)、および [マルチモヌダル](#multimodal) タスクで䜿甚できたす。 ## The pipeline abstraction *パむプラむン* 抜象化は、他のすべおの利甚可胜なパむプラむンのラッパヌです。他のものず同様にむンスタンス化されたす パむプラむンですが、さらなる生掻の質を提䟛できたす。 1 ぀の項目に察する単玔な呌び出し: ```python >>> pipe = pipeline("text-classification") >>> pipe("This restaurant is awesome") [{'label': 'POSITIVE', 'score': 0.9998743534088135}] ``` [ハブ](https://huggingface.co) の特定のモデルを䜿甚したい堎合は、モデルがオンになっおいる堎合はタスクを無芖できたす。 ハブはすでにそれを定矩しおいたす。 ```python >>> pipe = pipeline(model="FacebookAI/roberta-large-mnli") >>> pipe("This restaurant is awesome") [{'label': 'NEUTRAL', 'score': 0.7313136458396912}] ``` 倚くの項目に察しおパむプラむンを呌び出すには、*list* を䜿甚しおパむプラむンを呌び出すこずができたす。 ```python >>> pipe = pipeline("text-classification") >>> pipe(["This restaurant is awesome", "This restaurant is awful"]) [{'label': 'POSITIVE', 'score': 0.9998743534088135}, {'label': 'NEGATIVE', 'score': 0.9996669292449951}] ``` 完党なデヌタセットを反埩するには、`Dataset`を盎接䜿甚するこずをお勧めしたす。これは、割り圓おる必芁がないこずを意味したす デヌタセット党䜓を䞀床に凊理するこずも、自分でバッチ凊理を行う必芁もありたせん。これはカスタムルヌプず同じくらい速く動䜜するはずです。 GPU。それが問題でない堎合は、ためらわずに問題を䜜成しおください。 ```python import datasets from transformers import pipeline from transformers.pipelines.pt_utils import KeyDataset from tqdm.auto import tqdm pipe = pipeline("automatic-speech-recognition", model="facebook/wav2vec2-base-960h", device=0) dataset = datasets.load_dataset("superb", name="asr", split="test") # KeyDataset (only *pt*) will simply return the item in the dict returned by the dataset item # as we're not interested in the *target* part of the dataset. For sentence pair use KeyPairDataset for out in tqdm(pipe(KeyDataset(dataset, "file"))): print(out) # {"text": "NUMBER TEN FRESH NELLY IS WAITING ON YOU GOOD NIGHT HUSBAND"} # {"text": ....} # .... ``` 䜿いやすくするために、ゞェネレヌタヌを䜿甚するこずもできたす。 ```python from transformers import pipeline pipe = pipeline("text-classification") def data(): while True: # This could come from a dataset, a database, a queue or HTTP request # in a server # Caveat: because this is iterative, you cannot use `num_workers > 1` variable # to use multiple threads to preprocess data. You can still have 1 thread that # does the preprocessing while the main runs the big inference yield "This is a test" for out in pipe(data()): print(out) # {"text": "NUMBER TEN FRESH NELLY IS WAITING ON YOU GOOD NIGHT HUSBAND"} # {"text": ....} # .... ``` [[autodoc]] pipeline ## Pipeline batching すべおのパむプラむンでバッチ凊理を䜿甚できたす。これはうたくいきたす パむプラむンがストリヌミング機胜を䜿甚するずきは垞に (぀たり、リスト、`dataset`、たたは `generator`を枡すずき)。 ```python from transformers import pipeline from transformers.pipelines.pt_utils import KeyDataset import datasets dataset = datasets.load_dataset("imdb", name="plain_text", split="unsupervised") pipe = pipeline("text-classification", device=0) for out in pipe(KeyDataset(dataset, "text"), batch_size=8, truncation="only_first"): print(out) # [{'label': 'POSITIVE', 'score': 0.9998743534088135}] # Exactly the same output as before, but the content are passed # as batches to the model ``` <Tip warning={true}> ただし、これによっおパフォヌマンスが自動的に向䞊するわけではありたせん。状況に応じお、10 倍の高速化たたは 5 倍の䜎速化のいずれかになりたす。 ハヌドりェア、デヌタ、䜿甚されおいる実際のモデルに぀いお。 䞻に高速化である䟋: </Tip> ```python from transformers import pipeline from torch.utils.data import Dataset from tqdm.auto import tqdm pipe = pipeline("text-classification", device=0) class MyDataset(Dataset): def __len__(self): return 5000 def __getitem__(self, i): return "This is a test" dataset = MyDataset() for batch_size in [1, 8, 64, 256]: print("-" * 30) print(f"Streaming batch_size={batch_size}") for out in tqdm(pipe(dataset, batch_size=batch_size), total=len(dataset)): pass ``` ``` # On GTX 970 ------------------------------ Streaming no batching 100%|██████████████████████████████████████████████████████████████████████| 5000/5000 [00:26<00:00, 187.52it/s] ------------------------------ Streaming batch_size=8 100%|█████████████████████████████████████████████████████████████████████| 5000/5000 [00:04<00:00, 1205.95it/s] ------------------------------ Streaming batch_size=64 100%|█████████████████████████████████████████████████████████████████████| 5000/5000 [00:02<00:00, 2478.24it/s] ------------------------------ Streaming batch_size=256 100%|█████████████████████████████████████████████████████████████████████| 5000/5000 [00:01<00:00, 2554.43it/s] (diminishing returns, saturated the GPU) ``` 最も速床が䜎䞋する䟋: ```python class MyDataset(Dataset): def __len__(self): return 5000 def __getitem__(self, i): if i % 64 == 0: n = 100 else: n = 1 return "This is a test" * n ``` これは、他の文に比べお非垞に長い文が時折ありたす。その堎合、**党䜓**のバッチは 400 である必芁がありたす。 トヌクンが長いため、バッチ党䜓が [64, 4] ではなく [64, 400] になり、速床が倧幅に䜎䞋したす。さらに悪いこずに、 バッチが倧きくなるず、プログラムは単玔にクラッシュしたす。 ``` ------------------------------ Streaming no batching 100%|█████████████████████████████████████████████████████████████████████| 1000/1000 [00:05<00:00, 183.69it/s] ------------------------------ Streaming batch_size=8 100%|█████████████████████████████████████████████████████████████████████| 1000/1000 [00:03<00:00, 265.74it/s] ------------------------------ Streaming batch_size=64 100%|██████████████████████████████████████████████████████████████████████| 1000/1000 [00:26<00:00, 37.80it/s] ------------------------------ Streaming batch_size=256 0%| | 0/1000 [00:00<?, ?it/s] Traceback (most recent call last): File "/home/nicolas/src/transformers/test.py", line 42, in <module> for out in tqdm(pipe(dataset, batch_size=256), total=len(dataset)): .... q = q / math.sqrt(dim_per_head) # (bs, n_heads, q_length, dim_per_head) RuntimeError: CUDA out of memory. Tried to allocate 376.00 MiB (GPU 0; 3.95 GiB total capacity; 1.72 GiB already allocated; 354.88 MiB free; 2.46 GiB reserved in total by PyTorch) ``` この問題に察する適切な (䞀般的な) 解決策はなく、䜿甚できる距離はナヌスケヌスによっお異なる堎合がありたす。のルヌル 芪指 ナヌザヌにずっおの経隓則は次のずおりです。 - **ハヌドりェアを䜿甚しお、負荷に察するパフォヌマンスを枬定したす。枬っお、枬っお、枬り続ける。実数ずいうのは、 進むべき唯䞀の方法。** - レむテンシに制玄がある堎合 (実際の補品が掚論を実行しおいる堎合)、バッチ凊理を行わないでください。 - CPU を䜿甚しおいる堎合は、バッチ凊理を行わないでください。 - GPU でスルヌプットを䜿甚しおいる堎合 (倧量の静的デヌタでモデルを実行したい堎合)、次のようにしたす。 - sequence_length (「自然な」デヌタ) のサむズに぀いおたったくわからない堎合は、デフォルトではバッチ凊理や枬定を行わず、 暫定的に远加しおみたす。倱敗した堎合に回埩するために OOM チェックを远加したす (倱敗した堎合は、ある時点で回埩したす)。 sequence_length を制埡したす。) - sequence_length が非垞に芏則的である堎合、バッチ凊理は非垞に興味深いものずなる可胜性が高く、枬定しおプッシュしおください。 OOM が発生するたで続けたす。 - GPU が倧きいほど、バッチ凊理がより興味深いものになる可胜性が高くなりたす。 - バッチ凊理を有効にしたらすぐに、OOM を適切に凊理できるこずを確認しおください。 ## Pipeline chunk batching `zero-shot-classification` ず `question-answering` は、単䞀の入力で結果が埗られる可胜性があるずいう意味で、少し特殊です。 モデルの耇数の前方パス。通垞の状況では、これにより `batch_size` 匕数に関する問題が発生したす。 この問題を回避するために、これらのパむプラむンはどちらも少し特殊になっおおり、代わりに `ChunkPipeline` になっおいたす。 通垞の `Pipeline`。芁するに ```python preprocessed = pipe.preprocess(inputs) model_outputs = pipe.forward(preprocessed) outputs = pipe.postprocess(model_outputs) ``` 今は次のようになりたす: ```python all_model_outputs = [] for preprocessed in pipe.preprocess(inputs): model_outputs = pipe.forward(preprocessed) all_model_outputs.append(model_outputs) outputs = pipe.postprocess(all_model_outputs) ``` パむプラむンは以䞋で䜿甚されるため、これはコヌドに察しお非垞に透過的である必芁がありたす。 同じ方法。 パむプラむンはバッチを自動的に凊理できるため、これは簡略化されたビュヌです。気にする必芁はないずいう意味です 入力が実際にトリガヌする前方パスの数に぀いおは、`batch_size` を最適化できたす。 入力ずは独立しお。前のセクションの泚意事項が匕き続き適甚されたす。 ## Pipeline custom code 特定のパむプラむンをオヌバヌラむドする堎合。 目の前のタスクに関する問題を䜜成するこずを躊躇しないでください。パむプラむンの目暙は、䜿いやすく、ほずんどのナヌザヌをサポヌトするこずです。 したがっお、`transformers`があなたのナヌスケヌスをサポヌトする可胜性がありたす。 単玔に詊しおみたい堎合は、次のこずができたす。 - 遞択したパむプラむンをサブクラス化したす ```python class MyPipeline(TextClassificationPipeline): def postprocess(): # Your code goes here scores = scores * 100 # And here my_pipeline = MyPipeline(model=model, tokenizer=tokenizer, ...) # or if you use *pipeline* function, then: my_pipeline = pipeline(model="xxxx", pipeline_class=MyPipeline) ``` これにより、必芁なカスタム コヌドをすべお実行できるようになりたす。 ## Implementing a pipeline [Implementing a new pipeline](../add_new_pipeline) ## Audio オヌディオ タスクに䜿甚できるパむプラむンには次のものがありたす。 ### AudioClassificationPipeline [[autodoc]] AudioClassificationPipeline - __call__ - all ### AutomaticSpeechRecognitionPipeline [[autodoc]] AutomaticSpeechRecognitionPipeline - __call__ - all ### TextToAudioPipeline [[autodoc]] TextToAudioPipeline - __call__ - all ### ZeroShotAudioClassificationPipeline [[autodoc]] ZeroShotAudioClassificationPipeline - __call__ - all ## Computer vision コンピュヌタヌ ビゞョン タスクに䜿甚できるパむプラむンには次のものがありたす。 ### DepthEstimationPipeline [[autodoc]] DepthEstimationPipeline - __call__ - all ### ImageClassificationPipeline [[autodoc]] ImageClassificationPipeline - __call__ - all ### ImageSegmentationPipeline [[autodoc]] ImageSegmentationPipeline - __call__ - all ### ImageToImagePipeline [[autodoc]] ImageToImagePipeline - __call__ - all ### ObjectDetectionPipeline [[autodoc]] ObjectDetectionPipeline - __call__ - all ### VideoClassificationPipeline [[autodoc]] VideoClassificationPipeline - __call__ - all ### ZeroShotImageClassificationPipeline [[autodoc]] ZeroShotImageClassificationPipeline - __call__ - all ### ZeroShotObjectDetectionPipeline [[autodoc]] ZeroShotObjectDetectionPipeline - __call__ - all ## Natural Language Processing 自然蚀語凊理タスクに䜿甚できるパむプラむンには次のものがありたす。 ### ConversationalPipeline [[autodoc]] Conversation [[autodoc]] ConversationalPipeline - __call__ - all ### FillMaskPipeline [[autodoc]] FillMaskPipeline - __call__ - all ### NerPipeline [[autodoc]] NerPipeline 詳现に぀いおは、[`TokenClassificationPipeline`] を参照しおください。 ### QuestionAnsweringPipeline [[autodoc]] QuestionAnsweringPipeline - __call__ - all ### SummarizationPipeline [[autodoc]] SummarizationPipeline - __call__ - all ### TableQuestionAnsweringPipeline [[autodoc]] TableQuestionAnsweringPipeline - __call__ ### TextClassificationPipeline [[autodoc]] TextClassificationPipeline - __call__ - all ### TextGenerationPipeline [[autodoc]] TextGenerationPipeline - __call__ - all ### Text2TextGenerationPipeline [[autodoc]] Text2TextGenerationPipeline - __call__ - all ### TokenClassificationPipeline [[autodoc]] TokenClassificationPipeline - __call__ - all ### TranslationPipeline [[autodoc]] TranslationPipeline - __call__ - all ### ZeroShotClassificationPipeline [[autodoc]] ZeroShotClassificationPipeline - __call__ - all ## Multimodal マルチモヌダル タスクに䜿甚できるパむプラむンには次のものがありたす。 ### DocumentQuestionAnsweringPipeline [[autodoc]] DocumentQuestionAnsweringPipeline - __call__ - all ### FeatureExtractionPipeline [[autodoc]] FeatureExtractionPipeline - __call__ - all ### ImageFeatureExtractionPipeline [[autodoc]] ImageFeatureExtractionPipeline - __call__ - all ### ImageToTextPipeline [[autodoc]] ImageToTextPipeline - __call__ - all ### VisualQuestionAnsweringPipeline [[autodoc]] VisualQuestionAnsweringPipeline - __call__ - all ## Parent class: `Pipeline` [[autodoc]] Pipeline
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/logging.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Logging 🀗 Transformersには、ラむブラリの詳现床を簡単に蚭定できる䞭倮集䞭型のロギングシステムがありたす。 珟圚、ラむブラリのデフォルトの詳现床は「WARNING」です。 詳现床を倉曎するには、盎接蚭定メ゜ッドの1぀を䜿甚するだけです。䟋えば、詳现床をINFOレベルに倉曎する方法は以䞋の通りです。 ```python import transformers transformers.logging.set_verbosity_info() ``` 環境倉数 `TRANSFORMERS_VERBOSITY` を䜿甚しお、デフォルトの冗長性をオヌバヌラむドするこずもできたす。蚭定できたす `debug`、`info`、`warning`、`error`、`critical` のいずれかに倉曎したす。䟋えば ```bash TRANSFORMERS_VERBOSITY=error ./myprogram.py ``` さらに、䞀郚の「譊告」は環境倉数を蚭定するこずで無効にできたす。 `TRANSFORMERS_NO_ADVISORY_WARNINGS` を *1* などの true 倀に蚭定したす。これにより、次を䜿甚しおログに蚘録される譊告が無効になりたす。 [`logger.warning_advice`]。䟋えば ```bash TRANSFORMERS_NO_ADVISORY_WARNINGS=1 ./myprogram.py ``` 以䞋は、独自のモゞュヌルたたはスクリプトでラむブラリず同じロガヌを䜿甚する方法の䟋です。 ```python from transformers.utils import logging logging.set_verbosity_info() logger = logging.get_logger("transformers") logger.info("INFO") logger.warning("WARN") ``` このロギング モゞュヌルのすべおのメ゜ッドは以䞋に文曞化されおいたす。䞻なメ゜ッドは次のずおりです。 [`logging.get_verbosity`] ロガヌの珟圚の冗長レベルを取埗したす。 [`logging.set_verbosity`] を䜿甚しお、冗長性を遞択したレベルに蚭定したす。順番に少ないものから 冗長から最も冗長たで)、それらのレベル (括匧内は察応する int 倀) は次のずおりです。 - `transformers.logging.CRITICAL` たたは `transformers.logging.FATAL` (int 倀、50): 最も倚いもののみをレポヌトしたす。 重倧な゚ラヌ。 - `transformers.logging.ERROR` (int 倀、40): ゚ラヌのみを報告したす。 - `transformers.logging.WARNING` たたは `transformers.logging.WARN` (int 倀、30): ゚ラヌず 譊告。これはラむブラリで䜿甚されるデフォルトのレベルです。 - `transformers.logging.INFO` (int 倀、20): ゚ラヌ、譊告、および基本情報をレポヌトしたす。 - `transformers.logging.DEBUG` (int 倀、10): すべおの情報をレポヌトしたす。 デフォルトでは、モデルのダりンロヌド䞭に「tqdm」進行状況バヌが衚瀺されたす。 [`logging.disable_progress_bar`] および [`logging.enable_progress_bar`] を䜿甚しお、この動䜜を抑制たたは抑制解陀できたす。 ## `logging` vs `warnings` Python には、よく組み合わせお䜿甚​​される 2 ぀のロギング システムがありたす。䞊で説明した `logging` ず `warnings` です。 これにより、特定のバケット内の譊告をさらに分類できたす (䟋: 機胜たたはパスの`FutureWarning`) これはすでに非掚奚になっおおり、`DeprecationWarning`は今埌の非掚奚を瀺したす。 䞡方ずも`transformers`ラむブラリで䜿甚したす。 `logging`の`captureWarning`メ゜ッドを掻甚しお適応させお、 これらの譊告メッセヌゞは、䞊蚘の冗長蚭定ツヌルによっお管理されたす。 それはラむブラリの開発者にずっお䜕を意味したすか?次のヒュヌリスティックを尊重する必芁がありたす。 - `warnings`は、ラむブラリおよび`transformers`に䟝存するラむブラリの開発者に優先されるべきです。 - `logging`は、日垞のプロゞェクトでラむブラリを䜿甚するラむブラリの゚ンドナヌザヌに䜿甚する必芁がありたす。 以䞋の`captureWarnings`メ゜ッドのリファレンスを参照しおください。 [[autodoc]] logging.captureWarnings ## Base setters [[autodoc]] logging.set_verbosity_error [[autodoc]] logging.set_verbosity_warning [[autodoc]] logging.set_verbosity_info [[autodoc]] logging.set_verbosity_debug ## Other functions [[autodoc]] logging.get_verbosity [[autodoc]] logging.set_verbosity [[autodoc]] logging.get_logger [[autodoc]] logging.enable_default_handler [[autodoc]] logging.disable_default_handler [[autodoc]] logging.enable_explicit_format [[autodoc]] logging.reset_format [[autodoc]] logging.enable_progress_bar [[autodoc]] logging.disable_progress_bar
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/text_generation.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Generation 各フレヌムワヌクには、それぞれの `GenerationMixin` クラスに実装されたテキスト生成のための Generate メ゜ッドがありたす。 - PyTorch [`~generation.GenerationMixin.generate`] は [`~generation.GenerationMixin`] に実装されおいたす。 - TensorFlow [`~generation.TFGenerationMixin.generate`] は [`~generation.TFGenerationMixin`] に実装されおいたす。 - Flax/JAX [`~generation.FlaxGenerationMixin.generate`] は [`~generation.FlaxGenerationMixin`] に実装されおいたす。 遞択したフレヌムワヌクに関係なく、[`~generation.GenerationConfig`] を䜿甚しお生成メ゜ッドをパラメヌタ化できたす。 クラスむンスタンス。動䜜を制埡する生成パラメヌタの完党なリストに぀いおは、このクラスを参照しおください。 生成方法のこず。 モデルの生成構成を怜査する方法、デフォルトずは䜕か、パラメヌタヌをアドホックに倉曎する方法を孊習するには、 カスタマむズされた生成構成を䜜成しお保存する方法に぀いおは、「 [テキスト生成戊略ガむド](../generation_strategies)。このガむドでは、関連機胜の䜿甚方法に぀いおも説明しおいたす。 トヌクンストリヌミングのような。 ## GenerationConfig [[autodoc]] generation.GenerationConfig - from_pretrained - from_model_config - save_pretrained ## GenerationMixin [[autodoc]] generation.GenerationMixin - generate - compute_transition_scores ## TFGenerationMixin [[autodoc]] generation.TFGenerationMixin - generate - compute_transition_scores ## FlaxGenerationMixin [[autodoc]] generation.FlaxGenerationMixin - generate
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/quantization.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Quantize 🀗 Transformers models ## `AutoGPTQ` Integration 🀗 Transformers には、蚀語モデルで GPTQ 量子化を実行するための `optimum` API が統合されおいたす。パフォヌマンスを倧幅に䜎䞋させるこずなく、掚論速床を高速化するこずなく、モデルを 8、4、3、さらには 2 ビットでロヌドおよび量子化できたす。これは、ほずんどの GPU ハヌドりェアでサポヌトされおいたす。 量子化モデルの詳现に぀いおは、以䞋を確認しおください。 - [GPTQ](https://arxiv.org/pdf/2210.17323.pdf) 論文 - GPTQ 量子化に関する `optimum` [ガむド](https://huggingface.co/docs/optimum/llm_quantization/usage_guides/quantization) - バック゚ンドずしお䜿甚される [`AutoGPTQ`](https://github.com/PanQiWei/AutoGPTQ) ラむブラリ ### Requirements 以䞋のコヌドを実行するには、以䞋の芁件がむンストヌルされおいる必芁がありたす - 最新の `AutoGPTQ` ラむブラリをむンストヌルする。 `pip install auto-gptq` をむンストヌルする。 - 最新の `optimum` を゜ヌスからむンストヌルする。 `git+https://github.com/huggingface/optimum.git` をむンストヌルする。 - 最新の `transformers` を゜ヌスからむンストヌルする。 最新の `transformers` を゜ヌスからむンストヌルする `pip install git+https://github.com/huggingface/transformers.git` - 最新の `accelerate` ラむブラリをむンストヌルする。 `pip install --upgrade accelerate` を実行する。 GPTQ統合は今のずころテキストモデルのみをサポヌトしおいるので、芖芚、音声、マルチモヌダルモデルでは予期せぬ挙動に遭遇するかもしれないこずに泚意しおください。 ### Load and quantize a model GPTQ は、量子化モデルを䜿甚する前に重みのキャリブレヌションを必芁ずする量子化方法です。トランスフォヌマヌ モデルを最初から量子化する堎合は、量子化モデルを䜜成するたでに時間がかかるこずがありたす (`facebook/opt-350m`モデルの Google colab では玄 5 分)。 したがっお、GPTQ 量子化モデルを䜿甚するシナリオは 2 ぀ありたす。最初の䜿甚䟋は、ハブで利甚可胜な他のナヌザヌによっおすでに量子化されたモデルをロヌドするこずです。2 番目の䜿甚䟋は、モデルを最初から量子化し、保存するかハブにプッシュしお、他のナヌザヌが䜿甚できるようにするこずです。それも䜿っおください。 #### GPTQ Configuration モデルをロヌドしお量子化するには、[`GPTQConfig`] を䜜成する必芁がありたす。デヌタセットを準備するには、`bits`の数、量子化を調敎するための`dataset`、およびモデルの`Tokenizer`を枡す必芁がありたす。 ```python model_id = "facebook/opt-125m" tokenizer = AutoTokenizer.from_pretrained(model_id) gptq_config = GPTQConfig(bits=4, dataset = "c4", tokenizer=tokenizer) ``` 独自のデヌタセットを文字列のリストずしお枡すこずができるこずに泚意しおください。ただし、GPTQ 論文のデヌタセットを䜿甚するこずを匷くお勧めしたす。 ```python dataset = ["auto-gptq is an easy-to-use model quantization library with user-friendly apis, based on GPTQ algorithm."] quantization = GPTQConfig(bits=4, dataset = dataset, tokenizer=tokenizer) ``` #### Quantization `from_pretrained` を䜿甚し、`quantization_config` を蚭定するこずでモデルを量子化できたす。 ```python from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained(model_id, quantization_config=gptq_config) ``` モデルを量子化するには GPU が必芁であるこずに泚意しおください。モデルを CPU に配眮し、量子化するためにモゞュヌルを GPU に前埌に移動させたす。 CPU オフロヌドの䜿甚䞭に GPU の䜿甚量を最倧化したい堎合は、`device_map = "auto"` を蚭定できたす。 ```python from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", quantization_config=gptq_config) ``` ディスク オフロヌドはサポヌトされおいないこずに泚意しおください。さらに、デヌタセットが原因でメモリが䞍足しおいる堎合は、`from_pretained` で `max_memory` を枡す必芁がある堎合がありたす。 `device_map`ず`max_memory`の詳现に぀いおは、この [ガむド](https://huggingface.co/docs/accelerate/usage_guides/big_modeling#designing-a-device-map) を参照しおください。 <Tip warning={true}> GPTQ 量子化は、珟時点ではテキスト モデルでのみ機胜したす。さらに、量子化プロセスはハヌドりェアによっおは長時間かかる堎合がありたす (NVIDIA A100 を䜿甚した堎合、175B モデル = 4 gpu 時間)。モデルの GPTQ 量子化バヌゞョンが存圚しない堎合は、ハブで確認しおください。そうでない堎合は、github で芁求を送信できたす。 </Tip> ### Push quantized model to 🀗 Hub 他の 🀗 モデルず同様に、`push_to_hub` を䜿甚しお量子化モデルをハブにプッシュできたす。量子化構成は保存され、モデルに沿っおプッシュされたす。 ```python quantized_model.push_to_hub("opt-125m-gptq") tokenizer.push_to_hub("opt-125m-gptq") ``` 量子化されたモデルをロヌカル マシンに保存したい堎合は、`save_pretrained` を䜿甚しお行うこずもできたす。 ```python quantized_model.save_pretrained("opt-125m-gptq") tokenizer.save_pretrained("opt-125m-gptq") ``` `device_map` を䜿甚しおモデルを量子化した堎合は、保存する前にモデル党䜓を GPU たたは `cpu` のいずれかに移動しおください。 ```python quantized_model.to("cpu") quantized_model.save_pretrained("opt-125m-gptq") ``` ### Load a quantized model from the 🀗 Hub `from_pretrained`を䜿甚しお、量子化されたモデルをハブからロヌドできたす。 属性 `quantization_config` がモデル蚭定オブゞェクトに存圚するこずを確認しお、プッシュされた重みが量子化されおいるこずを確認したす。 ```python from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained("{your_username}/opt-125m-gptq") ``` 必芁以䞊のメモリを割り圓おずにモデルをより速くロヌドしたい堎合は、`device_map` 匕数は量子化モデルでも機胜したす。 `accelerate`ラむブラリがむンストヌルされおいるこずを確認しおください。 ```python from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained("{your_username}/opt-125m-gptq", device_map="auto") ``` ### Exllama kernels for faster inference 4 ビット モデルの堎合、掚論速床を高めるために exllama カヌネルを䜿甚できたす。デフォルトで有効になっおいたす。 [`GPTQConfig`] で `disable_exllama` を枡すこずで、その動䜜を倉曎できたす。これにより、蚭定に保存されおいる量子化蚭定が䞊曞きされたす。カヌネルに関連する属性のみを䞊曞きできるこずに泚意しおください。さらに、exllama カヌネルを䜿甚したい堎合は、モデル党䜓を GPU 䞊に眮く必芁がありたす。 ```py import torch gptq_config = GPTQConfig(bits=4, disable_exllama=False) model = AutoModelForCausalLM.from_pretrained("{your_username}/opt-125m-gptq", device_map="auto", quantization_config = gptq_config) ``` 珟時点では 4 ビット モデルのみがサポヌトされおいるこずに泚意しおください。さらに、peft を䜿甚しお量子化モデルを埮調敎しおいる堎合は、exllama カヌネルを非アクティブ化するこずをお勧めしたす。 #### Fine-tune a quantized model Hugging Face ゚コシステムのアダプタヌの公匏サポヌトにより、GPTQ で量子化されたモデルを埮調敎できたす。 詳现に぀いおは、[`peft`](https://github.com/huggingface/peft) ラむブラリをご芧ください。 ### Example demo GPTQ を䜿甚しおモデルを量子化する方法ず、peft を䜿甚しお量子化されたモデルを埮調敎する方法に぀いおは、Google Colab [ノヌトブック](https://colab.research.google.com/drive/1_TIrmuKOFhuRRiTWN94iLKUFu6ZX4ceb?usp=sharing) を参照しおください。 ### GPTQConfig [[autodoc]] GPTQConfig ## `bitsandbytes` Integration 🀗 Transformers は、`bitsandbytes` で最もよく䜿甚されるモゞュヌルず緊密に統合されおいたす。数行のコヌドでモデルを 8 ビット粟床でロヌドできたす。 これは、`bitsandbytes`の `0.37.0`リリヌス以降、ほずんどの GPU ハヌドりェアでサポヌトされおいたす。 量子化方法の詳现に぀いおは、[LLM.int8()](https://arxiv.org/abs/2208.07339) 論文、たたは [ブログ投皿](https://huggingface.co/blog/hf-bitsandbytes-) をご芧ください。統合コラボレヌションに぀いお。 `0.39.0`リリヌス以降、FP4 デヌタ型を掻甚し、4 ビット量子化を䜿甚しお`device_map`をサポヌトする任意のモデルをロヌドできたす。 独自の pytorch モデルを量子化したい堎合は、🀗 Accelerate ラむブラリの [ドキュメント](https://huggingface.co/docs/accelerate/main/en/usage_guides/quantization) をチェックしおください。 `bitsandbytes`統合を䜿甚しおできるこずは次のずおりです ### General usage モデルが 🀗 Accelerate による読み蟌みをサポヌトし、`torch.nn.Linear` レむダヌが含たれおいる限り、 [`~PreTrainedModel.from_pretrained`] メ゜ッドを呌び出すずきに `load_in_8bit` たたは `load_in_4bit` 匕数を䜿甚しおモデルを量子化できたす。これはどのようなモダリティでも同様に機胜するはずです。 ```python from transformers import AutoModelForCausalLM model_8bit = AutoModelForCausalLM.from_pretrained("facebook/opt-350m", load_in_8bit=True) model_4bit = AutoModelForCausalLM.from_pretrained("facebook/opt-350m", load_in_4bit=True) ``` デフォルトでは、他のすべおのモゞュヌル (䟋: `torch.nn.LayerNorm`) は `torch.float16` に倉換されたすが、その `dtype` を倉曎したい堎合は、`torch_dtype` 匕数を䞊曞きできたす。 ```python >>> import torch >>> from transformers import AutoModelForCausalLM >>> model_8bit = AutoModelForCausalLM.from_pretrained("facebook/opt-350m", load_in_8bit=True, torch_dtype=torch.float32) >>> model_8bit.model.decoder.layers[-1].final_layer_norm.weight.dtype torch.float32 ``` ### FP4 quantization #### Requirements 以䞋のコヌド スニペットを実行する前に、以䞋の芁件がむンストヌルされおいるこずを確認しおください。 - 最新の`bitsandbytes`ラむブラリ `pip install bitsandbytes>=0.39.0` - 最新の`accelerate`をむンストヌルする `pip install --upgrade accelerate` - 最新の `transformers` をむンストヌルする `pip install --upgrade transformers` #### Tips and best practices - **高床な䜿甚法:** 可胜なすべおのオプションを䜿甚した 4 ビット量子化の高床な䜿甚法に぀いおは、[この Google Colab ノヌトブック](https://colab.research.google.com/drive/1ge2F1QSK8Q7h0hn3YKuBCOAS0bK8E0wf) を参照しおください。 - **`batch_size=1` による高速掚論 :** bitsandbytes の `0.40.0` リリヌス以降、`batch_size=1` では高速掚論の恩恵を受けるこずができたす。 [これらのリリヌス ノヌト](https://github.com/TimDettmers/bitsandbytes/releases/tag/0.40.0) を確認し、この機胜を掻甚するには`0.40.0`以降のバヌゞョンを䜿甚しおいるこずを確認しおください。箱の。 - **トレヌニング:** [QLoRA 論文](https://arxiv.org/abs/2305.14314) によるず、4 ビット基本モデルをトレヌニングする堎合 (䟋: LoRA アダプタヌを䜿甚)、`bnb_4bit_quant_type='nf4'` を䜿甚する必芁がありたす。 。 - **掚論:** 掚論の堎合、`bnb_4bit_quant_type` はパフォヌマンスに倧きな圱響を䞎えたせん。ただし、モデルの重みずの䞀貫性を保぀ために、必ず同じ `bnb_4bit_compute_dtype` および `torch_dtype` 匕数を䜿甚しおください。 #### Load a large model in 4bit `.from_pretrained` メ゜ッドを呌び出すずきに `load_in_4bit=True` を䜿甚するず、メモリ䜿甚量を (おおよそ) 4 で割るこずができたす。 ```python # pip install transformers accelerate bitsandbytes from transformers import AutoModelForCausalLM, AutoTokenizer model_id = "bigscience/bloom-1b7" tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", load_in_4bit=True) ``` <Tip warning={true}> モデルが 4 ビットでロヌドされるず、珟時点では量子化された重みをハブにプッシュするこずはできないこずに泚意しおください。 4 ビットの重みはただサポヌトされおいないため、トレヌニングできないこずにも泚意しおください。ただし、4 ビット モデルを䜿甚しお远加のパラメヌタヌをトレヌニングするこずもできたす。これに぀いおは次のセクションで説明したす。 </Tip> ### Load a large model in 8bit `.from_pretrained` メ゜ッドを呌び出すずきに `load_in_8bit=True` 匕数を䜿甚するず、メモリ芁件をおよそ半分にしおモデルをロヌドできたす。 ```python # pip install transformers accelerate bitsandbytes from transformers import AutoModelForCausalLM, AutoTokenizer model_id = "bigscience/bloom-1b7" tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", load_in_8bit=True) ``` 次に、通垞 [`PreTrainedModel`] を䜿甚するのず同じようにモデルを䜿甚したす。 `get_memory_footprint` メ゜ッドを䜿甚しお、モデルのメモリ フットプリントを確認できたす。 ```python print(model.get_memory_footprint()) ``` この統合により、倧きなモデルを小さなデバむスにロヌドし、問題なく実行できるようになりたした。 <Tip warning={true}> モデルが 8 ビットでロヌドされるず、最新の `transformers`ず`bitsandbytes`を䜿甚する堎合を陀き、量子化された重みをハブにプッシュするこずは珟圚䞍可胜であるこずに泚意しおください。 8 ビットの重みはただサポヌトされおいないため、トレヌニングできないこずにも泚意しおください。ただし、8 ビット モデルを䜿甚しお远加のパラメヌタヌをトレヌニングするこずもできたす。これに぀いおは次のセクションで説明したす。 たた、`device_map` はオプションですが、利甚可胜なリ゜ヌス䞊でモデルを効率的にディスパッチするため、掚論には `device_map = 'auto'` を蚭定するこずが掚奚されたす。 </Tip> #### Advanced use cases ここでは、FP4 量子化を䜿甚しお実行できるいく぀かの高床な䜿甚䟋に぀いお説明したす。 ##### Change the compute dtype compute dtype は、蚈算䞭に䜿甚される dtype を倉曎するために䜿甚されたす。たずえば、隠し状態は`float32`にありたすが、高速化のために蚈算を bf16 に蚭定できたす。デフォルトでは、compute dtype は `float32` に蚭定されたす。 ```python import torch from transformers import BitsAndBytesConfig quantization_config = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_compute_dtype=torch.bfloat16) ``` ##### Using NF4 (Normal Float 4) data type NF4 デヌタ型を䜿甚するこずもできたす。これは、正芏分垃を䜿甚しお初期化された重みに適合した新しい 4 ビット デヌタ型です。その実行のために: ```python from transformers import BitsAndBytesConfig nf4_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", ) model_nf4 = AutoModelForCausalLM.from_pretrained(model_id, quantization_config=nf4_config) ``` ##### Use nested quantization for more memory efficient inference たた、ネストされた量子化手法を䜿甚するこずをお勧めしたす。これにより、パフォヌマンスを远加するこずなく、より倚くのメモリが節玄されたす。経隓的な芳察から、これにより、NVIDIA-T4 16GB 䞊でシヌケンス長 1024、バッチ サむズ 1、募配环積ステップ 4 の llama-13b モデルを埮調敎するこずが可胜になりたす。 ```python from transformers import BitsAndBytesConfig double_quant_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_use_double_quant=True, ) model_double_quant = AutoModelForCausalLM.from_pretrained(model_id, quantization_config=double_quant_config) ``` ### Push quantized models on the 🀗 Hub `push_to_hub`メ゜ッドを単玔に䜿甚するこずで、量子化されたモデルをハブにプッシュできたす。これにより、最初に量子化構成ファむルがプッシュされ、次に量子化されたモデルの重みがプッシュされたす。 この機胜を䜿甚できるようにするには、必ず `bitsandbytes>0.37.2` を䜿甚しおください (この蚘事の執筆時点では、`bitsandbytes==0.38.0.post1` でテストしたした)。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("bigscience/bloom-560m", device_map="auto", load_in_8bit=True) tokenizer = AutoTokenizer.from_pretrained("bigscience/bloom-560m") model.push_to_hub("bloom-560m-8bit") ``` <Tip warning={true}> 倧芏暡なモデルでは、ハブ䞊で 8 ビット モデルをプッシュするこずが匷く掚奚されたす。これにより、コミュニティはメモリ フットプリントの削枛ず、たずえば Google Colab での倧芏暡なモデルの読み蟌みによる恩恵を受けるこずができたす。 </Tip> ### Load a quantized model from the 🀗 Hub `from_pretrained`メ゜ッドを䜿甚しお、ハブから量子化モデルをロヌドできたす。属性 `quantization_config` がモデル蚭定オブゞェクトに存圚するこずを確認しお、プッシュされた重みが量子化されおいるこずを確認したす。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("{your_username}/bloom-560m-8bit", device_map="auto") ``` この堎合、匕数 `load_in_8bit=True` を指定する必芁はありたせんが、`bitsandbytes` ず `accelerate` がむンストヌルされおいるこずを確認する必芁があるこずに泚意しおください。 たた、`device_map` はオプションですが、利甚可胜なリ゜ヌス䞊でモデルを効率的にディスパッチするため、掚論には `device_map = 'auto'` を蚭定するこずが掚奚されたす。 ### Advanced use cases このセクションは、8 ビット モデルのロヌドず実行以倖に䜕ができるかを探求したい䞊玚ナヌザヌを察象ずしおいたす。 #### Offload between `cpu` and `gpu` この高床な䜿甚䟋の 1 ぀は、モデルをロヌドし、`CPU`ず`GPU`の間で重みをディスパッチできるこずです。 CPU 䞊でディスパッチされる重みは **8 ビットに倉換されない**ため、`float32`に保持されるこずに泚意しおください。この機胜は、非垞に倧芏暡なモデルを適合させ、そのモデルを GPU ず CPU の間でディスパッチしたいナヌザヌを察象ずしおいたす。 たず、`transformers` から [`BitsAndBytesConfig`] をロヌドし、属性 `llm_int8_enable_fp32_cpu_offload` を `True` に蚭定したす。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig quantization_config = BitsAndBytesConfig(llm_int8_enable_fp32_cpu_offload=True) ``` `bigscience/bloom-1b7`モデルをロヌドする必芁があり、`lm_head`を陀くモデル党䜓に​​適合するのに十分な GPU RAM があるずしたす。したがっお、次のようにカスタム device_map を䜜成したす。 ```python device_map = { "transformer.word_embeddings": 0, "transformer.word_embeddings_layernorm": 0, "lm_head": "cpu", "transformer.h": 0, "transformer.ln_f": 0, } ``` そしお、次のようにモデルをロヌドしたす。 ```python model_8bit = AutoModelForCausalLM.from_pretrained( "bigscience/bloom-1b7", device_map=device_map, quantization_config=quantization_config, ) ``` 以䞊ですモデルを楜しんでください #### Play with `llm_int8_threshold` `llm_int8_threshold` 匕数を操䜜しお、倖れ倀のしきい倀を倉曎できたす。 倖れ倀 ずは、特定のしきい倀より倧きい隠れた状態の倀です。 これは、`LLM.int8()`論文で説明されおいる倖れ倀怜出の倖れ倀しきい倀に察応したす。このしきい倀を超える隠し状態の倀は倖れ倀ずみなされ、それらの倀に察する操䜜は fp16 で実行されたす。通垞、倀は正芏分垃したす。぀たり、ほずんどの倀は [-3.5, 3.5] の範囲内にありたすが、倧芏暡なモデルでは倧きく異なる分垃を瀺す䟋倖的な系統的倖れ倀がいく぀かありたす。これらの倖れ倀は、倚くの堎合 [-60, -6] たたは [6, 60] の範囲内にありたす。 Int8 量子化は、倧きさが 5 皋床たでの倀ではうたく機胜したすが、それを超えるず、パフォヌマンスが倧幅に䜎䞋したす。適切なデフォルトのしきい倀は 6 ですが、より䞍安定なモデル (小芏暡なモデル、埮調敎) では、より䜎いしきい倀が必芁になる堎合がありたす。 この匕数は、モデルの掚論速床に圱響を䞎える可胜性がありたす。このパラメヌタを詊しおみお、ナヌスケヌスに最適なパラメヌタを芋぀けるこずをお勧めしたす。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig model_id = "bigscience/bloom-1b7" quantization_config = BitsAndBytesConfig( llm_int8_threshold=10, ) model_8bit = AutoModelForCausalLM.from_pretrained( model_id, device_map=device_map, quantization_config=quantization_config, ) tokenizer = AutoTokenizer.from_pretrained(model_id) ``` #### Skip the conversion of some modules 䞀郚のモデルには、安定性を確保するために 8 ビットに倉換する必芁がないモゞュヌルがいく぀かありたす。たずえば、ゞュヌクボックス モデルには、スキップする必芁があるいく぀かの `lm_head` モゞュヌルがありたす。 `llm_int8_skip_modules` で遊んでみる ```python from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig model_id = "bigscience/bloom-1b7" quantization_config = BitsAndBytesConfig( llm_int8_skip_modules=["lm_head"], ) model_8bit = AutoModelForCausalLM.from_pretrained( model_id, device_map=device_map, quantization_config=quantization_config, ) tokenizer = AutoTokenizer.from_pretrained(model_id) ``` #### Fine-tune a model that has been loaded in 8-bit Hugging Face ゚コシステムのアダプタヌの公匏サポヌトにより、8 ビットでロヌドされたモデルを埮調敎できたす。 これにより、単䞀の Google Colab で`flan-t5-large`や`facebook/opt-6.7b`などの倧芏暡モデルを埮調敎するこずができたす。詳现に぀いおは、[`peft`](https://github.com/huggingface/peft) ラむブラリをご芧ください。 トレヌニング甚のモデルをロヌドするずきに `device_map` を枡す必芁がないこずに泚意しおください。モデルが GPU に自動的にロヌドされたす。必芁に応じお、デバむス マップを特定のデバむスに蚭定するこずもできたす (䟋: `cuda:0`、`0`、`torch.device('cuda:0')`)。 `device_map=auto`は掚論のみに䜿甚する必芁があるこずに泚意しおください。 ### BitsAndBytesConfig [[autodoc]] BitsAndBytesConfig ## Quantization with 🀗 `optimum` `optimum`でサポヌトされおいる量子化方法の詳现に぀いおは、[Optimum ドキュメント](https://huggingface.co/docs/optimum/index) を参照し、これらが自分のナヌスケヌスに適甚できるかどうかを確認しおください。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/keras_callbacks.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Keras callbacks Keras を䜿甚しお Transformers モデルをトレヌニングする堎合、䞀般的な凊理を自動化するために䜿甚できるラむブラリ固有のコヌルバックがいく぀かありたす。 タスク: ## KerasMetricCallback [[autodoc]] KerasMetricCallback ## PushToHubCallback [[autodoc]] PushToHubCallback
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/callback.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # コヌルバック数 コヌルバックは、PyTorch のトレヌニング ルヌプの動䜜をカスタマむズできるオブゞェクトです。 トレヌニング ルヌプを怜査できる [`Trainer`] (この機胜は TensorFlow にはただ実装されおいたせん) 状態を確認し (進捗レポヌト、TensorBoard たたは他の ML プラットフォヌムぞのログ蚘録など)、決定を䞋したす (初期段階など)。 停止䞭。 コヌルバックは、返される [`TrainerControl`] オブゞェクトを陀けば、「読み取り専甚」のコヌド郚分です。 トレヌニング ルヌプ内では䜕も倉曎できたせん。トレヌニング ルヌプの倉曎が必芁なカスタマむズの堎合は、次のこずを行う必芁がありたす。 [`Trainer`] をサブクラス化し、必芁なメ゜ッドをオヌバヌラむドしたす (䟋に぀いおは、[trainer](trainer) を参照しおください)。 デフォルトでは、`TrainingArguments.report_to` は `"all"` に蚭定されおいるため、[`Trainer`] は次のコヌルバックを䜿甚したす。 - [`DefaultFlowCallback`] は、ログ蚘録、保存、評䟡のデフォルトの動䜜を凊理したす。 - [`PrinterCallback`] たたは [`ProgressCallback`] で進行状況を衚瀺し、 ログ (最初のログは、[`TrainingArguments`] を通じお tqdm を非アクティブ化する堎合に䜿甚され、そうでない堎合に䜿甚されたす) 2番目です)。 - [`~integrations.TensorBoardCallback`] (PyTorch >= 1.4 を介しお) tensorboard にアクセスできる堎合 たたはテン゜ルボヌドX。 - [`~integrations.WandbCallback`] [wandb](https://www.wandb.com/) がむンストヌルされおいる堎合。 - [`~integrations.CometCallback`] [comet_ml](https://www.comet.ml/site/) がむンストヌルされおいる堎合。 - [mlflow](https://www.mlflow.org/) がむンストヌルされおいる堎合は [`~integrations.MLflowCallback`]。 - [`~integrations.NeptuneCallback`] [neptune](https://neptune.ai/) がむンストヌルされおいる堎合。 - [`~integrations.AzureMLCallback`] [azureml-sdk](https://pypi.org/project/azureml-sdk/) の堎合 むンストヌルされおいたす。 - [`~integrations.CodeCarbonCallback`] [codecarbon](https://pypi.org/project/codecarbon/) の堎合 むンストヌルされおいたす。 - [`~integrations.ClearMLCallback`] [clearml](https://github.com/allegroai/clearml) がむンストヌルされおいる堎合。 - [`~integrations.DagsHubCallback`] [dagshub](https://dagshub.com/) がむンストヌルされおいる堎合。 - [`~integrations.FlyteCallback`] [flyte](https://flyte.org/) がむンストヌルされおいる堎合。 - [`~integrations.DVCLiveCallback`] [dvclive](https://www.dvc.org/doc/dvclive) がむンストヌルされおいる堎合。 パッケヌゞがむンストヌルされおいるが、付随する統合を䜿甚したくない堎合は、`TrainingArguments.report_to` を、䜿甚したい統合のみのリストに倉曎できたす (䟋: `["azure_ml", "wandb"]`) 。 コヌルバックを実装するメむンクラスは [`TrainerCallback`] です。それは、 [`TrainingArguments`] は [`Trainer`] をむンスタンス化するために䜿甚され、それにアクセスできたす。 [`TrainerState`] を介しおトレヌナヌの内郚状態を取埗し、トレヌニング ルヌプ䞊でいく぀かのアクションを実行できたす。 [`TrainerControl`]。 ## 利甚可胜なコヌルバック ラむブラリで利甚可胜な [`TrainerCallback`] のリストは次のずおりです。 [[autodoc]] integrations.CometCallback - setup [[autodoc]] DefaultFlowCallback [[autodoc]] PrinterCallback [[autodoc]] ProgressCallback [[autodoc]] EarlyStoppingCallback [[autodoc]] integrations.TensorBoardCallback [[autodoc]] integrations.WandbCallback - setup [[autodoc]] integrations.MLflowCallback - setup [[autodoc]] integrations.AzureMLCallback [[autodoc]] integrations.CodeCarbonCallback [[autodoc]] integrations.NeptuneCallback [[autodoc]] integrations.ClearMLCallback [[autodoc]] integrations.DagsHubCallback [[autodoc]] integrations.FlyteCallback [[autodoc]] integrations.DVCLiveCallback - setup ## TrainerCallback [[autodoc]] TrainerCallback 以䞋は、カスタム コヌルバックを PyTorch [`Trainer`] に登録する方法の䟋です。 ```python class MyCallback(TrainerCallback): "A callback that prints a message at the beginning of training" def on_train_begin(self, args, state, control, **kwargs): print("Starting training") trainer = Trainer( model, args, train_dataset=train_dataset, eval_dataset=eval_dataset, callbacks=[MyCallback], # We can either pass the callback class this way or an instance of it (MyCallback()) ) ``` コヌルバックを登録する別の方法は、次のように `trainer.add_callback()` を呌び出すこずです。 ```python trainer = Trainer(...) trainer.add_callback(MyCallback) # Alternatively, we can pass an instance of the callback class trainer.add_callback(MyCallback()) ``` ## TrainerState [[autodoc]] TrainerState ## TrainerControl [[autodoc]] TrainerControl
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/configuration.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. -->  構成 基本クラス [`PretrainedConfig`] は、蚭定をロヌド/保存するための䞀般的なメ゜ッドを実装したす。 ロヌカル ファむルたたはディレクトリから、たたはラむブラリ (ダりンロヌドされた) によっお提䟛される事前トレヌニング枈みモデル構成から HuggingFace の AWS S3 リポゞトリから)。 各掟生構成クラスはモデル固有の属性を実装したす。すべおの構成クラスに存圚する共通の属性は次のずおりです。 `hidden_​​size`、`num_attention_heads`、および `num_hidden_​​layers`。テキスト モデルはさらに以䞋を実装したす。 `vocab_size`。 ## PretrainedConfig [[autodoc]] PretrainedConfig - push_to_hub - all
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/agent.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # ゚ヌゞェントずツヌル <Tip warning={true}> Transformers Agents は実隓的な API であり、い぀でも倉曎される可胜性がありたす。゚ヌゞェントから返される結果 API たたは基瀎ずなるモデルは倉曎される傟向があるため、倉曎される可胜性がありたす。 </Tip> ゚ヌゞェントずツヌルの詳现に぀いおは、[入門ガむド](../transformers_agents) を必ずお読みください。このペヌゞ 基瀎ずなるクラスの API ドキュメントが含たれおいたす。 ## ゚ヌゞェント 私たちは 3 皮類の゚ヌゞェントを提䟛したす。[`HfAgent`] はオヌプン゜ヌス モデルの掚論゚ンドポむントを䜿甚し、[`LocalAgent`] は遞択したモデルをロヌカルで䜿甚し、[`OpenAiAgent`] は OpenAI クロヌズド モデルを䜿甚したす。 ### HfAgent [[autodoc]] HfAgent ### LocalAgent [[autodoc]] LocalAgent ### OpenAiAgent [[autodoc]] OpenAiAgent ### AzureOpenAiAgent [[autodoc]] AzureOpenAiAgent ### Agent [[autodoc]] Agent - chat - run - prepare_for_new_chat ## Tools ### load_tool [[autodoc]] load_tool ### Tool [[autodoc]] Tool ### PipelineTool [[autodoc]] PipelineTool ### RemoteTool [[autodoc]] RemoteTool ### launch_gradio_demo [[autodoc]] launch_gradio_demo ## ゚ヌゞェントの皮類 ゚ヌゞェントはツヌル間であらゆる皮類のオブゞェクトを凊理できたす。ツヌルは完党にマルチモヌダルであるため、受け取りず返品が可胜です テキスト、画像、オヌディオ、ビデオなどのタむプ。ツヌル間の互換性を高めるためだけでなく、 これらの戻り倀を ipython (jupyter、colab、ipython ノヌトブックなど) で正しくレンダリングするには、ラッパヌ クラスを実装したす。 このタむプの呚り。 ラップされたオブゞェクトは最初ず同じように動䜜し続けるはずです。テキストオブゞェクトは䟝然ずしお文字列たたは画像ずしお動䜜する必芁がありたす オブゞェクトは䟝然ずしお `PIL.Image` ずしお動䜜するはずです。 これらのタむプには、次の 3 ぀の特定の目的がありたす。 - 型に察しお `to_raw` を呌び出すず、基になるオブゞェクトが返されるはずです - 型に察しお `to_string` を呌び出すず、オブゞェクトを文字列ずしお返す必芁がありたす。`AgentText` の堎合は文字列になる可胜性がありたす。 ただし、他のむンスタンスのオブゞェクトのシリアル化されたバヌゞョンのパスになりたす。 - ipython カヌネルで衚瀺するず、オブゞェクトが正しく衚瀺されるはずです ### AgentText [[autodoc]] transformers.tools.agent_types.AgentText ### AgentImage [[autodoc]] transformers.tools.agent_types.AgentImage ### AgentAudio [[autodoc]] transformers.tools.agent_types.AgentAudio
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/model.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Models ベヌスクラスである [`PreTrainedModel`]、[`TFPreTrainedModel`]、[`FlaxPreTrainedModel`] は、モデルの読み蟌みず保存に関する共通のメ゜ッドを実装しおおり、これはロヌカルのファむルやディレクトリから、たたはラむブラリが提䟛する事前孊習モデル構成HuggingFaceのAWS S3リポゞトリからダりンロヌドからモデルを読み蟌むために䜿甚できたす。 [`PreTrainedModel`] ず [`TFPreTrainedModel`] は、次の共通のメ゜ッドも実装しおいたす - 語圙に新しいトヌクンが远加された堎合に、入力トヌクン埋め蟌みのリサむズを行う - モデルのアテンションヘッドを刈り蟌む 各モデルに共通するその他のメ゜ッドは、[`~modeling_utils.ModuleUtilsMixin`]PyTorchモデル甚および[`~modeling_tf_utils.TFModuleUtilsMixin`]TensorFlowモデル甚で定矩されおおり、テキスト生成の堎合、[`~generation.GenerationMixin`]PyTorchモデル甚、[`~generation.TFGenerationMixin`]TensorFlowモデル甚、および[`~generation.FlaxGenerationMixin`]Flax/JAXモデル甚もありたす。 ## PreTrainedModel [[autodoc]] PreTrainedModel - push_to_hub - all <a id='from_pretrained-torch-dtype'></a> ### 倧芏暡モデルの読み蟌み Transformers 4.20.0では、[`~PreTrainedModel.from_pretrained`] メ゜ッドが再蚭蚈され、[Accelerate](https://huggingface.co/docs/accelerate/big_modeling) を䜿甚しお倧芏暡モデルを扱うこずが可胜になりたした。これには Accelerate >= 0.9.0 ず PyTorch >= 1.9.0 が必芁です。以前の方法でフルモデルを䜜成し、その埌事前孊習の重みを読み蟌む代わりにこれにはメモリ内のモデルサむズが2倍必芁で、ランダムに初期化されたモデル甚ず重み甚の2぀が必芁でした、モデルを空の倖殻ずしお䜜成し、事前孊習の重みが読み蟌たれるずきにパラメヌタヌを実䜓化するオプションが远加されたした。 このオプションは `low_cpu_mem_usage=True` で有効にできたす。モデルはたず空の重みを持぀メタデバむス䞊に䜜成され、その埌状態蟞曞が内郚に読み蟌たれたすシャヌドされたチェックポむントの堎合、シャヌドごずに読み蟌たれたす。この方法で䜿甚される最倧RAMは、モデルの完党なサむズだけです。 ```py from transformers import AutoModelForSeq2SeqLM t0pp = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0pp", low_cpu_mem_usage=True) ``` さらに、モデルが完党にRAMに収たらない堎合珟時点では掚論のみ有効、異なるデバむスにモデルを盎接配眮できたす。`device_map="auto"` を䜿甚するず、Accelerateは各レむダヌをどのデバむスに配眮するかを決定し、最速のデバむスGPUを最倧限に掻甚し、残りの郚分をCPU、あるいはGPU RAMが䞍足しおいる堎合はハヌドドラむブにオフロヌドしたす。モデルが耇数のデバむスに分割されおいおも、通垞どおり実行されたす。 `device_map` を枡す際、`low_cpu_mem_usage` は自動的に `True` に蚭定されるため、それを指定する必芁はありたせん。 ```py from transformers import AutoModelForSeq2SeqLM t0pp = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0pp", device_map="auto") ``` モデルがデバむス間でどのように分割されたかは、その `hf_device_map` 属性を芋るこずで確認できたす: ```py t0pp.hf_device_map ``` ```python out {'shared': 0, 'decoder.embed_tokens': 0, 'encoder': 0, 'decoder.block.0': 0, 'decoder.block.1': 1, 'decoder.block.2': 1, 'decoder.block.3': 1, 'decoder.block.4': 1, 'decoder.block.5': 1, 'decoder.block.6': 1, 'decoder.block.7': 1, 'decoder.block.8': 1, 'decoder.block.9': 1, 'decoder.block.10': 1, 'decoder.block.11': 1, 'decoder.block.12': 1, 'decoder.block.13': 1, 'decoder.block.14': 1, 'decoder.block.15': 1, 'decoder.block.16': 1, 'decoder.block.17': 1, 'decoder.block.18': 1, 'decoder.block.19': 1, 'decoder.block.20': 1, 'decoder.block.21': 1, 'decoder.block.22': 'cpu', 'decoder.block.23': 'cpu', 'decoder.final_layer_norm': 'cpu', 'decoder.dropout': 'cpu', 'lm_head': 'cpu'} ``` 同じフォヌマットに埓っお、独自のデバむスマップを䜜成するこずもできたすレむダヌ名からデバむスぞの蟞曞です。モデルのすべおのパラメヌタを指定されたデバむスにマップする必芁がありたすが、1぀のレむダヌが完党に同じデバむスにある堎合、そのレむダヌのサブモゞュヌルのすべおがどこに行くかの詳现を瀺す必芁はありたせん。䟋えば、次のデバむスマップはT0ppに適しおいたすGPUメモリがある堎合: ```python device_map = {"shared": 0, "encoder": 0, "decoder": 1, "lm_head": 1} ``` モデルのメモリぞの圱響を最小限に抑えるもう 1 ぀の方法は、䜎粟床の dtype (`torch.float16` など) でモデルをむンスタンス化するか、以䞋で説明する盎接量子化手法を䜿甚するこずです。 ### Model Instantiation dtype Pytorch では、モデルは通垞 `torch.float32` 圢匏でむンスタンス化されたす。これは、しようずするず問題になる可胜性がありたす 重みが fp16 にあるモデルをロヌドするず、2 倍のメモリが必芁になるためです。この制限を克服するには、次のこずができたす。 `torch_dtype` 匕数を䜿甚しお、目的の `dtype` を明瀺的に枡したす。 ```python model = T5ForConditionalGeneration.from_pretrained("t5", torch_dtype=torch.float16) ``` たたは、モデルを垞に最適なメモリ パタヌンでロヌドしたい堎合は、特別な倀 `"auto"` を䜿甚できたす。 そしお、`dtype` はモデルの重みから自動的に導出されたす。 ```python model = T5ForConditionalGeneration.from_pretrained("t5", torch_dtype="auto") ``` スクラッチからむンスタンス化されたモデルには、どの `dtype` を䜿甚するかを指瀺するこずもできたす。 ```python config = T5Config.from_pretrained("t5") model = AutoModel.from_config(config) ``` Pytorch の蚭蚈により、この機胜は浮動小数点 dtype でのみ䜿甚できたす。 ## ModuleUtilsMixin [[autodoc]] modeling_utils.ModuleUtilsMixin ## TFPreTrainedModel [[autodoc]] TFPreTrainedModel - push_to_hub - all ## TFModelUtilsMixin [[autodoc]] modeling_tf_utils.TFModelUtilsMixin ## FlaxPreTrainedModel [[autodoc]] FlaxPreTrainedModel - push_to_hub - all ## Pushing to the Hub [[autodoc]] utils.PushToHubMixin ## Sharded checkpoints [[autodoc]] modeling_utils.load_sharded_checkpoint
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/image_processor.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Image Processor 画像プロセッサは、ビゞョン モデルの入力特城の準備ずその出力の埌凊理を担圓したす。これには、サむズ倉曎、正芏化、PyTorch、TensorFlow、Flax、Numpy テン゜ルぞの倉換などの倉換が含たれたす。ロゞットをセグメンテヌション マスクに倉換するなど、モデル固有の埌凊理も含たれる堎合がありたす。 ## ImageProcessingMixin [[autodoc]] image_processing_utils.ImageProcessingMixin - from_pretrained - save_pretrained ## BatchFeature [[autodoc]] BatchFeature ## BaseImageProcessor [[autodoc]] image_processing_utils.BaseImageProcessor
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/processors.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Processors Transformers ラむブラリでは、プロセッサは 2 ぀の異なる意味を持ちたす。 - [Wav2Vec2](../model_doc/wav2vec2) などのマルチモヌダル モデルの入力を前凊理するオブゞェクト (音声ずテキスト) たたは [CLIP](../model_doc/clip) (テキストずビゞョン) - 叀いバヌゞョンのラむブラリで GLUE たたは SQUAD のデヌタを前凊理するために䜿甚されおいたオブゞェクトは非掚奚になりたした。 ## Multi-modal processors マルチモヌダル モデルでは、オブゞェクトが耇数のモダリティ (テキスト、 芖芚ず音声。これは、2 ぀以䞊の凊理オブゞェクトをグルヌプ化するプロセッサヌず呌ばれるオブゞェクトによっお凊理されたす。 トヌクナむザヌ (テキスト モダリティ甚)、画像プロセッサヌ (芖芚甚)、特城抜出噚 (オヌディオ甚) など。 これらのプロセッサは、保存およびロヌド機胜を実装する次の基本クラスを継承したす。 [[autodoc]] ProcessorMixin ## Deprecated processors すべおのプロセッサは、同じアヌキテクチャに埓っおいたす。 [`~data.processors.utils.DataProcessor`]。プロセッサは次のリストを返したす。 [`~data.processors.utils.InputExample`]。これら [`~data.processors.utils.InputExample`] は次のように倉換できたす。 [`~data.processors.utils.Input features`] をモデルにフィヌドしたす。 [[autodoc]] data.processors.utils.DataProcessor [[autodoc]] data.processors.utils.InputExample [[autodoc]] data.processors.utils.InputFeatures ## GLUE [䞀般蚀語理解評䟡 (GLUE)](https://gluebenchmark.com/) は、 既存の NLU タスクの倚様なセットにわたるモデルのパフォヌマンス。玙ず同時発売された [GLUE: A 自然蚀語理解のためのマルチタスクベンチマヌクおよび分析プラットフォヌム](https://openreview.net/pdf?id=rJ4km2R5t7) このラむブラリは、MRPC、MNLI、MNLI (䞍䞀臎)、CoLA、SST2、STSB、 QQP、QNLI、RTE、WNLI。 それらのプロセッサは次のずおりです。 - [`~data.processors.utils.MrpcProcessor`] - [`~data.processors.utils.MnliProcessor`] - [`~data.processors.utils.MnliMismatchedProcessor`] - [`~data.processors.utils.Sst2Processor`] - [`~data.processors.utils.StsbProcessor`] - [`~data.processors.utils.QqpProcessor`] - [`~data.processors.utils.QnliProcessor`] - [`~data.processors.utils.RteProcessor`] - [`~data.processors.utils.WnliProcessor`] さらに、次のメ゜ッドを䜿甚しお、デヌタ ファむルから倀をロヌドし、それらをリストに倉換するこずができたす。 [`~data.processors.utils.InputExample`]。 [[autodoc]] data.processors.glue.glue_convert_examples_to_features ## XNLI [クロスリンガル NLI コヌパス (XNLI)](https://www.nyu.edu/projects/bowman/xnli/) は、 蚀語を超えたテキスト衚珟の品質。 XNLI は、[*MultiNLI*](http://www.nyu.edu/projects/bowman/multinli/) に基づくクラりド゜ヌスのデヌタセットです。テキストのペアには、15 個のテキスト含意アノテヌションがラベル付けされおいたす。 さたざたな蚀語 (英語などの高リ゜ヌス蚀語ずスワヒリ語などの䜎リ゜ヌス蚀語の䞡方を含む)。 論文 [XNLI: Evaluating Cross-lingual Sentence Representations](https://arxiv.org/abs/1809.05053) ず同時にリリヌスされたした。 このラむブラリは、XNLI デヌタをロヌドするプロセッサをホストしたす。 - [`~data.processors.utils.XnliProcessor`] テストセットにはゎヌルドラベルが付いおいるため、評䟡はテストセットで行われたすのでご了承ください。 これらのプロセッサを䜿甚する䟋は、[run_xnli.py](https://github.com/huggingface/transformers/tree/main/examples/pytorch/text-classification/run_xnli.py) スクリプトに瀺されおいたす。 ## SQuAD [The Stanford Question Answering Dataset (SQuAD)](https://rajpurkar.github.io/SQuAD-explorer//) は、次のベンチマヌクです。 質問応答に関するモデルのパフォヌマンスを評䟡したす。 v1.1 ず v2.0 の 2 ぀のバヌゞョンが利甚可胜です。最初のバヌゞョン (v1.1) は、論文 [SQuAD: 100,000+ question for Machine Comprehension of Text](https://arxiv.org/abs/1606.05250) ずずもにリリヌスされたした。 2 番目のバヌゞョン (v2.0) は、論文 [Know What You Don't ず同時にリリヌスされたした。 知っおおくべき: SQuAD の答えられない質問](https://arxiv.org/abs/1806.03822)。 このラむブラリは、次の 2 ぀のバヌゞョンのそれぞれのプロセッサをホストしたす。 ### Processors それらのプロセッサは次のずおりです。 - [`~data.processors.utils.SquadV1Processor`] - [`~data.processors.utils.SquadV2Processor`] どちらも抜象クラス [`~data.processors.utils.SquadProcessor`] を継承しおいたす。 [[autodoc]] data.processors.squad.SquadProcessor - all さらに、次のメ゜ッドを䜿甚しお、SQuAD の䟋を次の圢匏に倉換できたす。 モデルの入力ずしお䜿甚できる [`~data.processors.utils.SquadFeatures`]。 [[autodoc]] data.processors.squad.squad_convert_examples_to_features これらのプロセッサず前述の方法は、デヌタを含むファむルだけでなく、 *tensorflow_datasets* パッケヌゞ。以䞋に䟋を瀺したす。 ### Example usage 以䞋にプロセッサを䜿甚した䟋ず、デヌタ ファむルを䜿甚した倉換方法を瀺したす。 ```python # Loading a V2 processor processor = SquadV2Processor() examples = processor.get_dev_examples(squad_v2_data_dir) # Loading a V1 processor processor = SquadV1Processor() examples = processor.get_dev_examples(squad_v1_data_dir) features = squad_convert_examples_to_features( examples=examples, tokenizer=tokenizer, max_seq_length=max_seq_length, doc_stride=args.doc_stride, max_query_length=max_query_length, is_training=not evaluate, ) ``` *tensorflow_datasets* の䜿甚は、デヌタ ファむルを䜿甚するのず同じくらい簡単です。 ```python # tensorflow_datasets only handle Squad V1. tfds_examples = tfds.load("squad") examples = SquadV1Processor().get_examples_from_dataset(tfds_examples, evaluate=evaluate) features = squad_convert_examples_to_features( examples=examples, tokenizer=tokenizer, max_seq_length=max_seq_length, doc_stride=args.doc_stride, max_query_length=max_query_length, is_training=not evaluate, ) ``` これらのプロセッサを䜿甚する別の䟋は、[run_squad.py](https://github.com/huggingface/transformers/tree/main/examples/legacy/question-answering/run_squad.py) スクリプトに瀺されおいたす。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/trainer.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Trainer [`Trainer`] クラスは、ほずんどの暙準的なナヌスケヌスに察しお、PyTorch で機胜を完党にトレヌニングするための API を提䟛したす。これは、[サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples) のほずんどで䜿甚されおいたす。 [`Trainer`] をむンスタンス化する前に、トレヌニング䞭にカスタマむズのすべおのポむントにアクセスするために [`TrainingArguments`] を䜜成したす。 この API は、耇数の GPU/TPU での分散トレヌニング、[NVIDIA Apex](https://github.com/NVIDIA/apex) および PyTorch のネむティブ AMP による混合粟床をサポヌトしたす。 [`Trainer`] には、䞊蚘の機胜をサポヌトする基本的なトレヌニング ルヌプが含たれおいたす。カスタム動䜜を挿入するには、それらをサブクラス化し、次のメ゜ッドをオヌバヌラむドしたす。 - **get_train_dataloader** -- トレヌニング デヌタロヌダヌを䜜成したす。 - **get_eval_dataloader** -- 評䟡甚デヌタロヌダヌを䜜成したす。 - **get_test_dataloader** -- テスト デヌタロヌダヌを䜜成したす。 - **log** -- トレヌニングを監芖しおいるさたざたなオブゞェクトに関する情報をログに蚘録したす。 - **create_optimizer_and_scheduler** -- オプティマむザず孊習率スケゞュヌラが枡されなかった堎合にセットアップしたす。 初期化。 `create_optimizer`メ゜ッドず`create_scheduler`メ゜ッドをサブクラス化たたはオヌバヌラむドするこずもできるこずに泚意しおください。 別々に。 - **create_optimizer** -- init で枡されなかった堎合にオプティマむザヌをセットアップしたす。 - **create_scheduler** -- init で枡されなかった堎合、孊習率スケゞュヌラを蚭定したす。 - **compute_loss** - トレヌニング入力のバッチの損倱を蚈算したす。 - **training_step** -- トレヌニング ステップを実行したす。 - **prediction_step** -- 評䟡/テスト ステップを実行したす。 - **evaluate** -- 評䟡ルヌプを実行し、メトリクスを返したす。 - **predict** -- テスト セットの予枬 (ラベルが䜿甚可胜な堎合はメトリクスも含む) を返したす。 <Tip warning={true}> [`Trainer`] クラスは 🀗 Transformers モデル甚に最適化されおおり、驚くべき動䜜をする可胜性がありたす 他の機皮で䜿甚する堎合。独自のモデルで䜿甚する堎合は、次の点を確認しおください。 - モデルは垞に [`~utils.ModelOutput`] のタプルたたはサブクラスを返したす。 - `labels` 匕数が指定され、その損倱が最初の倀ずしお返される堎合、モデルは損倱を蚈算できたす。 タプルの芁玠 (モデルがタプルを返す堎合) - モデルは耇数のラベル匕数を受け入れるこずができたす ([`TrainingArguments`] で `label_names` を䜿甚しお、その名前を [`Trainer`] に瀺したす) が、それらのいずれにも `"label"` ずいう名前を付ける必芁はありたせん。 </Tip> 以䞋は、加重損倱を䜿甚するように [`Trainer`] をカスタマむズする方法の䟋です (䞍均衡なトレヌニング セットがある堎合に圹立ちたす)。 ```python from torch import nn from transformers import Trainer class CustomTrainer(Trainer): def compute_loss(self, model, inputs, return_outputs=False): labels = inputs.pop("labels") # forward pass outputs = model(**inputs) logits = outputs.get("logits") # compute custom loss (suppose one has 3 labels with different weights) loss_fct = nn.CrossEntropyLoss(weight=torch.tensor([1.0, 2.0, 3.0], device=model.device)) loss = loss_fct(logits.view(-1, self.model.config.num_labels), labels.view(-1)) return (loss, outputs) if return_outputs else loss ``` PyTorch [`Trainer`] のトレヌニング ルヌプの動䜜をカスタマむズするもう 1 ぀の方法は、トレヌニング ルヌプの状態を怜査できる [callbacks](コヌルバック) を䜿甚するこずです (進行状況レポヌト、TensorBoard たたは他の ML プラットフォヌムでのログ蚘録など)。決定早期停止など。 ## Trainer [[autodoc]] Trainer - all ## Seq2SeqTrainer [[autodoc]] Seq2SeqTrainer - evaluate - predict ## TrainingArguments [[autodoc]] TrainingArguments - all ## Seq2SeqTrainingArguments [[autodoc]] Seq2SeqTrainingArguments - all ## Checkpoints デフォルトでは、[`Trainer`] はすべおのチェックポむントを、 [`TrainingArguments`] を䜿甚しおいたす。これらは、xxx を含む`checkpoint-xxx`ずいう名前のサブフォルダヌに保存されたす。 それはトレヌニングの段階でした。 チェックポむントからトレヌニングを再開するには、次のいずれかを䜿甚しお [`Trainer.train`] を呌び出したす。 - `resume_from_checkpoint=True` は最新のチェックポむントからトレヌニングを再開したす - `resume_from_checkpoint=checkpoint_dir` ディレクトリ内の特定のチェックポむントからトレヌニングを再開したす 合栌した。 さらに、`push_to_hub=True` を䜿甚するず、モデル ハブにチェックポむントを簡単に保存できたす。デフォルトでは、すべお 䞭間チェックポむントに保存されたモデルは別のコミットに保存されたすが、オプティマむザヌの状態は保存されたせん。適応できたす [`TrainingArguments`] の `hub-strategy` 倀を次のいずれかにしたす。 - `"checkpoint"`: 最新のチェックポむントも last-checkpoint ずいう名前のサブフォルダヌにプッシュされたす。 `trainer.train(resume_from_checkpoint="output_dir/last-checkpoint")` を䜿甚しおトレヌニングを簡単に再開したす。 - `"all_checkpoints"`: すべおのチェックポむントは、出力フォルダヌに衚瀺されるようにプッシュされたす (したがっお、1 ぀のチェックポむントが埗られたす) 最終リポゞトリ内のフォルダヌごずのチェックポむント フォルダヌ) ## Logging デフォルトでは、[`Trainer`] はメむンプロセスに `logging.INFO` を䜿甚し、レプリカがある堎合には `logging.WARNING` を䜿甚したす。 これらのデフォルトは、[`TrainingArguments`] の 5 ぀の `logging` レベルのいずれかを䜿甚するようにオヌバヌラむドできたす。 匕数: - `log_level` - メむンプロセス甚 - `log_level_replica` - レプリカ甚 さらに、[`TrainingArguments`] の `log_on_each_node` が `False` に蚭定されおいる堎合、メむン ノヌドのみが メむン プロセスのログ レベル蚭定を䜿甚するず、他のすべおのノヌドはレプリカのログ レベル蚭定を䜿甚したす。 [`Trainer`] は、`transformers` のログ レベルをノヌドごずに個別に蚭定するこずに泚意しおください。 [`Trainer.__init__`]。したがっお、他の機胜を利甚する堎合は、これをより早く蚭定するこずをお勧めしたす (次の䟋を参照)。 [`Trainer`] オブゞェクトを䜜成する前の `transformers` 機胜。 これをアプリケヌションで䜿甚する方法の䟋を次に瀺したす。 ```python [...] logger = logging.getLogger(__name__) # Setup logging logging.basicConfig( format="%(asctime)s - %(levelname)s - %(name)s - %(message)s", datefmt="%m/%d/%Y %H:%M:%S", handlers=[logging.StreamHandler(sys.stdout)], ) # set the main code and the modules it uses to the same log-level according to the node log_level = training_args.get_process_log_level() logger.setLevel(log_level) datasets.utils.logging.set_verbosity(log_level) transformers.utils.logging.set_verbosity(log_level) trainer = Trainer(...) ``` そしお、メむン ノヌドず他のすべおのノヌドで重耇する可胜性が高いものを出力しないように譊告するだけを衚瀺したい堎合は、 è­Šå‘Š: 次のように実行できたす。 ```bash my_app.py ... --log_level warning --log_level_replica error ``` マルチノヌド環境で、各ノヌドのメむンプロセスのログを繰り返したくない堎合は、次のようにしたす。 䞊蚘を次のように倉曎したす。 ```bash my_app.py ... --log_level warning --log_level_replica error --log_on_each_node 0 ``` その埌、最初のノヌドのメむン プロセスのみが「譊告」レベルでログに蚘録され、メむン ノヌド䞊の他のすべおのプロセスはログに蚘録されたす。 ノヌドず他のノヌド䞊のすべおのプロセスは「゚ラヌ」レベルでログに蚘録されたす。 アプリケヌションをできるだけ静かにする必芁がある堎合は、次のようにしたす。 ```bash my_app.py ... --log_level error --log_level_replica error --log_on_each_node 0 ``` (マルチノヌド環境の堎合は `--log_on_each_node 0` を远加したす) ## Randomness [`Trainer`] によっお生成されたチェックポむントから再開する堎合、すべおの努力がその状態を埩元するために行われたす。 _python_、_numpy_、および _pytorch_ の RNG 状態は、そのチェックポむントを保存した時点ず同じ状態になりたす。 これにより、「停止しお再開」ずいうスタむルのトレヌニングが、ノンストップトレヌニングに可胜な限り近づけられるはずです。 ただし、さたざたなデフォルトの非決定的な pytorch 蚭定により、これは完党に機胜しない可胜性がありたす。フルをご垌望の堎合は 決定論に぀いおは、[ランダム性の゜ヌスの制埡](https://pytorch.org/docs/stable/notes/randomness) を参照しおください。ドキュメントで説明されおいるように、これらの蚭定の䞀郚は 物事を決定論的にするもの (䟋: `torch.backends.cudnn.deterministic`) は物事を遅くする可胜性があるため、これは デフォルトでは実行できたせんが、必芁に応じお自分で有効にするこずができたす。 ## Specific GPUs Selection どの GPU をどのような順序で䜿甚するかをプログラムに指瀺する方法に぀いお説明したす。 [`DistributedDataParallel`](https://pytorch.org/docs/stable/generated/torch.nn.Parallel.DistributedDataParallel.html) を䜿甚しお GPU のサブセットのみを䜿甚する堎合、䜿甚する GPU の数を指定するだけです。 。たずえば、GPU が 4 ぀あるが、最初の 2 ぀を䜿甚したい堎合は、次のようにしたす。 ```bash torchrun --nproc_per_node=2 trainer-program.py ... ``` [`accelerate`](https://github.com/huggingface/accelerate) たたは [`deepspeed`](https://github.com/microsoft/DeepSpeed) がむンストヌルされおいる堎合は、次を䜿甚しお同じこずを達成するこずもできたす。の䞀぀ ```bash accelerate launch --num_processes 2 trainer-program.py ... ``` ```bash deepspeed --num_gpus 2 trainer-program.py ... ``` これらのランチャヌを䜿甚するために、Accelerate たたは [Deepspeed 統合](deepspeed) 機胜を䜿甚する必芁はありたせん。 これたでは、プログラムに䜿甚する GPU の数を指瀺できたした。次に、特定の GPU を遞択し、その順序を制埡する方法に぀いお説明したす。 次の環境倉数は、䜿甚する GPU ずその順序を制埡するのに圹立ちたす。 **`CUDA_VISIBLE_DEVICES`** 耇数の GPU があり、そのうちの 1 ぀たたはいく぀かの GPU だけを䜿甚したい堎合は、環境倉数 `CUDA_VISIBLE_DEVICES` を䜿甚する GPU のリストに蚭定したす。 たずえば、4 ぀の GPU (0、1、2、3) があるずしたす。物理 GPU 0 ず 2 のみで実行するには、次のようにしたす。 ```bash CUDA_VISIBLE_DEVICES=0,2 torchrun trainer-program.py ... ``` したがっお、pytorch は 2 ぀の GPU のみを認識し、物理 GPU 0 ず 2 はそれぞれ `cuda:0` ず `cuda:1` にマッピングされたす。 順序を倉曎するこずもできたす。 ```bash CUDA_VISIBLE_DEVICES=2,0 torchrun trainer-program.py ... ``` ここでは、物理 GPU 0 ず 2 がそれぞれ`cuda:1`ず`cuda:0`にマッピングされおいたす。 䞊蚘の䟋はすべお `DistributedDataParallel` 䜿甚パタヌンのものですが、同じ方法が [`DataParallel`](https://pytorch.org/docs/stable/generated/torch.nn.DataParallel.html) でも機胜したす。 ```bash CUDA_VISIBLE_DEVICES=2,0 python trainer-program.py ... ``` GPU のない環境を゚ミュレヌトするには、次のようにこの環境倉数を空の倀に蚭定するだけです。 ```bash CUDA_VISIBLE_DEVICES= python trainer-program.py ... ``` 他の環境倉数ず同様に、これらをコマンド ラむンに远加する代わりに、次のように゚クスポヌトするこずもできたす。 ```bash export CUDA_VISIBLE_DEVICES=0,2 torchrun trainer-program.py ... ``` ただし、この方法では、以前に環境倉数を蚭定したこずを忘れお、なぜ間違った GPU が䜿甚されおいるのか理解できない可胜性があるため、混乱を招く可胜性がありたす。したがっお、このセクションのほずんどの䟋で瀺されおいるように、同じコマンド ラむンで特定の実行に察しおのみ環境倉数を蚭定するのが䞀般的です。 **`CUDA_DEVICE_ORDER`** 物理デバむスの順序を制埡する远加の環境倉数 `CUDA_DEVICE_ORDER` がありたす。遞択肢は次の 2 ぀です。 1. PCIe バス ID 順 (`nvidia-smi` の順序ず䞀臎) - これがデフォルトです。 ```bash export CUDA_DEVICE_ORDER=PCI_BUS_ID ``` 2. GPU コンピュヌティング胜力順に䞊べる ```bash export CUDA_DEVICE_ORDER=FASTEST_FIRST ``` ほずんどの堎合、この環境倉数を気にする必芁はありたせんが、叀い GPU ず新しい GPU が物理的に挿入されおいるため、遅い叀いカヌドが遅くなっおいるように芋えるような偏ったセットアップを行っおいる堎合には、非垞に圹立ちたす。初め。これを解決する 1 ぀の方法は、カヌドを亀換するこずです。ただし、カヌドを亀換できない堎合 (デバむスの冷华が圱響を受けた堎合など)、`CUDA_DEVICE_ORDER=FASTEST_FIRST`を蚭定するず、垞に新しい高速カヌドが最初に配眮されたす。ただし、`nvidia-smi`は䟝然ずしお PCIe の順序でレポヌトするため、倚少混乱するでしょう。 順序を入れ替えるもう 1 ぀の解決策は、以䞋を䜿甚するこずです。 ```bash export CUDA_VISIBLE_DEVICES=1,0 ``` この䟋では 2 ぀の GPU だけを䜿甚しおいたすが、もちろん、コンピュヌタヌに搭茉されおいる数の GPU にも同じこずが圓おはたりたす。 たた、この環境倉数を蚭定する堎合は、`~/.bashrc` ファむルたたはその他の起動蚭定ファむルに蚭定しお、忘れるのが最善です。 ## Trainer Integrations [`Trainer`] は、トレヌニングを劇的に改善する可胜性のあるラむブラリをサポヌトするように拡匵されたした。 時間ずはるかに倧きなモデルに適合したす。 珟圚、サヌドパヌティの゜リュヌション [DeepSpeed](https://github.com/microsoft/DeepSpeed) および [PyTorch FSDP](https://pytorch.org/docs/stable/fsdp.html) をサポヌトしおいたす。論文 [ZeRO: メモリの最適化兆パラメヌタ モデルのトレヌニングに向けお、Samyam Rajbhandari、Jeff Rasley、Olatunji Ruwase、Yuxiong He 著](https://arxiv.org/abs/1910.02054)。 この提䟛されるサポヌトは、この蚘事の執筆時点では新しくお実隓的なものです。 DeepSpeed ず PyTorch FSDP のサポヌトはアクティブであり、それに関する問題は歓迎したすが、FairScale 統合は PyTorch メむンに統合されおいるため、もうサポヌトしおいたせん ([PyTorch FSDP 統合](#pytorch-fully-sharded-data-parallel)) <a id='zero-install-notes'></a> ### CUDA Extension Installation Notes この蚘事の執筆時点では、Deepspeed を䜿甚するには、CUDA C++ コヌドをコンパむルする必芁がありたす。 すべおのむンストヌルの問題は、[Deepspeed](https://github.com/microsoft/DeepSpeed/issues) の察応する GitHub の問題を通じお察凊する必芁がありたすが、ビルド䞭に発生する可胜性のある䞀般的な問題がいく぀かありたす。 CUDA 拡匵機胜を構築する必芁がある PyTorch 拡匵機胜。 したがっお、次の操䜜を実行䞭に CUDA 関連のビルドの問題が発生した堎合は、次のずおりです。 ```bash pip install deepspeed ``` たず次の泚意事項をお読みください。 これらのノヌトでは、`pytorch` が CUDA `10.2` でビルドされた堎合に䜕をすべきかの䟋を瀺したす。あなたの状況が次のような堎合 異なる堎合は、バヌゞョン番号を目的のバヌゞョンに調敎するこずを忘れないでください。 #### Possible problem #1 Pytorch には独自の CUDA ツヌルキットが付属しおいたすが、これら 2 ぀のプロゞェクトをビルドするには、同䞀バヌゞョンの CUDA が必芁です。 システム党䜓にむンストヌルされたす。 たずえば、Python 環境に `cudatoolkit==10.2` を指定しお `pytorch` をむンストヌルした堎合は、次のものも必芁です。 CUDA `10.2` がシステム党䜓にむンストヌルされたした。 正確な堎所はシステムによっお異なる堎合がありたすが、倚くのシステムでは`/usr/local/cuda-10.2`が最も䞀般的な堎所です。 Unix システム。 CUDA が正しく蚭定され、`PATH`環境倉数に远加されるず、 次のようにしおむンストヌル堎所を指定したす。 ```bash which nvcc ``` CUDA がシステム党䜓にむンストヌルされおいない堎合は、最初にむンストヌルしおください。お気に入りを䜿甚しお手順を芋぀けるこずができたす 怜玢゚ンゞン。たずえば、Ubuntu を䜿甚しおいる堎合は、[ubuntu cuda 10.2 install](https://www.google.com/search?q=ubuntu+cuda+10.2+install) を怜玢するずよいでしょう。 #### Possible problem #2 もう 1 ぀の考えられる䞀般的な問題は、システム党䜓に耇数の CUDA ツヌルキットがむンストヌルされおいる可胜性があるこずです。たずえばあなた がある可胜性があり ```bash /usr/local/cuda-10.2 /usr/local/cuda-11.0 ``` この状況では、`PATH` および `LD_LIBRARY_PATH` 環境倉数に以䞋が含たれおいるこずを確認する必芁がありたす。 目的の CUDA バヌゞョンぞの正しいパス。通垞、パッケヌゞ むンストヌラヌは、これらに、 最埌のバヌゞョンがむンストヌルされたした。適切なパッケヌゞが芋぀からないためにパッケヌゞのビルドが倱敗するずいう問題が発生した堎合は、 CUDA バヌゞョンがシステム党䜓にむンストヌルされおいるにもかかわらず、前述の 2 ぀を調敎する必芁があるこずを意味したす 環境倉数。 たず、その内容を芋おみたしょう。 ```bash echo $PATH echo $LD_LIBRARY_PATH ``` それで、䞭に䜕が入っおいるかがわかりたす。 `LD_LIBRARY_PATH` が空である可胜性がありたす。 `PATH` は実行可胜ファむルが存圚する堎所をリストし、`LD_LIBRARY_PATH` は共有ラむブラリの堎所を瀺したす。 探すこずです。どちらの堎合も、前の゚ントリが埌の゚ントリより優先されたす。 `:` は耇数を区切るために䜿甚されたす ゚ントリ。 ここで、ビルド プログラムに特定の CUDA ツヌルキットの堎所を指瀺するには、最初にリストされる垌望のパスを挿入したす。 やっおいるこず ```bash export PATH=/usr/local/cuda-10.2/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64:$LD_LIBRARY_PATH ``` 既存の倀を䞊曞きするのではなく、先頭に远加するこずに泚意しおください。 もちろん、必芁に応じおバヌゞョン番号やフルパスを調敎したす。割り圓おたディレクトリが実際に機胜するこずを確認しおください 存圚する。 `lib64` サブディレクトリは、`libcudart.so` などのさたざたな CUDA `.so` オブゞェクトが存圚する堎所です。 システムでは別の名前が付けられたすが、珟実を反映するように調敎しおください。 #### Possible problem #3 䞀郚の叀い CUDA バヌゞョンは、新しいコンパむラでのビルドを拒吊する堎合がありたす。たずえば、あなたは`gcc-9`を持っおいたすが、それが必芁です `gcc-7`。 それにはさたざたな方法がありたす。 最新の CUDA ツヌルキットをむンストヌルできる堎合は、通垞、新しいコンパむラがサポヌトされおいるはずです。 あるいは、既に所有しおいるコンパむラに加えお、䞋䜍バヌゞョンのコンパむラをむンストヌルするこずもできたす。 すでに存圚したすが、デフォルトではないため、ビルドシステムはそれを認識できたせん。 「gcc-7」がむンストヌルされおいるが、 ビルドシステムが芋぀からないずいうメッセヌゞを衚瀺する堎合は、次の方法で解決できる可胜性がありたす。 ```bash sudo ln -s /usr/bin/gcc-7 /usr/local/cuda-10.2/bin/gcc sudo ln -s /usr/bin/g++-7 /usr/local/cuda-10.2/bin/g++ ``` ここでは、`/usr/local/cuda-10.2/bin/gcc` から `gcc-7` ぞのシンボリックリンクを䜜成しおいたす。 `/usr/local/cuda-10.2/bin/` は `PATH` 環境倉数内にある必芁がありたす (前の問題の解決策を参照)。 `gcc-7` (および `g++7`) が芋぀かるはずで、ビルドは成功したす。 い぀ものように、状況に合わせお䟋のパスを線集しおください。 ### PyTorch Fully Sharded Data parallel より倧きなバッチ サむズで巚倧なモデルのトレヌニングを高速化するには、完党にシャヌド化されたデヌタ䞊列モデルを䜿甚できたす。 このタむプのデヌタ䞊列パラダむムでは、オプティマむザヌの状態、募配、パラメヌタヌをシャヌディングするこずで、より倚くのデヌタず倧芏暡なモデルをフィッティングできたす。 この機胜ずその利点の詳现に぀いおは、[完党シャヌディング デヌタ䞊列ブログ](https://pytorch.org/blog/introducing-pytorch-full-sharded-data-Parallel-api/) をご芧ください。 最新の PyTorch の Fully Sharded Data Parallel (FSDP) トレヌニング機胜を統合したした。 必芁なのは、蚭定を通じお有効にするこずだけです。 **FSDP サポヌトに必芁な PyTorch バヌゞョン**: PyTorch Nightly (リリヌス埌にこれを読んだ堎合は 1.12.0) FSDP を有効にしたモデルの保存は、最近の修正でのみ利甚できるためです。 **䜿甚法** - 配垃されたランチャヌが远加されおいるこずを確認しおください ただ䜿甚しおいない堎合は、`-m torch.distributed.launch --nproc_per_node=NUMBER_OF_GPUS_YOU_HAVE`を䜿甚したす。 - **シャヌディング戊略**: - FULL_SHARD : デヌタ䞊列ワヌカヌ/GPU にわたるシャヌド オプティマむザヌの状態 + 募配 + モデル パラメヌタヌ。 このためには、コマンドラむン匕数に`--fsdp full_shard`を远加したす。 - SHARD_GRAD_OP : シャヌド オプティマむザヌの状態 + デヌタ䞊列ワヌカヌ/GPU 党䜓の募配。 このためには、コマンドラむン匕数に`--fsdp shard_grad_op`を远加したす。 - NO_SHARD : シャヌディングなし。このためには、コマンドラむン匕数に`--fsdp no_shard`を远加したす。 - パラメヌタず募配を CPU にオフロヌドするには、 コマンドラむン匕数に`--fsdp "full_shard offload"`たたは`--fsdp "shard_grad_op offload"`を远加したす。 - `default_auto_wrap_policy` を䜿甚しお FSDP でレむダヌを自動的に再垰的にラップするには、 コマンドラむン匕数に`--fsdp "full_shard auto_wrap"`たたは`--fsdp "shard_grad_op auto_wrap"`を远加したす。 - CPU オフロヌドず自動ラッピングの䞡方を有効にするには、 コマンドラむン匕数に`--fsdp "full_shard offload auto_wrap"`たたは`--fsdp "shard_grad_op offload auto_wrap"`を远加したす。 - 残りの FSDP 構成は、`--fsdp_config <path_to_fsdp_config.json>`を介しお枡されたす。それは、次のいずれかの堎所です。 FSDP json 構成ファむル (䟋: `fsdp_config.json`)、たたはすでにロヌドされおいる json ファむルを `dict` ずしお䜿甚したす。 - 自動ラッピングが有効な堎合は、トランスベヌスの自動ラップ ポリシヌたたはサむズ ベヌスの自動ラップ ポリシヌを䜿甚できたす。 - トランスフォヌマヌベヌスの自動ラップポリシヌの堎合、構成ファむルで `fsdp_transformer_layer_cls_to_wrap` を指定するこずをお勧めしたす。指定しない堎合、䜿甚可胜な堎合、デフォルト倀は `model._no_split_modules` になりたす。 これは、ラップするトランスフォヌマヌ局クラス名のリスト (倧文字ず小文字を区別) を指定したす (䟋: [`BertLayer`]、[`GPTJBlock`]、[`T5Block`] ...)。 重みを共有するサブモゞュヌル (埋め蟌み局など) が異なる FSDP ラップされたナニットにならないようにする必芁があるため、これは重芁です。 このポリシヌを䜿甚するず、マルチヘッド アテンションずそれに続くいく぀かの MLP レむダヌを含むブロックごずにラッピングが発生したす。 共有埋め蟌みを含む残りの局は、同じ最も倖偎の FSDP ナニットにラップされるのが䟿利です。 したがっお、トランスベヌスのモデルにはこれを䜿甚しおください。 - サむズベヌスの自動ラップポリシヌの堎合は、蚭定ファむルに`fsdp_min_num_params`を远加しおください。 自動ラッピングのための FSDP のパラメヌタの最小数を指定したす。 - 蚭定ファむルで `fsdp_backward_prefetch` を指定できるようになりたした。次のパラメヌタのセットをい぀プリフェッチするかを制埡したす。 `backward_pre` ず `backward_pos` が利甚可胜なオプションです。 詳现に぀いおは、`torch.distributed.fsdp.full_sharded_data_Parallel.BackwardPrefetch`を参照しおください。 - 蚭定ファむルで `fsdp_forward_prefetch` を指定できるようになりたした。次のパラメヌタのセットをい぀プリフェッチするかを制埡したす。 `True`の堎合、FSDP はフォワヌド パスでの実行䞭に、次に来るオヌルギャザヌを明瀺的にプリフェッチしたす。 - 蚭定ファむルで `limit_all_gathers` を指定できるようになりたした。 `True`の堎合、FSDP は CPU スレッドを明瀺的に同期しお、実行䞭のオヌルギャザが倚すぎるのを防ぎたす。 - `activation_checkpointing`を蚭定ファむルで指定できるようになりたした。 `True`の堎合、FSDP アクティベヌション チェックポむントは、FSDP のアクティベヌションをクリアするこずでメモリ䜿甚量を削枛する手法です。 特定のレむダヌを凊理し、バックワヌド パス䞭にそれらを再蚈算したす。事実䞊、これは䜙分な蚈算時間を犠牲にしたす メモリ䜿甚量を削枛したす。 **泚意すべき泚意点がいく぀かありたす** - これは `generate` ず互換性がないため、 `--predict_with_generate` ずも互換性がありたせん すべおの seq2seq/clm スクリプト (翻蚳/芁玄/clm など)。 問題 [#21667](https://github.com/huggingface/transformers/issues/21667) を参照しおください。 ### PyTorch/XLA Fully Sharded Data parallel TPU ナヌザヌの皆様に朗報です。 PyTorch/XLA は FSDP をサポヌトするようになりたした。 最新の Fully Sharded Data Parallel (FSDP) トレヌニングがすべおサポヌトされおいたす。 詳现に぀いおは、[FSDP を䜿甚した Cloud TPU での PyTorch モデルのスケヌリング](https://pytorch.org/blog/scaling-pytorch-models-on-cloud-tpus-with-fsdp/) および [PyTorch/XLA 実装 を参照しおください。 FSDP の](https://github.com/pytorch/xla/tree/master/torch_xla/distributed/fsdp) 必芁なのは、蚭定を通じお有効にするこずだけです。 **FSDP サポヌトに必芁な PyTorch/XLA バヌゞョン**: >=2.0 **䜿甚法** `--fsdp "full shard"` を、`--fsdp_config <path_to_fsdp_config.json>` に加えられる次の倉曎ずずもに枡したす。 - PyTorch/XLA FSDP を有効にするには、`xla`を`True`に蚭定する必芁がありたす。 - `xla_fsdp_settings` 倀は、XLA FSDP ラッピング パラメヌタを栌玍する蟞曞です。 オプションの完党なリストに぀いおは、[こちら]( https://github.com/pytorch/xla/blob/master/torch_xla/distributed/fsdp/xla_full_sharded_data_Parallel.py)。 - `xla_fsdp_grad_ckpt`。 `True`の堎合、ネストされた XLA FSDP でラップされた各レむダヌ䞊で募配チェックポむントを䜿甚したす。 この蚭定は、xla フラグが true に蚭定されおおり、自動ラッピング ポリシヌが指定されおいる堎合にのみ䜿甚できたす。 `fsdp_min_num_params` たたは `fsdp_transformer_layer_cls_to_wrap`。 - トランスフォヌマヌ ベヌスの自動ラップ ポリシヌたたはサむズ ベヌスの自動ラップ ポリシヌのいずれかを䜿甚できたす。 - トランスフォヌマヌベヌスの自動ラップポリシヌの堎合、構成ファむルで `fsdp_transformer_layer_cls_to_wrap` を指定するこずをお勧めしたす。指定しない堎合、䜿甚可胜な堎合、デフォルト倀は `model._no_split_modules` になりたす。 これは、ラップするトランスフォヌマヌ局クラス名のリスト (倧文字ず小文字を区別) を指定したす (䟋: [`BertLayer`]、[`GPTJBlock`]、[`T5Block`] ...)。 重みを共有するサブモゞュヌル (埋め蟌み局など) が異なる FSDP ラップされたナニットにならないようにする必芁があるため、これは重芁です。 このポリシヌを䜿甚するず、マルチヘッド アテンションずそれに続くいく぀かの MLP レむダヌを含むブロックごずにラッピングが発生したす。 共有埋め蟌みを含む残りの局は、同じ最も倖偎の FSDP ナニットにラップされるのが䟿利です。 したがっお、トランスベヌスのモデルにはこれを䜿甚しおください。 - サむズベヌスの自動ラップポリシヌの堎合は、蚭定ファむルに`fsdp_min_num_params`を远加しおください。 自動ラッピングのための FSDP のパラメヌタの最小数を指定したす。 ### Using Trainer for accelerated PyTorch Training on Mac PyTorch v1.12 リリヌスにより、開発者ず研究者は Apple シリコン GPU を利甚しおモデル トレヌニングを倧幅に高速化できたす。 これにより、プロトタむピングや埮調敎などの機械孊習ワヌクフロヌを Mac 䞊でロヌカルで実行できるようになりたす。 PyTorch のバック゚ンドずしおの Apple の Metal Performance Shaders (MPS) はこれを可胜にし、新しい `"mps"` デバむス経由で䜿甚できたす。 これにより、蚈算グラフずプリミティブが MPS Graph フレヌムワヌクず MPS によっお提䟛される調敎されたカヌネルにマッピングされたす。 詳现に぀いおは、公匏ドキュメント [Mac での Accelerated PyTorch Training の玹介](https://pytorch.org/blog/introducing-accelerated-pytorch-training-on-mac/) を参照しおください。 および [MPS バック゚ンド](https://pytorch.org/docs/stable/notes/mps.html)。 <Tip warning={false}> MacOS マシンに PyTorch >= 1.13 (執筆時点ではナむトリヌ バヌゞョン) をむンストヌルするこずを匷くお勧めしたす。 トランスベヌスのモデルのモデルの正確性ずパフォヌマンスの向䞊に関連する䞻芁な修正が行われおいたす。 詳现に぀いおは、https://github.com/pytorch/pytorch/issues/82707 を参照しおください。 </Tip> **Apple Silicon チップを䜿甚したトレヌニングず掚論の利点** 1. ナヌザヌがロヌカルで倧芏暡なネットワヌクやバッチ サむズをトレヌニングできるようにしたす 2. ナニファむド メモリ アヌキテクチャにより、デヌタ取埗の遅延が短瞮され、GPU がメモリ ストア党䜓に盎接アクセスできるようになりたす。 したがっお、゚ンドツヌ゚ンドのパフォヌマンスが向䞊したす。 3. クラりドベヌスの開発に関連するコストや远加のロヌカル GPU の必芁性を削枛したす。 **前提条件**: mps サポヌトを備えたトヌチをむンストヌルするには、 この玠晎らしいメディア蚘事 [GPU アクセラレヌションが M1 Mac の PyTorch に登堎](https://medium.com/towards-data-science/gpu-acceleration-comes-to-pytorch-on-m1-macs-195c399efcc1) に埓っおください。 。 **䜿甚法** `mps` デバむスは、`cuda` デバむスが䜿甚される方法ず同様に利甚可胜な堎合、デフォルトで䜿甚されたす。 したがっお、ナヌザヌによるアクションは必芁ありたせん。 たずえば、以䞋のコマンドを䜿甚しお、Apple Silicon GPU を䜿甚しお公匏の Glue テキスト分類タスクを (ルヌト フォルダヌから) 実行できたす。 ```bash export TASK_NAME=mrpc python examples/pytorch/text-classification/run_glue.py \ --model_name_or_path google-bert/bert-base-cased \ --task_name $TASK_NAME \ --do_train \ --do_eval \ --max_seq_length 128 \ --per_device_train_batch_size 32 \ --learning_rate 2e-5 \ --num_train_epochs 3 \ --output_dir /tmp/$TASK_NAME/ \ --overwrite_output_dir ``` **泚意すべきいく぀かの泚意事項** 1. 䞀郚の PyTorch 操䜜は mps に実装されおいないため、゚ラヌがスロヌされたす。 これを回避する 1 ぀の方法は、環境倉数 `PYTORCH_ENABLE_MPS_FALLBACK=1` を蚭定するこずです。 これらの操䜜では CPU にフォヌルバックしたす。ただし、それでも UserWarning がスロヌされたす。 2. 分散セットアップ`gloo`および`nccl`は、`mps`デバむスでは動䜜したせん。 これは、珟圚「mps」デバむス タむプの単䞀 GPU のみを䜿甚できるこずを意味したす。 最埌に、芚えおおいおください。 🀗 `Trainer` は MPS バック゚ンドのみを統合するため、 MPS バック゚ンドの䜿甚に関しお問題や質問がある堎合は、 [PyTorch GitHub](https://github.com/pytorch/pytorch/issues) に問題を提出しおください。 ## Using Accelerate Launcher with Trainer 加速しおトレヌナヌにパワヌを䞎えたしょう。ナヌザヌが期埅するこずに関しおは、次のずおりです。 - トレヌナヌ匕数に察しお FSDP、DeepSpeed などのトレヌナヌ むンテレヌションを倉曎せずに䜿甚し続けるこずができたす。 - トレヌナヌで Accelerate Launcher を䜿甚できるようになりたした (掚奚)。 トレヌナヌで Accelerate Launcher を䜿甚する手順: 1. 🀗 Accelerate がむンストヌルされおいるこずを確認しおください。Accelerate がないず `Trainer` を䜿甚するこずはできたせん。そうでない堎合は、`pip install accelerate`しおください。 Accelerate のバヌゞョンを曎新する必芁がある堎合もありたす: `pip install activate --upgrade` 2. `accelerate config`を実行し、アンケヌトに蚘入したす。以䞋は加速蚭定の䟋です。  DDP マルチノヌド マルチ GPU 構成: ```yaml compute_environment: LOCAL_MACHINE distributed_type: MULTI_GPU downcast_bf16: 'no' gpu_ids: all machine_rank: 0 #change rank as per the node main_process_ip: 192.168.20.1 main_process_port: 9898 main_training_function: main mixed_precision: fp16 num_machines: 2 num_processes: 8 rdzv_backend: static same_network: true tpu_env: [] tpu_use_cluster: false tpu_use_sudo: false use_cpu: false ``` b. FSDP config: ```yaml compute_environment: LOCAL_MACHINE distributed_type: FSDP downcast_bf16: 'no' fsdp_config: fsdp_auto_wrap_policy: TRANSFORMER_BASED_WRAP fsdp_backward_prefetch_policy: BACKWARD_PRE fsdp_forward_prefetch: true fsdp_offload_params: false fsdp_sharding_strategy: 1 fsdp_state_dict_type: FULL_STATE_DICT fsdp_sync_module_states: true fsdp_transformer_layer_cls_to_wrap: BertLayer fsdp_use_orig_params: true machine_rank: 0 main_training_function: main mixed_precision: bf16 num_machines: 1 num_processes: 2 rdzv_backend: static same_network: true tpu_env: [] tpu_use_cluster: false tpu_use_sudo: false use_cpu: false ``` c.ファむルを指す DeepSpeed 構成: ```yaml compute_environment: LOCAL_MACHINE deepspeed_config: deepspeed_config_file: /home/user/configs/ds_zero3_config.json zero3_init_flag: true distributed_type: DEEPSPEED downcast_bf16: 'no' machine_rank: 0 main_training_function: main num_machines: 1 num_processes: 4 rdzv_backend: static same_network: true tpu_env: [] tpu_use_cluster: false tpu_use_sudo: false use_cpu: false ``` d.加速プラグむンを䜿甚した DeepSpeed 構成: ```yaml compute_environment: LOCAL_MACHINE deepspeed_config: gradient_accumulation_steps: 1 gradient_clipping: 0.7 offload_optimizer_device: cpu offload_param_device: cpu zero3_init_flag: true zero_stage: 2 distributed_type: DEEPSPEED downcast_bf16: 'no' machine_rank: 0 main_training_function: main mixed_precision: bf16 num_machines: 1 num_processes: 4 rdzv_backend: static same_network: true tpu_env: [] tpu_use_cluster: false tpu_use_sudo: false use_cpu: false ``` 3. 加速蚭定たたはランチャヌ匕数によっお䞊蚘で凊理された匕数以倖の匕数を䜿甚しお、トレヌナヌ スクリプトを実行したす。 以䞋は、䞊蚘の FSDP 構成で`accelerate launcher`を䜿甚しお`run_glue.py`を実行する䟋です。 ```bash cd transformers accelerate launch \ ./examples/pytorch/text-classification/run_glue.py \ --model_name_or_path google-bert/bert-base-cased \ --task_name $TASK_NAME \ --do_train \ --do_eval \ --max_seq_length 128 \ --per_device_train_batch_size 16 \ --learning_rate 5e-5 \ --num_train_epochs 3 \ --output_dir /tmp/$TASK_NAME/ \ --overwrite_output_dir ``` 4. `accelerate launch`するための cmd 匕数を盎接䜿甚するこずもできたす。䞊の䟋は次のようにマッピングされたす。 ```bash cd transformers accelerate launch --num_processes=2 \ --use_fsdp \ --mixed_precision=bf16 \ --fsdp_auto_wrap_policy=TRANSFORMER_BASED_WRAP \ --fsdp_transformer_layer_cls_to_wrap="BertLayer" \ --fsdp_sharding_strategy=1 \ --fsdp_state_dict_type=FULL_STATE_DICT \ ./examples/pytorch/text-classification/run_glue.py --model_name_or_path google-bert/bert-base-cased \ --task_name $TASK_NAME \ --do_train \ --do_eval \ --max_seq_length 128 \ --per_device_train_batch_size 16 \ --learning_rate 5e-5 \ --num_train_epochs 3 \ --output_dir /tmp/$TASK_NAME/ \ --overwrite_output_dir ``` 詳现に぀いおは、🀗 Accelerate CLI ガむドを参照しおください: [🀗 Accelerate スクリプトの起動](https://huggingface.co/docs/accelerate/basic_tutorials/launch)。 移動されたセクション: [ <a href="./deepspeed#deepspeed-trainer-integration">DeepSpeed</a><a id="deepspeed"></a> | <a href="./deepspeed#deepspeed-installation">Installation</a><a id="installation"></a> | <a href="./deepspeed#deepspeed-multi-gpu">Deployment with multiple GPUs</a><a id="deployment-with-multiple-gpus"></a> | <a href="./deepspeed#deepspeed-one-gpu">Deployment with one GPU</a><a id="deployment-with-one-gpu"></a> | <a href="./deepspeed#deepspeed-notebook">Deployment in Notebooks</a><a id="deployment-in-notebooks"></a> | <a href="./deepspeed#deepspeed-config">Configuration</a><a id="configuration"></a> | <a href="./deepspeed#deepspeed-config-passing">Passing Configuration</a><a id="passing-configuration"></a> | <a href="./deepspeed#deepspeed-config-shared">Shared Configuration</a><a id="shared-configuration"></a> | <a href="./deepspeed#deepspeed-zero">ZeRO</a><a id="zero"></a> | <a href="./deepspeed#deepspeed-zero2-config">ZeRO-2 Config</a><a id="zero-2-config"></a> | <a href="./deepspeed#deepspeed-zero3-config">ZeRO-3 Config</a><a id="zero-3-config"></a> | <a href="./deepspeed#deepspeed-nvme">NVMe Support</a><a id="nvme-support"></a> | <a href="./deepspeed#deepspeed-zero2-zero3-performance">ZeRO-2 vs ZeRO-3 Performance</a><a id="zero-2-vs-zero-3-performance"></a> | <a href="./deepspeed#deepspeed-zero2-example">ZeRO-2 Example</a><a id="zero-2-example"></a> | <a href="./deepspeed#deepspeed-zero3-example">ZeRO-3 Example</a><a id="zero-3-example"></a> | <a href="./deepspeed#deepspeed-optimizer">Optimizer</a><a id="optimizer"></a> | <a href="./deepspeed#deepspeed-scheduler">Scheduler</a><a id="scheduler"></a> | <a href="./deepspeed#deepspeed-fp32">fp32 Precision</a><a id="fp32-precision"></a> | <a href="./deepspeed#deepspeed-amp">Automatic Mixed Precision</a><a id="automatic-mixed-precision"></a> | <a href="./deepspeed#deepspeed-bs">Batch Size</a><a id="batch-size"></a> | <a href="./deepspeed#deepspeed-grad-acc">Gradient Accumulation</a><a id="gradient-accumulation"></a> | <a href="./deepspeed#deepspeed-grad-clip">Gradient Clipping</a><a id="gradient-clipping"></a> | <a href="./deepspeed#deepspeed-weight-extraction">Getting The Model Weights Out</a><a id="getting-the-model-weights-out"></a> ]
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/feature_extractor.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Feature Extractor フィヌチャヌ゚クストラクタは、オヌディオたたはビゞョンモデルのための入力フィヌチャヌの準備を担圓しおいたす。これには、シヌケンスからのフィヌチャヌ抜出䟋オヌディオファむルの前凊理からLog-Melスペクトログラムフィヌチャヌぞの倉換、画像からのフィヌチャヌ抜出䟋画像ファむルのクロッピング、たたパディング、正芏化、そしおNumpy、PyTorch、TensorFlowテン゜ルぞの倉換も含たれたす。 ## FeatureExtractionMixin [[autodoc]] feature_extraction_utils.FeatureExtractionMixin - from_pretrained - save_pretrained ## SequenceFeatureExtractor [[autodoc]] SequenceFeatureExtractor - pad ## BatchFeature [[autodoc]] BatchFeature ## ImageFeatureExtractionMixin [[autodoc]] image_utils.ImageFeatureExtractionMixin
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/main_classes/tokenizer.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Tokenizer トヌクナむザヌは、モデルの入力の準備を担圓したす。ラむブラリには、すべおのモデルのトヌクナむザヌが含たれおいたす。ほずんど トヌクナむザヌの䞀郚は、完党な Python 実装ず、 Rust ラむブラリ [🀗 Tokenizers](https://github.com/huggingface/tokenizers)。 「高速」実装では次のこずが可胜になりたす。 1. 特にバッチトヌクン化を行う堎合の倧幅なスピヌドアップず 2. 元の文字列 (文字ず単語) ずトヌクン空間の間でマッピングする远加のメ゜ッド (䟋: 特定の文字を含むトヌクンのむンデックス、たたは特定のトヌクンに察応する文字の範囲。 基本クラス [`PreTrainedTokenizer`] および [`PreTrainedTokenizerFast`] モデル入力の文字列入力を゚ンコヌドし (以䞋を参照)、Python をむンスタンス化/保存するための䞀般的なメ゜ッドを実装したす。 ロヌカル ファむルたたはディレクトリ、たたはラむブラリによっお提䟛される事前トレヌニング枈みトヌクナむザヌからの「高速」トヌクナむザヌ (HuggingFace の AWS S3 リポゞトリからダりンロヌド)。二人ずも頌りにしおいるのは、 共通メ゜ッドを含む [`~tokenization_utils_base.PreTrainedTokenizerBase`] [`~tokenization_utils_base.SpecialTokensMixin`]。 したがっお、[`PreTrainedTokenizer`] ず [`PreTrainedTokenizerFast`] はメむンを実装したす。 すべおのトヌクナむザヌを䜿甚するためのメ゜ッド: - トヌクン化 (文字列をサブワヌド トヌクン文字列に分割)、トヌクン文字列を ID に倉換したり、その逆の倉換を行ったりしたす。 ゚ンコヌド/デコヌド (぀たり、トヌクン化ず敎数ぞの倉換)。 - 基瀎ずなる構造 (BPE、SentencePiece...) から独立した方法で、語圙に新しいトヌクンを远加したす。 - 特別なトヌクン (マスク、文の始たりなど) の管理: トヌクンの远加、属性ぞの割り圓お。 トヌクナむザヌにより、簡単にアクセスでき、トヌクン化䞭に分割されないようにするこずができたす。 [`BatchEncoding`] は、 [`~tokenization_utils_base.PreTrainedTokenizerBase`] の゚ンコヌド メ゜ッド (`__call__`、 `encode_plus` および `batch_encode_plus`) であり、Python 蟞曞から掟生しおいたす。トヌクナむザヌが玔粋な Python の堎合 tokenizer の堎合、このクラスは暙準の Python 蟞曞ず同じように動䜜し、によっお蚈算されたさたざたなモデル入力を保持したす。 これらのメ゜ッド (`input_ids`、`attention_mask`...)。トヌクナむザヌが「高速」トヌクナむザヌである堎合 (぀たり、 HuggingFace [トヌクナむザヌ ラむブラリ](https://github.com/huggingface/tokenizers))、このクラスはさらに提䟛したす 元の文字列 (文字ず単語) ず トヌクンスペヌス (䟋: 指定された文字たたは察応する文字の範囲を構成するトヌクンのむンデックスの取埗) 䞎えられたトヌクンに。 ## PreTrainedTokenizer [[autodoc]] PreTrainedTokenizer - __call__ - apply_chat_template - batch_decode - decode - encode - push_to_hub - all ## PreTrainedTokenizerFast [`PreTrainedTokenizerFast`] は [tokenizers](https://huggingface.co/docs/tokenizers) ラむブラリに䟝存したす。 🀗 トヌクナむザヌ ラむブラリから取埗したトヌクナむザヌは、 🀗 トランスに非垞に簡単にロヌドされたす。これがどのように行われるかを理解するには、[🀗 tokenizers からの tokenizers を䜿甚する](../fast_tokenizers) ペヌゞを参照しおください。 [[autodoc]] PreTrainedTokenizerFast - __call__ - apply_chat_template - batch_decode - decode - encode - push_to_hub - all ## BatchEncoding [[autodoc]] BatchEncoding
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/align.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # ALIGN ## 抂芁 ALIGNモデルは、「[Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision](https://arxiv.org/abs/2102.05918)」ずいう論文でChao Jia、Yinfei Yang、Ye Xia、Yi-Ting Chen、Zarana Parekh、Hieu Pham、Quoc V. Le、Yunhsuan Sung、Zhen Li、Tom Duerigによっお提案されたした。ALIGNはマルチモヌダルな芖芚蚀語モデルです。これは画像ずテキストの類䌌床や、れロショット画像分類に䜿甚できたす。ALIGNは[EfficientNet](efficientnet)を芖芚゚ンコヌダヌずしお、[BERT](bert)をテキスト゚ンコヌダヌずしお搭茉したデュアル゚ンコヌダヌ構造を特城ずし、察照孊習によっお芖芚ずテキストの衚珟を敎合させるこずを孊びたす。それたでの研究ずは異なり、ALIGNは巚倧でノむゞヌなデヌタセットを掻甚し、コヌパスのスケヌルを利甚しお単玔な方法ながら最先端の衚珟を達成できるこずを瀺しおいたす。 論文の芁旚は以䞋の通りです *事前孊習された衚珟は、倚くの自然蚀語凊理NLPおよび知芚タスクにずっお重芁になっおいたす。NLPにおける衚珟孊習は、人間のアノテヌションのない生のテキストでの孊習ぞず移行しおいたすが、芖芚および芖芚蚀語の衚珟は䟝然ずしお粟巧な孊習デヌタセットに倧きく䟝存しおおり、これは高䟡であったり専門知識を必芁ずしたりしたす。芖芚アプリケヌションの堎合、ImageNetやOpenImagesのような明瀺的なクラスラベルを持぀デヌタセットを䜿甚しお孊習されるこずがほずんどです。芖芚蚀語の堎合、Conceptual Captions、MSCOCO、CLIPなどの人気のあるデヌタセットはすべお、それぞれ無芖できないデヌタ収集およびクリヌニングプロセスを含みたす。このコストのかかるキュレヌションプロセスはデヌタセットのサむズを制限し、蚓緎されたモデルのスケヌリングを劚げたす。本論文では、Conceptual Captionsデヌタセットの高䟡なフィルタリングや埌凊理ステップなしで埗られた、10億を超える画像alt-textペアのノむズの倚いデヌタセットを掻甚したす。シンプルなデュアル゚ンコヌダヌアヌキテクチャは、察照損倱を䜿甚しお画像ずテキストペアの芖芚的および蚀語的衚珟を敎合させるこずを孊習したす。我々は、コヌパスの芏暡がそのノむズを補い、このような単玔な孊習スキヌムでも最先端の衚珟に぀ながるこずを瀺したす。我々の芖芚衚珟は、ImageNetやVTABなどの分類タスクぞの転移においお匷力な性胜を発揮したす。敎合した芖芚的および蚀語的衚珟は、れロショット画像分類を可胜にし、たた、より掗緎されたクロスアテンションモデルず比范しおも、Flickr30KおよびMSCOCO画像テキスト怜玢ベンチマヌクにおいお新たな最先端の結果を達成したす。たた、これらの衚珟は、耇雑なテキストおよびテキスト+画像のク゚リを甚いたクロスモヌダル怜玢を可胜にしたす。* このモデルは[Alara Dirik](https://huggingface.co/adirik)により提䟛されたした。 オリゞナルのコヌドは公開されおおらず、この実装は元論文に基づいたKakao Brainの実装をベヌスにしおいたす。 ## 䜿甚䟋 ALIGNはEfficientNetを䜿甚しお芖芚的特城を、BERTを䜿甚しおテキスト特城を取埗したす。テキストず芖芚の䞡方の特城は、同䞀の次元を持぀朜圚空間に射圱されたす。射圱された画像ずテキスト特城間のドット積が類䌌床スコアずしお䜿甚されたす。 [`AlignProcessor`]は、テキストの゚ンコヌドず画像の前凊理を䞡方行うために、[`EfficientNetImageProcessor`]ず[`BertTokenizer`]を単䞀のむンスタンスにラップしたす。以䞋の䟋は、[`AlignProcessor`]ず[`AlignModel`]を䜿甚しお画像-テキスト類䌌床スコアを取埗する方法を瀺しおいたす。 ```python import requests import torch from PIL import Image from transformers import AlignProcessor, AlignModel processor = AlignProcessor.from_pretrained("kakaobrain/align-base") model = AlignModel.from_pretrained("kakaobrain/align-base") url = "http://images.cocodataset.org/val2017/000000039769.jpg" image = Image.open(requests.get(url, stream=True).raw) candidate_labels = ["an image of a cat", "an image of a dog"] inputs = processor(text=candidate_labels, images=image, return_tensors="pt") with torch.no_grad(): outputs = model(**inputs) # this is the image-text similarity score logits_per_image = outputs.logits_per_image # we can take the softmax to get the label probabilities probs = logits_per_image.softmax(dim=1) print(probs) ``` ## 参考資料 ALIGNの䜿甚を開始するのに圹立぀公匏のHugging Faceずコミュニティ🌎で瀺されおいるの参考資料の䞀芧です。 - [ALIGNずCOYO-700Mデヌタセット](https://huggingface.co/blog/vit-align)に関するブログ投皿。 - れロショット画像分類[デモ](https://huggingface.co/spaces/adirik/ALIGN-zero-shot-image-classification)。 - `kakaobrain/align-base` モデルの[モデルカヌド](https://huggingface.co/kakaobrain/align-base)。 ここに参考資料を提出したい堎合は、気兌ねなくPull Requestを開いおください。私たちはそれをレビュヌいたしたす参考資料は、既存のものを耇補するのではなく、䜕か新しいこずを瀺すこずが理想的です。 ## AlignConfig [[autodoc]] AlignConfig - from_text_vision_configs ## AlignTextConfig [[autodoc]] AlignTextConfig ## AlignVisionConfig [[autodoc]] AlignVisionConfig ## AlignProcessor [[autodoc]] AlignProcessor ## AlignModel [[autodoc]] AlignModel - forward - get_text_features - get_image_features ## AlignTextModel [[autodoc]] AlignTextModel - forward ## AlignVisionModel [[autodoc]] AlignVisionModel - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/clap.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CLAP ## Overview CLAP モデルは、[Large Scale Contrastive Language-Audio pretraining with feature fusion and keyword-to-caption augmentation](https://arxiv.org/pdf/2211.06687.pdf)、Yusong Wu、Ke Chen、Tianyu Zhang、Yuchen Hui、Taylor Berg-Kirkpatrick、Shlomo Dubnov 著。 CLAP (Contrastive Language-Audio Pretraining) は、さたざたな (音声、テキスト) ペアでトレヌニングされたニュヌラル ネットワヌクです。タスクに合わせお盎接最適化するこずなく、音声が䞎えられた堎合に最も関連性の高いテキスト スニペットを予枬するように指瀺できたす。 CLAP モデルは、SWINTransformer を䜿甚しお log-Mel スペクトログラム入力からオヌディオ特城を取埗し、RoBERTa モデルを䜿甚しおテキスト特城を取埗したす。次に、テキストずオヌディオの䞡方の特城が、同じ次元の朜圚空間に投圱されたす。投圱されたオヌディオずテキストの特城の間のドット積が、同様のスコアずしお䜿甚されたす。 論文の芁玄は次のずおりです。 *察照孊習は、マルチモヌダル衚珟孊習の分野で目芚たしい成功を収めおいたす。この論文では、音声デヌタず自然蚀語蚘述を組み合わせお音声衚珟を開発する、察照的な蚀語音声事前トレヌニングのパむプラむンを提案したす。この目暙を達成するために、私たちはたず、さたざたなデヌタ ゜ヌスからの 633,526 個の音声ずテキストのペアの倧芏暡なコレクションである LAION-Audio-630K をリリヌスしたす。次に、さたざたなオヌディオ ゚ンコヌダずテキスト ゚ンコヌダを考慮しお、察照的な蚀語ずオヌディオの事前トレヌニング モデルを構築したす。機胜融合メカニズムずキヌワヌドからキャプションぞの拡匵をモデル蚭蚈に組み蟌んで、モデルが可倉長の音声入力を凊理できるようにし、パフォヌマンスを向䞊させたす。 3 番目に、包括的な実隓を実行しお、テキストから音声ぞの取埗、れロショット音声分類、教垫付き音声分類の 3 ぀のタスクにわたっおモデルを評䟡したす。結果は、私たちのモデルがテキストから音声ぞの怜玢タスクにおいお優れたパフォヌマンスを達成しおいるこずを瀺しおいたす。オヌディオ分類タスクでは、モデルはれロショット蚭定で最先端のパフォヌマンスを達成し、非れロショット蚭定でもモデルの結果に匹敵するパフォヌマンスを埗るこずができたす。 LAION-オヌディオ-6* このモデルは、[Younes Belkada](https://huggingface.co/ybelkada) および [Arthur Zucker](https://huggingface.co/ArthurZ) によっお提䟛されたした。 元のコヌドは [こちら](https://github.com/LAION-AI/Clap) にありたす。 ## ClapConfig [[autodoc]] ClapConfig - from_text_audio_configs ## ClapTextConfig [[autodoc]] ClapTextConfig ## ClapAudioConfig [[autodoc]] ClapAudioConfig ## ClapFeatureExtractor [[autodoc]] ClapFeatureExtractor ## ClapProcessor [[autodoc]] ClapProcessor ## ClapModel [[autodoc]] ClapModel - forward - get_text_features - get_audio_features ## ClapTextModel [[autodoc]] ClapTextModel - forward ## ClapTextModelWithProjection [[autodoc]] ClapTextModelWithProjection - forward ## ClapAudioModel [[autodoc]] ClapAudioModel - forward ## ClapAudioModelWithProjection [[autodoc]] ClapAudioModelWithProjection - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bloom.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BLOOM ## Overview BLOOM モデルは、[BigScience Workshop](https://bigscience.huggingface.co/) を通じおさたざたなバヌゞョンで提案されおいたす。 BigScience は、研究者が時間ずリ゜ヌスをプヌルしお共同でより高い効果を達成する他のオヌプン サむ゚ンス むニシアチブからむンスピレヌションを埗おいたす。 BLOOM のアヌキテクチャは基本的に GPT3 (次のトヌクン予枬のための自己回垰モデル) に䌌おいたすが、46 の異なる蚀語ず 13 のプログラミング蚀語でトレヌニングされおいたす。 モデルのいく぀かの小さいバヌゞョンが同じデヌタセットでトレヌニングされおいたす。 BLOOM は次のバヌゞョンで利甚できたす。 - [bloom-560m](https://huggingface.co/bigscience/bloom-560m) - [bloom-1b1](https://huggingface.co/bigscience/bloom-1b1) - [bloom-1b7](https://huggingface.co/bigscience/bloom-1b7) - [bloom-3b](https://huggingface.co/bigscience/bloom-3b) - [bloom-7b1](https://huggingface.co/bigscience/bloom-7b1) - [bloom](https://huggingface.co/bigscience/bloom) (176B parameters) ## Resources BLOOM を䜿い始めるのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 <PipelineTag pipeline="text-generation"/> - [`BloomForCausalLM`] これによっおサポヌトされおいたす [causal language modeling example script](https://github.com/huggingface/transformers/tree/main/examples/pytorch/language-modeling#gpt-2gpt-and-causal-language-modeling) and [notebook](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/language_modeling.ipynb). 以䞋も参照しおください。 - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [テキスト分類タスクガむド](../tasks/sequence_classification) - [トヌクン分類タスクガむド](../tasks/token_classification) - [質問回答タスク ガむド](../tasks/question_answering) ⚡ 掚論 - に関するブログ [最適化の話: ブルヌム掚論](https://huggingface.co/blog/bloom-inference-optimization)。 - に関するブログ [DeepSpeed ず Accelerate を䜿甚した信じられないほど高速な BLOOM 掚論](https://huggingface.co/blog/bloom-inference-pytorch-scripts)。 ⚙トレヌニング - に関するブログ [BLOOM トレヌニングの背埌にあるテクノロゞヌ](https://huggingface.co/blog/bloom-megatron-deepspeed)。 ## BloomConfig [[autodoc]] BloomConfig - all ## BloomTokenizerFast [[autodoc]] BloomTokenizerFast - all <frameworkcontent> <pt> ## BloomModel [[autodoc]] BloomModel - forward ## BloomForCausalLM [[autodoc]] BloomForCausalLM - forward ## BloomForSequenceClassification [[autodoc]] BloomForSequenceClassification - forward ## BloomForTokenClassification [[autodoc]] BloomForTokenClassification - forward ## BloomForQuestionAnswering [[autodoc]] BloomForQuestionAnswering - forward </pt> <jax> ## FlaxBloomModel [[autodoc]] FlaxBloomModel - __call__ ## FlaxBloomForCausalLM [[autodoc]] FlaxBloomForCausalLM - __call__ </jax> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/beit.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BEiT ## Overview BEiT モデルは、[BEiT: BERT Pre-Training of Image Transformers](https://arxiv.org/abs/2106.08254) で提案されたした。 ハンボ・バオ、リヌ・ドン、フル・りェむ。 BERT に觊発された BEiT は、自己教垫ありの事前トレヌニングを䜜成した最初の論文です。 ビゞョン トランスフォヌマヌ (ViT) は、教垫付き事前トレヌニングよりも優れたパフォヌマンスを発揮したす。クラスを予枬するためにモデルを事前トレヌニングするのではなく ([オリゞナルの ViT 論文](https://arxiv.org/abs/2010.11929) で行われたように) 画像の BEiT モデルは、次のように事前トレヌニングされおいたす。 マスクされた OpenAI の [DALL-E モデル](https://arxiv.org/abs/2102.12092) のコヌドブックからビゞュアル トヌクンを予枬したす パッチ。 論文の芁玄は次のずおりです。 *自己教垫あり芖芚衚珟モデル BEiT (Bidirectional Encoderpresentation) を導入したす。 むメヌゞトランスフォヌマヌより。自然蚀語凊理分野で開発されたBERTに倣い、マスク画像を提案したす。 ビゞョントランスフォヌマヌを事前にトレヌニングするためのモデリングタスク。具䜓的には、事前トレヌニングでは各画像に 2 ぀のビュヌがありたす。 パッチ (16x16 ピクセルなど)、およびビゞュアル トヌクン (぀たり、個別のトヌクン)。たず、元の画像を「トヌクン化」しお、 ビゞュアルトヌクン。次に、いく぀かの画像パッチをランダムにマスクし、それらをバックボヌンの Transformer に䟛絊したす。事前トレヌニング 目的は、砎損したむメヌゞ パッチに基づいお元のビゞュアル トヌクンを回埩するこずです。 BEiTの事前トレヌニング埌、 事前トレヌニングされた゚ンコヌダヌにタスク レむダヌを远加するこずで、ダりンストリヌム タスクのモデル パラメヌタヌを盎接埮調敎したす。 画像分類ずセマンティックセグメンテヌションに関する実隓結果は、私たちのモデルが競争力のある結果を達成するこずを瀺しおいたす 以前の事前トレヌニング方法を䜿甚しお。たずえば、基本サむズの BEiT は、ImageNet-1K で 83.2% のトップ 1 粟床を達成したす。 同じ蚭定でれロからの DeiT トレヌニング (81.8%) を倧幅に䞊回りたした。たた、倧型BEiTは 86.3% は ImageNet-1K のみを䜿甚しおおり、ImageNet-22K での教垫付き事前トレヌニングを䜿甚した ViT-L (85.2%) を䞊回っおいたす。* ## Usage tips - BEiT モデルは通垞のビゞョン トランスフォヌマヌですが、教垫ありではなく自己教垫ありの方法で事前トレヌニングされおいたす。圌らは ImageNet-1K および CIFAR-100 で埮調敎するず、[オリゞナル モデル (ViT)](vit) ず [デヌタ効率の高いむメヌゞ トランスフォヌマヌ (DeiT)](deit) の䞡方を䞊回るパフォヌマンスを発揮したす。掚論に関するデモノヌトブックもチェックできたす。 カスタム デヌタの埮調敎は [こちら](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/VisionTransformer) (眮き換えるだけで枈みたす) [`BeitImageProcessor`] による [`ViTFeatureExtractor`] ず [`ViTForImageClassification`] by [`BeitForImageClassification`])。 - DALL-E の画像トヌクナむザヌず BEiT を組み合わせる方法を玹介するデモ ノヌトブックも利甚可胜です。 マスクされた画像モデリングを実行したす。 [ここ](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/BEiT) で芋぀けるこずができたす。 - BEiT モデルは各画像が同じサむズ (解像床) であるこずを期埅しおいるため、次のように䜿甚できたす。 [`BeitImageProcessor`] を䜿甚しお、モデルの画像のサむズを倉曎 (たたは再スケヌル) し、正芏化したす。 - 事前トレヌニングたたは埮調敎䞭に䜿甚されるパッチ解像床ず画像解像床の䞡方が名前に反映されたす。 各チェックポむント。たずえば、`microsoft/beit-base-patch16-224`は、パッチ付きの基本サむズのアヌキテクチャを指したす。 解像床は 16x16、埮調敎解像床は 224x224 です。すべおのチェックポむントは [ハブ](https://huggingface.co/models?search=microsoft/beit) で芋぀けるこずができたす。 - 利甚可胜なチェックポむントは、(1) [ImageNet-22k](http://www.image-net.org/) で事前トレヌニングされおいたす ( 1,400 䞇の画像ず 22,000 のクラス) のみ、(2) ImageNet-22k でも埮調敎、たたは (3) [ImageNet-1k](http://www.image-net.org/challenges/LSVRC)でも埮調敎/2012/) (ILSVRC 2012 ずも呌ばれ、130 䞇件のコレクション) 画像ず 1,000 クラス)。 - BEiT は、T5 モデルからむンスピレヌションを埗た盞察䜍眮埋め蟌みを䜿甚したす。事前トレヌニング䞭に、著者は次のこずを共有したした。 いく぀かの自己泚意局間の盞察的な䜍眮の偏り。埮調敎䞭、各レむダヌの盞察䜍眮 バむアスは、事前トレヌニング埌に取埗された共有盞察䜍眮バむアスで初期化されたす。ご垌望の堎合は、 モデルを最初から事前トレヌニングするには、`use_relative_position_bias` たたは 远加するには、[`BeitConfig`] の `use_relative_position_bias` 属性を `True` に蚭定したす。 䜍眮の埋め蟌み。 <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/beit_architecture.jpg" alt="drawing" width="600"/> <small> BEiT の事前トレヌニング。 <a href="https://arxiv.org/abs/2106.08254">元の論文から抜粋。</a> </small> このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。このモデルの JAX/FLAX バヌゞョンは、 [kamalkraj](https://huggingface.co/kamalkraj) による投皿。元のコヌドは [ここ](https://github.com/microsoft/unilm/tree/master/beit) にありたす。 ## Resources BEiT の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`BeitForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 - 参照: [画像分類タスク ガむド](../tasks/image_classification) **セマンティック セグメンテヌション** - [セマンティック セグメンテヌション タスク ガむド](../tasks/semantic_segmentation) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## BEiT specific outputs [[autodoc]] models.beit.modeling_beit.BeitModelOutputWithPooling [[autodoc]] models.beit.modeling_flax_beit.FlaxBeitModelOutputWithPooling ## BeitConfig [[autodoc]] BeitConfig ## BeitFeatureExtractor [[autodoc]] BeitFeatureExtractor - __call__ - post_process_semantic_segmentation ## BeitImageProcessor [[autodoc]] BeitImageProcessor - preprocess - post_process_semantic_segmentation ## BeitModel [[autodoc]] BeitModel - forward ## BeitForMaskedImageModeling [[autodoc]] BeitForMaskedImageModeling - forward ## BeitForImageClassification [[autodoc]] BeitForImageClassification - forward ## BeitForSemanticSegmentation [[autodoc]] BeitForSemanticSegmentation - forward ## FlaxBeitModel [[autodoc]] FlaxBeitModel - __call__ ## FlaxBeitForMaskedImageModeling [[autodoc]] FlaxBeitForMaskedImageModeling - __call__ ## FlaxBeitForImageClassification [[autodoc]] FlaxBeitForImageClassification - __call__
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/convbert.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # ConvBERT <div class="flex flex-wrap space-x-1"> <a href="https://huggingface.co/models?filter=convbert"> <img alt="Models" src="https://img.shields.io/badge/All_model_pages-convbert-blueviolet"> </a> <a href="https://huggingface.co/spaces/docs-demos/conv-bert-base"> <img alt="Spaces" src="https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue"> </a> </div> ## Overview ConvBERT モデルは、[ConvBERT: Improving BERT with Span-based Dynamic Convolution](https://arxiv.org/abs/2008.02496) で Zihang Jiang、Weihao Yu、Daquan Zhou、Yunpeng Chen、Jiashi Feng、Shuicheng Yan によっお提案されたした。 やん。 論文の芁玄は次のずおりです。 *BERT やそのバリアントなどの事前トレヌニング枈み蚀語モデルは、最近、さたざたな環境で目芚たしいパフォヌマンスを達成しおいたす。 自然蚀語理解タスク。ただし、BERT はグロヌバルな自己泚意ブロックに倧きく䟝存しおいるため、問題が発生したす。 メモリ䜿甚量ず蚈算コストが倧きくなりたす。すべおの泚意が入力シヌケンス党䜓に察しおク゚リを実行したすが、 グロヌバルな芳点からアテンション マップを生成するず、䞀郚のヘッドはロヌカルな䟝存関係のみを孊習する必芁があるこずがわかりたす。 これは、蚈算の冗長性が存圚するこずを意味したす。したがっお、我々は、新しいスパンベヌスの動的畳み蟌みを提案したす。 これらのセルフアテンション ヘッドを眮き換えお、ロヌカルの䟝存関係を盎接モデル化したす。新しいコンボリュヌションヘッドず、 自己泚意の頭を䌑め、グロヌバルずロヌカルの䞡方の状況でより効率的な新しい混合泚意ブロックを圢成したす 孊ぶ。この混合泚意蚭蚈を BERT に装備し、ConvBERT モデルを構築したす。実隓でわかったこずは、 ConvBERT は、トレヌニング コストが䜎く、さたざたな䞋流タスクにおいお BERT およびその亜皮よりも倧幅に優れたパフォヌマンスを発揮したす。 モデルパラメヌタが少なくなりたす。泚目すべきこずに、ConvBERTbase モデルは 86.4 GLUE スコアを達成し、ELECTRAbase よりも 0.7 高いのに察し、 トレヌニングコストは 1/4 未満です。コヌドず事前トレヌニングされたモデルがリリヌスされたす。* このモデルは、[abhishek](https://huggingface.co/abhishek) によっお提䟛されたした。オリゞナルの実装が芋぀かりたす ここ: https://github.com/yitu-opensource/ConvBert ## Usage tips ConvBERT トレヌニングのヒントは BERT のヒントず䌌おいたす。䜿甚䞊のヒントに぀いおは、[BERT ドキュメント](bert) を参照しおください。 ## Resources - [テキスト分類タスクガむド](../tasks/sequence_classification) - [トヌクン分類タスクガむド](../tasks/token_classification) - [質問回答タスク ガむド](../tasks/question_answering) - [マスクされた蚀語モデリング タスク ガむド](../tasks/masked_lang_modeling) - [倚肢遞択タスク ガむド](../tasks/multiple_choice) ## ConvBertConfig [[autodoc]] ConvBertConfig ## ConvBertTokenizer [[autodoc]] ConvBertTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## ConvBertTokenizerFast [[autodoc]] ConvBertTokenizerFast <frameworkcontent> <pt> ## ConvBertModel [[autodoc]] ConvBertModel - forward ## ConvBertForMaskedLM [[autodoc]] ConvBertForMaskedLM - forward ## ConvBertForSequenceClassification [[autodoc]] ConvBertForSequenceClassification - forward ## ConvBertForMultipleChoice [[autodoc]] ConvBertForMultipleChoice - forward ## ConvBertForTokenClassification [[autodoc]] ConvBertForTokenClassification - forward ## ConvBertForQuestionAnswering [[autodoc]] ConvBertForQuestionAnswering - forward </pt> <tf> ## TFConvBertModel [[autodoc]] TFConvBertModel - call ## TFConvBertForMaskedLM [[autodoc]] TFConvBertForMaskedLM - call ## TFConvBertForSequenceClassification [[autodoc]] TFConvBertForSequenceClassification - call ## TFConvBertForMultipleChoice [[autodoc]] TFConvBertForMultipleChoice - call ## TFConvBertForTokenClassification [[autodoc]] TFConvBertForTokenClassification - call ## TFConvBertForQuestionAnswering [[autodoc]] TFConvBertForQuestionAnswering - call </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/deformable_detr.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Deformable DETR ## Overview 倉圢可胜 DETR モデルは、Xizhou Zhu、Weijie Su、Lewei Lu、Bin Li、Xiaogang Wang, Jifeng Dai によっお [Deformable DETR: Deformable Transformers for End-to-End Object Detection](https://arxiv.org/abs/2010.04159) で提案されたした 倉圢可胜な DETR は、参照呚囲の少数の䞻芁なサンプリング ポむントのみに泚目する新しい倉圢可胜なアテンション モゞュヌルを利甚するこずにより、収束の遅さの問題ず元の [DETR](detr) の制限された特城の空間解像床を軜枛したす。 論文の芁玄は次のずおりです。 *DETR は、優れたパフォヌマンスを実蚌しながら、物䜓怜出における倚くの手䜜業で蚭蚈されたコンポヌネントの必芁性を排陀するために最近提案されたした。ただし、画像特城マップの凊理における Transformer アテンション モゞュヌルの制限により、収束が遅く、特城の空間解像床が制限されるずいう問題がありたす。これらの問題を軜枛するために、私たちは Deformable DETR を提案したした。この DETR のアテンション モゞュヌルは、参照呚囲の少数の䞻芁なサンプリング ポむントのみに泚目したす。倉圢可胜な DETR は、10 分の 1 のトレヌニング ゚ポックで、DETR よりも優れたパフォヌマンス (特に小さなオブゞェクトの堎合) を達成できたす。 COCO ベンチマヌクに関する広範な実隓により、私たちのアプロヌチの有効性が実蚌されたした。* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/deformable_detr_architecture.png" alt="描画" width="600"/> <small> 倉圢可胜な DETR アヌキテクチャ。 <a href="https://arxiv.org/abs/2010.04159">元の論文</a>から抜粋。</small> このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。元のコヌドは [ここ](https://github.com/fundamentalvision/Deformable-DETR) にありたす。 ## Usage tips - トレヌニング Deformable DETR は、元の [DETR](detr) モデルをトレヌニングするこずず同等です。デモ ノヌトブックに぀いおは、以䞋の [resources](#resources) セクションを参照しおください。 ## Resources Deformable DETR の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺される) リ゜ヌスのリスト。 <PipelineTag pipeline="object-detection"/> - [`DeformableDetrForObjectDetection`] のカスタム デヌタセットでの掚論ず埮調敎に関するデモ ノヌトブックは、[こちら](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/Deformable-DETR) にありたす。 - [物䜓怜出タスクガむド](../tasks/object_detection) も参照しおください。 ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## DeformableDetrImageProcessor [[autodoc]] DeformableDetrImageProcessor - preprocess - post_process_object_detection ## DeformableDetrFeatureExtractor [[autodoc]] DeformableDetrFeatureExtractor - __call__ - post_process_object_detection ## DeformableDetrConfig [[autodoc]] DeformableDetrConfig ## DeformableDetrModel [[autodoc]] DeformableDetrModel - forward ## DeformableDetrForObjectDetection [[autodoc]] DeformableDetrForObjectDetection - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/barthez.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BARThez ## Overview BARThez モデルは、Moussa Kamal Eddine、Antoine J.-P によっお [BARThez: a Skilled Pretrained French Sequence-to-Sequence Model](https://arxiv.org/abs/2010.12321) で提案されたした。ティクシ゚、ミカリス・ノァゞルゞャンニス、10月23日、 2020幎。 論文の芁玄: *垰玍的転移孊習は、自己教垫あり孊習によっお可胜になり、自然蚀語凊理党䜓を実行したす。 (NLP) 分野は、BERT や BART などのモデルにより、無数の自然蚀語に新たな最先端技術を確立し、嵐を巻き起こしおいたす。 タスクを理解するこず。いく぀かの泚目すべき䟋倖はありたすが、利甚可胜なモデルず研究のほずんどは、 英語を察象に実斜されたした。この䜜品では、フランス語甚の最初の BART モデルである BARTez を玹介したす。 我々の知る限りに。 BARThez は、過去の研究から埗た非垞に倧芏暡な単䞀蚀語フランス語コヌパスで事前トレヌニングされたした BART の摂動スキヌムに合わせお調敎したした。既存の BERT ベヌスのフランス語モデルずは異なり、 CamemBERT ず FlauBERT、BARThez は、゚ンコヌダだけでなく、 そのデコヌダは事前トレヌニングされおいたす。 FLUE ベンチマヌクからの識別タスクに加えお、BARThez を新しい評䟡に基づいお評䟡したす。 この論文ずずもにリリヌスする芁玄デヌタセット、OrangeSum。たた、すでに行われおいる事前トレヌニングも継続したす。 BARTHez のコヌパス䞊で倚蚀語 BART を事前蚓緎し、結果ずしお埗られるモデル (mBARTHez ず呌ぶ) が次のこずを瀺したす。 バニラの BARThez を倧幅に匷化し、CamemBERT や FlauBERT ず同等かそれを䞊回りたす。* このモデルは [moussakam](https://huggingface.co/moussakam) によっお寄皿されたした。著者のコヌドは[ここ](https://github.com/moussaKam/BARThez)にありたす。 <Tip> BARThez の実装は、トヌクン化を陀いお BART ず同じです。詳现に぀いおは、[BART ドキュメント](bart) を参照しおください。 構成クラスずそのパラメヌタ。 BARThez 固有のトヌクナむザヌに぀いおは以䞋に蚘茉されおいたす。 </Tip> ### Resources - BARThez は、BART ず同様の方法でシヌケンス間のタスクを埮調敎できたす。以䞋を確認しおください。 [examples/pytorch/summarization/](https://github.com/huggingface/transformers/tree/main/examples/pytorch/summarization/README.md)。 ## BarthezTokenizer [[autodoc]] BarthezTokenizer ## BarthezTokenizerFast [[autodoc]] BarthezTokenizerFast
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/convnextv2.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # ConvNeXt V2 ## Overview ConvNeXt V2 モデルは、Sanghyun Woo、Shobhik Debnath、Ronghang Hu、Xinlei Chen、Zhuang Liu, In So Kweon, Saining Xie. によっお [ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders](https://arxiv.org/abs/2301.00808) で提案されたした。 ConvNeXt V2 は、Vision Transformers の蚭蚈からむンスピレヌションを埗た玔粋な畳み蟌みモデル (ConvNet) であり、[ConvNeXT](convnext) の埌継です。 論文の芁玄は次のずおりです。 *アヌキテクチャの改善ず衚珟孊習フレヌムワヌクの改善により、芖芚認識の分野は 2020 幎代初頭に急速な近代化ずパフォヌマンスの向䞊を実珟したした。たずえば、ConvNeXt に代衚される最新の ConvNet は、さたざたなシナリオで匷力なパフォヌマンスを実蚌しおいたす。これらのモデルはもずもず ImageNet ラベルを䜿甚した教垫あり孊習甚に蚭蚈されたしたが、マスク オヌト゚ンコヌダヌ (MAE) などの自己教垫あり孊習手法からも朜圚的に恩恵を受けるこずができたす。ただし、これら 2 ぀のアプロヌチを単玔に組み合わせるず、パフォヌマンスが暙準以䞋になるこずがわかりたした。この論文では、完党畳み蟌みマスク オヌト゚ンコヌダ フレヌムワヌクず、チャネル間の機胜競合を匷化するために ConvNeXt アヌキテクチャに远加できる新しい Global Response Normalization (GRN) 局を提案したす。この自己教垫あり孊習手法ずアヌキテクチャの改善の共同蚭蚈により、ConvNeXt V2 ず呌ばれる新しいモデル ファミリが誕生したした。これにより、ImageNet 分類、COCO 怜出、ADE20K セグメンテヌションなどのさたざたな認識ベンチマヌクにおける玔粋な ConvNet のパフォヌマンスが倧幅に向䞊したす。たた、ImageNet でトップ 1 の粟床 76.7% を誇る効率的な 370 䞇パラメヌタの Atto モデルから、最先端の 88.9% を達成する 650M Huge モデルたで、さたざたなサむズの事前トレヌニング枈み ConvNeXt V2 モデルも提䟛しおいたす。公開トレヌニング デヌタのみを䜿甚した粟床*。 <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/convnextv2_architecture.png" alt="描画" width="600"/> <small> ConvNeXt V2 アヌキテクチャ。 <a href="https://arxiv.org/abs/2301.00808">元の論文</a>から抜粋。</small> このモデルは [adirik](https://huggingface.co/adirik) によっお提䟛されたした。元のコヌドは [こちら](https://github.com/facebookresearch/ConvNeXt-V2) にありたす。 ## Resources ConvNeXt V2 の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺される) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`ConvNextV2ForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## ConvNextV2Config [[autodoc]] ConvNextV2Config ## ConvNextV2Model [[autodoc]] ConvNextV2Model - forward ## ConvNextV2ForImageClassification [[autodoc]] ConvNextV2ForImageClassification - forward ## TFConvNextV2Model [[autodoc]] TFConvNextV2Model - call ## TFConvNextV2ForImageClassification [[autodoc]] TFConvNextV2ForImageClassification - call
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/deta.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # DETA ## Overview DETA モデルは、[NMS Strikes Back](https://arxiv.org/abs/2212.06137) で Jeffrey Ouyang-Zhang、Jang Hyun Cho、Xingyi Zhou、Philipp KrÀhenbÃŒhl によっお提案されたした。 DETA (Detection Transformers with Assignment の略) は、1 察 1 の 2 郚ハンガリアン マッチング損倱を眮き換えるこずにより、[Deformable DETR](deformable_detr) を改善したす。 非最倧抑制 (NMS) を備えた埓来の怜出噚で䜿甚される 1 察倚のラベル割り圓おを䜿甚したす。これにより、最倧 2.5 mAP の倧幅な増加が埗られたす。 論文の芁玄は次のずおりです。 *Detection Transformer (DETR) は、トレヌニング䞭に 1 察 1 の 2 郚マッチングを䜿甚しおク゚リを䞀意のオブゞェクトに盎接倉換し、゚ンドツヌ゚ンドのオブゞェクト怜出を可胜にしたす。最近、これらのモデルは、玛れもない優雅さで COCO の埓来の怜出噚を䞊回りたした。ただし、モデル アヌキテクチャやトレヌニング スケゞュヌルなど、さたざたな蚭蚈においお埓来の怜出噚ずは異なるため、1 察 1 マッチングの有効性は完党には理解されおいたせん。この研究では、DETR での 1 察 1 のハンガリヌ語マッチングず、非最倧監芖 (NMS) を備えた埓来の怜出噚での 1 察倚のラベル割り圓おずの間の厳密な比范を行いたす。驚くべきこずに、NMS を䜿甚した 1 察倚の割り圓おは、同じ蚭定の䞋で暙準的な 1 察 1 のマッチングよりも䞀貫しお優れおおり、最倧 2.5 mAP ずいう倧幅な向䞊が芋られたす。埓来の IoU ベヌスのラベル割り圓おを䜿甚しお Deformable-DETR をトレヌニングする圓瀟の怜出噚は、ResNet50 バックボヌンを䜿甚しお 12 ゚ポック (1x スケゞュヌル) 以内に 50.2 COCO mAP を達成し、この蚭定で既存のすべおの埓来の怜出噚たたはトランスベヌスの怜出噚を䞊回りたした。耇数のデヌタセット、スケゞュヌル、アヌキテクチャに関しお、私たちは䞀貫しお、パフォヌマンスの高い怜出トランスフォヌマヌには二郚マッチングが䞍芁であるこずを瀺しおいたす。さらに、怜出トランスの成功は、衚珟力豊かなトランス アヌキテクチャによるものであるず考えおいたす。* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/deta_architecture.jpg" alt="drawing" width="600"/> <small> DETA の抂芁。 <a href="https://arxiv.org/abs/2212.06137">元の論文</a>から抜粋。 </small> このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。 元のコヌドは [ここ](https://github.com/jozhang97/DETA) にありたす。 ## Resources DETA の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 - DETA のデモ ノヌトブックは [こちら](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/DETA) にありたす。 - 参照: [オブゞェクト怜出タスク ガむド](../tasks/object_detection) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## DetaConfig [[autodoc]] DetaConfig ## DetaImageProcessor [[autodoc]] DetaImageProcessor - preprocess - post_process_object_detection ## DetaModel [[autodoc]] DetaModel - forward ## DetaForObjectDetection [[autodoc]] DetaForObjectDetection - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/codegen.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CodeGen ## Overview CodeGen モデルは、[A Conversational Paradigm for Program Synthesis](https://arxiv.org/abs/2203.13474) で Erik Nijkamp、Bo Pang、林宏明、Lifu Tu、Huan Wang、Yingbo Zhou、Silvio Savarese、Caiming Xiong およびカむミン・ションさん。 CodeGen は、[The Pile](https://pile.eleuther.ai/)、BigQuery、BigPython で順次トレヌニングされたプログラム合成甚の自己回垰蚀語モデルです。 論文の芁玄は次のずおりです。 *プログラム合成は、䞎えられた問題仕様の解決策ずしおコンピュヌタヌ プログラムを生成するこずを目的ずしおいたす。我々は、倧芏暡な蚀語モデルを介した䌚話型プログラム合成アプロヌチを提案したす。これは、埓来のアプロヌチで盎面した広倧なプログラム空間ずナヌザヌの意図の仕様を怜玢するずいう課題に察凊したす。私たちの新しいアプロヌチでは、仕様ずプログラムを䜜成するプロセスを、ナヌザヌずシステムの間の耇数回の察話ずしお捉えたす。これはプログラム合成をシヌケンス予枬問題ずしお扱い、仕様が自然蚀語で衚珟され、目的のプログラムが条件付きでサンプリングされたす。私たちは、自然蚀語ずプログラミング蚀語のデヌタに基づいお、CodeGen ず呌ばれる倧芏暡な蚀語モデルのファミリヌをトレヌニングしたす。デヌタの監芖が匱く、デヌタ サむズずモデル サむズが拡倧するず、単玔な自己回垰蚀語モデリングから䌚話胜力が生たれたす。䌚話型プログラム合成におけるモデルの動䜜を研究するために、マルチタヌン プログラミング ベンチマヌク (MTPB) を開発したす。このベンチマヌクでは、各問題を解決するには、ナヌザヌずモデル間のマルチタヌン䌚話を介したマルチステップ合成が必芁です。私たちの調査結果は、䌚話機胜の出珟ず、提案されおいる䌚話プログラム合成パラダむムの有効性を瀺しおいたす。さらに、私たちのモデル CodeGen (TPU-v4 でトレヌニングされた最倧 16B パラメヌタヌを含む) は、HumanEval ベンチマヌクで OpenAI の Codex を䞊回りたす。私たちはチェックポむントを含むトレヌニング ラむブラリ JaxFormer をオヌプン ゜ヌスのコントリビュヌションずしお利甚できるようにしおいたす: [この https URL](https://github.com/salesforce/codegen)*。 このモデルは [林 宏明](https://huggingface.co/rooa) によっお寄皿されたした。 元のコヌドは [ここ](https://github.com/salesforce/codegen) にありたす。 ## Checkpoint Naming * CodeGen モデル [チェックポむント](https://huggingface.co/models?other=codegen) は、可倉サむズのさたざたな事前トレヌニング デヌタで利甚できたす。 * 圢匏は「Salesforce/codegen-{size}-{data}」です。ここで、 * `size`: `350M`、`2B`、`6B`、`16B` * `data`: * `nl`: パむルで事前トレヌニング枈み * `multi`: `nl` で初期化され、耇数のプログラミング蚀語デヌタでさらに事前トレヌニングされたす。 * `mono`: `multi` で初期化され、Python デヌタでさらに事前トレヌニングされたす。 * たずえば、`Salesforce/codegen-350M-mono` は、Pile、耇数のプログラミング蚀語、および Python で順次事前トレヌニングされた 3 億 5,000 䞇のパラメヌタヌのチェックポむントを提䟛したす。 ## Usage example ```python >>> from transformers import AutoModelForCausalLM, AutoTokenizer >>> checkpoint = "Salesforce/codegen-350M-mono" >>> model = AutoModelForCausalLM.from_pretrained(checkpoint) >>> tokenizer = AutoTokenizer.from_pretrained(checkpoint) >>> text = "def hello_world():" >>> completion = model.generate(**tokenizer(text, return_tensors="pt")) >>> print(tokenizer.decode(completion[0])) def hello_world(): print("Hello World") hello_world() ``` ## Resources - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) ## CodeGenConfig [[autodoc]] CodeGenConfig - all ## CodeGenTokenizer [[autodoc]] CodeGenTokenizer - save_vocabulary ## CodeGenTokenizerFast [[autodoc]] CodeGenTokenizerFast ## CodeGenModel [[autodoc]] CodeGenModel - forward ## CodeGenForCausalLM [[autodoc]] CodeGenForCausalLM - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/cvt.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Convolutional Vision Transformer (CvT) ## Overview CvT モデルは、Haping Wu、Bin Xiao、Noel Codella、Mengchen Liu、Xiyang Dai、Lu Yuan、Lei Zhang によっお [CvT: Introduction Convolutions to Vision Transformers](https://arxiv.org/abs/2103.15808) で提案されたした。畳み蟌みビゞョン トランスフォヌマヌ (CvT) は、ViT に畳み蟌みを導入しお䞡方の蚭蚈の長所を匕き出すこずにより、[ビゞョン トランスフォヌマヌ (ViT)](vit) のパフォヌマンスず効率を向䞊させたす。 論文の芁玄は次のずおりです。 *この論文では、ビゞョン トランスフォヌマヌ (ViT) を改善する、畳み蟌みビゞョン トランスフォヌマヌ (CvT) ず呌ばれる新しいアヌキテクチャを玹介したす。 ViT に畳み蟌みを導入しお䞡方の蚭蚈の長所を匕き出すこずで、パフォヌマンスず効率を向䞊させたす。これは次のようにしお実珟されたす。 2 ぀の䞻芁な倉曎: 新しい畳み蟌みトヌクンの埋め蟌みを含むトランスフォヌマヌの階局ず、畳み蟌みトランスフォヌマヌ 畳み蟌み射圱を利甚したブロック。これらの倉曎により、畳み蟌みニュヌラル ネットワヌク (CNN) の望たしい特性が導入されたす。 トランスフォヌマヌの利点 (動的な泚意力、 グロヌバルなコンテキストずより良い䞀般化)。私たちは広範な実隓を実斜するこずで CvT を怜蚌し、このアプロヌチが達成できるこずを瀺しおいたす。 ImageNet-1k 䞊の他のビゞョン トランスフォヌマヌや ResNet よりも、パラメヌタが少なく、FLOP が䜎い、最先端のパフォヌマンスを実珟したす。加えお、 より倧きなデヌタセット (䟋: ImageNet-22k) で事前トレヌニングし、䞋流のタスクに合わせお埮調敎するず、パフォヌマンスの向䞊が維持されたす。事前トレヌニング枈み ImageNet-22k、圓瀟の CvT-W24 は、ImageNet-1k val set で 87.7\% ずいうトップ 1 の粟床を獲埗しおいたす。最埌に、私たちの結果は、䜍眮゚ンコヌディングが、 既存のビゞョン トランスフォヌマヌの重芁なコンポヌネントであるこのコンポヌネントは、モデルでは安党に削陀できるため、高解像床のビゞョン タスクの蚭蚈が簡玠化されたす。* このモデルは [anugunj](https://huggingface.co/anugunj) によっお提䟛されたした。元のコヌドは [ここ](https://github.com/microsoft/CvT) にありたす。 ## Usage tips - CvT モデルは通垞の Vision Transformer ですが、畳み蟌みでトレヌニングされおいたす。 ImageNet-1K および CIFAR-100 で埮調敎するず、[オリゞナル モデル (ViT)](vit) よりも優れたパフォヌマンスを発揮したす。 - カスタム デヌタの埮調敎だけでなく掚論に関するデモ ノヌトブックも [ここ](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/VisionTransformer) で確認できたす ([`ViTFeatureExtractor を眮き換えるだけで枈みたす) `] による [`AutoImageProcessor`] および [`ViTForImageClassification`] による [`CvtForImageClassification`])。 - 利甚可胜なチェックポむントは、(1) [ImageNet-22k](http://www.image-net.org/) (1,400 䞇の画像ず 22,000 のクラスのコレクション) でのみ事前トレヌニングされおいる、(2) も問題ありたせん。 ImageNet-22k で調敎、たたは (3) [ImageNet-1k](http://www.image-net.org/challenges/LSVRC/2012/) (ILSVRC 2012 ずも呌ばれるコレクション) でも埮調敎130䞇の 画像ず 1,000 クラス)。 ## Resources CvT を始めるのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺される) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`CvtForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 - 参照: [画像分類タスク ガむド](../tasks/image_classification) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## CvtConfig [[autodoc]] CvtConfig <frameworkcontent> <pt> ## CvtModel [[autodoc]] CvtModel - forward ## CvtForImageClassification [[autodoc]] CvtForImageClassification - forward </pt> <tf> ## TFCvtModel [[autodoc]] TFCvtModel - call ## TFCvtForImageClassification [[autodoc]] TFCvtForImageClassification - call </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bert-generation.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BertGeneration ## Overview BertGeneration モデルは、次を䜿甚しおシヌケンス間のタスクに利甚できる BERT モデルです。 [Leveraging Pre-trained Checkpoints for Sequence Generation Tasks](https://arxiv.org/abs/1907.12461) で提案されおいる [`EncoderDecoderModel`] タスク、Sascha Rothe、Sishi Nagayan、Aliaksei Severyn 著。 論文の芁玄は次のずおりです。 *倧芏暡なニュヌラル モデルの教垫なし事前トレヌニングは、最近、自然蚀語凊理に革呜をもたらしたした。による NLP 実践者は、公開されたチェックポむントからりォヌムスタヌトしお、耇数の項目で最先端の技術を掚進しおきたした。 コンピュヌティング時間を倧幅に節玄しながらベンチマヌクを実行したす。これたでのずころ、䞻に自然蚀語に焊点を圓おおきたした。 タスクを理解する。この論文では、シヌケンス生成のための事前トレヌニングされたチェックポむントの有効性を実蚌したす。私たちは 公開されおいる事前トレヌニング枈み BERT ず互換性のある Transformer ベヌスのシヌケンス間モデルを開発したした。 GPT-2 および RoBERTa チェックポむントを䜿甚し、モデルの初期化の有甚性に぀いお広範な実蚌研究を実斜したした。 ゚ンコヌダずデコヌダ、これらのチェックポむント。私たちのモデルは、機械翻蚳に関する新しい最先端の結果をもたらしたす。 テキストの芁玄、文の分割、および文の融合。* ## Usage examples and tips - モデルを [`EncoderDecoderModel`] ず組み合わせお䜿甚​​しお、2 ぀の事前トレヌニングされたモデルを掻甚できたす。 埌続の埮調敎のための BERT チェックポむント。 ```python >>> # leverage checkpoints for Bert2Bert model... >>> # use BERT's cls token as BOS token and sep token as EOS token >>> encoder = BertGenerationEncoder.from_pretrained("google-bert/bert-large-uncased", bos_token_id=101, eos_token_id=102) >>> # add cross attention layers and use BERT's cls token as BOS token and sep token as EOS token >>> decoder = BertGenerationDecoder.from_pretrained( ... "google-bert/bert-large-uncased", add_cross_attention=True, is_decoder=True, bos_token_id=101, eos_token_id=102 ... ) >>> bert2bert = EncoderDecoderModel(encoder=encoder, decoder=decoder) >>> # create tokenizer... >>> tokenizer = BertTokenizer.from_pretrained("google-bert/bert-large-uncased") >>> input_ids = tokenizer( ... "This is a long article to summarize", add_special_tokens=False, return_tensors="pt" ... ).input_ids >>> labels = tokenizer("This is a short summary", return_tensors="pt").input_ids >>> # train... >>> loss = bert2bert(input_ids=input_ids, decoder_input_ids=labels, labels=labels).loss >>> loss.backward() ``` - 事前トレヌニングされた [`EncoderDecoderModel`] もモデル ハブで盎接利甚できたす。 ```python >>> # instantiate sentence fusion model >>> sentence_fuser = EncoderDecoderModel.from_pretrained("google/roberta2roberta_L-24_discofuse") >>> tokenizer = AutoTokenizer.from_pretrained("google/roberta2roberta_L-24_discofuse") >>> input_ids = tokenizer( ... "This is the first sentence. This is the second sentence.", add_special_tokens=False, return_tensors="pt" ... ).input_ids >>> outputs = sentence_fuser.generate(input_ids) >>> print(tokenizer.decode(outputs[0])) ``` チップ - [`BertGenerationEncoder`] ず [`BertGenerationDecoder`] は、 [`EncoderDecoder`] ず組み合わせたす。 - 芁玄、文の分割、文の融合、および翻蚳の堎合、入力に特別なトヌクンは必芁ありたせん。 したがっお、入力の末尟に EOS トヌクンを远加しないでください。 このモデルは、[patrickvonplaten](https://huggingface.co/patrickvonplaten) によっお提䟛されたした。元のコヌドは次のずおりです [ここ](https://tfhub.dev/s?module-type=text-generation&subtype=module,placeholder) がありたす。 ## BertGenerationConfig [[autodoc]] BertGenerationConfig ## BertGenerationTokenizer [[autodoc]] BertGenerationTokenizer - save_vocabulary ## BertGenerationEncoder [[autodoc]] BertGenerationEncoder - forward ## BertGenerationDecoder [[autodoc]] BertGenerationDecoder - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/dialogpt.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # DialoGPT ## Overview DialoGPT は、[DialoGPT: Large-Scale Generative Pre-training for Conversational Response Generation](https://arxiv.org/abs/1911.00536) で Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, Bill Dolan.これは、から抜出された 147M 䞇の䌚話のようなやりずりでトレヌニングされた GPT2 モデルです。 レディット。 論文の芁玄は次のずおりです。 *私たちは、倧芏暡で調敎可胜なニュヌラル䌚話応答生成モデル DialoGPT (察話生成事前トレヌニング枈み) を玹介したす。 倉成噚。 Reddit のコメント チェヌンから抜出された 1 億 4,700 䞇件の䌚話のようなやり取りを察象にトレヌニングされたした。 2005 幎から 2017 幎にかけお、DialoGPT は人間に近いパフォヌマンスを達成するために Hugging Face PyTorch トランスフォヌマヌを拡匵したした。 シングルタヌンダむアログ蚭定における自動評䟡ず人間による評䟡の䞡方。䌚話システムが DialoGPT を掻甚するず、匷力なベヌスラむンよりも関連性が高く、内容が充実し、コンテキストに䞀貫性のある応答が生成されたす。 システム。神経反応の研究を促進するために、事前トレヌニングされたモデルずトレヌニング パむプラむンが公開されおいたす。 よりむンテリゞェントなオヌプンドメむン察話システムの生成ず開発。* 元のコヌドは [ここ](https://github.com/microsoft/DialoGPT) にありたす。 ## Usage tips - DialoGPT は絶察䜍眮埋め蟌みを備えたモデルであるため、通垞は入力を右偎にパディングするこずをお勧めしたす。 巊よりも。 - DialoGPT は、䌚話デヌタの因果蚀語モデリング (CLM) 目暙に基づいおトレヌニングされおいるため、匷力です オヌプンドメむン察話システムにおける応答生成時。 - DialoGPT を䜿甚するず、[DialoGPT's model card](https://huggingface.co/microsoft/DialoGPT-medium) に瀺されおいるように、ナヌザヌはわずか 10 行のコヌドでチャット ボットを䜜成できたす。 トレヌニング DialoGPT をトレヌニングたたは埮調敎するには、因果蚀語モデリング トレヌニングを䜿甚できたす。公匏論文を匕甚するず *私たちは OpenAI GPT-2に埓っお、マルチタヌン察話セッションを長いテキストずしおモデル化し、生成タスクを蚀語ずしおフレヌム化したす モデリング。たず、ダむアログ セッション内のすべおのダむアログ タヌンを長いテキスト x_1,..., x_N に連結したす (N は * 詳现に぀いおは、元の論文を参照しおください。 <Tip> DialoGPT のアヌキテクチャは GPT2 モデルに基づいおいたす。API リファレンスず䟋に぀いおは、[GPT2 のドキュメント ペヌゞ](openai-community/gpt2) を参照しおください。 </Tip>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/convnext.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # ConvNeXT ## Overview ConvNeXT モデルは、[A ConvNet for the 2020s](https://arxiv.org/abs/2201.03545) で Zhuang Liu、Hanzi Mao、Chao-Yuan Wu、Christoph Feichtenhofer、Trevor Darrell、Saining Xie によっお提案されたした。 ConvNeXT は、ビゞョン トランスフォヌマヌの蚭蚈からむンスピレヌションを埗た玔粋な畳み蟌みモデル (ConvNet) であり、ビゞョン トランスフォヌマヌよりも優れたパフォヌマンスを発揮するず䞻匵しおいたす。 論文の芁玄は次のずおりです。 *芖芚認識の「狂隒の 20 幎代」は、最先端の画像分類モデルずしお ConvNet にすぐに取っお代わられた Vision Transformers (ViT) の導入から始たりたした。 䞀方、バニラ ViT は、オブゞェクト怜出やセマンティック セグメンテヌションなどの䞀般的なコンピュヌタヌ ビゞョン タスクに適甚するず困難に盎面したす。階局型トランスフォヌマヌです (Swin Transformers など) は、いく぀かの ConvNet の以前の機胜を再導入し、Transformers を汎甚ビゞョン バックボヌンずしお実甚的に可胜にし、幅広い環境で顕著なパフォヌマンスを実蚌したした。 さたざたな芖芚タスク。ただし、このようなハむブリッド アプロヌチの有効性は、䟝然ずしお、固有の誘導性ではなく、トランスフォヌマヌの本質的な優䜍性によるずころが倧きいず考えられおいたす。 畳み蟌みのバむアス。この䜜業では、蚭蚈空間を再怜蚎し、玔粋な ConvNet が達成できる限界をテストしたす。暙準 ResNet を蚭蚈に向けお埐々に「最新化」したす。 ビゞョン Transformer の抂芁を確認し、途䞭でパフォヌマンスの違いに寄䞎するいく぀かの重芁なコンポヌネントを発芋したす。この調査の結果は、玔粋な ConvNet モデルのファミリヌです。 ConvNextず呌ばれたす。 ConvNeXts は完党に暙準の ConvNet モゞュヌルから構築されおおり、粟床ず拡匵性の点で Transformers ず有利に競合し、87.8% の ImageNet トップ 1 粟床を達成しおいたす。 暙準 ConvNet のシンプルさず効率を維持しながら、COCO 怜出ず ADE20K セグメンテヌションでは Swin Transformers よりも優れたパフォヌマンスを発揮したす。* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/convnext_architecture.jpg" alt="描画" width="600"/> <small> ConvNeXT アヌキテクチャ。 <a href="https://arxiv.org/abs/2201.03545">元の論文</a>から抜粋。</small> このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。 TensorFlow バヌゞョンのモデルは [ariG23498](https://github.com/ariG23498) によっお提䟛されたした。 [gante](https://github.com/gante)、および [sayakpaul](https://github.com/sayakpaul) (同等の貢献)。元のコヌドは [こちら](https://github.com/facebookresearch/ConvNeXt) にありたす。 ## Resources ConvNeXT の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺される) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`ConvNextForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 - 参照: [画像分類タスク ガむド](../tasks/image_classification) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## ConvNextConfig [[autodoc]] ConvNextConfig ## ConvNextFeatureExtractor [[autodoc]] ConvNextFeatureExtractor ## ConvNextImageProcessor [[autodoc]] ConvNextImageProcessor - preprocess <frameworkcontent> <pt> ## ConvNextModel [[autodoc]] ConvNextModel - forward ## ConvNextForImageClassification [[autodoc]] ConvNextForImageClassification - forward </pt> <tf> ## TFConvNextModel [[autodoc]] TFConvNextModel - call ## TFConvNextForImageClassification [[autodoc]] TFConvNextForImageClassification - call </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/albert.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # ALBERT <div class="flex flex-wrap space-x-1"> <a href="https://huggingface.co/models?filter=albert"> <img alt="Models" src="https://img.shields.io/badge/All_model_pages-albert-blueviolet"> </a> <a href="https://huggingface.co/spaces/docs-demos/albert-base-v2"> <img alt="Spaces" src="https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue"> </a> </div> ## 抂芁 ALBERTモデルは、「[ALBERT: A Lite BERT for Self-supervised Learning of Language Representations](https://arxiv.org/abs/1909.11942)」ずいう論文でZhenzhong Lan、Mingda Chen、Sebastian Goodman、Kevin Gimpel、Piyush Sharma、Radu Soricutによっお提案されたした。BERTのメモリ消費を枛らしトレヌニングを高速化するためのパラメヌタ削枛技術を2぀瀺しおいたす - 埋め蟌み行列を2぀の小さな行列に分割する。 - グルヌプ間で分割された繰り返し局を䜿甚する。 論文の芁旚は以䞋の通りです *自然蚀語衚珟の事前孊習時にモデルのサむズを増やすず、䞋流タスクのパフォヌマンスが向䞊するこずがしばしばありたす。しかし、ある時点でさらなるモデルの増倧は、GPU/TPUのメモリ制限、長い蚓緎時間、予期せぬモデルの劣化ずいった問題のために困難になりたす。これらの問題に察凊するために、我々はBERTのメモリ消費を䜎枛し、蚓緎速床を高めるための2぀のパラメヌタ削枛技術を提案したす。包括的な実蚌的蚌拠は、我々の提案方法が元のBERTに比べおはるかによくスケヌルするモデルを生み出すこずを瀺しおいたす。たた、文間の䞀貫性をモデリングに焊点を圓おた自己教垫あり損倱を䜿甚し、耇数の文が含たれる䞋流タスクに䞀貫しお助けずなるこずを瀺したす。その結果、我々の最良のモデルは、BERT-largeに比べおパラメヌタが少ないにもかかわらず、GLUE、RACE、SQuADベンチマヌクで新たな最先端の結果を確立したす。* このモデルは[lysandre](https://huggingface.co/lysandre)により提䟛されたした。このモデルのjaxバヌゞョンは[kamalkraj](https://huggingface.co/kamalkraj)により提䟛されたした。オリゞナルのコヌドは[こちら](https://github.com/google-research/ALBERT)で芋るこずができたす。 ## 䜿甚䞊のヒント - ALBERTは絶察䜍眮埋め蟌みを䜿甚するモデルなので、通垞、入力を巊偎ではなく右偎にパディングするこずが掚奚されたす。 - ALBERTは繰り返し局を䜿甚するためメモリ䜿甚量は小さくなりたすが、同じ数の繰り返し局を反埩しなければならないため、隠れ局の数が同じであればBERTのようなアヌキテクチャず同様の蚈算コストがかかりたす。 - 埋め蟌みサむズEは隠れサむズHず異なりたすが、これは埋め蟌みが文脈に䟝存しない䞀぀の埋め蟌みベクトルが䞀぀のトヌクンを衚すのに察し、隠れ状態は文脈に䟝存する1぀の隠れ状態がトヌクン系列を衚すため、H >> Eずするこずがより論理的です。たた、埋め蟌み行列のサむズはV x Eず倧きいですVは語圙サむズ。E < Hであれば、パラメヌタは少なくなりたす。 - 局はパラメヌタを共有するグルヌプに分割されおいたすメモリ節玄のため。次文予枬NSP: Next Sentence Predictionは文の順序予枬に眮き換えられたす入力では、2぀の文AずBそれらは連続しおいるがあり、Aに続いおBを䞎えるか、Bに続いおAを䞎えたす。モデルはそれらが入れ替わっおいるかどうかを予枬する必芁がありたす。 ## 参考資料 - [テキスト分類タスクガむド](../tasks/sequence_classification) - [トヌクン分類タスクガむド](../tasks/token_classification) - [質問応答タスクガむド](../tasks/question_answering) - [マスクされた蚀語モデルタスクガむド](../tasks/masked_language_modeling) - [倚肢遞択タスクガむド](../tasks/multiple_choice) ## AlbertConfig [[autodoc]] AlbertConfig ## AlbertTokenizer [[autodoc]] AlbertTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## AlbertTokenizerFast [[autodoc]] AlbertTokenizerFast ## Albert specific outputs [[autodoc]] models.albert.modeling_albert.AlbertForPreTrainingOutput [[autodoc]] models.albert.modeling_tf_albert.TFAlbertForPreTrainingOutput <frameworkcontent> <pt> ## AlbertModel [[autodoc]] AlbertModel - forward ## AlbertForPreTraining [[autodoc]] AlbertForPreTraining - forward ## AlbertForMaskedLM [[autodoc]] AlbertForMaskedLM - forward ## AlbertForSequenceClassification [[autodoc]] AlbertForSequenceClassification - forward ## AlbertForMultipleChoice [[autodoc]] AlbertForMultipleChoice ## AlbertForTokenClassification [[autodoc]] AlbertForTokenClassification - forward ## AlbertForQuestionAnswering [[autodoc]] AlbertForQuestionAnswering - forward </pt> <tf> ## TFAlbertModel [[autodoc]] TFAlbertModel - call ## TFAlbertForPreTraining [[autodoc]] TFAlbertForPreTraining - call ## TFAlbertForMaskedLM [[autodoc]] TFAlbertForMaskedLM - call ## TFAlbertForSequenceClassification [[autodoc]] TFAlbertForSequenceClassification - call ## TFAlbertForMultipleChoice [[autodoc]] TFAlbertForMultipleChoice - call ## TFAlbertForTokenClassification [[autodoc]] TFAlbertForTokenClassification - call ## TFAlbertForQuestionAnswering [[autodoc]] TFAlbertForQuestionAnswering - call </tf> <jax> ## FlaxAlbertModel [[autodoc]] FlaxAlbertModel - __call__ ## FlaxAlbertForPreTraining [[autodoc]] FlaxAlbertForPreTraining - __call__ ## FlaxAlbertForMaskedLM [[autodoc]] FlaxAlbertForMaskedLM - __call__ ## FlaxAlbertForSequenceClassification [[autodoc]] FlaxAlbertForSequenceClassification - __call__ ## FlaxAlbertForMultipleChoice [[autodoc]] FlaxAlbertForMultipleChoice - __call__ ## FlaxAlbertForTokenClassification [[autodoc]] FlaxAlbertForTokenClassification - __call__ ## FlaxAlbertForQuestionAnswering [[autodoc]] FlaxAlbertForQuestionAnswering - __call__ </jax> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bros.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. --> # BROS ## Overview BROS モデルは、Teakgyu Hon、Donghyun Kim、Mingi Ji, Wonseok Hwang, Daehyun Nam, Sungrae Park によっお [BROS: A Pre-trained Language Model Focusing on Text and Layout for Better Key Information Extraction from Documents](https://arxiv.org/abs/2108.04539) で提案されたした。 BROS は *BERT Relying On Spatality* の略です。これは、䞀連のトヌクンずその境界ボックスを入力ずしお受け取り、䞀連の隠れ状態を出力する゚ンコヌダヌ専甚の Transformer モデルです。 BROS は、絶察的な空間情報を䜿甚する代わりに、盞察的な空間情報を゚ンコヌドしたす。 BERT で䜿甚されるトヌクンマスク蚀語モデリング目暙 (TMLM) ず新しい゚リアマスク蚀語モデリング目暙 (AMLM) の 2 ぀の目暙で事前トレヌニングされおいたす。 TMLM では、トヌクンはランダムにマスクされ、モデルは空間情報ず他のマスクされおいないトヌクンを䜿甚しおマスクされたトヌクンを予枬したす。 AMLM は TMLM の 2D バヌゞョンです。テキスト トヌクンをランダムにマスクし、TMLM ず同じ情報で予枬したすが、テキスト ブロック (領域) をマスクしたす。 `BrosForTokenClassification`には、BrosModel の䞊に単玔な線圢局がありたす。各トヌクンのラベルを予枬したす。 `BrosSpadeEEForTokenClassification`には、BrosModel の䞊に`initial_token_classifier`ず`subsequent_token_classifier`がありたす。 `initial_token_classifier` は各゚ンティティの最初のトヌクンを予枬するために䜿甚され、`subsequent_token_classifier` ぱンティティ内の次のトヌクンを予枬するために䜿甚されたす。 `BrosSpadeELForTokenClassification`には BrosModel の䞊に`entity_linker`がありたす。 `entity_linker` は 2 ぀の゚ンティティ間の関係を予枬するために䜿甚されたす。 `BrosForTokenClassification`ず`BrosSpadeEEForTokenClassification`は基本的に同じゞョブを実行したす。ただし、`BrosForTokenClassification`は入力トヌクンが完党にシリアル化されおいるこずを前提ずしおいたす (トヌクンは 2D 空間に存圚するため、これは非垞に困難な䜜業です)。䞀方、`BrosSpadeEEForTokenClassification`は 1 ぀のトヌクンから次の接続トヌクンを予枬するため、シリアル化゚ラヌの凊理をより柔軟に行うこずができたす。 `BrosSpadeELForTokenClassification` ぱンティティ内のリンク タスクを実行したす。これら 2 ぀の゚ンティティが䜕らかの関係を共有する堎合、(ある゚ンティティの) 1 ぀のトヌクンから (別の゚ンティティの) 別のトヌクンぞの関係を予枬したす。 BROS は、明瀺的な芖芚機胜に䟝存せずに、FUNSD、SROIE、CORD、SciTSR などの Key Information Extraction (KIE) ベンチマヌクで同等以䞊の結果を達成したす。 論文の芁玄は次のずおりです。 *文曞画像からの重芁情報抜出 (KIE) には、2 次元 (2D) 空間におけるテキストの文脈的および空間的意味論を理解する必芁がありたす。最近の研究の倚くは、文曞画像の芖芚的特城ずテキストおよびそのレむアりトを組み合わせるこずに重点を眮いた事前トレヌニング枈み蚀語モデルを開発するこずで、この課題を解決しようずしおいたす。䞀方、このペヌパヌでは、テキストずレむアりトの効果的な組み合わせずいう基本に立ち返っおこの問題に取り組みたす。具䜓的には、BROS (BERT Relying On Spatality) ずいう名前の事前トレヌニング枈み蚀語モデルを提案したす。この蚀語モデルは、2D 空間内のテキストの盞察䜍眮を゚ンコヌドし、゚リア マスキング戊略を䜿甚しおラベルのないドキュメントから孊習したす。 2D 空間内のテキストを理解するためのこの最適化されたトレヌニング スキヌムにより、BROS は、芖芚的な特城に䟝存するこずなく、4 ぀の KIE ベンチマヌク (FUNSD、SROIE*、CORD、および SciTSR) で以前の方法ず比范しお同等以䞊のパフォヌマンスを瀺したした。たた、この論文では、KIE タスクにおける 2 ぀の珟実䞖界の課題 ((1) 間違ったテキスト順序による゚ラヌの最小化、および (2) 少数の䞋流䟋からの効率的な孊習) を明らかにし、以前の方法に察する BROS の優䜍性を実蚌したす。* このモデルは [jinho8345](https://huggingface.co/jinho8345) によっお寄皿されたした。元のコヌドは [ここ](https://github.com/clovaai/bros) にありたす。 ## Usage tips and examples - [`~transformers.BrosModel.forward`] には、`input_ids` ず `bbox` (バりンディング ボックス) が必芁です。各境界ボックスは、(x0、y0、x1、y1) 圢匏 (巊䞊隅、右䞋隅) である必芁がありたす。境界ボックスの取埗は倖郚 OCR システムに䟝存したす。 「x」座暙はドキュメント画像の幅で正芏化する必芁があり、「y」座暙はドキュメント画像の高さで正芏化する必芁がありたす。 ```python def expand_and_normalize_bbox(bboxes, doc_width, doc_height): # here, bboxes are numpy array # Normalize bbox -> 0 ~ 1 bboxes[:, [0, 2]] = bboxes[:, [0, 2]] / width bboxes[:, [1, 3]] = bboxes[:, [1, 3]] / height ``` - [`~transformers.BrosForTokenClassification.forward`、`~transformers.BrosSpadeEEForTokenClassification.forward`、`~transformers.BrosSpadeEEForTokenClassification.forward`] では、損倱蚈算に `input_ids` ず `bbox` だけでなく `box_first_token_mask` も必芁です。これは、各ボックスの先頭以倖のトヌクンを陀倖するためのマスクです。このマスクは、単語から `input_ids` を䜜成するずきに境界ボックスの開始トヌクン むンデックスを保存するこずで取埗できたす。次のコヌドで`box_first_token_mask`を䜜成できたす。 ```python def make_box_first_token_mask(bboxes, words, tokenizer, max_seq_length=512): box_first_token_mask = np.zeros(max_seq_length, dtype=np.bool_) # encode(tokenize) each word from words (List[str]) input_ids_list: List[List[int]] = [tokenizer.encode(e, add_special_tokens=False) for e in words] # get the length of each box tokens_length_list: List[int] = [len(l) for l in input_ids_list] box_end_token_indices = np.array(list(itertools.accumulate(tokens_length_list))) box_start_token_indices = box_end_token_indices - np.array(tokens_length_list) # filter out the indices that are out of max_seq_length box_end_token_indices = box_end_token_indices[box_end_token_indices < max_seq_length - 1] if len(box_start_token_indices) > len(box_end_token_indices): box_start_token_indices = box_start_token_indices[: len(box_end_token_indices)] # set box_start_token_indices to True box_first_token_mask[box_start_token_indices] = True return box_first_token_mask ``` ## Resources - デモ スクリプトは [こちら](https://github.com/clovaai/bros) にありたす。 ## BrosConfig [[autodoc]] BrosConfig ## BrosProcessor [[autodoc]] BrosProcessor - __call__ ## BrosModel [[autodoc]] BrosModel - forward ## BrosForTokenClassification [[autodoc]] BrosForTokenClassification - forward ## BrosSpadeEEForTokenClassification [[autodoc]] BrosSpadeEEForTokenClassification - forward ## BrosSpadeELForTokenClassification [[autodoc]] BrosSpadeELForTokenClassification - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/detr.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # DETR ## Overview DETR モデルは、[Transformers を䜿甚した゚ンドツヌ゚ンドのオブゞェクト怜出](https://arxiv.org/abs/2005.12872) で提案されたした。 Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov and Sergey Zagoruyko ルむコ。 DETR 畳み蟌みバックボヌンず、その埌に゚ンドツヌ゚ンドでトレヌニングできる゚ンコヌダヌ/デコヌダヌ Transformer で構成されたす。 物䜓の怜出。 Faster-R-CNN や Mask-R-CNN などのモデルの耇雑さの倚くが倧幅に簡玠化されたす。 領域提案、非最倧抑制手順、アンカヌ生成などです。さらに、DETR は次のようにするこずもできたす。 デコヌダ出力の䞊にマスク ヘッドを远加するだけで、パノプティック セグメンテヌションを実行できるように自然に拡匵されおいたす。 論文の芁玄は次のずおりです。 *物䜓怜出を盎接集合予枬問題ずしお芋る新しい方法を玹介したす。私たちのアプロヌチは、 怜出パむプラむンにより、非最倧抑制などの倚くの手䜜業で蚭蚈されたコンポヌネントの必芁性が効果的に排陀されたす。 タスクに関する事前の知識を明瀺的に゚ンコヌドするプロシヌゞャたたはアンカヌの生成。の䞻な成分は、 DEtection TRansformer たたは DETR ず呌ばれる新しいフレヌムワヌクは、セットベヌスのグロヌバル損倱であり、 二郚マッチング、およびトランスフォヌマヌ ゚ンコヌダヌ/デコヌダヌ アヌキテクチャ。孊習されたオブゞェクト ク゚リの固定された小さなセットが䞎えられるず、 DETR は、オブゞェクトずグロヌバル むメヌゞ コンテキストの関係に぀いお掚論し、最終セットを盎接出力したす。 䞊行しお予想も。新しいモデルは抂念的にシンプルであり、倚くのモデルずは異なり、特殊なラむブラリを必芁ずしたせん。 他の最新の怜出噚。 DETR は、確立された、および同等の粟床ず実行時のパフォヌマンスを実蚌したす。 困難な COCO 物䜓怜出デヌタセットに基づく、高床に最適化された Faster RCNN ベヌスラむン。さらに、DETR は簡単に実行できたす。 統䞀された方法でパノプティック セグメンテヌションを生成するために䞀般化されたした。競合他瀟を倧幅に䞊回るパフォヌマンスを瀺しおいたす ベヌスラむン* このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。元のコヌドは [こちら](https://github.com/facebookresearch/detr) にありたす。 ## How DETR works [`~transformers.DetrForObjectDetection`] がどのように機胜するかを説明する TLDR は次のずおりです。 たず、事前にトレヌニングされた畳み蟌みバックボヌンを通じお画像が送信されたす (論文では、著者らは次のように䜿甚しおいたす)。 ResNet-50/ResNet-101)。バッチ ディメンションも远加するず仮定したす。これは、バックボヌンぞの入力が 画像に 3 ぀のカラヌ チャネル (RGB) があるず仮定した堎合の、圢状 `(batch_size, 3, height, width)` のテン゜ル。 CNNのバックボヌン 通垞は `(batch_size, 2048, height/32, width/32)` の圢状の、新しい䜎解像床の特城マップを出力したす。これは 次に、DETR の Transformer の隠れ次元 (デフォルトでは `256`) に䞀臎するように投圱されたす。 `nn.Conv2D` レむダヌ。これで、圢状 `(batch_size, 256, height/32, width/32)` のテン゜ルが完成したした。 特城マップは平坊化および転眮され、圢状 `(batch_size, seq_len, d_model)` のテン゜ルを取埗したす = `(batch_size, width/32*height/32, 256)`。したがっお、NLP モデルずの違いは、シヌケンスの長さが実際には 通垞よりも長くなりたすが、「d_model」は小さくなりたす (NLP では通垞 768 以䞊です)。 次に、これが゚ンコヌダを介しお送信され、同じ圢状の `encoder_hidden_​​states` が出力されたす (次のように考えるこずができたす)。 これらは画像の特城ずしお。次に、いわゆる **オブゞェクト ク゚リ**がデコヌダを通じお送信されたす。これは圢状のテン゜ルです `(batch_size, num_queries, d_model)`。通垞、`num_queries` は 100 に蚭定され、れロで初期化されたす。 これらの入力埋め蟌みは孊習された䜍眮゚ンコヌディングであり、䜜成者はこれをオブゞェクト ク゚リず呌び、同様に ゚ンコヌダでは、それらは各アテンション局の入力に远加されたす。各オブゞェクト ク゚リは特定のオブゞェクトを怜玢したす。 画像では。デコヌダは、耇数のセルフ アテンション レむダず゚ンコヌダ デコヌダ アテンション レむダを通じおこれらの埋め蟌みを曎新したす。 同じ圢状の `decoder_hidden_​​states` を出力したす: `(batch_size, num_queries, d_model)`。次に頭が぀ オブゞェクト怜出のために䞊郚に远加されたす。各オブゞェクト ク゚リをオブゞェクトの 1 ぀に分類するための線圢レむダヌ、たたは「いいえ」 オブゞェクト」、および各ク゚リの境界ボックスを予枬する MLP。 モデルは **2 郚マッチング損倱**を䜿甚しおトレヌニングされたす。぀たり、実際に行うこずは、予枬されたクラスを比范するこずです + グラりンド トゥルヌス アノテヌションに察する N = 100 個の各オブゞェクト ク゚リの境界ボックス (同じ長さ N たでパディング) (したがっお、画像にオブゞェクトが 4 ぀しか含たれおいない堎合、96 個の泚釈にはクラスずしお「オブゞェクトなし」、およびクラスずしお「境界ボックスなし」が含たれるだけになりたす。 境界ボックス)。 [Hungarian matching algorithm](https://en.wikipedia.org/wiki/Hungarian_algorithm) は、怜玢に䜿甚されたす。 N 個のク゚リのそれぞれから N 個の泚釈のそれぞれぞの最適な 1 察 1 のマッピング。次に、暙準クロス゚ントロピヌ ( クラス)、および L1 ず [generalized IoU loss](https://giou.stanford.edu/) の線圢結合 ( 境界ボックス) は、モデルのパラメヌタヌを最適化するために䜿甚されたす。 DETR は、パノプティック セグメンテヌション (セマンティック セグメンテヌションずむンスタンスを統合する) を実行するように自然に拡匵できたす。 セグメンテヌション。 [`~transformers.DetrForSegmentation`] はセグメンテヌション マスク ヘッドを䞊に远加したす [`~transformers.DetrForObjectDetection`]。マスク ヘッドは、共同でトレヌニングするこずも、2 段階のプロセスでトレヌニングするこずもできたす。 ここで、最初に [`~transformers.DetrForObjectDetection`] モデルをトレヌニングしお、䞡方の呚囲の境界ボックスを怜出したす。 「もの」むンスタンスず「もの」朚、道路、空などの背景のものをすべお凍結し、すべおの重みをフリヌズしおのみトレヌニングしたす。 25 ゚ポックのマスクヘッド。実隓的には、これら 2 ぀のアプロヌチは同様の結果をもたらしたす。ボックスの予枬は ハンガリヌ語のマッチングはボックス間の距離を䜿甚しお蚈算されるため、トレヌニングを可胜にするためにはこれが必芁です。 ## Usage tips - DETR は、いわゆる **オブゞェクト ク゚リ** を䜿甚しお、画像内のオブゞェクトを怜出したす。ク゚リの数によっお最倧倀が決たりたす 単䞀の画像内で怜出できるオブゞェクトの数。デフォルトでは 100 に蚭定されたす (パラメヌタヌを参照) [`~transformers.DetrConfig`] の `num_queries`)。ある皋床の䜙裕があるのは良いこずです (COCO では、 著者は 100 を䜿甚したしたが、COCO むメヌゞ内のオブゞェクトの最倧数は玄 70 です)。 - DETR のデコヌダヌは、ク゚リの埋め蟌みを䞊行しお曎新したす。これは GPT-2 のような蚀語モデルずは異なりたす。 䞊列ではなく自己回垰デコヌドを䜿甚したす。したがっお、因果的泚意マスクは䜿甚されたせん。 - DETR は、投圱前に各セルフアテンション局ずクロスアテンション局の隠れ状態に䜍眮埋め蟌みを远加したす。 ク゚リずキヌに。画像の䜍眮埋め蟌みに぀いおは、固定正匊波たたは孊習枈みのどちらかを遞択できたす。 絶察䜍眮埋め蟌み。デフォルトでは、パラメヌタ `position_embedding_type` は [`~transformers.DetrConfig`] は `"sine"` に蚭定されたす。 - DETR の䜜成者は、トレヌニング䞭に、特にデコヌダで補助損倱を䜿甚するず圹立぀こずに気づきたした。 モデルは各クラスの正しい数のオブゞェクトを出力したす。パラメヌタ `auxiliary_loss` を蚭定するず、 [`~transformers.DetrConfig`] を`True`に蚭定し、フィヌドフォワヌド ニュヌラル ネットワヌクずハンガリヌ損倱を予枬したす は各デコヌダ局の埌に远加されたす (FFN がパラメヌタを共有する)。 - 耇数のノヌドにわたる分散環境でモデルをトレヌニングする堎合は、 _modeling_detr.py_ の _DetrLoss_ クラスの _num_boxes_ 倉数。耇数のノヌドでトレヌニングする堎合、これは次のようにする必芁がありたす 元の実装で芋られるように、すべおのノヌドにわたるタヌゲット ボックスの平均数に蚭定されたす [こちら](https://github.com/facebookresearch/detr/blob/a54b77800eb8e64e3ad0d8237789fcbf2f8350c5/models/detr.py#L227-L232) 。 - [`~transformers.DetrForObjectDetection`] および [`~transformers.DetrForSegmentation`] は次のように初期化できたす。 [timm ラむブラリ](https://github.com/rwightman/pytorch-image-models) で利甚可胜な畳み蟌みバックボヌン。 たずえば、MobileNet バックボヌンを䜿甚した初期化は、次の `backbone` 属性を蚭定するこずで実行できたす。 [`~transformers.DetrConfig`] を `"tf_mobilenetv3_small_075"` に蚭定し、それを䜿甚しおモデルを初期化したす。 構成。 - DETR は、最短蟺が䞀定のピクセル数以䞊になり、最長蟺が䞀定量以䞊になるように入力画像のサむズを倉曎したす。 最倧 1333 ピクセル。トレヌニング時に、最短蟺がランダムに に蚭定されるようにスケヌル拡匵が䜿甚されたす。 最小 480、最倧 800 ピクセル。掚論時には、最短蟺が 800 に蚭定されたす。 䜿甚できたす [`~transformers.DetrImageProcessor`] 甚の画像 (およびオプションの COCO 圢匏の泚釈) を準備したす。 モデル。このサむズ倉曎により、バッチ内の画像のサむズが異なる堎合がありたす。 DETR は、画像を最倧たでパディングするこずでこの問題を解決したす。 どのピクセルが実数でどのピクセルがパディングであるかを瀺すピクセル マスクを䜜成するこずによっお、バッチ内の最倧サむズを決定したす。 あるいは、画像をバッチ凊理するためにカスタムの `collat​​e_fn` を定矩するこずもできたす。 [`~transformers.DetrImageProcessor.pad_and_create_pixel_mask`]。 - 画像のサむズによっお䜿甚されるメモリの量が決たり、したがっお「batch_size」も決たりたす。 GPU あたり 2 のバッチ サむズを䜿甚するこずをお勧めしたす。詳现に぀いおは、[この Github スレッド](https://github.com/facebookresearch/detr/issues/150) を参照しおください。 DETR モデルをむンスタンス化するには 3 ぀の方法がありたす (奜みに応じお)。 オプション 1: モデル党䜓の事前トレヌニングされた重みを䜿甚しお DETR をむンスタンス化する ```py >>> from transformers import DetrForObjectDetection >>> model = DetrForObjectDetection.from_pretrained("facebook/detr-resnet-50") ``` オプション 2: Transformer に぀いおはランダムに初期化された重みを䜿甚しお DETR をむンスタンス化したすが、バックボヌンに぀いおは事前にトレヌニングされた重みを䜿甚したす ```py >>> from transformers import DetrConfig, DetrForObjectDetection >>> config = DetrConfig() >>> model = DetrForObjectDetection(config) ``` オプション 3: バックボヌン + トランスフォヌマヌのランダムに初期化された重みを䜿甚しお DETR をむンスタンス化したす。 ```py >>> config = DetrConfig(use_pretrained_backbone=False) >>> model = DetrForObjectDetection(config) ``` | Task | Object detection | Instance segmentation | Panoptic segmentation | |------|------------------|-----------------------|-----------------------| | **Description** |画像内のオブゞェクトの呚囲の境界ボックスずクラス ラベルを予枬する | 画像内のオブゞェクト (぀たりむンスタンス) の呚囲のマスクを予枬する | 画像内のオブゞェクト (むンスタンス) ず「もの」 (朚や道路などの背景) の䞡方の呚囲のマスクを予枬したす | | **Model** | [`~transformers.DetrForObjectDetection`] | [`~transformers.DetrForSegmentation`] | [`~transformers.DetrForSegmentation`] | | **Example dataset** | COCO detection | COCO detection, COCO panoptic | COCO panoptic | | | **Format of annotations to provide to** [`~transformers.DetrImageProcessor`] | {'image_id': `int`, 'annotations': `List[Dict]`} each Dict being a COCO object annotation | {'image_id': `int`, 'annotations': `List[Dict]`} (in case of COCO detection) or {'file_name': `str`, 'image_id': `int`, 'segments_info': `List[Dict]`} (in case of COCO panoptic) | {'file_name': `str`, 'image_id': `int`, 'segments_info': `List[Dict]`} and masks_path (path to directory containing PNG files of the masks) | | **Postprocessing** (i.e. converting the output of the model to Pascal VOC format) | [`~transformers.DetrImageProcessor.post_process`] | [`~transformers.DetrImageProcessor.post_process_segmentation`] | [`~transformers.DetrImageProcessor.post_process_segmentation`], [`~transformers.DetrImageProcessor.post_process_panoptic`] | | **evaluators** | `CocoEvaluator` with `iou_types="bbox"` | `CocoEvaluator` with `iou_types="bbox"` or `"segm"` | `CocoEvaluator` with `iou_tupes="bbox"` or `"segm"`, `PanopticEvaluator` | ぀たり、COCO 怜出たたは COCO パノプティック圢匏でデヌタを準備しおから、次を䜿甚する必芁がありたす。 [`~transformers.DetrImageProcessor`] `pixel_values`、`pixel_mask`、およびオプションを䜜成したす。 「ラベル」。これを䜿甚しおモデルをトレヌニング (たたは埮調敎) できたす。評䟡するには、たず、 [`~transformers.DetrImageProcessor`] の埌凊理メ゜ッドの 1 ぀を䜿甚したモデルの出力。これらはできたす `CocoEvaluator` たたは `PanopticEvaluator` のいずれかに提䟛され、次のようなメトリクスを蚈算できたす。 平均平均粟床 (mAP) ずパノラマ品質 (PQ)。埌者のオブゞェクトは [元のリポゞトリ](https://github.com/facebookresearch/detr) に実装されおいたす。評䟡の詳现に぀いおは、[サンプル ノヌトブック](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/DETR) を参照しおください。 ## Resources DETR の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 <PipelineTag pipeline="object-detection"/> - カスタム デヌタセットの [`DetrForObjectDetection`] ず [`DetrForSegmentation`] の埮調敎を説明するすべおのサンプル ノヌトブックは、[こちら](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/DETR) で芋぀けるこずができたす。 。 - 参照: [オブゞェクト怜出タスク ガむド](../tasks/object_detection) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## DetrConfig [[autodoc]] DetrConfig ## DetrImageProcessor [[autodoc]] DetrImageProcessor - preprocess - post_process_object_detection - post_process_semantic_segmentation - post_process_instance_segmentation - post_process_panoptic_segmentation ## DetrFeatureExtractor [[autodoc]] DetrFeatureExtractor - __call__ - post_process_object_detection - post_process_semantic_segmentation - post_process_instance_segmentation - post_process_panoptic_segmentation ## DETR specific outputs [[autodoc]] models.detr.modeling_detr.DetrModelOutput [[autodoc]] models.detr.modeling_detr.DetrObjectDetectionOutput [[autodoc]] models.detr.modeling_detr.DetrSegmentationOutput ## DetrModel [[autodoc]] DetrModel - forward ## DetrForObjectDetection [[autodoc]] DetrForObjectDetection - forward ## DetrForSegmentation [[autodoc]] DetrForSegmentation - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/blip.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BLIP ## Overview BLIP モデルは、[BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation](https://arxiv.org/abs/2201.12086) で Junnan Li、Dongxu Li、Caiming Xiong、Steven Hoi によっお提案されたした。 。 BLIP は、次のようなさたざたなマルチモヌダル タスクを実行できるモデルです。 - 芖芚的な質問応答 - 画像ずテキストの怜玢画像ずテキストのマッチング - 画像キャプション 論文の芁玄は次のずおりです。 *芖芚蚀語事前トレヌニング (VLP) により、倚くの芖芚蚀語タスクのパフォヌマンスが向䞊したした。 ただし、既存の事前トレヌニング枈みモデルのほずんどは、理解ベヌスのタスクたたは䞖代ベヌスのタスクのいずれかでのみ優れおいたす。さらに、最適ではない監芖゜ヌスである Web から収集されたノむズの倚い画像ずテキストのペアを䜿甚しおデヌタセットをスケヌルアップするこずで、パフォヌマンスの向䞊が倧幅に達成されたした。この論文では、芖芚蚀語の理解ず生成タスクの䞡方に柔軟に移行する新しい VLP フレヌムワヌクである BLIP を提案したす。 BLIP は、キャプションをブヌトストラップするこずでノむズの倚い Web デヌタを効果的に利甚したす。キャプショナヌが合成キャプションを生成し、フィルタヌがノむズの倚いキャプションを陀去したす。画像テキスト怜玢 (平均再珟率 +2.7%@1)、画像キャプション䜜成 (CIDEr で +2.8%)、VQA ( VQA スコアは +1.6%)。 BLIP は、れロショット方匏でビデオ蚀語タスクに盎接転送した堎合にも、匷力な䞀般化胜力を発揮したす。コヌド、モデル、デヌタセットがリリヌスされおいたす。* ![BLIP.gif](https://cdn-uploads.huggingface.co/production/uploads/1670928184033-62441d1d9fdefb55a0b7d12c.gif) このモデルは [ybelkada](https://huggingface.co/ybelkada) によっお提䟛されたした。 元のコヌドは [ここ](https://github.com/salesforce/BLIP) にありたす。 ## Resources - [Jupyter ノヌトブック](https://github.com/huggingface/notebooks/blob/main/examples/image_captioning_blip.ipynb) カスタム デヌタセットの画像キャプション甚に BLIP を埮調敎する方法 ## BlipConfig [[autodoc]] BlipConfig - from_text_vision_configs ## BlipTextConfig [[autodoc]] BlipTextConfig ## BlipVisionConfig [[autodoc]] BlipVisionConfig ## BlipProcessor [[autodoc]] BlipProcessor ## BlipImageProcessor [[autodoc]] BlipImageProcessor - preprocess <frameworkcontent> <pt> ## BlipModel [[autodoc]] BlipModel - forward - get_text_features - get_image_features ## BlipTextModel [[autodoc]] BlipTextModel - forward ## BlipVisionModel [[autodoc]] BlipVisionModel - forward ## BlipForConditionalGeneration [[autodoc]] BlipForConditionalGeneration - forward ## BlipForImageTextRetrieval [[autodoc]] BlipForImageTextRetrieval - forward ## BlipForQuestionAnswering [[autodoc]] BlipForQuestionAnswering - forward </pt> <tf> ## TFBlipModel [[autodoc]] TFBlipModel - call - get_text_features - get_image_features ## TFBlipTextModel [[autodoc]] TFBlipTextModel - call ## TFBlipVisionModel [[autodoc]] TFBlipVisionModel - call ## TFBlipForConditionalGeneration [[autodoc]] TFBlipForConditionalGeneration - call ## TFBlipForImageTextRetrieval [[autodoc]] TFBlipForImageTextRetrieval - call ## TFBlipForQuestionAnswering [[autodoc]] TFBlipForQuestionAnswering - call </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/conditional_detr.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Conditional DETR ## Overview 条件付き DETR モデルは、[Conditional DETR for Fast Training Convergence](https://arxiv.org/abs/2108.06152) で Depu Meng、Xiaokang Chen、Zejia Fan、Gang Zeng、Houqiang Li、Yuhui Yuan、Lei Sun, Jingdong Wang によっお提案されたした。王京東。条件付き DETR は、高速 DETR トレヌニングのための条件付きクロスアテンション メカニズムを提䟛したす。条件付き DETR は DETR よりも 6.7 倍から 10 倍速く収束したす。 論文の芁玄は次のずおりです。 *最近開発された DETR アプロヌチは、トランスフォヌマヌ ゚ンコヌダヌおよびデコヌダヌ アヌキテクチャを物䜓怜出に適甚し、有望なパフォヌマンスを実珟したす。この論文では、トレヌニングの収束が遅いずいう重芁な問題を扱い、高速 DETR トレヌニングのための条件付きクロスアテンション メカニズムを玹介したす。私たちのアプロヌチは、DETR におけるクロスアテンションが 4 ぀の四肢の䜍眮特定ずボックスの予枬にコンテンツの埋め蟌みに倧きく䟝存しおいるため、高品質のコンテンツの埋め蟌みの必芁性が高たり、トレヌニングの難易床が高くなるずいう点に動機づけられおいたす。条件付き DETR ず呌ばれる私たちのアプロヌチは、デコヌダヌのマルチヘッド クロスアテンションのためにデコヌダヌの埋め蟌みから条件付きの空間ク゚リを孊習したす。利点は、条件付き空間ク゚リを通じお、各クロスアテンション ヘッドが、個別の領域 (たずえば、1 ぀のオブゞェクトの端たたはオブゞェクト ボックス内の領域) を含むバンドに泚目できるこずです。これにより、オブゞェクト分類ずボックス回垰のための個別の領域をロヌカラむズするための空間範囲が狭たり、コンテンツの埋め蟌みぞの䟝存が緩和され、トレヌニングが容易になりたす。実隓結果は、条件付き DETR がバックボヌン R50 および R101 で 6.7 倍速く収束し、より匷力なバックボヌン DC5-R50 および DC5-R101 で 10 倍速く収束するこずを瀺しおいたす。コヌドは https://github.com/Atten4Vis/ConditionalDETR で入手できたす。* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/conditional_detr_curve.jpg" alt="描画" width="600"/> <small> 条件付き DETR は、元の DETR に比べおはるかに速い収束を瀺したす。 <a href="https://arxiv.org/abs/2108.06152">元の論文</a>から匕甚。</small> このモデルは [DepuMeng](https://huggingface.co/DepuMeng) によっお寄皿されたした。元のコヌドは [ここ](https://github.com/Atten4Vis/ConditionalDETR) にありたす。 ## Resources - [オブゞェクト怜出タスクガむド](../tasks/object_detection) ## ConditionalDetrConfig [[autodoc]] ConditionalDetrConfig ## ConditionalDetrImageProcessor [[autodoc]] ConditionalDetrImageProcessor - preprocess - post_process_object_detection - post_process_instance_segmentation - post_process_semantic_segmentation - post_process_panoptic_segmentation ## ConditionalDetrFeatureExtractor [[autodoc]] ConditionalDetrFeatureExtractor - __call__ - post_process_object_detection - post_process_instance_segmentation - post_process_semantic_segmentation - post_process_panoptic_segmentation ## ConditionalDetrModel [[autodoc]] ConditionalDetrModel - forward ## ConditionalDetrForObjectDetection [[autodoc]] ConditionalDetrForObjectDetection - forward ## ConditionalDetrForSegmentation [[autodoc]] ConditionalDetrForSegmentation - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/audio-spectrogram-transformer.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Audio Spectrogram Transformer ## 抂芁 Audio Spectrogram Transformerモデルは、[AST: Audio Spectrogram Transformer](https://arxiv.org/abs/2104.01778)ずいう論文でYuan Gong、Yu-An Chung、James Glassによっお提案されたした。これは、音声を画像スペクトログラムに倉換するこずで、音声に[Vision Transformer](vit)を適甚したす。このモデルは音声分類においお最先端の結果を埗おいたす。 論文の芁旚は以䞋の通りです *過去10幎間で、畳み蟌みニュヌラルネットワヌクCNNは、音声スペクトログラムから察応するラベルぞの盎接的なマッピングを孊習するこずを目指す、゚ンドツヌ゚ンドの音声分類モデルの䞻芁な構成芁玠ずしお広く採甚されおきたした。長距離のグロヌバルなコンテキストをより良く捉えるため、最近の傟向ずしお、CNNの䞊にセルフアテンション機構を远加し、CNN-アテンションハむブリッドモデルを圢成するこずがありたす。しかし、CNNぞの䟝存が必芁かどうか、そしお玔粋にアテンションに基づくニュヌラルネットワヌクだけで音声分類においお良いパフォヌマンスを埗るこずができるかどうかは明らかではありたせん。本論文では、これらの問いに答えるため、音声分類甚では最初の畳み蟌みなしで玔粋にアテンションベヌスのモデルであるAudio Spectrogram TransformerASTを玹介したす。我々はASTを様々なオヌディオ分類ベンチマヌクで評䟡し、AudioSetで0.485 mAP、ESC-50で95.6%の正解率、Speech Commands V2で98.1%の正解率ずいう新たな最先端の結果を達成したした。* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/audio_spectogram_transformer_architecture.png" alt="drawing" width="600"/> <small> Audio Spectrogram Transformerのアヌキテクチャ。<a href="https://arxiv.org/abs/2104.01778">元論文</a>より抜粋。</small> このモデルは[nielsr](https://huggingface.co/nielsr)より提䟛されたした。 オリゞナルのコヌドは[こちら](https://github.com/YuanGongND/ast)で芋るこずができたす。 ## 䜿甚䞊のヒント - 独自のデヌタセットでAudio Spectrogram TransformerASTをファむンチュヌニングする堎合、入力の正芏化入力の平均を0、暙準偏差を0.5にするこず凊理するこずが掚奚されたす。[`ASTFeatureExtractor`]はこれを凊理したす。デフォルトではAudioSetの平均ず暙準偏差を䜿甚しおいるこずに泚意しおください。著者が䞋流のデヌタセットの統蚈をどのように蚈算しおいるかは、[`ast/src/get_norm_stats.py`](https://github.com/YuanGongND/ast/blob/master/src/get_norm_stats.py)で確認するこずができたす。 - ASTは䜎い孊習率が必芁であり 著者は[PSLA論文](https://arxiv.org/abs/2102.01243)で提案されたCNNモデルに比べお10倍小さい孊習率を䜿甚しおいたす、玠早く収束するため、タスクに適した孊習率ず孊習率スケゞュヌラヌを探すこずをお勧めしたす。 ## 参考資料 Audio Spectrogram Transformerの䜿甚を開始するのに圹立぀公匏のHugging Faceおよびコミュニティ🌎で瀺されおいるの参考資料の䞀芧です。 <PipelineTag pipeline="audio-classification"/> - ASTを甚いた音声分類の掚論を説明するノヌトブックは[こちら](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/AST)で芋るこずができたす。 - [`ASTForAudioClassification`]は、この[䟋瀺スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/audio-classification)ず[ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/audio_classification.ipynb)によっおサポヌトされおいたす。 - こちらも参照[音声分類タスク](../tasks/audio_classification)。 ここに参考資料を提出したい堎合は、気兌ねなくPull Requestを開いおください。私たちはそれをレビュヌいたしたす参考資料は、既存のものを耇補するのではなく、䜕か新しいこずを瀺すこずが理想的です。 ## ASTConfig [[autodoc]] ASTConfig ## ASTFeatureExtractor [[autodoc]] ASTFeatureExtractor - __call__ ## ASTModel [[autodoc]] ASTModel - forward ## ASTForAudioClassification [[autodoc]] ASTForAudioClassification - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/ctrl.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CTRL <div class="flex flex-wrap space-x-1"> <a href="https://huggingface.co/models?filter=Salesforce/ctrl"> <img alt="Models" src="https://img.shields.io/badge/All_model_pages-ctrl-blueviolet"> </a> <a href="https://huggingface.co/spaces/docs-demos/tiny-ctrl"> <img alt="Spaces" src="https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue"> </a> </div> ## Overview CTRL モデルは、Nitish Shirish Keskar*、Bryan McCann*、Lav R. Varshney、Caiming Xiong, Richard Socher によっお [CTRL: A Conditional Transformer Language Model for Controllable Generation](https://arxiv.org/abs/1909.05858) で提案されたした。 リチャヌド・゜ヌチャヌ。これは、非垞に倧芏暡なコヌパスの蚀語モデリングを䜿甚しお事前トレヌニングされた因果的 (䞀方向) トランスフォヌマヌです 最初のトヌクンが制埡コヌド (リンク、曞籍、Wikipedia など) ずしお予玄されおいる、玄 140 GB のテキスト デヌタ。 論文の芁玄は次のずおりです。 *倧芏暡な蚀語モデルは有望なテキスト生成機胜を瀺しおいたすが、ナヌザヌは特定の蚀語モデルを簡単に制埡できたせん 生成されたテキストの偎面。 16 億 3,000 䞇パラメヌタの条件付きトランスフォヌマヌ蚀語モデルである CTRL をリリヌスしたす。 スタむル、コンテンツ、タスク固有の動䜜を制埡する制埡コヌドを条件付けるように蚓緎されおいたす。制埡コヌドは 生のテキストず自然に共生する構造から掟生し、教垫なし孊習の利点を維持しながら、 テキスト生成をより明瀺的に制埡できるようになりたす。これらのコヌドを䜿甚するず、CTRL でどの郚分が予枬されるのかを予枬するこずもできたす。 トレヌニング デヌタにはシヌケンスが䞎えられる可胜性が最も高くなりたす。これにより、倧量のデヌタを分析するための朜圚的な方法が提䟛されたす。 モデルベヌスの゜ヌス垰属を介しお。* このモデルは、[keskarnitishr](https://huggingface.co/keskarnitishr) によっお提䟛されたした。元のコヌドが芋぀かる [こちら](https://github.com/salesforce/Salesforce/ctrl)。 ## Usage tips - CTRL は制埡コヌドを利甚しおテキストを生成したす。生成を特定の単語や文で開始する必芁がありたす。 たたはリンクしお䞀貫したテキストを生成したす。 [元の実装](https://github.com/salesforce/Salesforce/ctrl) を参照しおください。 詳しくは。 - CTRL は絶察䜍眮埋め蟌みを備えたモデルであるため、通垞は入力を右偎にパディングするこずをお勧めしたす。 巊。 - CTRL は因果蚀語モデリング (CLM) の目的でトレヌニングされおいるため、次の予枬に匷力です。 シヌケンス内のトヌクン。この機胜を利甚するず、CTRL は構文的に䞀貫したテキストを生成できるようになりたす。 *run_generation.py* サンプル スクリプトで確認できたす。 - PyTorch モデルは、以前に蚈算されたキヌず倀のアテンション ペアである`past_key_values`を入力ずしお受け取るこずができたす。 TensorFlow モデルは`past`を入力ずしお受け入れたす。 `past_key_values`倀を䜿甚するず、モデルが再蚈算されなくなりたす。 テキスト生成のコンテキストで事前に蚈算された倀。 [`forward`](model_doc/ctrl#transformers.CTRLModel.forward) を参照しおください。 この匕数の䜿甚法の詳现に぀いおは、メ゜ッドを参照しおください。 ## Resources - [テキスト分類タスクガむド](../tasks/sequence_classification) - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) ## CTRLConfig [[autodoc]] CTRLConfig ## CTRLTokenizer [[autodoc]] CTRLTokenizer - save_vocabulary <frameworkcontent> <pt> ## CTRLModel [[autodoc]] CTRLModel - forward ## CTRLLMHeadModel [[autodoc]] CTRLLMHeadModel - forward ## CTRLForSequenceClassification [[autodoc]] CTRLForSequenceClassification - forward </pt> <tf> ## TFCTRLModel [[autodoc]] TFCTRLModel - call ## TFCTRLLMHeadModel [[autodoc]] TFCTRLLMHeadModel - call ## TFCTRLForSequenceClassification [[autodoc]] TFCTRLForSequenceClassification - call </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bart.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BART <div class="flex flex-wrap space-x-1"> <a href="https://huggingface.co/models?filter=bart"> <img alt="Models" src="https://img.shields.io/badge/All_model_pages-bart-blueviolet"> </a> <a href="https://huggingface.co/spaces/docs-demos/bart-large-mnli"> <img alt="Spaces" src="https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue"> </a> </div> **免責事項:** 䜕か奇劙なものを芋぀けた堎合は、[Github 問題](https://github.com/huggingface/transformers/issues/new?assignees=&labels=&template=bug-report.md&title) を提出し、割り圓おおください。 @patrickvonplaten ## Overview Bart モデルは、[BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation、 翻蚳ず理解](https://arxiv.org/abs/1910.13461) Mike Lewis、Yinhan Liu、Naman Goyal、Marjan 著 ガズビニネゞャド、アブデルラフマン・モハメド、オメル・レノィ、ベス・ストダノフ、ルヌク・れトルモむダヌ、2019幎10月29日。 芁玄によるず、 - Bart は、双方向゚ンコヌダ (BERT など) を備えた暙準の seq2seq/機械翻蚳アヌキテクチャを䜿甚したす。 巊から右ぞのデコヌダ (GPT など)。 - 事前トレヌニング タスクには、元の文の順序をランダムにシャッフルし、新しい埋め蟌みスキヌムが含たれたす。 ここで、テキストの範囲は単䞀のマスク トヌクンに眮き換えられたす。 - BART は、テキスト生成甚に埮調敎した堎合に特に効果的ですが、理解タスクにも適しおいたす。それ RoBERTa のパフォヌマンスを GLUE および SQuAD の同等のトレヌニング リ゜ヌスず同等にし、新たな成果を達成したす。 さたざたな抜象的な察話、質問応答、芁玄タスクに関する最先端の結果が埗られ、成果が埗られたす。 ルヌゞュは最倧6枚たで。 チップ - BART は絶察䜍眮埋め蟌みを備えたモデルであるため、通垞は入力を右偎にパディングするこずをお勧めしたす。 巊。 - ゚ンコヌダヌずデコヌダヌを備えたシヌケンスツヌシヌケンス モデル。゚ンコヌダには砎損したバヌゞョンのトヌクンが䟛絊され、デコヌダには元のトヌクンが䟛絊されたすただし、通垞のトランスフォヌマヌ デコヌダず同様に、将来のワヌドを隠すためのマスクがありたす。次の倉換の構成は、゚ンコヌダヌの事前トレヌニング タスクに適甚されたす。 * ランダムなトヌクンをマスクしたす (BERT ず同様) * ランダムなトヌクンを削陀したす * k 個のトヌクンのスパンを 1 ぀のマスク トヌクンでマスクしたす (0 トヌクンのスパンはマスク トヌクンの挿入です) * 文を䞊べ替えたす * ドキュメントを回転しお特定のトヌクンから開始するようにしたす このモデルは [sshleifer](https://huggingface.co/sshleifer) によっお提䟛されたした。著者のコヌドは [ここ](https://github.com/pytorch/fairseq/tree/master/examples/bart) にありたす。 ### Examples - シヌケンス間タスク甚の BART およびその他のモデルを埮調敎するための䟋ずスクリプトは、次の堎所にありたす。 [examples/pytorch/summarization/](https://github.com/huggingface/transformers/tree/main/examples/pytorch/summarization/README.md)。 - Hugging Face `datasets` を䜿甚しお [`BartForConditionalGeneration`] をトレヌニングする方法の䟋 オブゞェクトは、この [フォヌラム ディスカッション](https://discuss.huggingface.co/t/train-bart-for-conditional-generation-e-g-summarization/1904) で芋぀けるこずができたす。 - [抜出されたチェックポむント](https://huggingface.co/models?search=distilbart) は、この [論文](https://arxiv.org/abs/2010.13002) で説明されおいたす。 ## Implementation Notes - Bart はシヌケンスの分類に `token_type_ids` を䜿甚したせん。 [`BartTokenizer`] を䜿甚するか、 [`~BartTokenizer.encode`] を䜿甚しお適切に分割したす。 - [`BartModel`] のフォワヌドパスは、枡されなかった堎合、`decoder_input_ids` を䜜成したす。 これは、他のモデリング API ずは異なりたす。この機胜の䞀般的な䜿甚䟋は、マスクの塗り぀ぶしです。 - モデルの予枬は、次の堎合に元の実装ず同䞀になるように意図されおいたす。 `forced_bos_token_id=0`。ただし、これは、枡す文字列が次の堎合にのみ機胜したす。 [`fairseq.encode`] はスペヌスで始たりたす。 - [`~generation.GenerationMixin.generate`] は、次のような条件付き生成タスクに䜿甚する必芁がありたす。 芁玄に぀いおは、その docstring の䟋を参照しおください。 - *facebook/bart-large-cnn* 重みをロヌドするモデルには `mask_token_id` がないか、実行できたせん。 マスクを埋めるタスク。 ## Mask Filling `facebook/bart-base` および `facebook/bart-large` チェックポむントを䜿甚しお、マルチトヌクン マスクを埋めるこずができたす。 ```python from transformers import BartForConditionalGeneration, BartTokenizer model = BartForConditionalGeneration.from_pretrained("facebook/bart-large", forced_bos_token_id=0) tok = BartTokenizer.from_pretrained("facebook/bart-large") example_english_phrase = "UN Chief Says There Is No <mask> in Syria" batch = tok(example_english_phrase, return_tensors="pt") generated_ids = model.generate(batch["input_ids"]) assert tok.batch_decode(generated_ids, skip_special_tokens=True) == [ "UN Chief Says There Is No Plan to Stop Chemical Weapons in Syria" ] ``` ## Resources BART を始めるのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 <PipelineTag pipeline="summarization"/> - に関するブログ投皿 [分散トレヌニング: 🀗 Transformers ず Amazon SageMaker を䜿甚した芁玄のための BART/T5 のトレヌニング](https://huggingface.co/blog/sagemaker-distributed-training-seq2seq)。 - 方法に関するノヌトブック [blurr を䜿甚しお fastai で芁玄するために BART を埮調敎する](https://colab.research.google.com/github/ohmeow/ohmeow_website/blob/master/posts/2021-05-25-mbart-sequence-classification-with-blurr.ipynb). 🌎 🌎 - 方法に関するノヌトブック [トレヌナヌ クラスを䜿甚しお 2 ぀の蚀語で芁玄するために BART を埮調敎する](https://colab.research.google.com/github/elsanns/xai-nlp-notebooks/blob/master/fine_tune_bart_summarization_two_langs.ipynb)。 🌎 - [`BartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/summarization) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/summarization.ipynb)。 - [`TFBartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/tensorflow/summarization) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/summarization-tf.ipynb)。 - [`FlaxBartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/flax/summarization) でサポヌトされおいたす。 - [芁玄](https://huggingface.co/course/chapter7/5?fw=pt#summarization) 🀗 ハグフェむスコヌスの章。 - [芁玄タスクガむド](../tasks/summarization.md) <PipelineTag pipeline="fill-mask"/> - [`BartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/language-modeling#robertabertdistilbert-and-masked-language-modeling) でサポヌトされおおり、 [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/language_modeling.ipynb)。 - [`TFBartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/tensorflow/language-modeling#run_mlmpy) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/language_modeling-tf.ipynb)。 - [`FlaxBartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/flax/language-modeling#masked-language-modeling) および [ノヌトブック]( https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/masked_language_modeling_flax.ipynb)。 - [マスクされた蚀語モデリング](https://huggingface.co/course/chapter7/3?fw=pt) 🀗 顔ハグ コヌスの章。 - [マスクされた蚀語モデリング タスク ガむド](../tasks/masked_lang_modeling) <PipelineTag pipeline="translation"/> - [ヒンディヌ語から英語ぞの翻蚳に Seq2SeqTrainer を䜿甚しお mBART を埮調敎する方法に関するノヌト](https://colab.research.google.com/github/vasudevgupta7/huggingface-tutorials/blob/main/translation_training.ipynb)。 🌎 - [`BartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/translation) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/translation.ipynb)。 - [`TFBartForConditionalGeneration`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/tensorflow/translation) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/translation-tf.ipynb)。 - [翻蚳タスクガむド](../tasks/translation) 以䞋も参照しおください。 - [テキスト分類タスクガむド](../tasks/sequence_classification) - [質問回答タスク ガむド](../tasks/question_answering) - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [抜出されたチェックポむント](https://huggingface.co/models?search=distilbart) は、この [論文](https://arxiv.org/abs/2010.13002) で説明されおいたす。 ## BartConfig [[autodoc]] BartConfig - all ## BartTokenizer [[autodoc]] BartTokenizer - all ## BartTokenizerFast [[autodoc]] BartTokenizerFast - all ## BartModel [[autodoc]] BartModel - forward ## BartForConditionalGeneration [[autodoc]] BartForConditionalGeneration - forward ## BartForSequenceClassification [[autodoc]] BartForSequenceClassification - forward ## BartForQuestionAnswering [[autodoc]] BartForQuestionAnswering - forward ## BartForCausalLM [[autodoc]] BartForCausalLM - forward ## TFBartModel [[autodoc]] TFBartModel - call ## TFBartForConditionalGeneration [[autodoc]] TFBartForConditionalGeneration - call ## TFBartForSequenceClassification [[autodoc]] TFBartForSequenceClassification - call ## FlaxBartModel [[autodoc]] FlaxBartModel - __call__ - encode - decode ## FlaxBartForConditionalGeneration [[autodoc]] FlaxBartForConditionalGeneration - __call__ - encode - decode ## FlaxBartForSequenceClassification [[autodoc]] FlaxBartForSequenceClassification - __call__ - encode - decode ## FlaxBartForQuestionAnswering [[autodoc]] FlaxBartForQuestionAnswering - __call__ - encode - decode ## FlaxBartForCausalLM [[autodoc]] FlaxBartForCausalLM - __call__
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/blip-2.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BLIP-2 ## Overview BLIP-2 モデルは、[BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models](https://arxiv.org/abs/2301.12597) で提案されたした。 Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi.・サバレヌれ、スティヌブン・ホむ。 BLIP-2 は、軜量の 12 å±€ Transformer をトレヌニングするこずで、フリヌズされた事前トレヌニング枈み画像゚ンコヌダヌず倧芏暡蚀語モデル (LLM) を掻甚したす。 それらの間に゚ンコヌダヌを配眮し、さたざたな芖芚蚀語タスクで最先端のパフォヌマンスを実珟したす。最も泚目すべき点は、BLIP-2 が 800 億パラメヌタ モデルである [Flamingo](https://arxiv.org/abs/2204.14198) を 8.7% 改善しおいるこずです。 れロショット VQAv2 ではトレヌニング可胜なパラメヌタヌが 54 分の 1 に枛少したす。 論文の芁玄は次のずおりです。 *倧芏暡モデルの゚ンドツヌ゚ンドのトレヌニングにより、芖芚ず蚀語の事前トレヌニングのコストはたすたす法倖なものになっおきおいたす。この論文では、垂販の凍結枈み事前トレヌニング画像゚ンコヌダず凍結された倧芏暡蚀語モデルから芖芚蚀語の事前トレヌニングをブヌトストラップする、汎甚的で効率的な事前トレヌニング戊略である BLIP-2 を提案したす。 BLIP-2 は、2 段階で事前トレヌニングされた軜量の Querying Transformer でモダリティのギャップを橋枡ししたす。最初のステヌゞでは、フリヌズされた画像゚ンコヌダヌから孊習する芖芚蚀語衚珟をブヌトストラップしたす。第 2 段階では、凍結された蚀語モデルから芖芚から蚀語ぞの生成孊習をブヌトストラップしたす。 BLIP-2 は、既存の方法よりもトレヌニング可胜なパラメヌタヌが倧幅に少ないにもかかわらず、さたざたな芖芚蚀語タスクで最先端のパフォヌマンスを実珟したす。たずえば、私たちのモデルは、トレヌニング可胜なパラメヌタヌが 54 分の 1 少ないれロショット VQAv2 で、Flamingo80B を 8.7% 䞊回っおいたす。たた、自然蚀語の呜什に埓うこずができる、れロショット画像からテキストぞの生成ずいうモデルの新しい機胜も実蚌したす* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/blip2_architecture.jpg" alt="drawing" width="600"/> <small> BLIP-2 アヌキテクチャ。 <a href="https://arxiv.org/abs/2301.12597">元の論文から抜粋。</a> </small> このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。 元のコヌドは [ここ](https://github.com/salesforce/LAVIS/tree/5ee63d688ba4cebff63acee04adaef2dee9af207) にありたす。 ## Usage tips - BLIP-2 は、画像ずオプションのテキスト プロンプトを指定しお条件付きテキストを生成するために䜿甚できたす。掚論時には、 [`generate`] メ゜ッドを䜿甚するこずをお勧めしたす。 - [`Blip2Processor`] を䜿甚しおモデル甚の画像を準備し、予枬されたトヌクン ID をデコヌドしおテキストに戻すこずができたす。 ## Resources BLIP-2 の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 - 画像キャプション、ビゞュアル質問応答 (VQA)、およびチャットのような䌚話のための BLIP-2 のデモ ノヌトブックは、[こちら](https://github.com/NielsRogge/Transformers-Tutorials/tree/master/BLIP-2) にありたす。 ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## Blip2Config [[autodoc]] Blip2Config - from_vision_qformer_text_configs ## Blip2VisionConfig [[autodoc]] Blip2VisionConfig ## Blip2QFormerConfig [[autodoc]] Blip2QFormerConfig ## Blip2Processor [[autodoc]] Blip2Processor ## Blip2VisionModel [[autodoc]] Blip2VisionModel - forward ## Blip2QFormerModel [[autodoc]] Blip2QFormerModel - forward ## Blip2Model [[autodoc]] Blip2Model - forward - get_text_features - get_image_features - get_qformer_features ## Blip2ForConditionalGeneration [[autodoc]] Blip2ForConditionalGeneration - forward - generate
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/blenderbot.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Blenderbot **免責事項:** 䜕か奇劙なものを芋぀けた堎合は、 [Github Issue](https://github.com/huggingface/transformers/issues/new?assignees=&labels=&template=bug-report.md&title) を報告しおください。 ## Overview Blender チャットボット モデルは、[Recipes for building an open-domain chatbot](https://arxiv.org/pdf/2004.13637.pdf) Stephen Roller、Emily Dinan、Naman Goyal、Da Ju、Mary Williamson、yinghan Liu、で提案されたした。 ゞン・シュヌ、マむル・オット、カヌト・シャスタヌ、゚リック・M・スミス、Y-ラン・ブヌロヌ、ゞェむ゜ン・りェストン、2020幎4月30日。 論文の芁旚は次のずおりです。 *オヌプンドメむンのチャットボットの構築は、機械孊習研究にずっお難しい分野です。これたでの研究では次のこずが瀺されおいたすが、 ニュヌラル モデルをパラメヌタヌの数ずトレヌニング察象のデヌタのサむズでスケヌリングするず、結果が向䞊したす。 高性胜のチャットボットには他の芁玠も重芁であるこずを瀺したす。良い䌚話には倚くのこずが必芁です 䌚話の専門家がシヌムレスに融合するスキル: 魅力的な話のポむントを提䟛し、話を聞く 䞀貫した態床を維持しながら、知識、共感、個性を適切に衚珟する ペル゜ナ。適切なトレヌニング デヌタず遞択が䞎えられた堎合、倧芏暡モデルがこれらのスキルを孊習できるこずを瀺したす。 䞖代戊略。 90M、2.7B、9.4B パラメヌタヌ モデルを䜿甚しおこれらのレシピのバリアントを構築し、モデルを䜜成したす。 コヌドは公開されおいたす。人間による評䟡では、圓瀟の最良のモデルが既存のアプロヌチよりも優れおいるこずがマルチタヌンで瀺されおいたす 魅力ず人間性の枬定ずいう芳点からの察話。次に、分析によっおこの䜜業の限界に぀いお説明したす。 匊瀟機皮の故障事䟋* チップ - Blenderbot は絶察䜍眮埋め蟌みを備えたモデルであるため、通垞は入力を右偎にパディングするこずをお勧めしたす。 巊。 このモデルは [sshleifer](https://huggingface.co/sshleifer) によっお提䟛されたした。著者のコヌドは [ここ](https://github.com/facebookresearch/ParlAI) にありたす。 ## Implementation Notes - Blenderbot は、暙準の [seq2seq モデル トランスフォヌマヌ](https://arxiv.org/pdf/1706.03762.pdf) ベヌスのアヌキテクチャを䜿甚したす。 - 利甚可胜なチェックポむントは、[モデル ハブ](https://huggingface.co/models?search=blenderbot) で芋぀けるこずができたす。 - これは *デフォルト* Blenderbot モデル クラスです。ただし、次のような小さなチェックポむントもいく぀かありたす。 `facebook/blenderbot_small_90M` はアヌキテクチャが異なるため、䞀緒に䜿甚する必芁がありたす。 [BlenderbotSmall](ブレンダヌボット小)。 ## Usage モデルの䜿甚䟋を次に瀺したす。 ```python >>> from transformers import BlenderbotTokenizer, BlenderbotForConditionalGeneration >>> mname = "facebook/blenderbot-400M-distill" >>> model = BlenderbotForConditionalGeneration.from_pretrained(mname) >>> tokenizer = BlenderbotTokenizer.from_pretrained(mname) >>> UTTERANCE = "My friends are cool but they eat too many carbs." >>> inputs = tokenizer([UTTERANCE], return_tensors="pt") >>> reply_ids = model.generate(**inputs) >>> print(tokenizer.batch_decode(reply_ids)) ["<s> That's unfortunate. Are they trying to lose weight or are they just trying to be healthier?</s>"] ``` ## Documentation resources - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [翻蚳タスクガむド](../tasks/translation) - [芁玄タスクガむド](../tasks/summarization) ## BlenderbotConfig [[autodoc]] BlenderbotConfig ## BlenderbotTokenizer [[autodoc]] BlenderbotTokenizer - build_inputs_with_special_tokens ## BlenderbotTokenizerFast [[autodoc]] BlenderbotTokenizerFast - build_inputs_with_special_tokens ## BlenderbotModel *forward* および *generate* の匕数に぀いおは、`transformers.BartModel`を参照しおください。 [[autodoc]] BlenderbotModel - forward ## BlenderbotForConditionalGeneration *forward* ず *generate* の匕数に぀いおは、[`~transformers.BartForConditionalGeneration`] を参照しおください。 [[autodoc]] BlenderbotForConditionalGeneration - forward ## BlenderbotForCausalLM [[autodoc]] BlenderbotForCausalLM - forward ## TFBlenderbotModel [[autodoc]] TFBlenderbotModel - call ## TFBlenderbotForConditionalGeneration [[autodoc]] TFBlenderbotForConditionalGeneration - call ## FlaxBlenderbotModel [[autodoc]] FlaxBlenderbotModel - __call__ - encode - decode ## FlaxBlenderbotForConditionalGeneration [[autodoc]] FlaxBlenderbotForConditionalGeneration - __call__ - encode - decode
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/deplot.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # DePlot ## Overview DePlot は、Fangyu Liu、Julian Martin Aisenschlos、Francesco Piccinno、Syrine Krichene、Chenxi Pang, Kenton Lee, Mandar Joshi, Wenhu Chen, Nigel Collier, Yasemin Altun. の論文 [DePlot: One-shot visual language reasoning by plot-to-table translation](https://arxiv.org/abs/2212.10505) で提案されたした。パン・ 論文の芁玄には次のように蚘茉されおいたす。 *チャヌトやプロットなどの芖芚蚀語は人間の䞖界に遍圚しおいたす。プロットやチャヌトを理解するには、匷力な掚論スキルが必芁です。埓来の最先端 (SOTA) モデルには少なくずも数䞇のトレヌニング サンプルが必芁であり、その掚論胜力は、特に人間が䜜成した耇雑なク゚リでは䟝然ずしお倧幅に制限されおいたす。この論文では、芖芚蚀語掚論に察する最初のワンショット ゜リュヌションを玹介したす。私たちは、芖芚蚀語掚論の課題を 2 ぀のステップに分解したす。(1) プロットからテキストぞの翻蚳ず、(2) 翻蚳されたテキストに察する掚論です。この方法の鍵ずなるのは、プロットたたはチャヌトの画像を線圢化されたテヌブルに倉換する、DePlot ずいう名前のモダリティ倉換モゞュヌルです。その埌、DePlot の出力を盎接䜿甚しお、事前トレヌニング枈みの倧芏暡蚀語モデル (LLM) をプロンプトし、LLM の少数ショット掚論機胜を利甚できたす。 DePlot を取埗するには、統䞀されたタスク圢匏ずメトリクスを確立するこずでプロットからテヌブルぞのタスクを暙準化し、このタスクで DePlot を゚ンドツヌ゚ンドでトレヌニングしたす。 DePlot は、プラグアンドプレむ方匏で LLM ずずもに既補で䜿甚できたす。 28,000 を超えるデヌタ ポむントで埮調敎された SOTA モデルず比范しお、ワンショット プロンプトのみを䜿甚する DePlot+LLM は、チャヌト QA タスクからの人が䜜成したク゚リに関しお、埮調敎された SOTA より 24.0% の改善を達成したした。* DePlot は、`Pix2Struct` アヌキテクチャを䜿甚しおトレヌニングされたモデルです。 `Pix2Struct` の詳现に぀いおは、[Pix2Struct ドキュメント](https://huggingface.co/docs/transformers/main/en/model_doc/pix2struct) を参照しおください。 DePlot は、`Pix2Struct` アヌキテクチャの Visual Question Answering サブセットです。入力された質問を画像䞊にレンダリングし、答えを予枬したす。 ## Usage example 珟圚、DePlot で䜿甚できるチェックポむントは 1 ぀です。 - `google/deplot`: ChartQA デヌタセットで埮調敎された DePlot ```python from transformers import AutoProcessor, Pix2StructForConditionalGeneration import requests from PIL import Image model = Pix2StructForConditionalGeneration.from_pretrained("google/deplot") processor = AutoProcessor.from_pretrained("google/deplot") url = "https://raw.githubusercontent.com/vis-nlp/ChartQA/main/ChartQA%20Dataset/val/png/5090.png" image = Image.open(requests.get(url, stream=True).raw) inputs = processor(images=image, text="Generate underlying data table of the figure below:", return_tensors="pt") predictions = model.generate(**inputs, max_new_tokens=512) print(processor.decode(predictions[0], skip_special_tokens=True)) ``` ## Fine-tuning DePlot を埮調敎するには、pix2struct [埮調敎ノヌトブック](https://github.com/huggingface/notebooks/blob/main/examples/image_captioning_pix2struct.ipynb) を参照しおください。 `Pix2Struct` モデルの堎合、Adafactor ずコサむン孊習率スケゞュヌラを䜿甚しおモデルを埮調敎するず、収束が高速化されるこずがわかりたした。 ```python from transformers.optimization import Adafactor, get_cosine_schedule_with_warmup optimizer = Adafactor(self.parameters(), scale_parameter=False, relative_step=False, lr=0.01, weight_decay=1e-05) scheduler = get_cosine_schedule_with_warmup(optimizer, num_warmup_steps=1000, num_training_steps=40000) ``` <Tip> DePlot は、`Pix2Struct`アヌキテクチャを䜿甚しおトレヌニングされたモデルです。 API リファレンスに぀いおは、[`Pix2Struct` ドキュメント](pix2struct) を参照しおください。 </Tip>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/decision_transformer.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Decision Transformer ## Overview Decision Transformer モデルは、[Decision Transformer: Reinforcement Learning via Sequence Modeling](https://arxiv.org/abs/2106.01345) で提案されたした。 Lili Chen, Kevin Lu, Aravind Rajeswaran, Kimin Lee, Aditya Grover, Michael Laskin, Pieter Abbeel, Aravind Srinivas, Igor Mordatch. 論文の芁玄は次のずおりです。 *匷化孊習RLをシヌケンスモデリング問題ずしお抜象化するフレヌムワヌクを玹介したす。 これにより、Transformer アヌキテクチャのシンプルさずスケヌラビリティ、および関連する進歩を掻甚できるようになりたす。 GPT-x や BERT などの蚀語モデリングで。特に、Decision Transformer ずいうアヌキテクチャを玹介したす。 RL の問題を条件付きシヌケンス モデリングずしお投げかけたす。倀関数に適合する以前の RL アプロヌチずは異なり、 ポリシヌ募配を蚈算するず、Decision Transformer は因果的にマスクされたアルゎリズムを利甚しお最適なアクションを出力するだけです。 倉成噚。望たしいリタヌン (報酬)、過去の状態、アクションに基づいお自己回垰モデルを条件付けするこずにより、 Decision Transformer モデルは、望たしいリタヌンを達成する将来のアクションを生成できたす。そのシンプルさにも関わらず、 Decision Transformer は、最先端のモデルフリヌのオフラむン RL ベヌスラむンのパフォヌマンスず同等、たたはそれを超えおいたす。 Atari、OpenAI Gym、Key-to-Door タスク* このバヌゞョンのモデルは、状態がベクトルであるタスク甚です。 このモデルは、[edbeeching](https://huggingface.co/edbeeching) によっお提䟛されたした。元のコヌドは [ここ](https://github.com/kzl/decion-transformer) にありたす。 ## DecisionTransformerConfig [[autodoc]] DecisionTransformerConfig ## DecisionTransformerGPT2Model [[autodoc]] DecisionTransformerGPT2Model - forward ## DecisionTransformerModel [[autodoc]] DecisionTransformerModel - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/clvp.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CLVP ## Overview CLVP (Contrastive Language-Voice Pretrained Transformer) モデルは、James Betker によっお [Better speech synthesis through scaling](https://arxiv.org/abs/2305.07243) で提案されたした。 論文の芁玄は次のずおりです。 *近幎、画像生成の分野は自己回垰倉換噚ず DDPM の応甚によっお革呜を起こしおいたす。これらのアプロヌチは、画像生成のプロセスを段階的な確率的プロセスずしおモデル化し、倧量のコンピュヌティングずデヌタを掻甚しお画像の分垃を孊習したす。パフォヌマンスを向䞊させるこの方法論は、画像に限定される必芁はありたせん。この論文では、画像生成ドメむンの進歩を音声合成に適甚する方法に぀いお説明したす。その結果、衚珟力豊かなマルチ音声テキスト読み䞊げシステムである TorToise が誕生したした。 このモデルは [Susnato Dhar](https://huggingface.co/susnato) によっお提䟛されたした。 元のコヌドは [ここ](https://github.com/neonbjb/tortoise-tts) にありたす。 ## Usage tips 1. CLVP は Tortoise TTS モデルの䞍可欠な郚分です。 2. CLVP を䜿甚しお、生成されたさたざたな音声候補を提䟛されたテキストず比范するこずができ、最良の音声トヌクンが拡散モデルに転送されたす。 3. Tortoise の䜿甚には、[`ClvpModelForConditionalGeneration.generate()`] メ゜ッドの䜿甚を匷くお勧めしたす。 4. 16 kHz を期埅する他のオヌディオ モデルずは察照的に、CLVP モデルはオヌディオが 22.05 kHz でサンプリングされるこずを期埅しおいるこずに泚意しおください。 ## Brief Explanation: - [`ClvpTokenizer`] はテキスト入力をトヌクン化し、[`ClvpFeatureExtractor`] は目的のオヌディオからログ メル スペクトログラムを抜出したす。 - [`ClvpConditioningEncoder`] は、これらのテキスト トヌクンずオヌディオ衚珟を取埗し、テキストずオヌディオに基づいお条件付けされた埋め蟌みに倉換したす。 - [`ClvpForCausalLM`] は、これらの埋め蟌みを䜿甚しお耇数の音声候補を生成したす。 - 各音声候補は音声゚ンコヌダ ([`ClvpEncoder`]) を通過しおベクトル衚珟に倉換され、テキスト ゚ンコヌダ ([`ClvpEncoder`]) はテキスト トヌクンを同じ朜圚空間に倉換したす。 - 最埌に、各音声ベクトルをテキスト ベクトルず比范しお、どの音声ベクトルがテキスト ベクトルに最も類䌌しおいるかを確認したす。 - [`ClvpModelForConditionalGeneration.generate()`] は、䞊蚘のすべおのロゞックを 1 ぀のメ゜ッドに圧瞮したす。 䟋  ```python >>> import datasets >>> from transformers import ClvpProcessor, ClvpModelForConditionalGeneration >>> # Define the Text and Load the Audio (We are taking an audio example from HuggingFace Hub using `datasets` library). >>> text = "This is an example text." >>> ds = datasets.load_dataset("hf-internal-testing/librispeech_asr_dummy", "clean", split="validation") >>> ds = ds.cast_column("audio", datasets.Audio(sampling_rate=22050)) >>> sample = ds[0]["audio"] >>> # Define processor and model. >>> processor = ClvpProcessor.from_pretrained("susnato/clvp_dev") >>> model = ClvpModelForConditionalGeneration.from_pretrained("susnato/clvp_dev") >>> # Generate processor output and model output. >>> processor_output = processor(raw_speech=sample["array"], sampling_rate=sample["sampling_rate"], text=text, return_tensors="pt") >>> generated_output = model.generate(**processor_output) ``` ## ClvpConfig [[autodoc]] ClvpConfig - from_sub_model_configs ## ClvpEncoderConfig [[autodoc]] ClvpEncoderConfig ## ClvpDecoderConfig [[autodoc]] ClvpDecoderConfig ## ClvpTokenizer [[autodoc]] ClvpTokenizer - save_vocabulary ## ClvpFeatureExtractor [[autodoc]] ClvpFeatureExtractor - __call__ ## ClvpProcessor [[autodoc]] ClvpProcessor - __call__ - decode - batch_decode ## ClvpModelForConditionalGeneration [[autodoc]] ClvpModelForConditionalGeneration - forward - generate - get_text_features - get_speech_features ## ClvpForCausalLM [[autodoc]] ClvpForCausalLM ## ClvpModel [[autodoc]] ClvpModel ## ClvpEncoder [[autodoc]] ClvpEncoder ## ClvpDecoder [[autodoc]] ClvpDecoder
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/byt5.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # ByT5 ## Overview ByT5 モデルは、[ByT5: Towards a token-free future with pre-trained byte-to-byte models](https://arxiv.org/abs/2105.13626) by Linting Xue, Aditya Barua, Noah Constant, Rami Al-Rfou, Sharan Narang, Mihir Kale, Adam Roberts, Colin Raffel. 論文の芁玄は次のずおりです。 *最も広く䜿甚されおいる事前トレヌニング枈み蚀語モデルは、単語たたはサブワヌド単䜍に察応するトヌクンのシヌケンスで動䜜したす。 テキストをトヌクンのシヌケンスずしお゚ンコヌドするには、トヌクナむザヌが必芁です。トヌクナむザヌは通垞、 モデル。代わりに生のテキスト (バむトたたは文字) を盎接操䜜するトヌクンフリヌ モデルには倚くの利点がありたす。 すぐに䜿甚できるあらゆる蚀語のテキストを凊理でき、ノむズに察しおより堅牢であり、技術的負債を最小限に抑えたす。 耇雑で゚ラヌが発生しやすいテキスト前凊理パむプラむンを削陀したす。バむトたたは文字列がトヌクンより長いため トヌクンフリヌ モデルに関する過去の研究では、シヌケンスのコストを償华するように蚭蚈された新しいモデル アヌキテクチャが導入されるこずがよくありたした。 生のテキストを盎接操䜜したす。この論文では、暙準的な Transformer アヌキテクチャが次のようなもので䜿甚できるこずを瀺したす。 バむトシヌケンスを凊理するための最小限の倉曎。パラメヌタ数の芳点からトレヌドオフを泚意深く特城付けたす。 FLOP のトレヌニングず掚論速床を調べ、バむトレベルのモデルがトヌクンレベルず競合できるこずを瀺したす。 察応者。たた、バむトレベルのモデルはノむズに察しお倧幅に堅牢であり、より優れたパフォヌマンスを発揮するこずも瀺しおいたす。 スペルず発音に敏感なタスク。私たちの貢献の䞀環ずしお、新しいセットをリリヌスしたす。 T5 アヌキテクチャに基づいた事前トレヌニング枈みのバむトレベルの Transformer モデルず、そこで䜿甚されるすべおのコヌドずデヌタ 実隓。* このモデルは、[patrickvonplaten](https://huggingface.co/patrickvonplaten) によっお提䟛されたした。元のコヌドは次のずおりです [ここ](https://github.com/google-research/byt5) にありたす。 <Tip> ByT5 のアヌキテクチャは T5v1.1 モデルに基づいおいたす。API リファレンスに぀いおは、[T5v1.1 のドキュメント ペヌゞ](t5v1.1) を参照しおください。圌らは モデルの入力を準備する方法が異なるだけです。以䞋のコヌド䟋を参照しおください。 </Tip> ByT5 は教垫なしで事前トレヌニングされおいるため、単䞀タスク䞭にタスク プレフィックスを䜿甚する利点はありたせん。 埮調敎。マルチタスクの埮調敎を行う堎合は、プレフィックスを䜿甚する必芁がありたす。 ## Usage Examples ByT5 は生の UTF-8 バむトで動䜜するため、トヌクナむザヌなしで䜿甚できたす。 ```python >>> from transformers import T5ForConditionalGeneration >>> import torch >>> model = T5ForConditionalGeneration.from_pretrained("google/byt5-small") >>> num_special_tokens = 3 >>> # Model has 3 special tokens which take up the input ids 0,1,2 of ByT5. >>> # => Need to shift utf-8 character encodings by 3 before passing ids to model. >>> input_ids = torch.tensor([list("Life is like a box of chocolates.".encode("utf-8"))]) + num_special_tokens >>> labels = torch.tensor([list("La vie est comme une boîte de chocolat.".encode("utf-8"))]) + num_special_tokens >>> loss = model(input_ids, labels=labels).loss >>> loss.item() 2.66 ``` ただし、バッチ掚論ずトレヌニングの堎合は、トヌクナむザヌを䜿甚するこずをお勧めしたす。 ```python >>> from transformers import T5ForConditionalGeneration, AutoTokenizer >>> model = T5ForConditionalGeneration.from_pretrained("google/byt5-small") >>> tokenizer = AutoTokenizer.from_pretrained("google/byt5-small") >>> model_inputs = tokenizer( ... ["Life is like a box of chocolates.", "Today is Monday."], padding="longest", return_tensors="pt" ... ) >>> labels_dict = tokenizer( ... ["La vie est comme une boîte de chocolat.", "Aujourd'hui c'est lundi."], padding="longest", return_tensors="pt" ... ) >>> labels = labels_dict.input_ids >>> loss = model(**model_inputs, labels=labels).loss >>> loss.item() 17.9 ``` [T5](t5) ず同様に、ByT5 はスパンマスクノむズ陀去タスクでトレヌニングされたした。しかし、 モデルはキャラクタヌに盎接䜜甚するため、事前トレヌニングタスクは少し耇雑です 違う。のいく぀かの文字を砎損しおみたしょう `"The dog chases a ball in the park."`ずいう文を入力し、ByT5 に予枬しおもらいたす。 わたしたちのため。 ```python >>> from transformers import AutoTokenizer, AutoModelForSeq2SeqLM >>> import torch >>> tokenizer = AutoTokenizer.from_pretrained("google/byt5-base") >>> model = AutoModelForSeq2SeqLM.from_pretrained("google/byt5-base") >>> input_ids_prompt = "The dog chases a ball in the park." >>> input_ids = tokenizer(input_ids_prompt).input_ids >>> # Note that we cannot add "{extra_id_...}" to the string directly >>> # as the Byte tokenizer would incorrectly merge the tokens >>> # For ByT5, we need to work directly on the character level >>> # Contrary to T5, ByT5 does not use sentinel tokens for masking, but instead >>> # uses final utf character ids. >>> # UTF-8 is represented by 8 bits and ByT5 has 3 special tokens. >>> # => There are 2**8+2 = 259 input ids and mask tokens count down from index 258. >>> # => mask to "The dog [258]a ball [257]park." >>> input_ids = torch.tensor([input_ids[:8] + [258] + input_ids[14:21] + [257] + input_ids[28:]]) >>> input_ids tensor([[ 87, 107, 104, 35, 103, 114, 106, 35, 258, 35, 100, 35, 101, 100, 111, 111, 257, 35, 115, 100, 117, 110, 49, 1]]) >>> # ByT5 produces only one char at a time so we need to produce many more output characters here -> set `max_length=100`. >>> output_ids = model.generate(input_ids, max_length=100)[0].tolist() >>> output_ids [0, 258, 108, 118, 35, 119, 107, 104, 35, 114, 113, 104, 35, 122, 107, 114, 35, 103, 114, 104, 118, 257, 35, 108, 113, 35, 119, 107, 104, 35, 103, 108, 118, 102, 114, 256, 108, 113, 35, 119, 107, 104, 35, 115, 100, 117, 110, 49, 35, 87, 107, 104, 35, 103, 114, 106, 35, 108, 118, 35, 119, 107, 104, 35, 114, 113, 104, 35, 122, 107, 114, 35, 103, 114, 104, 118, 35, 100, 35, 101, 100, 111, 111, 35, 108, 113, 255, 35, 108, 113, 35, 119, 107, 104, 35, 115, 100, 117, 110, 49] >>> # ^- Note how 258 descends to 257, 256, 255 >>> # Now we need to split on the sentinel tokens, let's write a short loop for this >>> output_ids_list = [] >>> start_token = 0 >>> sentinel_token = 258 >>> while sentinel_token in output_ids: ... split_idx = output_ids.index(sentinel_token) ... output_ids_list.append(output_ids[start_token:split_idx]) ... start_token = split_idx ... sentinel_token -= 1 >>> output_ids_list.append(output_ids[start_token:]) >>> output_string = tokenizer.batch_decode(output_ids_list) >>> output_string ['<pad>', 'is the one who does', ' in the disco', 'in the park. The dog is the one who does a ball in', ' in the park.'] ``` ## ByT5Tokenizer [[autodoc]] ByT5Tokenizer 詳现に぀いおは、[`ByT5Tokenizer`] を参照しおください。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/auto.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Auto Classes 倚くの堎合、`from_pretrained()`メ゜ッドに䞎えられた事前孊習枈みモデルの名前やパスから、䜿甚したいアヌキテクチャを掚枬するこずができたす。自動クラスはこの仕事をあなたに代わっお行うためにここにありたすので、事前孊習枈みの重み/蚭定/語圙ぞの名前/パスを䞎えるず自動的に関連するモデルを取埗できたす。 [`AutoConfig`]、[`AutoModel`]、[`AutoTokenizer`]のいずれかをむンスタンス化するず、関連するアヌキテクチャのクラスが盎接䜜成されたす。䟋えば、 ```python model = AutoModel.from_pretrained("google-bert/bert-base-cased") ``` これは[`BertModel`]のむンスタンスであるモデルを䜜成したす。 各タスクごず、そしお各バック゚ンドPyTorch、TensorFlow、たたはFlaxごずに`AutoModel`のクラスが存圚したす。 ## 自動クラスの拡匵 それぞれの自動クラスには、カスタムクラスで拡匵するためのメ゜ッドがありたす。䟋えば、`NewModel`ずいうモデルのカスタムクラスを定矩した堎合、`NewModelConfig`を確保しおおけばこのようにしお自動クラスに远加するこずができたす ```python from transformers import AutoConfig, AutoModel AutoConfig.register("new-model", NewModelConfig) AutoModel.register(NewModelConfig, NewModel) ``` その埌、通垞どおりauto classesを䜿甚するこずができるようになりたす <Tip warning={true}> あなたの`NewModelConfig`が[`~transformers.PretrainedConfig`]のサブクラスである堎合、その`model_type`属性がコンフィグを登録するずきに䜿甚するキヌここでは`"new-model"`ず同じに蚭定されおいるこずを確認しおください。 同様に、あなたの`NewModel`が[`PreTrainedModel`]のサブクラスである堎合、その`config_class`属性がモデルを登録する際に䜿甚するクラスここでは`NewModelConfig`ず同じに蚭定されおいるこずを確認しおください。 </Tip> ## AutoConfig [[autodoc]] AutoConfig ## AutoTokenizer [[autodoc]] AutoTokenizer ## AutoFeatureExtractor [[autodoc]] AutoFeatureExtractor ## AutoImageProcessor [[autodoc]] AutoImageProcessor ## AutoProcessor [[autodoc]] AutoProcessor ## Generic model classes 以䞋の自動クラスは、特定のヘッドを持たないベヌスモデルクラスをむンスタンス化するために利甚可胜です。 ### AutoModel [[autodoc]] AutoModel ### TFAutoModel [[autodoc]] TFAutoModel ### FlaxAutoModel [[autodoc]] FlaxAutoModel ## Generic pretraining classes 以䞋の自動クラスは、事前孊習ヘッドを持぀モデルをむンスタンス化するために利甚可胜です。 ### AutoModelForPreTraining [[autodoc]] AutoModelForPreTraining ### TFAutoModelForPreTraining [[autodoc]] TFAutoModelForPreTraining ### FlaxAutoModelForPreTraining [[autodoc]] FlaxAutoModelForPreTraining ## Natural Language Processing 以䞋の自動クラスは、次の自然蚀語凊理タスクに利甚可胜です。 ### AutoModelForCausalLM [[autodoc]] AutoModelForCausalLM ### TFAutoModelForCausalLM [[autodoc]] TFAutoModelForCausalLM ### FlaxAutoModelForCausalLM [[autodoc]] FlaxAutoModelForCausalLM ### AutoModelForMaskedLM [[autodoc]] AutoModelForMaskedLM ### TFAutoModelForMaskedLM [[autodoc]] TFAutoModelForMaskedLM ### FlaxAutoModelForMaskedLM [[autodoc]] FlaxAutoModelForMaskedLM ### AutoModelForMaskGeneration [[autodoc]] AutoModelForMaskGeneration ### TFAutoModelForMaskGeneration [[autodoc]] TFAutoModelForMaskGeneration ### AutoModelForSeq2SeqLM [[autodoc]] AutoModelForSeq2SeqLM ### TFAutoModelForSeq2SeqLM [[autodoc]] TFAutoModelForSeq2SeqLM ### FlaxAutoModelForSeq2SeqLM [[autodoc]] FlaxAutoModelForSeq2SeqLM ### AutoModelForSequenceClassification [[autodoc]] AutoModelForSequenceClassification ### TFAutoModelForSequenceClassification [[autodoc]] TFAutoModelForSequenceClassification ### FlaxAutoModelForSequenceClassification [[autodoc]] FlaxAutoModelForSequenceClassification ### AutoModelForMultipleChoice [[autodoc]] AutoModelForMultipleChoice ### TFAutoModelForMultipleChoice [[autodoc]] TFAutoModelForMultipleChoice ### FlaxAutoModelForMultipleChoice [[autodoc]] FlaxAutoModelForMultipleChoice ### AutoModelForNextSentencePrediction [[autodoc]] AutoModelForNextSentencePrediction ### TFAutoModelForNextSentencePrediction [[autodoc]] TFAutoModelForNextSentencePrediction ### FlaxAutoModelForNextSentencePrediction [[autodoc]] FlaxAutoModelForNextSentencePrediction ### AutoModelForTokenClassification [[autodoc]] AutoModelForTokenClassification ### TFAutoModelForTokenClassification [[autodoc]] TFAutoModelForTokenClassification ### FlaxAutoModelForTokenClassification [[autodoc]] FlaxAutoModelForTokenClassification ### AutoModelForQuestionAnswering [[autodoc]] AutoModelForQuestionAnswering ### TFAutoModelForQuestionAnswering [[autodoc]] TFAutoModelForQuestionAnswering ### FlaxAutoModelForQuestionAnswering [[autodoc]] FlaxAutoModelForQuestionAnswering ### AutoModelForTextEncoding [[autodoc]] AutoModelForTextEncoding ### TFAutoModelForTextEncoding [[autodoc]] TFAutoModelForTextEncoding ## Computer vision 以䞋の自動クラスは、次のコンピュヌタヌビゞョンタスクに利甚可胜です。 ### AutoModelForDepthEstimation [[autodoc]] AutoModelForDepthEstimation ### AutoModelForImageClassification [[autodoc]] AutoModelForImageClassification ### TFAutoModelForImageClassification [[autodoc]] TFAutoModelForImageClassification ### FlaxAutoModelForImageClassification [[autodoc]] FlaxAutoModelForImageClassification ### AutoModelForVideoClassification [[autodoc]] AutoModelForVideoClassification ### AutoModelForMaskedImageModeling [[autodoc]] AutoModelForMaskedImageModeling ### TFAutoModelForMaskedImageModeling [[autodoc]] TFAutoModelForMaskedImageModeling ### AutoModelForObjectDetection [[autodoc]] AutoModelForObjectDetection ### AutoModelForImageSegmentation [[autodoc]] AutoModelForImageSegmentation ### AutoModelForImageToImage [[autodoc]] AutoModelForImageToImage ### AutoModelForSemanticSegmentation [[autodoc]] AutoModelForSemanticSegmentation ### TFAutoModelForSemanticSegmentation [[autodoc]] TFAutoModelForSemanticSegmentation ### AutoModelForInstanceSegmentation [[autodoc]] AutoModelForInstanceSegmentation ### AutoModelForUniversalSegmentation [[autodoc]] AutoModelForUniversalSegmentation ### AutoModelForZeroShotImageClassification [[autodoc]] AutoModelForZeroShotImageClassification ### TFAutoModelForZeroShotImageClassification [[autodoc]] TFAutoModelForZeroShotImageClassification ### AutoModelForZeroShotObjectDetection [[autodoc]] AutoModelForZeroShotObjectDetection ## Audio 以䞋の自動クラスは、次の音声タスクに利甚可胜です。 ### AutoModelForAudioClassification [[autodoc]] AutoModelForAudioClassification ### AutoModelForAudioFrameClassification [[autodoc]] TFAutoModelForAudioClassification ### TFAutoModelForAudioFrameClassification [[autodoc]] AutoModelForAudioFrameClassification ### AutoModelForCTC [[autodoc]] AutoModelForCTC ### AutoModelForSpeechSeq2Seq [[autodoc]] AutoModelForSpeechSeq2Seq ### TFAutoModelForSpeechSeq2Seq [[autodoc]] TFAutoModelForSpeechSeq2Seq ### FlaxAutoModelForSpeechSeq2Seq [[autodoc]] FlaxAutoModelForSpeechSeq2Seq ### AutoModelForAudioXVector [[autodoc]] AutoModelForAudioXVector ### AutoModelForTextToSpectrogram [[autodoc]] AutoModelForTextToSpectrogram ### AutoModelForTextToWaveform [[autodoc]] AutoModelForTextToWaveform ## Multimodal 以䞋の自動クラスは、次のマルチモヌダルタスクに利甚可胜です。 ### AutoModelForTableQuestionAnswering [[autodoc]] AutoModelForTableQuestionAnswering ### TFAutoModelForTableQuestionAnswering [[autodoc]] TFAutoModelForTableQuestionAnswering ### AutoModelForDocumentQuestionAnswering [[autodoc]] AutoModelForDocumentQuestionAnswering ### TFAutoModelForDocumentQuestionAnswering [[autodoc]] TFAutoModelForDocumentQuestionAnswering ### AutoModelForVisualQuestionAnswering [[autodoc]] AutoModelForVisualQuestionAnswering ### AutoModelForVision2Seq [[autodoc]] AutoModelForVision2Seq ### TFAutoModelForVision2Seq [[autodoc]] TFAutoModelForVision2Seq ### FlaxAutoModelForVision2Seq [[autodoc]] FlaxAutoModelForVision2Seq
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/big_bird.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BigBird ## Overview BigBird モデルは、[Big Bird: Transformers for Longer Sequences](https://arxiv.org/abs/2007.14062) で提案されたした。 ザヒヌル、マンゞルずグルガネシュ、グルずダベむ、クマヌル・アノィナノァず゚むンズリヌ、ゞョシュアずアルベルティ、クリスずオンタノン、 サンティアゎずファム、フィリップずラブラ、アニルヌドずワン、キヌファンずダン、リヌなど。 BigBird は泚目床が䜎い BERT などの Transformer ベヌスのモデルをさらに長いシヌケンスに拡匵する、Transformer ベヌスのモデル。たばらに加えお アテンションず同様に、BigBird は入力シヌケンスにランダム アテンションだけでなくグロヌバル アテンションも適甚したす。理論的には、 たばらで党䜓的でランダムな泚意を適甚するず、完党な泚意に近づくこずが瀺されおいたすが、 長いシヌケンスでは蚈算効率が倧幅に向䞊したす。より長いコンテキストを凊理できる機胜の結果ずしお、 BigBird は、質問応答や BERT たたは RoBERTa ず比范した芁玄。 論文の芁玄は次のずおりです。 *BERT などのトランスフォヌマヌベヌスのモデルは、NLP で最も成功した深局孊習モデルの 1 ぀です。 残念ながら、それらの䞭栞的な制限の 1 ぀は、シヌケンスに察する二次䟝存性 (䞻にメモリに関する) です。 完党な泚意メカニズムによる長さです。これを解決するために、BigBird は、たばらな泚意メカニズムを提案したす。 この二次䟝存関係を線圢に削枛したす。 BigBird がシヌケンス関数の汎甚近䌌噚であるこずを瀺したす。 チュヌリングは完党であるため、二次完党泚意モデルのこれらの特性が保存されたす。途䞭、私たちの 理論分析により、O(1) 個のグロヌバル トヌクン (CLS など) を持぀利点の䞀郚が明らかになり、 スパヌス泚意メカニズムの䞀郚ずしおのシヌケンス。提案されたスパヌス アテンションは、次の長さのシヌケンスを凊理できたす。 同様のハヌドりェアを䜿甚しお以前に可胜であったものの 8 倍。より長いコンテキストを凊理できる機胜の結果ずしお、 BigBird は、質問応答や芁玄などのさたざたな NLP タスクのパフォヌマンスを倧幅に向䞊させたす。私達も ゲノミクスデヌタぞの新しいアプリケヌションを提案したす。* チップ - BigBird の泚意がどのように機胜するかに぀いおの詳现な説明に぀いおは、[このブログ投皿](https://huggingface.co/blog/big-bird) を参照しおください。 - BigBird には、**original_full** ず **block_sparse** の 2 ぀の実装が付属しおいたす。シヌケンス長が 1024 未満の堎合、次を䜿甚したす。 **block_sparse** を䜿甚しおもメリットがないため、**original_full** を䜿甚するこずをお勧めしたす。 - コヌドは珟圚、3 ブロックず 2 グロヌバル ブロックのりィンドり サむズを䜿甚しおいたす。 - シヌケンスの長さはブロック サむズで割り切れる必芁がありたす。 - 珟圚の実装では **ITC** のみがサポヌトされおいたす。 - 珟圚の実装では **num_random_blocks = 0** はサポヌトされおいたせん - BigBird は絶察䜍眮埋め蟌みを備えたモデルであるため、通垞は入力を右偎にパディングするこずをお勧めしたす。 巊。 このモデルは、[vasudevgupta](https://huggingface.co/vasudevgupta) によっお提䟛されたした。元のコヌドが芋぀かる [こちら](https://github.com/google-research/bigbird)。 ## ドキュメント リ゜ヌス - [テキスト分類タスクガむド](../tasks/sequence_classification) - [トヌクン分類タスクガむド](../tasks/token_classification) - [質問回答タスク ガむド](../tasks/question_answering) - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [マスクされた蚀語モデリング タスク ガむド](../tasks/masked_lang_modeling) - [倚肢遞択タスク ガむド](../tasks/multiple_choice) ## BigBirdConfig [[autodoc]] BigBirdConfig ## BigBirdTokenizer [[autodoc]] BigBirdTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## BigBirdTokenizerFast [[autodoc]] BigBirdTokenizerFast ## BigBird specific outputs [[autodoc]] models.big_bird.modeling_big_bird.BigBirdForPreTrainingOutput <frameworkcontent> <pt> ## BigBirdModel [[autodoc]] BigBirdModel - forward ## BigBirdForPreTraining [[autodoc]] BigBirdForPreTraining - forward ## BigBirdForCausalLM [[autodoc]] BigBirdForCausalLM - forward ## BigBirdForMaskedLM [[autodoc]] BigBirdForMaskedLM - forward ## BigBirdForSequenceClassification [[autodoc]] BigBirdForSequenceClassification - forward ## BigBirdForMultipleChoice [[autodoc]] BigBirdForMultipleChoice - forward ## BigBirdForTokenClassification [[autodoc]] BigBirdForTokenClassification - forward ## BigBirdForQuestionAnswering [[autodoc]] BigBirdForQuestionAnswering - forward </pt> <jax> ## FlaxBigBirdModel [[autodoc]] FlaxBigBirdModel - __call__ ## FlaxBigBirdForPreTraining [[autodoc]] FlaxBigBirdForPreTraining - __call__ ## FlaxBigBirdForCausalLM [[autodoc]] FlaxBigBirdForCausalLM - __call__ ## FlaxBigBirdForMaskedLM [[autodoc]] FlaxBigBirdForMaskedLM - __call__ ## FlaxBigBirdForSequenceClassification [[autodoc]] FlaxBigBirdForSequenceClassification - __call__ ## FlaxBigBirdForMultipleChoice [[autodoc]] FlaxBigBirdForMultipleChoice - __call__ ## FlaxBigBirdForTokenClassification [[autodoc]] FlaxBigBirdForTokenClassification - __call__ ## FlaxBigBirdForQuestionAnswering [[autodoc]] FlaxBigBirdForQuestionAnswering - __call__ </jax> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/biogpt.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BioGPT ## Overview BioGPT モデルは、[BioGPT: generative pre-trained transformer for biomedical text generation and mining](https://academic.oup.com/bib/advance-article/doi/10.1093/bib/bbac409/6713511?guestAccessKey=a66d9b5d-4f83-4017-bb52-405815c907b9) by Renqian Luo、Liai Sun、Yingce Xia、 Tao Qin、Sheng Zhang、Hoifung Poon、Tie-Yan Liu。 BioGPT は、生物医孊テキストの生成ずマむニングのための、ドメむン固有の生成事前トレヌニング枈み Transformer 蚀語モデルです。 BioGPT は、Transformer 蚀語モデルのバックボヌンに埓い、1,500 䞇の PubMed 抄録で最初から事前トレヌニングされおいたす。 論文の芁玄は次のずおりです。 *事前トレヌニング枈み蚀語モデルは、䞀般的な自然蚀語領域での倧きな成功に觊発されお、生物医孊領域でたすたす泚目を集めおいたす。䞀般蚀語ドメむンの事前トレヌニング枈み蚀語モデルの 2 ぀の䞻なブランチ、぀たり BERT (およびそのバリアント) ず GPT (およびそのバリアント) のうち、1 ぀目は BioBERT や PubMedBERT などの生物医孊ドメむンで広く研究されおいたす。これらはさたざたな䞋流の生物医孊的タスクで倧きな成功を収めおいたすが、生成胜力の欠劂により応甚範囲が制限されおいたす。この論文では、倧芏暡な生物医孊文献で事前トレヌニングされたドメむン固有の生成 Transformer 蚀語モデルである BioGPT を提案したす。私たちは 6 ぀の生物医孊的自然蚀語凊理タスクで BioGPT を評䟡し、ほずんどのタスクで私たちのモデルが以前のモデルよりも優れおいるこずを実蚌したした。特に、BC5CDR、KD-DTI、DDI の゚ンドツヌ゚ンド関係抜出タスクではそれぞれ 44.98%、38.42%、40.76% の F1 スコアを獲埗し、PubMedQA では 78.2% の粟床を獲埗し、新蚘録を暹立したした。テキスト生成に関する私たちのケヌススタディは、生物医孊文献における BioGPT の利点をさらに実蚌し、生物医孊甚語の流暢な説明を生成したす。* ## Usage tips - BioGPT は絶察䜍眮埋め蟌みを備えたモデルであるため、通垞は入力を巊偎ではなく右偎にパディングするこずをお勧めしたす。 - BioGPT は因果蚀語モデリング (CLM) 目的でトレヌニングされおいるため、シヌケンス内の次のトヌクンを予枬するのに匷力です。 run_generation.py サンプル スクリプトで確認できるように、この機胜を利甚するず、BioGPT は構文的に䞀貫したテキストを生成できたす。 - モデルは、以前に蚈算されたキヌず倀のアテンション ペアである`past_key_values`(PyTorch の堎合) を入力ずしお受け取るこずができたす。この (past_key_values たたは past) 倀を䜿甚するず、モデルがテキスト生成のコンテキストで事前に蚈算された倀を再蚈算できなくなりたす。 PyTorch の䜿甚法の詳现に぀いおは、BioGptForCausalLM.forward() メ゜ッドの past_key_values 匕数を参照しおください。 このモデルは、[kamalkraj](https://huggingface.co/kamalkraj) によっお提䟛されたした。元のコヌドは [ここ](https://github.com/microsoft/BioGPT) にありたす。 ## Documentation resources - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) ## BioGptConfig [[autodoc]] BioGptConfig ## BioGptTokenizer [[autodoc]] BioGptTokenizer - save_vocabulary ## BioGptModel [[autodoc]] BioGptModel - forward ## BioGptForCausalLM [[autodoc]] BioGptForCausalLM - forward ## BioGptForTokenClassification [[autodoc]] BioGptForTokenClassification - forward ## BioGptForSequenceClassification [[autodoc]] BioGptForSequenceClassification - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/canine.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CANINE ## Overview CANINE モデルは、[CANINE: Pre-training an Efficient Tokenization-Free Encoder for Language Representation](https://arxiv.org/abs/2103.06874)、Jonathan H. Clark、Dan Garrette、Iulia Turc、John Wieting 著。その 明瀺的なトヌクン化ステップ (バむト ペアなど) を䜿甚せずに Transformer をトレヌニングする最初の論文の 1 ぀ ゚ンコヌディング (BPE、WordPiece たたは SentencePiece)。代わりに、モデルは Unicode 文字レベルで盎接トレヌニングされたす。 キャラクタヌレベルでのトレヌニングでは必然的にシヌケンスの長さが長くなりたすが、CANINE はこれを効率的な方法で解決したす。 ディヌプ Transformer ゚ンコヌダを適甚する前に、ダりンサンプリング戊略を実行したす。 論文の芁玄は次のずおりです。 *パむプラむン NLP システムは、゚ンドツヌ゚ンドのニュヌラル モデリングに倧郚分が取っお代わられおいたすが、䞀般的に䜿甚されおいるほがすべおのモデルは 䟝然ずしお明瀺的なトヌクン化手順が必芁です。最近のトヌクン化アプロヌチはデヌタ由来のサブワヌドに基づいおいたすが、 レキシコンは手動で䜜成されたトヌクナむザヌよりも脆匱ではありたせんが、これらの技術はすべおの蚀語に等しく適しおいるわけではありたせん。 蚀語や固定語圙の䜿甚により、モデルの適応胜力が制限される可胜性がありたす。この論文では、CANINE を玹介したす。 明瀺的なトヌクン化や語圙を䜿甚せずに、文字シヌケンスを盎接操䜜するニュヌラル ゚ンコヌダヌず、 文字に盎接䜜甚するか、オプションでサブワヌドを゜フト誘導バむアスずしお䜿甚する事前トレヌニング戊略。 よりきめの现かい入力を効果的か぀効率的に䜿甚するために、CANINE はダりンサンプリングを組み合わせお、入力を削枛したす。 コンテキストを゚ンコヌドするディヌプトランスフォヌマヌスタックを備えたシヌケンスの長さ。 CANINE は、同等の mBERT モデルよりも次の点で優れおいたす。 TyDi QA の 2.8 F1 は、モデル パラメヌタが 28% 少ないにもかかわらず、困難な倚蚀語ベンチマヌクです。* このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。元のコヌドは [ここ](https://github.com/google-research/language/tree/master/language/canine) にありたす。 ## Usage tips - CANINE は内郚で少なくずも 3 ぀の Transformer ゚ンコヌダヌを䜿甚したす: 2 ぀の「浅い」゚ンコヌダヌ (単䞀の゚ンコヌダヌのみで構成) レむダヌ) ず 1 ぀の「ディヌプ」゚ンコヌダヌ (通垞の BERT ゚ンコヌダヌ)。たず、「浅い」゚ンコヌダを䜿甚しおコンテキストを蚭定したす。 ロヌカル アテンションを䜿甚した文字の埋め蟌み。次に、ダりンサンプリングの埌、「ディヌプ」゚ンコヌダヌが適甚されたす。぀いに、 アップサンプリング埌、「浅い」゚ンコヌダを䜿甚しお最終的な文字埋め蟌みが䜜成されたす。アップず ダりンサンプリングに぀いおは論文に蚘茉されおいたす。 - CANINE は、デフォルトで 2048 文字の最倧シヌケンス長を䜿甚したす。 [`CanineTokenizer`] を䜿甚できたす モデル甚のテキストを準備したす。 - 特別な [CLS] トヌクンの最終的な非衚瀺状態の䞊に線圢レむダヌを配眮するこずで分類を行うこずができたす。 (事前定矩された Unicode コヌド ポむントがありたす)。ただし、トヌクン分類タスクの堎合は、ダりンサンプリングされたシヌケンス トヌクンは、元の文字シヌケンスの長さ (2048) ず䞀臎するように再床アップサンプリングする必芁がありたす。の 詳现に぀いおは、論文を参照しおください。 モデルのチェックポむント: - [google/canine-c](https://huggingface.co/google/canine-c): 自己回垰文字損倱で事前トレヌニング枈み、 12 レむダヌ、768 隠し、12 ヘッド、121M パラメヌタヌ (サむズ ~500 MB)。 - [google/canine-s](https://huggingface.co/google/canine-s): サブワヌド損倱で事前トレヌニング枈み、12 局、 768 個の非衚瀺、12 ヘッド、121M パラメヌタヌ (サむズ ~500 MB)。 ## Usage example CANINE は生の文字で動䜜するため、**トヌクナむザヌなし**で䜿甚できたす。 ```python >>> from transformers import CanineModel >>> import torch >>> model = CanineModel.from_pretrained("google/canine-c") # model pre-trained with autoregressive character loss >>> text = "hello world" >>> # use Python's built-in ord() function to turn each character into its unicode code point id >>> input_ids = torch.tensor([[ord(char) for char in text]]) >>> outputs = model(input_ids) # forward pass >>> pooled_output = outputs.pooler_output >>> sequence_output = outputs.last_hidden_state ``` ただし、バッチ掚論ずトレヌニングの堎合は、トヌクナむザヌを䜿甚するこずをお勧めしたすすべおをパディング/切り詰めるため シヌケンスを同じ長さにしたす): ```python >>> from transformers import CanineTokenizer, CanineModel >>> model = CanineModel.from_pretrained("google/canine-c") >>> tokenizer = CanineTokenizer.from_pretrained("google/canine-c") >>> inputs = ["Life is like a box of chocolates.", "You never know what you gonna get."] >>> encoding = tokenizer(inputs, padding="longest", truncation=True, return_tensors="pt") >>> outputs = model(**encoding) # forward pass >>> pooled_output = outputs.pooler_output >>> sequence_output = outputs.last_hidden_state ``` ## Resources - [テキスト分類タスクガむド](../tasks/sequence_classification) - [トヌクン分類タスクガむド](../tasks/token_classification) - [質問回答タスク ガむド](../tasks/question_answering) - [倚肢遞択タスク ガむド](../tasks/multiple_choice) ## CanineConfig [[autodoc]] CanineConfig ## CanineTokenizer [[autodoc]] CanineTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences ## CANINE specific outputs [[autodoc]] models.canine.modeling_canine.CanineModelOutputWithPooling ## CanineModel [[autodoc]] CanineModel - forward ## CanineForSequenceClassification [[autodoc]] CanineForSequenceClassification - forward ## CanineForMultipleChoice [[autodoc]] CanineForMultipleChoice - forward ## CanineForTokenClassification [[autodoc]] CanineForTokenClassification - forward ## CanineForQuestionAnswering [[autodoc]] CanineForQuestionAnswering - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bark.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. --> # Bark ## Overview Bark は、[suno-ai/bark](https://github.com/suno-ai/bark) で Suno AI によっお提案されたトランスフォヌマヌベヌスのテキスト読み䞊げモデルです。 Bark は 4 ぀の䞻芁なモデルで構成されおいたす。 - [`BarkSemanticModel`] ('テキスト'モデルずも呌ばれる): トヌクン化されたテキストを入力ずしお受け取り、テキストの意味を捉えるセマンティック テキスト トヌクンを予枬する因果的自己回垰倉換モデル。 - [`BarkCoarseModel`] ('粗い音響' モデルずも呌ばれる): [`BarkSemanticModel`] モデルの結果を入力ずしお受け取る因果的自己回垰倉換噚。 EnCodec に必芁な最初の 2 ぀のオヌディオ コヌドブックを予枬するこずを目的ずしおいたす。 - [`BarkFineModel`] ('埮现音響' モデル)、今回は非因果的オヌト゚ンコヌダヌ トランスフォヌマヌで、以前のコヌドブック埋め蟌みの合蚈に基づいお最埌のコヌドブックを繰り返し予枬したす。 - [`EncodecModel`] からすべおのコヌドブック チャネルを予枬したので、Bark はそれを䜿甚しお出力オヌディオ配列をデコヌドしたす。 最初の 3 ぀のモゞュヌルはそれぞれ、特定の事前定矩された音声に埓っお出力サりンドを調敎するための条件付きスピヌカヌ埋め蟌みをサポヌトできるこずに泚意しおください。 ### Optimizing Bark Bark は、コヌドを数行远加するだけで最適化でき、**メモリ フットプリントが倧幅に削枛**され、**掚論が高速化**されたす。 #### Using half-precision モデルを半粟床でロヌドするだけで、掚論を高速化し、メモリ䜿甚量を 50% 削枛できたす。 ```python from transformers import BarkModel import torch device = "cuda" if torch.cuda.is_available() else "cpu" model = BarkModel.from_pretrained("suno/bark-small", torch_dtype=torch.float16).to(device) ``` #### Using 🀗 Better Transformer Better Transformer は、内郚でカヌネル融合を実行する 🀗 最適な機胜です。パフォヌマンスを䜎䞋させるこずなく、速床を 20%  30% 向䞊させるこずができたす。モデルを 🀗 Better Transformer に゚クスポヌトするのに必芁なコヌドは 1 行だけです。 ```python model = model.to_bettertransformer() ``` この機胜を䜿甚する前に 🀗 Optimum をむンストヌルする必芁があるこずに泚意しおください。 [むンストヌル方法はこちら](https://huggingface.co/docs/optimum/installation) #### Using CPU offload 前述したように、Bark は 4 ぀のサブモデルで構成されおおり、オヌディオ生成䞭に順番に呌び出されたす。蚀い換えれば、1 ぀のサブモデルが䜿甚されおいる間、他のサブモデルはアむドル状態になりたす。 CUDA デバむスを䜿甚しおいる堎合、メモリ フットプリントの 80% 削枛による恩恵を受ける簡単な解決策は、アむドル状態の GPU のサブモデルをオフロヌドするこずです。この操䜜は CPU オフロヌドず呌ばれたす。 1行のコヌドで䜿甚できたす。 ```python model.enable_cpu_offload() ``` この機胜を䜿甚する前に、🀗 Accelerate をむンストヌルする必芁があるこずに泚意しおください。 [むンストヌル方法はこちら](https://huggingface.co/docs/accelerate/basic_tutorials/install) #### Combining optimization techniques 最適化手法を組み合わせお、CPU オフロヌド、半粟床、🀗 Better Transformer をすべお䞀床に䜿甚できたす。 ```python from transformers import BarkModel import torch device = "cuda" if torch.cuda.is_available() else "cpu" # load in fp16 model = BarkModel.from_pretrained("suno/bark-small", torch_dtype=torch.float16).to(device) # convert to bettertransformer model = BetterTransformer.transform(model, keep_original_model=False) # enable CPU offload model.enable_cpu_offload() ``` 掚論最適化手法の詳现に぀いおは、[こちら](https://huggingface.co/docs/transformers/perf_infer_gpu_one) をご芧ください。 ### Tips Suno は、倚くの蚀語で音声プリセットのラむブラリを提䟛しおいたす [こちら](https://suno-ai.notion.site/8b8e8749ed514b0cbf3f699013548683?v=bc67cff786b04b50b3ceb756fd05f68c)。 これらのプリセットは、ハブ [こちら](https://huggingface.co/suno/bark-small/tree/main/speaker_embeddings) たたは [こちら](https://huggingface.co/suno/bark/tree/main/speaker_embeddings)。 ```python >>> from transformers import AutoProcessor, BarkModel >>> processor = AutoProcessor.from_pretrained("suno/bark") >>> model = BarkModel.from_pretrained("suno/bark") >>> voice_preset = "v2/en_speaker_6" >>> inputs = processor("Hello, my dog is cute", voice_preset=voice_preset) >>> audio_array = model.generate(**inputs) >>> audio_array = audio_array.cpu().numpy().squeeze() ``` Bark は、非垞にリアルな **倚蚀語** 音声だけでなく、音楜、背景ノむズ、単玔な効果音などの他の音声も生成できたす。 ```python >>> # Multilingual speech - simplified Chinese >>> inputs = processor("惊人的我䌚诎䞭文") >>> # Multilingual speech - French - let's use a voice_preset as well >>> inputs = processor("Incroyable! Je peux générer du son.", voice_preset="fr_speaker_5") >>> # Bark can also generate music. You can help it out by adding music notes around your lyrics. >>> inputs = processor("♪ Hello, my dog is cute ♪") >>> audio_array = model.generate(**inputs) >>> audio_array = audio_array.cpu().numpy().squeeze() ``` このモデルは、笑う、ため息、泣くなどの**非蚀語コミュニケヌション**を生成するこずもできたす。 ```python >>> # Adding non-speech cues to the input text >>> inputs = processor("Hello uh ... [clears throat], my dog is cute [laughter]") >>> audio_array = model.generate(**inputs) >>> audio_array = audio_array.cpu().numpy().squeeze() ``` オヌディオを保存するには、モデル蚭定ず scipy ナヌティリティからサンプル レヌトを取埗するだけです。 ```python >>> from scipy.io.wavfile import write as write_wav >>> # save audio to disk, but first take the sample rate from the model config >>> sample_rate = model.generation_config.sample_rate >>> write_wav("bark_generation.wav", sample_rate, audio_array) ``` このモデルは、[Yoach Lacombe (ylacombe)](https://huggingface.co/ylacombe) および [Sanchit Gandhi (sanchit-gandhi)](https://github.com/sanchit-gandhi) によっお提䟛されたした。 元のコヌドは [ここ](https://github.com/suno-ai/bark) にありたす。 ## BarkConfig [[autodoc]] BarkConfig - all ## BarkProcessor [[autodoc]] BarkProcessor - all - __call__ ## BarkModel [[autodoc]] BarkModel - generate - enable_cpu_offload ## BarkSemanticModel [[autodoc]] BarkSemanticModel - forward ## BarkCoarseModel [[autodoc]] BarkCoarseModel - forward ## BarkFineModel [[autodoc]] BarkFineModel - forward ## BarkCausalModel [[autodoc]] BarkCausalModel - forward ## BarkCoarseConfig [[autodoc]] BarkCoarseConfig - all ## BarkFineConfig [[autodoc]] BarkFineConfig - all ## BarkSemanticConfig [[autodoc]] BarkSemanticConfig - all
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bridgetower.md
<!--Copyright 2023 The Intel Labs Team Authors, The Microsoft Research Team Authors and HuggingFace Inc. team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BridgeTower ## Overview BridgeTower モデルは、Xiao Xu、Chenfei Wu、Shachar Rosenman、Vasudev Lal、Wanxiang Che、Nan Duan [BridgeTower: Building Bridges Between Encoders in Vision-Language Representative Learning](https://arxiv.org/abs/2206.08657) で提案されたした。ドゥアン。このモデルの目暙は、 各ナニモヌダル ゚ンコヌダずクロスモヌダル ゚ンコヌダの間のブリッゞにより、クロスモヌダル ゚ンコヌダの各局での包括的か぀詳现な察話が可胜になり、远加のパフォヌマンスず蚈算コストがほずんど無芖できる皋床で、さたざたな䞋流タスクで優れたパフォヌマンスを実珟したす。 この論文は [AAAI'23](https://aaai.org/Conferences/AAAI-23/) 䌚議に採択されたした。 論文の芁玄は次のずおりです。 *TWO-TOWER アヌキテクチャを備えたビゞョン蚀語 (VL) モデルは、近幎の芖芚蚀語衚珟孊習の䞻流ずなっおいたす。 珟圚の VL モデルは、軜量のナニモヌダル ゚ンコヌダヌを䜿甚しお、ディヌプ クロスモヌダル ゚ンコヌダヌで䞡方のモダリティを同時に抜出、䜍眮合わせ、融合するこずを孊習するか、事前にトレヌニングされたディヌプ ナニモヌダル ゚ンコヌダヌから最終局のナニモヌダル衚珟を䞊郚のクロスモヌダル゚ンコヌダヌ。 どちらのアプロヌチも、芖芚蚀語衚珟の孊習を制限し、モデルのパフォヌマンスを制限する可胜性がありたす。この論文では、ナニモヌダル ゚ンコヌダの最䞊䜍局ずクロスモヌダル ゚ンコヌダの各局の間の接続を構築する耇数のブリッゞ局を導入する BRIDGETOWER を提案したす。 これにより、効果的なボトムアップのクロスモヌダル調敎ず、クロスモヌダル ゚ンコヌダヌ内の事前トレヌニング枈みナニモヌダル ゚ンコヌダヌのさたざたなセマンティック レベルの芖芚衚珟ずテキスト衚珟の間の融合が可胜になりたす。 BRIDGETOWER は 4M 画像のみで事前トレヌニングされおおり、さたざたな䞋流の芖芚蚀語タスクで最先端のパフォヌマンスを実珟したす。 特に、VQAv2 テスト暙準セットでは、BRIDGETOWER は 78.73% の粟床を達成し、同じ事前トレヌニング デヌタずほが無芖できる远加パラメヌタず蚈算コストで以前の最先端モデル METER を 1.09% 䞊回りたした。 特に、モデルをさらにスケヌリングするず、BRIDGETOWER は 81.15% の粟床を達成し、桁違いに倧きなデヌタセットで事前トレヌニングされたモデルを䞊回りたした。* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/bridgetower_architecture%20.jpg" alt="drawing" width="600"/> <small> ブリッゞタワヌ アヌキテクチャ。 <a href="https://arxiv.org/abs/2206.08657">元の論文から抜粋。</a> </small> このモデルは、[Anahita Bhiwandiwalla](https://huggingface.co/anahita-b)、[Tiep Le](https://huggingface.co/Tile)、[Shaoyen Tseng](https://huggingface.co/shaoyent) 。元のコヌドは [ここ](https://github.com/microsoft/BridgeTower) にありたす。 ## Usage tips and examples BridgeTower は、ビゞュアル ゚ンコヌダヌ、テキスト ゚ンコヌダヌ、および耇数の軜量ブリッゞ レむダヌを備えたクロスモヌダル ゚ンコヌダヌで構成されたす。 このアプロヌチの目暙は、各ナニモヌダル ゚ンコヌダヌずクロスモヌダル ゚ンコヌダヌの間にブリッゞを構築し、クロスモヌダル ゚ンコヌダヌの各局で包括的か぀詳现な察話を可胜にするこずでした。 原則ずしお、提案されたアヌキテクチャでは、任意のビゞュアル、テキスト、たたはクロスモヌダル ゚ンコヌダを適甚できたす。 [`BridgeTowerProcessor`] は、[`RobertaTokenizer`] ず [`BridgeTowerImageProcessor`] を単䞀のむンスタンスにラップし、䞡方の機胜を実珟したす。 テキストを゚ンコヌドし、画像をそれぞれ甚意したす。 次の䟋は、[`BridgeTowerProcessor`] ず [`BridgeTowerForContrastiveLearning`] を䜿甚しお察照孊習を実行する方法を瀺しおいたす。 ```python >>> from transformers import BridgeTowerProcessor, BridgeTowerForContrastiveLearning >>> import requests >>> from PIL import Image >>> url = "http://images.cocodataset.org/val2017/000000039769.jpg" >>> image = Image.open(requests.get(url, stream=True).raw) >>> texts = ["An image of two cats chilling on a couch", "A football player scoring a goal"] >>> processor = BridgeTowerProcessor.from_pretrained("BridgeTower/bridgetower-large-itm-mlm-itc") >>> model = BridgeTowerForContrastiveLearning.from_pretrained("BridgeTower/bridgetower-large-itm-mlm-itc") >>> # forward pass >>> scores = dict() >>> for text in texts: ... # prepare inputs ... encoding = processor(image, text, return_tensors="pt") ... outputs = model(**encoding) ... scores[text] = outputs ``` 次の䟋は、[`BridgeTowerProcessor`] ず [`BridgeTowerForImageAndTextRetrieval`] を䜿甚しお画像テキストの取埗を実行する方法を瀺しおいたす。 ```python >>> from transformers import BridgeTowerProcessor, BridgeTowerForImageAndTextRetrieval >>> import requests >>> from PIL import Image >>> url = "http://images.cocodataset.org/val2017/000000039769.jpg" >>> image = Image.open(requests.get(url, stream=True).raw) >>> texts = ["An image of two cats chilling on a couch", "A football player scoring a goal"] >>> processor = BridgeTowerProcessor.from_pretrained("BridgeTower/bridgetower-base-itm-mlm") >>> model = BridgeTowerForImageAndTextRetrieval.from_pretrained("BridgeTower/bridgetower-base-itm-mlm") >>> # forward pass >>> scores = dict() >>> for text in texts: ... # prepare inputs ... encoding = processor(image, text, return_tensors="pt") ... outputs = model(**encoding) ... scores[text] = outputs.logits[0, 1].item() ``` 次の䟋は、[`BridgeTowerProcessor`] ず [`BridgeTowerForMaskedLM`] を䜿甚しおマスクされた蚀語モデリングを実行する方法を瀺しおいたす。 ```python >>> from transformers import BridgeTowerProcessor, BridgeTowerForMaskedLM >>> from PIL import Image >>> import requests >>> url = "http://images.cocodataset.org/val2017/000000360943.jpg" >>> image = Image.open(requests.get(url, stream=True).raw).convert("RGB") >>> text = "a <mask> looking out of the window" >>> processor = BridgeTowerProcessor.from_pretrained("BridgeTower/bridgetower-base-itm-mlm") >>> model = BridgeTowerForMaskedLM.from_pretrained("BridgeTower/bridgetower-base-itm-mlm") >>> # prepare inputs >>> encoding = processor(image, text, return_tensors="pt") >>> # forward pass >>> outputs = model(**encoding) >>> results = processor.decode(outputs.logits.argmax(dim=-1).squeeze(0).tolist()) >>> print(results) .a cat looking out of the window. ``` チップ - BridgeTower のこの実装では、[`RobertaTokenizer`] を䜿甚しおテキスト埋め蟌みを生成し、OpenAI の CLIP/ViT モデルを䜿甚しお芖芚的埋め蟌みを蚈算したす。 - 事前トレヌニングされた [bridgeTower-base](https://huggingface.co/BridgeTower/bridgetower-base) および [bridgetower マスクされた蚀語モデリングず画像テキスト マッチング](https://huggingface.co/BridgeTower/bridgetower--base-itm-mlm) のチェックポむント がリリヌスされたした。 - 画像怜玢およびその他の䞋流タスクにおける BridgeTower のパフォヌマンスに぀いおは、[è¡š 5](https://arxiv.org/pdf/2206.08657.pdf) を参照しおください。 - このモデルの PyTorch バヌゞョンは、torch 1.10 以降でのみ䜿甚できたす。 ## BridgeTowerConfig [[autodoc]] BridgeTowerConfig ## BridgeTowerTextConfig [[autodoc]] BridgeTowerTextConfig ## BridgeTowerVisionConfig [[autodoc]] BridgeTowerVisionConfig ## BridgeTowerImageProcessor [[autodoc]] BridgeTowerImageProcessor - preprocess ## BridgeTowerProcessor [[autodoc]] BridgeTowerProcessor - __call__ ## BridgeTowerModel [[autodoc]] BridgeTowerModel - forward ## BridgeTowerForContrastiveLearning [[autodoc]] BridgeTowerForContrastiveLearning - forward ## BridgeTowerForMaskedLM [[autodoc]] BridgeTowerForMaskedLM - forward ## BridgeTowerForImageAndTextRetrieval [[autodoc]] BridgeTowerForImageAndTextRetrieval - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/cpm.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CPM ## Overview CPM モデルは、Zhengyan Zhang、Xu Han、Hao Zhou、Pei Ke、Yuxian Gu によっお [CPM: A Large-scale Generative Chinese Pre-trained Language Model](https://arxiv.org/abs/2012.00413) で提案されたした。葉埳明、秊裕䜳、 Yusheng Su、Haozhe Ji、Jian Guan、Fanchao Qi、Xiaozi Wang、Yanan Zheng、Guoyang Zeng、Huanqi Cao、Shengqi Chen、 Daixuan Li、Zhenbo Sun、Zhiyuan Liu、Minlie Huang、Wentao Han、Jie Tang、Juanzi Li、Xiaoyan Zhu、Maosong Sun。 論文の芁玄は次のずおりです。 *事前トレヌニングされた蚀語モデル (PLM) は、さたざたな䞋流の NLP タスクに有益であるこずが蚌明されおいたす。最近ではGPT-3、 1,750億個のパラメヌタず570GBの孊習デヌタを備え、数回の撮圱1枚でもの容量で倧きな泚目を集めたした れロショット孊習。ただし、GPT-3 を適甚しお䞭囜語の NLP タスクに察凊するこずは䟝然ずしお困難です。 GPT-3 の蚀語は䞻に英語であり、パラメヌタヌは公開されおいたせん。この技術レポヌトでは、 倧芏暡な䞭囜語トレヌニング デヌタに察する生成的事前トレヌニングを備えた䞭囜語事前トレヌニング枈み蚀語モデル (CPM)。最高に 私たちの知識の限りでは、26 億のパラメヌタず 100GB の䞭囜語トレヌニング デヌタを備えた CPM は、事前トレヌニングされた䞭囜語ずしおは最倧のものです。 蚀語モデルは、䌚話、゚ッセむの䜜成、 クロヌれテストず蚀語理解。広範な実隓により、CPM が倚くの環境で優れたパフォヌマンスを達成できるこずが実蚌されおいたす。 少数ショット (れロショットでも) 孊習の蚭定での NLP タスク。* このモデルは [canwenxu](https://huggingface.co/canwenxu) によっお提䟛されたした。オリゞナルの実装が芋぀かりたす ここ: https://github.com/TsinghuaAI/CPM-Generate <Tip> CPM のアヌキテクチャは、トヌクン化方法を陀いお GPT-2 ず同じです。詳现に぀いおは、[GPT-2 ドキュメント](openai-community/gpt2) を参照しおください。 API リファレンス情報。 </Tip> ## CpmTokenizer [[autodoc]] CpmTokenizer ## CpmTokenizerFast [[autodoc]] CpmTokenizerFast
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/autoformer.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Autoformer ## 抂芁 Autoformerモデルは、「[Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting](https://arxiv.org/abs/2106.13008)」ずいう論文でHaixu Wu、Jiehui Xu、Jianmin Wang、Mingsheng Longによっお提案されたした。 このモデルは、予枬プロセス䞭にトレンドず季節性成分を逐次的に分解できる深局分解アヌキテクチャずしおTransformerを増匷したす。 論文の芁旚は以䞋の通りです *䟋えば異垞気象の早期譊告や長期的な゚ネルギヌ消費蚈画ずいった実応甚においお、予枬時間を延長するこずは重芁な芁求です。本論文では、時系列の長期予枬問題を研究しおいたす。以前のTransformerベヌスのモデルは、長距離䟝存関係を発芋するために様々なセルフアテンション機構を採甚しおいたす。しかし、長期未来の耇雑な時間的パタヌンによっおモデルが信頌できる䟝存関係を芋぀けるこずを劚げられたす。たた、Transformerは、長い系列の効率化のためにポむントワむズなセルフアテンションのスパヌスバヌゞョンを採甚する必芁があり、情報利甚のボトルネックずなりたす。Transformerを超えお、我々は自己盞関機構を持぀新しい分解アヌキテクチャずしおAutoformerを蚭蚈したした。系列分解の事前凊理の慣行を砎り、それを深局モデルの基本的な内郚ブロックずしお革新したす。この蚭蚈は、耇雑な時系列に察するAutoformerの進行的な分解胜力を匷化したす。さらに、確率過皋理論に觊発されお、系列の呚期性に基づいた自己盞関機構を蚭蚈し、サブ系列レベルでの䟝存関係の発芋ず衚珟の集玄を行いたす。自己盞関は効率ず粟床の䞡方でセルフアテンションを䞊回りたす。長期予枬においお、Autoformerは、゚ネルギヌ、亀通、経枈、気象、疟病の5぀の実甚的な応甚をカバヌする6぀のベンチマヌクで38%の盞察的な改善をもたらし、最先端の粟床を達成したす。* このモデルは[elisim](https://huggingface.co/elisim)ず[kashif](https://huggingface.co/kashif)より提䟛されたした。 オリゞナルのコヌドは[こちら](https://github.com/thuml/Autoformer)で芋るこずができたす。 ## 参考資料 Autoformerの䜿甚を開始するのに圹立぀公匏のHugging Faceおよびコミュニティ🌎で瀺されおいるの参考資料の䞀芧です。ここに参考資料を提出したい堎合は、気兌ねなくPull Requestを開いおください。私たちはそれをレビュヌいたしたす参考資料は、既存のものを耇補するのではなく、䜕か新しいこずを瀺すこずが理想的です。 - HuggingFaceブログでAutoformerに関するブログ蚘事をチェックしおください[はい、Transformersは時系列予枬に効果的です+ Autoformer](https://huggingface.co/blog/autoformer) ## AutoformerConfig [[autodoc]] AutoformerConfig ## AutoformerModel [[autodoc]] AutoformerModel - forward ## AutoformerForPrediction [[autodoc]] AutoformerForPrediction - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/dinat.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Dilated Neighborhood Attention Transformer ## Overview DiNAT は [Dilated Neighborhood Attender Transformer](https://arxiv.org/abs/2209.15001) で提案されたした。 Ali Hassani and Humphrey Shi. [NAT](nat) を拡匵するために、拡匵近隣アテンション パタヌンを远加しおグロヌバル コンテキストをキャプチャしたす。 そしおそれず比范しお倧幅なパフォヌマンスの向䞊が芋られたす。 論文の芁玄は次のずおりです。 *トランスフォヌマヌは急速に、さたざたなモダリティにわたっお最も頻繁に適甚される深局孊習アヌキテクチャの 1 ぀になり぀぀ありたす。 ドメむンずタスク。ビゞョンでは、単玔なトランスフォヌマヌぞの継続的な取り組みに加えお、階局型トランスフォヌマヌが たた、そのパフォヌマンスず既存のフレヌムワヌクぞの簡単な統合のおかげで、倧きな泚目を集めたした。 これらのモデルは通垞、スラむディング りィンドりの近隣アテンション (NA) などの局所的な泚意メカニズムを採甚しおいたす。 たたは Swin Transformer のシフト りィンドり セルフ アテンション。自己泚意の二次耇雑さを軜枛するのに効果的ですが、 局所的な泚意は、自己泚意の最も望たしい 2 ぀の特性を匱めたす。それは、長距離の盞互䟝存性モデリングです。 そしお党䜓的な受容野。このペヌパヌでは、自然で柔軟で、 NA ぞの効率的な拡匵により、よりグロヌバルなコンテキストを捕捉し、受容野をれロから指数関数的に拡匵するこずができたす。 远加費甚。 NA のロヌカルな泚目ず DiNA のたばらなグロヌバルな泚目は盞互に補完し合うため、私たちは 䞡方に基づいお構築された新しい階局型ビゞョン トランスフォヌマヌである Dilated Neighborhood Attendant Transformer (DiNAT) を導入したす。 DiNAT のバリアントは、NAT、Swin、ConvNeXt などの匷力なベヌスラむンに比べお倧幅に改善されおいたす。 私たちの倧芏暡モデルは、COCO オブゞェクト怜出においお Swin モデルよりも高速で、ボックス AP が 1.5% 優れおいたす。 COCO むンスタンス セグメンテヌションでは 1.3% のマスク AP、ADE20K セマンティック セグメンテヌションでは 1.1% の mIoU。 新しいフレヌムワヌクず組み合わせた圓瀟の倧芏暡バリアントは、COCO (58.2 PQ) 䞊の新しい最先端のパノプティック セグメンテヌション モデルです。 および ADE20K (48.5 PQ)、および Cityscapes (44.5 AP) および ADE20K (35.4 AP) のむンスタンス セグメンテヌション モデル (远加デヌタなし)。 たた、ADE20K (58.2 mIoU) 䞊の最先端の特殊なセマンティック セグメンテヌション モデルずも䞀臎したす。 郜垂景芳 (84.5 mIoU) では 2 䜍にランクされおいたす (远加デヌタなし)。 * <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/dilated-neighborhood-attention-pattern.jpg" alt="drawing" width="600"/> <small> 異なる拡匵倀を䜿甚した近隣アテンション。 <a href="https://arxiv.org/abs/2209.15001">元の論文</a>から抜粋。</small> このモデルは [Ali Hassani](https://huggingface.co/alihassanijr) によっお提䟛されたした。 元のコヌドは [ここ](https://github.com/SHI-Labs/Neighborhood-Attendance-Transformer) にありたす。 ## Usage tips DiNAT は *バックボヌン* ずしお䜿甚できたす。 「output_hidden_​​states = True」の堎合、 `hidden_​​states` ず `reshaped_hidden_​​states` の䞡方を出力したす。 `reshape_hidden_​​states` は、`(batch_size, height, width, num_channels)` ではなく、`(batch, num_channels, height, width)` の圢状を持っおいたす。 ノヌト - DiNAT は、[NATTEN](https://github.com/SHI-Labs/NATTEN/) による近隣アテンションず拡匵近隣アテンションの実装に䟝存しおいたす。 [shi-labs.com/natten](https://shi-labs.com/natten) を参照しお、Linux 甚のビルド枈みホむヌルを䜿甚しおむンストヌルするか、`pip install natten` を実行しおシステム䞊に構築できたす。 埌者はコンパむルに時間がかかる可胜性があるこずに泚意しおください。 NATTEN はただ Windows デバむスをサポヌトしおいたせん。 - 珟時点ではパッチ サむズ 4 のみがサポヌトされおいたす。 ## Resources DiNAT の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`DinatForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 - 参照: [画像分類タスク ガむド](../tasks/image_classification) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## DinatConfig [[autodoc]] DinatConfig ## DinatModel [[autodoc]] DinatModel - forward ## DinatForImageClassification [[autodoc]] DinatForImageClassification - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bort.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BORT <Tip warning={true}> このモデルはメンテナンス モヌドのみであり、コヌドを倉曎する新しい PR は受け付けられたせん。 このモデルの実行䞭に問題が発生した堎合は、このモデルをサポヌトしおいた最埌のバヌゞョン (v4.30.0) を再むンストヌルしおください。 これを行うには、コマンド `pip install -U Transformers==4.30.0` を実行したす。 </Tip> ## Overview BORT モデルは、[Optimal Subarchitecture Extraction for BERT](https://arxiv.org/abs/2010.10499) で提案されたした。 Adrian de Wynter and Daniel J. Perry.これは、BERT のアヌキテクチャ パラメヌタの最適なサブセットです。 著者は「ボルト」ず呌んでいたす。 論文の芁玄は次のずおりです。 *Devlin らから BERT アヌキテクチャのアヌキテクチャ パラメヌタの最適なサブセットを抜出したす。 (2018) ニュヌラル アヌキテクチャ怜玢のアルゎリズムにおける最近の画期的な技術を適甚したす。この最適なサブセットを次のように呌びたす。 "Bort" は明らかに小さく、有効 (぀たり、埋め蟌み局を考慮しない) サむズは 5.5% です。 オリゞナルの BERT 倧芏暡アヌキテクチャ、およびネット サむズの 16%。 Bort は 288 GPU 時間で事前トレヌニングするこずもできたす。 最高パフォヌマンスの BERT パラメトリック アヌキテクチャ バリアントである RoBERTa-large の事前トレヌニングに必芁な時間の 1.2% (Liu et al., 2019)、同じマシンで BERT-large をトレヌニングするのに必芁な GPU 時間の䞖界蚘録の玄 33% ハヌドりェア。たた、CPU 䞊で 7.9 倍高速であるだけでなく、他の圧瞮バヌゞョンよりもパフォヌマンスが優れおいたす。 アヌキテクチャ、および䞀郚の非圧瞮バリアント: 0.3%  31% のパフォヌマンス向䞊が埗られたす。 BERT-large に関しお、耇数の公開自然蚀語理解 (NLU) ベンチマヌクにおける絶察的な評䟡。* このモデルは [stefan-it](https://huggingface.co/stefan-it) によっお提䟛されたした。元のコヌドは[ここ](https://github.com/alexa/bort/)にありたす。 ## Usage tips - BORT のモデル アヌキテクチャは BERT に基づいおいたす。詳现に぀いおは、[BERT のドキュメント ペヌゞ](bert) を参照しおください。 モデルの API リファレンスず䜿甚䟋。 - BORT は BERT トヌクナむザヌの代わりに RoBERTa トヌクナむザヌを䜿甚したす。トヌクナむザヌの API リファレンスず䜿甚䟋に぀いおは、[RoBERTa のドキュメント ペヌゞ](roberta) を参照しおください。 - BORT には、 [Agora](https://adewynter.github.io/notes/bort_algorithms_and_applications.html#fine-tuning-with-algebraic-topology) ず呌ばれる特定の埮調敎アルゎリズムが必芁です。 残念ながらただオヌプン゜ヌス化されおいたせん。誰かが実装しようずするず、コミュニティにずっお非垞に圹立ちたす。 BORT の埮調敎を機胜させるためのアルゎリズム。
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bigbird_pegasus.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BigBirdPegasus ## Overview BigBird モデルは、[Big Bird: Transformers for Longer Sequences](https://arxiv.org/abs/2007.14062) で提案されたした。 ザヒヌル、マンゞルずグルガネシュ、グルずダベむ、クマヌル・アノィナノァず゚むンズリヌ、ゞョシュアずアルベルティ、クリスずオンタノン、 サンティアゎずファム、フィリップずラブラ、アニルヌドずワン、キヌファンずダン、リヌなど。 BigBird は泚目床が䜎い BERT などの Transformer ベヌスのモデルをさらに長いシヌケンスに拡匵する、Transformer ベヌスのモデル。たばらに加えお アテンションず同様に、BigBird は入力シヌケンスにランダム アテンションだけでなくグロヌバル アテンションも適甚したす。理論的には、 たばらで党䜓的でランダムな泚意を適甚するず、完党な泚意に近づくこずが瀺されおいたすが、 長いシヌケンスでは蚈算効率が倧幅に向䞊したす。より長いコンテキストを凊理できる機胜の結果ずしお、 BigBird は、質問応答や BERT たたは RoBERTa ず比范した芁玄。 論文の芁玄は次のずおりです。 *BERT などのトランスフォヌマヌベヌスのモデルは、NLP で最も成功した深局孊習モデルの 1 ぀です。 残念ながら、それらの䞭栞的な制限の 1 ぀は、シヌケンスに察する二次䟝存性 (䞻にメモリに関する) です。 完党な泚意メカニズムによる長さです。これを解決するために、BigBird は、たばらな泚意メカニズムを提案したす。 この二次䟝存関係を線圢に削枛したす。 BigBird がシヌケンス関数の汎甚近䌌噚であるこずを瀺したす。 チュヌリングは完党であるため、二次完党泚意モデルのこれらの特性が保存されたす。途䞭、私たちの 理論分析により、O(1) 個のグロヌバル トヌクン (CLS など) を持぀利点の䞀郚が明らかになり、 スパヌス泚意メカニズムの䞀郚ずしおのシヌケンス。提案されたスパヌス アテンションは、次の長さのシヌケンスを凊理できたす。 同様のハヌドりェアを䜿甚しお以前に可胜であったものの 8 倍。より長いコンテキストを凊理できる機胜の結果ずしお、 BigBird は、質問応答や芁玄などのさたざたな NLP タスクのパフォヌマンスを倧幅に向䞊させたす。私達も ゲノミクスデヌタぞの新しいアプリケヌションを提案したす。* ## Usage tips - BigBird の泚意がどのように機胜するかに぀いおの詳现な説明に぀いおは、[このブログ投皿](https://huggingface.co/blog/big-bird) を参照しおください。 - BigBird には、**original_full** ず **block_sparse** の 2 ぀の実装が付属しおいたす。シヌケンス長が 1024 未満の堎合、次を䜿甚したす。 **block_sparse** を䜿甚しおもメリットがないため、**original_full** を䜿甚するこずをお勧めしたす。 - コヌドは珟圚、3 ブロックず 2 グロヌバル ブロックのりィンドり サむズを䜿甚しおいたす。 - シヌケンスの長さはブロック サむズで割り切れる必芁がありたす。 - 珟圚の実装では **ITC** のみがサポヌトされおいたす。 - 珟圚の実装では **num_random_blocks = 0** はサポヌトされおいたせん。 - BigBirdPegasus は [PegasusTokenizer](https://github.com/huggingface/transformers/blob/main/src/transformers/models/pegasus/tokenization_pegasus.py) を䜿甚したす。 - BigBird は絶察䜍眮埋め蟌みを備えたモデルであるため、通垞は入力を右偎にパディングするこずをお勧めしたす。 巊。 元のコヌドは [こちら](https://github.com/google-research/bigbird) にありたす。 ## ドキュメント リ゜ヌス - [テキスト分類タスクガむド](../tasks/sequence_classification) - [質問回答タスク ガむド](../tasks/question_answering) - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [翻蚳タスクガむド](../tasks/translation) - [芁玄タスクガむド](../tasks/summarization) ## BigBirdPegasusConfig [[autodoc]] BigBirdPegasusConfig - all ## BigBirdPegasusModel [[autodoc]] BigBirdPegasusModel - forward ## BigBirdPegasusForConditionalGeneration [[autodoc]] BigBirdPegasusForConditionalGeneration - forward ## BigBirdPegasusForSequenceClassification [[autodoc]] BigBirdPegasusForSequenceClassification - forward ## BigBirdPegasusForQuestionAnswering [[autodoc]] BigBirdPegasusForQuestionAnswering - forward ## BigBirdPegasusForCausalLM [[autodoc]] BigBirdPegasusForCausalLM - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bit.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Big Transfer (BiT) ## Overview BiT モデルは、Alexander Kolesnikov、Lucas Beyer、Xiaohua Zhai、Joan Puigcerver、Jessica Yung、Sylvain Gelly によっお [Big Transfer (BiT): General Visual Representation Learning](https://arxiv.org/abs/1912.11370) で提案されたした。ニヌル・ホヌルズビヌ。 BiT は、[ResNet](resnet) のようなアヌキテクチャ (具䜓的には ResNetv2) の事前トレヌニングをスケヌルアップするための簡単なレシピです。この方法により、転移孊習が倧幅に改善されたす。 論文の芁玄は次のずおりです。 *事前トレヌニングされた衚珟の転送により、サンプル効率が向䞊し、芖芚甚のディヌプ ニュヌラル ネットワヌクをトレヌニングする際のハむパヌパラメヌタヌ調敎が簡玠化されたす。倧芏暡な教垫ありデヌタセットでの事前トレヌニングず、タヌゲット タスクでのモデルの埮調敎のパラダむムを再怜蚎したす。私たちは事前トレヌニングをスケヌルアップし、Big Transfer (BiT) ず呌ぶシンプルなレシピを提案したす。いく぀かの慎重に遞択されたコンポヌネントを組み合わせ、シンプルなヒュヌリスティックを䜿甚しお転送するこずにより、20 を超えるデヌタセットで優れたパフォヌマンスを実珟したす。 BiT は、クラスごずに 1 ぀のサンプルから合蚈 100 䞇のサンプルたで、驚くほど広範囲のデヌタ領域にわたっお良奜にパフォヌマンスを発揮したす。 BiT は、ILSVRC-2012 で 87.5%、CIFAR-10 で 99.4%、19 タスクの Visual Task Adaptation Benchmark (VTAB) で 76.3% のトップ 1 粟床を達成したした。小芏暡なデヌタセットでは、BiT は ILSVRC-2012 (クラスあたり 10 䟋) で 76.8%、CIFAR-10 (クラスあたり 10 䟋) で 97.0% を達成したした。高い転写性胜を実珟する䞻芁成分を詳现に分析※。 ## Usage tips - BiT モデルは、アヌキテクチャの点で ResNetv2 ず同等ですが、次の点が異なりたす: 1) すべおのバッチ正芏化局が [グルヌプ正芏化](https://arxiv.org/abs/1803.08494) に眮き換えられたす。 2) [重みの暙準化](https://arxiv.org/abs/1903.10520) は畳み蟌み局に䜿甚されたす。著者らは、䞡方の組み合わせが倧きなバッチサむズでのトレヌニングに圹立ち、重芁な効果があるこずを瀺しおいたす。 転移孊習ぞの圱響。 このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。 元のコヌドは [こちら](https://github.com/google-research/big_transfer) にありたす。 ## Resources BiT を始めるのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`BitForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 - 参照: [画像分類タスク ガむド](../tasks/image_classification) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## BitConfig [[autodoc]] BitConfig ## BitImageProcessor [[autodoc]] BitImageProcessor - preprocess ## BitModel [[autodoc]] BitModel - forward ## BitForImageClassification [[autodoc]] BitForImageClassification - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/camembert.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CamemBERT ## Overview CamemBERT モデルは、[CamemBERT: a Tasty French Language Model](https://arxiv.org/abs/1911.03894) で提案されたした。 Louis Martin, Benjamin Muller, Pedro Javier Ortiz Suárez, Yoann Dupont, Laurent Romary, Éric Villemonte de la Clergerie, Djamé Seddah, and Benoît Sagot. 2019幎にリリヌスされたFacebookのRoBERTaモデルをベヌスにしたモデルです。 138GBのフランス語テキストでトレヌニングされたした。 論文の芁玄は次のずおりです。 *事前トレヌニングされた蚀語モデルは珟圚、自然蚀語凊理で広く普及しおいたす。成功にもかかわらず、利甚可胜なほずんどの モデルは英語のデヌタ、たたは耇数蚀語のデヌタの連結でトレヌニングされおいたす。これにより、 このようなモデルの実際の䜿甚は、英語を陀くすべおの蚀語で非垞に限られおいたす。フランス人にずっおこの問題に察凊するこずを目指しお、 Bi-direction Encoders for Transformers (BERT) のフランス語版である CamemBERT をリリヌスしたす。枬定したす 耇数の䞋流タスク、぀たり品詞タグ付けにおける倚蚀語モデルず比范した CamemBERT のパフォヌマンス 䟝存関係解析、固有衚珟認識、自然蚀語掚論。 CamemBERT は最先端技術を向䞊させたす 怜蚎されおいるほずんどのタスクに察応したす。私たちは、研究ず フランス語 NLP の䞋流アプリケヌション。* このモデルは [camembert](https://huggingface.co/camembert) によっお提䟛されたした。元のコヌドは [ここ](https://camembert-model.fr/) にありたす。 <Tip> この実装はRoBERTaず同じです。䜿甚䟋に぀いおは[RoBERTaのドキュメント](roberta)も参照しおください。 入力ず出力に関する情報ずしお。 </Tip> ## Resources - [テキスト分類タスクガむド](../tasks/sequence_classification) - [トヌクン分類タスクガむド](../tasks/token_classification) - [質問回答タスク ガむド](../tasks/question_answering) - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [マスク蚀語モデリング タスク ガむド](../tasks/masked_language_modeling) - [倚肢遞択タスク ガむド](../tasks/multiple_choice) ## CamembertConfig [[autodoc]] CamembertConfig ## CamembertTokenizer [[autodoc]] CamembertTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## CamembertTokenizerFast [[autodoc]] CamembertTokenizerFast <frameworkcontent> <pt> ## CamembertModel [[autodoc]] CamembertModel ## CamembertForCausalLM [[autodoc]] CamembertForCausalLM ## CamembertForMaskedLM [[autodoc]] CamembertForMaskedLM ## CamembertForSequenceClassification [[autodoc]] CamembertForSequenceClassification ## CamembertForMultipleChoice [[autodoc]] CamembertForMultipleChoice ## CamembertForTokenClassification [[autodoc]] CamembertForTokenClassification ## CamembertForQuestionAnswering [[autodoc]] CamembertForQuestionAnswering </pt> <tf> ## TFCamembertModel [[autodoc]] TFCamembertModel ## TFCamembertForCasualLM [[autodoc]] TFCamembertForCausalLM ## TFCamembertForMaskedLM [[autodoc]] TFCamembertForMaskedLM ## TFCamembertForSequenceClassification [[autodoc]] TFCamembertForSequenceClassification ## TFCamembertForMultipleChoice [[autodoc]] TFCamembertForMultipleChoice ## TFCamembertForTokenClassification [[autodoc]] TFCamembertForTokenClassification ## TFCamembertForQuestionAnswering [[autodoc]] TFCamembertForQuestionAnswering </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/chinese_clip.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Chinese-CLIP ## Overview Chinese-CLIP An Yang, Junshu Pan, Junyang Lin, Rui Men, Yichang Zhang, Jingren Zhou, Chang Zhou [Chinese CLIP: Contrastive Vision-Language Pretraining in Chinese](https://arxiv.org/abs/2211.01335) で提案されたした。呚、匵呚。 Chinese-CLIP は、䞭囜語の画像ずテキストのペアの倧芏暡なデヌタセットに察する CLIP (Radford et al., 2021) の実装です。クロスモヌダル怜玢を実行できるほか、れロショット画像分類、オヌプンドメむンオブゞェクト怜出などのビゞョンタスクのビゞョンバックボヌンずしおも機胜したす。オリゞナルの䞭囜語-CLIPコヌドは[このリンクで](https://github.com/OFA-Sys/Chinese-CLIP)。 論文の芁玄は次のずおりです。 *CLIP の倧成功 (Radford et al., 2021) により、芖芚蚀語の事前蚓緎のための察照孊習の研究ず応甚が促進されたした。この研究では、ほずんどのデヌタが公開されおいるデヌタセットから取埗された䞭囜語の画像ずテキストのペアの倧芏暡なデヌタセットを構築し、新しいデヌタセットで䞭囜語の CLIP モデルを事前トレヌニングしたす。圓瀟では、7,700 䞇から 9 億 5,800 䞇のパラメヌタにわたる、耇数のサむズの 5 ぀の䞭囜 CLIP モデルを開発しおいたす。さらに、モデルのパフォヌマンスを向䞊させるために、最初に画像゚ンコヌダヌをフリヌズさせおモデルをトレヌニングし、次にすべおのパラメヌタヌを最適化しおトレヌニングする 2 段階の事前トレヌニング方法を提案したす。私たちの包括的な実隓では、䞭囜の CLIP がれロショット孊習ず埮調敎のセットアップで MUGE、Flickr30K-CN、および COCO-CN 䞊で最先端のパフォヌマンスを達成でき、れロで競争力のあるパフォヌマンスを達成できるこずを実蚌しおいたす。 - ELEVATER ベンチマヌクでの評䟡に基づくショット画像の分類 (Li et al., 2022)。コヌド、事前トレヌニング枈みモデル、デモがリリヌスされたした。* Chinese-CLIP モデルは、[OFA-Sys](https://huggingface.co/OFA-Sys) によっお提䟛されたした。 ## Usage example 以䞋のコヌド スニペットは、画像ずテキストの特城ず類䌌性を蚈算する方法を瀺しおいたす。 ```python >>> from PIL import Image >>> import requests >>> from transformers import ChineseCLIPProcessor, ChineseCLIPModel >>> model = ChineseCLIPModel.from_pretrained("OFA-Sys/chinese-clip-vit-base-patch16") >>> processor = ChineseCLIPProcessor.from_pretrained("OFA-Sys/chinese-clip-vit-base-patch16") >>> url = "https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/pokemon.jpeg" >>> image = Image.open(requests.get(url, stream=True).raw) >>> # Squirtle, Bulbasaur, Charmander, Pikachu in English >>> texts = ["杰尌韟", "劙蛙种子", "小火韙", "皮卡䞘"] >>> # compute image feature >>> inputs = processor(images=image, return_tensors="pt") >>> image_features = model.get_image_features(**inputs) >>> image_features = image_features / image_features.norm(p=2, dim=-1, keepdim=True) # normalize >>> # compute text features >>> inputs = processor(text=texts, padding=True, return_tensors="pt") >>> text_features = model.get_text_features(**inputs) >>> text_features = text_features / text_features.norm(p=2, dim=-1, keepdim=True) # normalize >>> # compute image-text similarity scores >>> inputs = processor(text=texts, images=image, return_tensors="pt", padding=True) >>> outputs = model(**inputs) >>> logits_per_image = outputs.logits_per_image # this is the image-text similarity score >>> probs = logits_per_image.softmax(dim=1) # probs: [[1.2686e-03, 5.4499e-02, 6.7968e-04, 9.4355e-01]] ``` 珟圚、次のスケヌルの事前トレヌニング枈み Chinese-CLIP モデルが 🀗 Hub で利甚可胜です。 - [OFA-Sys/chinese-clip-vit-base-patch16](https://huggingface.co/OFA-Sys/chinese-clip-vit-base-patch16) - [OFA-Sys/chinese-clip-vit-large-patch14](https://huggingface.co/OFA-Sys/chinese-clip-vit-large-patch14) - [OFA-Sys/chinese-clip-vit-large-patch14-336px](https://huggingface.co/OFA-Sys/chinese-clip-vit-large-patch14-336px) - [OFA-Sys/chinese-clip-vit-huge-patch14](https://huggingface.co/OFA-Sys/chinese-clip-vit-huge-patch14) ## ChineseCLIPConfig [[autodoc]] ChineseCLIPConfig - from_text_vision_configs ## ChineseCLIPTextConfig [[autodoc]] ChineseCLIPTextConfig ## ChineseCLIPVisionConfig [[autodoc]] ChineseCLIPVisionConfig ## ChineseCLIPImageProcessor [[autodoc]] ChineseCLIPImageProcessor - preprocess ## ChineseCLIPFeatureExtractor [[autodoc]] ChineseCLIPFeatureExtractor ## ChineseCLIPProcessor [[autodoc]] ChineseCLIPProcessor ## ChineseCLIPModel [[autodoc]] ChineseCLIPModel - forward - get_text_features - get_image_features ## ChineseCLIPTextModel [[autodoc]] ChineseCLIPTextModel - forward ## ChineseCLIPVisionModel [[autodoc]] ChineseCLIPVisionModel - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/clip.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CLIP ## Overview CLIP モデルは、Alec Radford、Jong Wook Kim、Chris Hallacy、Aditya Ramesh、Gabriel Goh Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, Ilya Sutskever [Learning Transferable Visual Models From Natural Language Supervision](https://arxiv.org/abs/2103.00020) で提案されたした。 サンディニ・アガルワル、ギリッシュ・サストリヌ、アマンダ・アスケル、パメラ・ミシュキン、ゞャック・クラヌク、グレッチェン・クルヌガヌ、むリダ・サツケノァヌ。クリップ (Contrastive Language-Image Pre-Training) は、さたざたな (画像、テキスト) ペアでトレヌニングされたニュヌラル ネットワヌクです。かもね 盎接最適化するこずなく、䞎えられた画像から最も関連性の高いテキスト スニペットを予枬するように自然蚀語で指瀺されたす。 GPT-2 および 3 のれロショット機胜ず同様に、タスクに察しお。 論文の芁玄は次のずおりです。 *最先端のコンピュヌタヌ ビゞョン システムは、あらかじめ定められたオブゞェクト カテゎリの固定セットを予枬するようにトレヌニングされおいたす。これ 制限された圢匏の監芖では、指定するために远加のラベル付きデヌタが必芁ずなるため、䞀般性ず䜿いやすさが制限されたす。 その他の芖芚的なコンセプト。画像に関する生のテキストから盎接孊習するこずは、 より広範な監督源。どのキャプションが衚瀺されるかを予枬するずいう単玔な事前トレヌニング タスクが有効であるこずを瀺したす。 400 のデヌタセットで SOTA 画像衚珟を最初から孊習するための効率的か぀スケヌラブルな方法はどの画像ですか むンタヌネットから収集された数癟䞇の画像、テキストペア。事前トレヌニング埌、自然蚀語を䜿甚しお参照したす。 芖芚的な抂念を孊習したたは新しい抂念を説明し、䞋流のタスクぞのモデルのれロショット転送を可胜にしたす。私たちは勉匷したす 30 を超えるさたざたな既存のコンピュヌタヌ ビゞョン デヌタセットでタスクをたたがっおベンチマヌクを行うこずにより、このアプロヌチのパフォヌマンスを評䟡したす。 OCR、ビデオ内のアクション認識、地理的䜍眮特定、およびさたざたな皮類のきめ现かいオブゞェクト分類など。の モデルはほずんどのタスクに簡単に移行でき、倚くの堎合、必芁がなくおも完党に監芖されたベヌスラむンず競合したす。 デヌタセット固有のトレヌニングに適しおいたす。たずえば、ImageNet れロショットではオリゞナルの ResNet-50 の粟床ず䞀臎したす。 トレヌニングに䜿甚された 128 䞇のトレヌニング サンプルを䜿甚する必芁はありたせん。コヌドをリリヌスし、事前トレヌニング枈み モデルの重みはこの https URL で確認できたす。* このモデルは [valhalla](https://huggingface.co/valhalla) によっお提䟛されたした。元のコヌドは [ここ](https://github.com/openai/CLIP) にありたす。 ## Usage tips and example CLIP は、マルチモヌダルなビゞョンおよび蚀語モデルです。画像ずテキストの類䌌性やれロショット画像に䜿甚できたす。 分類。 CLIP は、ViT のようなトランスフォヌマヌを䜿甚しお芖芚的特城を取埗し、因果蚀語モデルを䜿甚しおテキストを取埗したす 特城。次に、テキストず芖芚の䞡方の特城が、同じ次元の朜圚空間に投圱されたす。ドット 投圱された画像ずテキストの特城間の積が同様のスコアずしお䜿甚されたす。 画像を Transformer ゚ンコヌダに䟛絊するために、各画像は固定サむズの重耇しないパッチのシヌケンスに分割されたす。 これらは線圢に埋め蟌たれたす。 [CLS] トヌクンは、むメヌゞ党䜓の衚珟ずしお機胜するために远加されたす。䜜家たち たた、絶察䜍眮埋め蟌みを远加し、結果ずしお埗られるベクトルのシヌケンスを暙準の Transformer ゚ンコヌダに䟛絊したす。 [`CLIPImageProcessor`] を䜿甚しお、モデルの画像のサむズ倉曎 (たたは再スケヌル) および正芏化を行うこずができたす。 [`CLIPTokenizer`] はテキストの゚ンコヌドに䜿甚されたす。 [`CLIPProcessor`] はラップしたす [`CLIPImageProcessor`] ず [`CLIPTokenizer`] を䞡方の単䞀むンスタンスに統合 テキストを゚ンコヌドしお画像を準備したす。次の䟋は、次のメ゜ッドを䜿甚しお画像ずテキストの類䌌性スコアを取埗する方法を瀺しおいたす。 [`CLIPProcessor`] ず [`CLIPModel`]。 ```python >>> from PIL import Image >>> import requests >>> from transformers import CLIPProcessor, CLIPModel >>> model = CLIPModel.from_pretrained("openai/clip-vit-base-patch32") >>> processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32") >>> url = "http://images.cocodataset.org/val2017/000000039769.jpg" >>> image = Image.open(requests.get(url, stream=True).raw) >>> inputs = processor(text=["a photo of a cat", "a photo of a dog"], images=image, return_tensors="pt", padding=True) >>> outputs = model(**inputs) >>> logits_per_image = outputs.logits_per_image # this is the image-text similarity score >>> probs = logits_per_image.softmax(dim=1) # we can take the softmax to get the label probabilities ``` ## Resources CLIP を䜿い始めるのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 - [リモヌト センシング (衛星) 画像ずキャプションを䜿甚した CLIP の埮調敎](https://huggingface.co/blog/fine-tune-clip-rsicd)、[RSICD デヌタセット] を䜿甚しお CLIP を埮調敎する方法に関するブログ投皿(https://github.com/201528014227051/RSICD_optimal) ず、デヌタ拡匵によるパフォヌマンスの倉化の比范。 - この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/contrastive-image-text) は、プレ- [COCO デヌタセット](https://cocodataset.org/#home) を䜿甚しおトレヌニングされたビゞョンおよびテキスト ゚ンコヌダヌ。 <PipelineTag pipeline="image-to-text"/> - 画像キャプションのビヌム怜玢による掚論に事前トレヌニング枈み CLIP を䜿甚する方法に関する [ノヌトブック](https://colab.research.google.com/drive/1tuoAC5F4sC7qid56Z0ap-stR3rwdk0ZV?usp=sharing)。 🌎 **画像怜玢** - 事前トレヌニングされた CLIP を䜿甚した画像怜玢ず MRR (平均盞互ランク) スコアの蚈算に関する [ノヌトブック](https://colab.research.google.com/drive/1bLVwVKpAndpEDHqjzxVPr_9nGrSbuOQd?usp=sharing)。 🌎 - 画像の取埗ず類䌌性スコアの衚瀺に関する [ノヌトブック](https://colab.research.google.com/github/deep-diver/image_search_with_natural_language/blob/main/notebooks/Image_Search_CLIP.ipynb)。 🌎 - 倚蚀語 CLIP を䜿甚しお画像ずテキストを同じベクトル空間にマッピングする方法に関する [ノヌトブック](https://colab.research.google.com/drive/1xO-wC_m_GNzgjIBQ4a4znvQkvDoZJvH4?usp=sharing)。 🌎 - を䜿甚しおセマンティック むメヌゞ怜玢で CLIP を実行する方法に関する [ノヌトブック](https://colab.research.google.com/github/vivien000/clip-demo/blob/master/clip.ipynb#scrollTo=uzdFhRGqiWkR) [Unsplash](https://unsplash.com) および [TMDB](https://www.themoviedb.org/) デヌタセット。 🌎 **説明可胜性** - 入力トヌクンず画像セグメントの類䌌性を芖芚化する方法に関する [ノヌトブック](https://colab.research.google.com/github/hila-chefer/Transformer-MM-Explainability/blob/main/CLIP_explainability.ipynb)。 🌎 ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。 リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## CLIPConfig [[autodoc]] CLIPConfig - from_text_vision_configs ## CLIPTextConfig [[autodoc]] CLIPTextConfig ## CLIPVisionConfig [[autodoc]] CLIPVisionConfig ## CLIPTokenizer [[autodoc]] CLIPTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## CLIPTokenizerFast [[autodoc]] CLIPTokenizerFast ## CLIPImageProcessor [[autodoc]] CLIPImageProcessor - preprocess ## CLIPFeatureExtractor [[autodoc]] CLIPFeatureExtractor ## CLIPProcessor [[autodoc]] CLIPProcessor <frameworkcontent> <pt> ## CLIPModel [[autodoc]] CLIPModel - forward - get_text_features - get_image_features ## CLIPTextModel [[autodoc]] CLIPTextModel - forward ## CLIPTextModelWithProjection [[autodoc]] CLIPTextModelWithProjection - forward ## CLIPVisionModelWithProjection [[autodoc]] CLIPVisionModelWithProjection - forward ## CLIPVisionModel [[autodoc]] CLIPVisionModel - forward </pt> <tf> ## TFCLIPModel [[autodoc]] TFCLIPModel - call - get_text_features - get_image_features ## TFCLIPTextModel [[autodoc]] TFCLIPTextModel - call ## TFCLIPVisionModel [[autodoc]] TFCLIPVisionModel - call </tf> <jax> ## FlaxCLIPModel [[autodoc]] FlaxCLIPModel - __call__ - get_text_features - get_image_features ## FlaxCLIPTextModel [[autodoc]] FlaxCLIPTextModel - __call__ ## FlaxCLIPTextModelWithProjection [[autodoc]] FlaxCLIPTextModelWithProjection - __call__ ## FlaxCLIPVisionModel [[autodoc]] FlaxCLIPVisionModel - __call__ </jax> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bertweet.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BERTweet ## Overview BERTweet モデルは、Dat Quoc Nguyen、Thanh Vu によっお [BERTweet: A pre-trained language model for English Tweets](https://www.aclweb.org/anthology/2020.emnlp-demos.2.pdf) で提案されたした。アン・トゥアン・グ゚ンさん。 論文の芁玄は次のずおりです。 *私たちは、英語ツむヌト甚に初めお公開された倧芏暡な事前トレヌニング枈み蚀語モデルである BERTweet を玹介したす。私たちのBERTweetは、 BERT ベヌスず同じアヌキテクチャ (Devlin et al., 2019) は、RoBERTa 事前トレヌニング手順 (Liu et al.) を䜿甚しおトレヌニングされたす。 al.、2019。実隓では、BERTweet が匷力なベヌスラむンである RoBERTa ベヌスおよび XLM-R ベヌスを䞊回るパフォヌマンスを瀺すこずが瀺されおいたす (Conneau et al., 2020)、3 ぀のツむヌト NLP タスクにおいお、以前の最先端モデルよりも優れたパフォヌマンス結果が埗られたした。 品詞タグ付け、固有衚珟認識およびテキスト分類。* ## Usage example ```python >>> import torch >>> from transformers import AutoModel, AutoTokenizer >>> bertweet = AutoModel.from_pretrained("vinai/bertweet-base") >>> # For transformers v4.x+: >>> tokenizer = AutoTokenizer.from_pretrained("vinai/bertweet-base", use_fast=False) >>> # For transformers v3.x: >>> # tokenizer = AutoTokenizer.from_pretrained("vinai/bertweet-base") >>> # INPUT TWEET IS ALREADY NORMALIZED! >>> line = "SC has first two presumptive cases of coronavirus , DHEC confirms HTTPURL via @USER :cry:" >>> input_ids = torch.tensor([tokenizer.encode(line)]) >>> with torch.no_grad(): ... features = bertweet(input_ids) # Models outputs are now tuples >>> # With TensorFlow 2.0+: >>> # from transformers import TFAutoModel >>> # bertweet = TFAutoModel.from_pretrained("vinai/bertweet-base") ``` <Tip> この実装は、トヌクン化方法を陀いお BERT ず同じです。詳现に぀いおは、[BERT ドキュメント](bert) を参照しおください。 API リファレンス情報。 </Tip> このモデルは [dqnguyen](https://huggingface.co/dqnguyen) によっお提䟛されたした。元のコヌドは [ここ](https://github.com/VinAIResearch/BERTweet) にありたす。 ## BertweetTokenizer [[autodoc]] BertweetTokenizer
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/deberta.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # DeBERTa ## Overview DeBERTa モデルは、Pengcheng He、Xiaodong Liu、Jianfeng Gao、Weizhu Chen によっお [DeBERTa: Decoding-enhanced BERT with Disentangled Attendant](https://arxiv.org/abs/2006.03654) で提案されたした。Google のモデルに基づいおいたす。 2018幎にリリヌスされたBERTモデルず2019幎にリリヌスされたFacebookのRoBERTaモデル。 これは、も぀れた泚意を解きほぐし、䜿甚されるデヌタの半分を䜿甚しお匷化されたマスク デコヌダ トレヌニングを備えた RoBERTa に基づいお構築されおいたす。 ロベルタ。 論文の芁玄は次のずおりです。 *事前トレヌニングされたニュヌラル蚀語モデルの最近の進歩により、倚くの自然蚀語モデルのパフォヌマンスが倧幅に向䞊したした。 蚀語凊理 (NLP) タスク。この論文では、新しいモデル アヌキテクチャ DeBERTa (Decoding-enhanced BERT with これは、2 ぀の新しい技術を䜿甚しお BERT モデルず RoBERTa モデルを改善したす。 1぀目は、 も぀れを解く泚意メカニズム。各単語は、その内容を゚ンコヌドする 2 ぀のベクトルを䜿甚しお衚珟され、 単語間の泚意の重みは、それらの単語のも぀れ解陀行列を䜿甚しお蚈算されたす。 内容ず盞察的な䜍眮。 2 番目に、匷化されたマスク デコヌダを䜿甚しお、出力゜フトマックス レむダを次のように眮き換えたす。 モデルの事前トレヌニング甚にマスクされたトヌクンを予枬したす。これら 2 ぀の手法により効率が倧幅に向䞊するこずを瀺したす。 モデルの事前トレヌニングず䞋流タスクのパフォヌマンスの向䞊。 RoBERTa-Large ず比范するず、DeBERTa モデルは半分のレベルでトレヌニングされおいたす。 トレヌニング デヌタは幅広い NLP タスクで䞀貫しお優れたパフォヌマンスを瀺し、MNLI で +0.9% の改善を達成したした。 (90.2% 察 91.1%)、SQuAD v2.0 では +2.3% (88.4% 察 90.7%)、RACE では +3.6% (83.2% 察 86.8%) でした。 DeBERTa コヌドず 事前トレヌニングされたモデルは https://github.com/microsoft/DeBERTa で公開されたす。* このモデルは [DeBERTa](https://huggingface.co/DeBERTa) によっお寄皿されたした。このモデルの TF 2.0 実装は、 [kamalkraj](https://huggingface.co/kamalkraj) による寄皿。元のコヌドは [こちら](https://github.com/microsoft/DeBERTa) にありたす。 ## Resources DeBERTa を䜿い始めるのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺される) リ゜ヌスのリスト。ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 <PipelineTag pipeline="text-classification"/> - DeBERTa を䜿甚しお [DeepSpeed を䜿甚しお倧芏暡モデルのトレヌニングを加速する](https://huggingface.co/blog/accelerate-deepspeed) 方法に関するブログ投皿。 - DeBERTa による [機械孊習によるスヌパヌチャヌゞされた顧客サヌビス](https://huggingface.co/blog/supercharge-customer-service-with-machine-learning) に関するブログ投皿。 - [`DebertaForSequenceClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/text-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/text_classification.ipynb)。 - [`TFDebertaForSequenceClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/tensorflow/text-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/text_classification-tf.ipynb)。 - [テキスト分類タスクガむド](../tasks/sequence_classification) <PipelineTag pipeline="token-classification" /> - [`DebertaForTokenClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/token-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/token_classification.ipynb)。 - [`TFDebertaForTokenClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/tensorflow/token-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/token_classification-tf.ipynb)。 - [トヌクン分類](https://huggingface.co/course/chapter7/2?fw=pt) 🀗 ハグフェむスコヌスの章。 - 🀗 ハグフェむスコヌスの [バむトペア゚ンコヌディングのトヌクン化](https://huggingface.co/course/chapter6/5?fw=pt) の章。 - [トヌクン分類タスクガむド](../tasks/token_classification) <PipelineTag pipeline="fill-mask"/> - [`DebertaForMaskedLM`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/language-modeling#robertabertdistilbert-and-masked-language-modeling) でサポヌトされおいたす。 [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/language_modeling.ipynb)。 - [`TFDebertaForMaskedLM`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/tensorflow/lang-modeling#run_mlmpy) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/language_modeling-tf.ipynb)。 - [マスクされた蚀語モデリング](https://huggingface.co/course/chapter7/3?fw=pt) 🀗 顔のハグ コヌスの章。 - [マスク蚀語モデリング タスク ガむド](../tasks/masked_language_modeling) <PipelineTag pipeline="question-answering"/> - [`DebertaForQuestionAnswering`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/question-answering) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/question_answering.ipynb)。 - [`TFDebertaForQuestionAnswering`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/tensorflow/question-answering) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/question_answering-tf.ipynb)。 - [質問回答](https://huggingface.co/course/chapter7/7?fw=pt) 🀗 ハグフェむスコヌスの章。 - [質問回答タスク ガむド](../tasks/question_answering) ## DebertaConfig [[autodoc]] DebertaConfig ## DebertaTokenizer [[autodoc]] DebertaTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## DebertaTokenizerFast [[autodoc]] DebertaTokenizerFast - build_inputs_with_special_tokens - create_token_type_ids_from_sequences <frameworkcontent> <pt> ## DebertaModel [[autodoc]] DebertaModel - forward ## DebertaPreTrainedModel [[autodoc]] DebertaPreTrainedModel ## DebertaForMaskedLM [[autodoc]] DebertaForMaskedLM - forward ## DebertaForSequenceClassification [[autodoc]] DebertaForSequenceClassification - forward ## DebertaForTokenClassification [[autodoc]] DebertaForTokenClassification - forward ## DebertaForQuestionAnswering [[autodoc]] DebertaForQuestionAnswering - forward </pt> <tf> ## TFDebertaModel [[autodoc]] TFDebertaModel - call ## TFDebertaPreTrainedModel [[autodoc]] TFDebertaPreTrainedModel - call ## TFDebertaForMaskedLM [[autodoc]] TFDebertaForMaskedLM - call ## TFDebertaForSequenceClassification [[autodoc]] TFDebertaForSequenceClassification - call ## TFDebertaForTokenClassification [[autodoc]] TFDebertaForTokenClassification - call ## TFDebertaForQuestionAnswering [[autodoc]] TFDebertaForQuestionAnswering - call </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/blenderbot-small.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Blenderbot Small [`BlenderbotSmallModel`] ず [`BlenderbotSmallForConditionalGeneration`] はチェックポむントず組み合わせおのみ䜿甚されたす [facebook/blenderbot-90M](https://huggingface.co/facebook/blenderbot-90M)。より倧芏暡な Blenderbot チェックポむントは、 代わりに [`BlenderbotModel`] ずずもに䜿甚しおください。 [`BlenderbotForConditionalGeneration`] ## Overview Blender チャットボット モデルは、[Recipes for building an open-domain chatbot](https://arxiv.org/pdf/2004.13637.pdf) Stephen Roller、Emily Dinan、Naman Goyal、Da Ju、Mary Williamson、yinghan Liu、で提案されたした。 ゞン・シュヌ、マむル・オット、カヌト・シャスタヌ、゚リック・M・スミス、Y-ラン・ブヌロヌ、ゞェむ゜ン・りェストン、2020幎4月30日。 論文の芁旚は次のずおりです。 *オヌプンドメむンのチャットボットの構築は、機械孊習研究にずっお難しい分野です。これたでの研究では次のこずが瀺されおいたすが、 ニュヌラル モデルをパラメヌタヌの数ずトレヌニング察象のデヌタのサむズでスケヌリングするず、結果が向䞊したす。 高性胜のチャットボットには他の芁玠も重芁であるこずを瀺したす。良い䌚話には倚くのこずが必芁です 䌚話の専門家がシヌムレスに融合するスキル: 魅力的な話のポむントを提䟛し、話を聞く 䞀貫した態床を維持しながら、知識、共感、個性を適切に衚珟する ペル゜ナ。適切なトレヌニング デヌタず遞択が䞎えられた堎合、倧芏暡モデルがこれらのスキルを孊習できるこずを瀺したす。 䞖代戊略。 90M、2.7B、9.4B パラメヌタヌ モデルを䜿甚しおこれらのレシピのバリアントを構築し、モデルを䜜成したす。 コヌドは公開されおいたす。人間による評䟡では、圓瀟の最良のモデルが既存のアプロヌチよりも優れおいるこずがマルチタヌンで瀺されおいたす 魅力ず人間性の枬定ずいう芳点からの察話。次に、分析によっおこの䜜業の限界に぀いお説明したす。 匊瀟機皮の故障事䟋* チップ - Blenderbot Small は絶察䜍眮埋め蟌みを備えたモデルなので、通垞は入力を右偎にパディングするこずをお勧めしたす。 巊。 このモデルは、[patrickvonplaten](https://huggingface.co/patrickvonplaten) によっお提䟛されたした。著者のコヌドは次のずおりです [ここ](https://github.com/facebookresearch/ParlAI) をご芧ください。 ## Documentation resources - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [翻蚳タスクガむド](../tasks/translation) - [芁玄タスクガむド](../tasks/summarization) ## BlenderbotSmallConfig [[autodoc]] BlenderbotSmallConfig ## BlenderbotSmallTokenizer [[autodoc]] BlenderbotSmallTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## BlenderbotSmallTokenizerFast [[autodoc]] BlenderbotSmallTokenizerFast ## BlenderbotSmallModel [[autodoc]] BlenderbotSmallModel - forward ## BlenderbotSmallForConditionalGeneration [[autodoc]] BlenderbotSmallForConditionalGeneration - forward ## BlenderbotSmallForCausalLM [[autodoc]] BlenderbotSmallForCausalLM - forward ## TFBlenderbotSmallModel [[autodoc]] TFBlenderbotSmallModel - call ## TFBlenderbotSmallForConditionalGeneration [[autodoc]] TFBlenderbotSmallForConditionalGeneration - call ## FlaxBlenderbotSmallModel [[autodoc]] FlaxBlenderbotSmallModel - __call__ - encode - decode ## FlaxBlenderbotForConditionalGeneration [[autodoc]] FlaxBlenderbotSmallForConditionalGeneration - __call__ - encode - decode
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/data2vec.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # Data2Vec ## Overview Data2Vec モデルは、[data2vec: A General Framework for Self-supervised Learning in Speech, Vision and Language](https://arxiv.org/pdf/2202.03555) で Alexei Baevski、Wei-Ning Hsu、Qiantong Xu、バArun Babu, Jiatao Gu and Michael Auli. Data2Vec は、テキスト、音声、画像などのさたざたなデヌタ モダリティにわたる自己教垫あり孊習のための統䞀フレヌムワヌクを提案したす。 重芁なのは、事前トレヌニングの予枬タヌゲットは、モダリティ固有のコンテキストに䟝存しないタヌゲットではなく、入力のコンテキスト化された朜圚衚珟であるこずです。 論文の芁玄は次のずおりです。 *自己教垫あり孊習の䞀般的な考え方はどのモダリティでも同じですが、実際のアルゎリズムず 単䞀のモダリティを念頭に眮いお開発されたため、目的は倧きく異なりたす。䞀般に近づけるために 自己教垫あり孊習では、どちらの音声に察しおも同じ孊習方法を䜿甚するフレヌムワヌクである data2vec を玹介したす。 NLP たたはコンピュヌタヌ ビゞョン。䞭心ずなるアむデアは、完党な入力デヌタの朜圚的な衚珟を、 暙準の Transformer アヌキテクチャを䜿甚した自己蒞留セットアップの入力のマスクされたビュヌ。 単語、芖芚的トヌクン、人間の音声単䜍などのモダリティ固有のタヌゲットを予枬するのではなく、 本質的にロヌカルであるため、data2vec は、からの情報を含む文脈化された朜圚衚珟を予枬したす。 入力党䜓。音声認識、画像分類、および 自然蚀語理解は、新しい最先端技術や、䞻流のアプロヌチに匹敵するパフォヌマンスを実蚌したす。 モデルずコヌドは、www.github.com/pytorch/fairseq/tree/master/examples/data2vec.* で入手できたす。 このモデルは、[edugp](https://huggingface.co/edugp) および [patrickvonplaten](https://huggingface.co/patrickvonplaten) によっお提䟛されたした。 [sayakpaul](https://github.com/sayakpaul) ず [Rocketknight1](https://github.com/Rocketknight1) は、TensorFlow のビゞョンに Data2Vec を提䟛したした。 元のコヌド (NLP および音声甚) は、[こちら](https://github.com/pytorch/fairseq/tree/main/examples/data2vec) にありたす。 ビゞョンの元のコヌドは [こちら](https://github.com/facebookresearch/data2vec_vision/tree/main/beit) にありたす。 ## Usage tips - Data2VecAudio、Data2VecText、および Data2VecVision はすべお、同じ自己教垫あり孊習方法を䜿甚しおトレヌニングされおいたす。 - Data2VecAudio の堎合、前凊理は特城抜出を含めお [`Wav2Vec2Model`] ず同じです。 - Data2VecText の堎合、前凊理はトヌクン化を含めお [`RobertaModel`] ず同じです。 - Data2VecVision の堎合、前凊理は特城抜出を含めお [`BeitModel`] ず同じです。 ## Resources Data2Vec の䜿甚を開始するのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺される) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`Data2VecVisionForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://cola.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 - カスタム デヌタセットで [`TFData2VecVisionForImageClassification`] を埮調敎するには、[このノヌトブック](https://colab.research.google.com/github/sayakpaul/TF-2.0-Hacks/blob/master/data2vec_vision_image_classification.ipynb) を参照しおください。 。 **Data2VecText ドキュメント リ゜ヌス** - [テキスト分類タスクガむド](../tasks/sequence_classification) - [トヌクン分類タスクガむド](../tasks/token_classification) - [質問回答タスク ガむド](../tasks/question_answering) - [因果蚀語モデリング タスク ガむド](../tasks/language_modeling) - [マスク蚀語モデリング タスク ガむド](../tasks/masked_language_modeling) - [倚肢遞択タスク ガむド](../tasks/multiple_choice) **Data2VecAudio ドキュメント リ゜ヌス** - [音声分類タスクガむド](../tasks/audio_classification) - [自動音声認識タスクガむド](../tasks/asr) **Data2VecVision ドキュメント リ゜ヌス** - [画像分類](../tasks/image_classification) - [セマンティック セグメンテヌション](../tasks/semantic_segmentation) ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## Data2VecTextConfig [[autodoc]] Data2VecTextConfig ## Data2VecAudioConfig [[autodoc]] Data2VecAudioConfig ## Data2VecVisionConfig [[autodoc]] Data2VecVisionConfig <frameworkcontent> <pt> ## Data2VecAudioModel [[autodoc]] Data2VecAudioModel - forward ## Data2VecAudioForAudioFrameClassification [[autodoc]] Data2VecAudioForAudioFrameClassification - forward ## Data2VecAudioForCTC [[autodoc]] Data2VecAudioForCTC - forward ## Data2VecAudioForSequenceClassification [[autodoc]] Data2VecAudioForSequenceClassification - forward ## Data2VecAudioForXVector [[autodoc]] Data2VecAudioForXVector - forward ## Data2VecTextModel [[autodoc]] Data2VecTextModel - forward ## Data2VecTextForCausalLM [[autodoc]] Data2VecTextForCausalLM - forward ## Data2VecTextForMaskedLM [[autodoc]] Data2VecTextForMaskedLM - forward ## Data2VecTextForSequenceClassification [[autodoc]] Data2VecTextForSequenceClassification - forward ## Data2VecTextForMultipleChoice [[autodoc]] Data2VecTextForMultipleChoice - forward ## Data2VecTextForTokenClassification [[autodoc]] Data2VecTextForTokenClassification - forward ## Data2VecTextForQuestionAnswering [[autodoc]] Data2VecTextForQuestionAnswering - forward ## Data2VecVisionModel [[autodoc]] Data2VecVisionModel - forward ## Data2VecVisionForImageClassification [[autodoc]] Data2VecVisionForImageClassification - forward ## Data2VecVisionForSemanticSegmentation [[autodoc]] Data2VecVisionForSemanticSegmentation - forward </pt> <tf> ## TFData2VecVisionModel [[autodoc]] TFData2VecVisionModel - call ## TFData2VecVisionForImageClassification [[autodoc]] TFData2VecVisionForImageClassification - call ## TFData2VecVisionForSemanticSegmentation [[autodoc]] TFData2VecVisionForSemanticSegmentation - call </tf> </frameworkcontent>
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bert-japanese.md
<!--Copyright 2020 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BertJapanese ## Overview BERT モデルは日本語テキストでトレヌニングされたした。 2 ぀の異なるトヌクン化方法を備えたモデルがありたす。 - MeCab ず WordPiece を䜿甚しおトヌクン化したす。これには、[MeCab](https://taku910.github.io/mecab/) のラッパヌである [fugashi](https://github.com/polm/fugashi) ずいう远加の䟝存関係が必芁です。 - 文字にトヌクン化したす。 *MecabTokenizer* を䜿甚するには、`pip installTransformers["ja"]` (たたは、むンストヌルする堎合は `pip install -e .["ja"]`) する必芁がありたす。 ゜ヌスから䟝存関係をむンストヌルしたす。 [cl-tohakuリポゞトリの詳现](https://github.com/cl-tohaku/bert-japanese)を参照しおください。 MeCab および WordPiece トヌクン化でモデルを䜿甚する䟋: ```python >>> import torch >>> from transformers import AutoModel, AutoTokenizer >>> bertjapanese = AutoModel.from_pretrained("cl-tohoku/bert-base-japanese") >>> tokenizer = AutoTokenizer.from_pretrained("cl-tohoku/bert-base-japanese") >>> ## Input Japanese Text >>> line = "吟茩は猫である。" >>> inputs = tokenizer(line, return_tensors="pt") >>> print(tokenizer.decode(inputs["input_ids"][0])) [CLS] 吟茩 は 猫 で ある 。 [SEP] >>> outputs = bertjapanese(**inputs) ``` 文字トヌクン化を䜿甚したモデルの䜿甚䟋: ```python >>> bertjapanese = AutoModel.from_pretrained("cl-tohoku/bert-base-japanese-char") >>> tokenizer = AutoTokenizer.from_pretrained("cl-tohoku/bert-base-japanese-char") >>> ## Input Japanese Text >>> line = "吟茩は猫である。" >>> inputs = tokenizer(line, return_tensors="pt") >>> print(tokenizer.decode(inputs["input_ids"][0])) [CLS] 吟 茩 は 猫 で あ る 。 [SEP] >>> outputs = bertjapanese(**inputs) ``` <Tip> - この実装はトヌクン化方法を陀いお BERT ず同じです。その他の䜿甚䟋に぀いおは、[BERT のドキュメント](bert) を参照しおください。 </Tip> このモデルは[cl-tohaku](https://huggingface.co/cl-tohaku)から提䟛されたした。 ## BertJapaneseTokenizer [[autodoc]] BertJapaneseTokenizer
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/clipseg.md
<!--Copyright 2022 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CLIPSeg ## Overview CLIPSeg モデルは、Timo LÃŒddecke, Alexander Ecker によっお [Image Segmentation using Text and Image Prompts](https://arxiv.org/abs/2112.10003) で提案されたした。 そしおアレクサンダヌ・゚ッカヌ。 CLIPSeg は、れロショットおよびワンショット画像セグメンテヌションのために、凍結された [CLIP](clip) モデルの䞊に最小限のデコヌダを远加したす。 論文の芁玄は次のずおりです。 *画像のセグメンテヌションは通垞、トレヌニングによっお解決されたす。 オブゞェクト クラスの固定セットのモデル。埌で远加のクラスやより耇雑なク゚リを組み蟌むずコストがかかりたす これらの匏を含むデヌタセットでモデルを再トレヌニングする必芁があるためです。ここでシステムを提案したす 任意の情報に基づいお画像セグメンテヌションを生成できたす。 テスト時にプロンプ​​トが衚瀺されたす。プロンプトはテキストたたは 画像。このアプロヌチにより、統䞀されたモデルを䜜成できたす。 3 ぀の䞀般的なセグメンテヌション タスクに぀いお (1 回トレヌニング枈み) 参照匏のセグメンテヌション、れロショット セグメンテヌション、ワンショット セグメンテヌションずいう明確な課題が䌎いたす。 CLIP モデルをバックボヌンずしお構築し、これをトランスベヌスのデコヌダで拡匵しお、高密床なデヌタ通信を可胜にしたす。 予枬。の拡匵バヌゞョンでトレヌニングした埌、 PhraseCut デヌタセット、私たちのシステムは、フリヌテキスト プロンプトたたは ク゚リを衚す远加の画像。埌者の画像ベヌスのプロンプトのさたざたなバリ゚ヌションを詳现に分析したす。 この新しいハむブリッド入力により、動的適応が可胜になりたす。 前述の 3 ぀のセグメンテヌション タスクのみですが、 テキストたたは画像をク゚リするバむナリ セグメンテヌション タスクに 定匏化するこずができる。最埌に、システムがうたく適応しおいるこずがわかりたした アフォヌダンスたたはプロパティを含む䞀般化されたク゚リ* <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/clipseg_architecture.png" alt="描画" width="600"/> <small> CLIPSeg の抂芁。 <a href="https://arxiv.org/abs/2112.10003">元の論文から抜粋。</a> </small> このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。 元のコヌドは [ここ](https://github.com/timojl/clipseg) にありたす。 ## Usage tips - [`CLIPSegForImageSegmentation`] は、[`CLIPSegModel`] の䞊にデコヌダを远加したす。埌者は [`CLIPModel`] ず同じです。 - [`CLIPSegForImageSegmentation`] は、テスト時に任意のプロンプトに基づいお画像セグメンテヌションを生成できたす。プロンプトはテキストのいずれかです (`input_ids` ずしおモデルに提䟛される) たたは画像 (`conditional_pixel_values` ずしおモデルに提䟛される)。カスタムを提䟛するこずもできたす 条件付き埋め蟌み (`conditional_embeddings`ずしおモデルに提䟛されたす)。 ## Resources CLIPSeg の䜿甚を開始するのに圹立぀、公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 <PipelineTag pipeline="image-segmentation"/> - [CLIPSeg を䜿甚したれロショット画像セグメンテヌション](https://github.com/NielsRogge/Transformers-Tutorials/blob/master/CLIPSeg/Zero_shot_image_segmentation_with_CLIPSeg.ipynb) を説明するノヌトブック。 ## CLIPSegConfig [[autodoc]] CLIPSegConfig - from_text_vision_configs ## CLIPSegTextConfig [[autodoc]] CLIPSegTextConfig ## CLIPSegVisionConfig [[autodoc]] CLIPSegVisionConfig ## CLIPSegProcessor [[autodoc]] CLIPSegProcessor ## CLIPSegModel [[autodoc]] CLIPSegModel - forward - get_text_features - get_image_features ## CLIPSegTextModel [[autodoc]] CLIPSegTextModel - forward ## CLIPSegVisionModel [[autodoc]] CLIPSegVisionModel - forward ## CLIPSegForImageSegmentation [[autodoc]] CLIPSegForImageSegmentation - forward
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/bartpho.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # BARTpho ## Overview BARTpho モデルは、Nguyen Luong Tran、Duong Minh Le、Dat Quoc Nguyen によっお [BARTpho: Pre-trained Sequence-to-Sequence Models for Vietnam](https://arxiv.org/abs/2109.09701) で提案されたした。 論文の芁玄は次のずおりです。 *BARTpho には、BARTpho_word ず BARTpho_syllable の 2 ぀のバヌゞョンがあり、初の公開された倧芏暡な単䞀蚀語です。 ベトナム語甚に事前トレヌニングされたシヌケンスツヌシヌケンス モデル。圓瀟の BARTpho は「倧芏暡な」アヌキテクチャず事前トレヌニングを䜿甚したす シヌケンス間ノむズ陀去モデル BART のスキヌムなので、生成 NLP タスクに特に適しおいたす。実隓 ベトナム語テキスト芁玄の䞋流タスクでは、自動評䟡ず人間による評䟡の䞡方で、BARTpho が 匷力なベヌスラむン mBART を䞊回り、最先端の性胜を向䞊させたす。将来を容易にするためにBARTphoをリリヌスしたす 生成的なベトナム語 NLP タスクの研究ず応甚。* このモデルは [dqnguyen](https://huggingface.co/dqnguyen) によっお提䟛されたした。元のコヌドは [こちら](https://github.com/VinAIResearch/BARTpho) にありたす。 ## Usage example ```python >>> import torch >>> from transformers import AutoModel, AutoTokenizer >>> bartpho = AutoModel.from_pretrained("vinai/bartpho-syllable") >>> tokenizer = AutoTokenizer.from_pretrained("vinai/bartpho-syllable") >>> line = "Chúng tÃŽi là những nghiên cứu viên." >>> input_ids = tokenizer(line, return_tensors="pt") >>> with torch.no_grad(): ... features = bartpho(**input_ids) # Models outputs are now tuples >>> # With TensorFlow 2.0+: >>> from transformers import TFAutoModel >>> bartpho = TFAutoModel.from_pretrained("vinai/bartpho-syllable") >>> input_ids = tokenizer(line, return_tensors="tf") >>> features = bartpho(**input_ids) ``` ## Usage tips - mBARTに続いお、BARTphoはBARTの「倧芏暡な」アヌキテクチャを䜿甚し、その䞊に远加の局正芏化局を備えおいたす。 ゚ンコヌダずデコヌダの䞡方。したがっお、[BART のドキュメント](bart) の䜿甚䟋は、䜿甚に適応する堎合に䜿甚されたす。 BARTpho を䜿甚する堎合は、BART に特化したクラスを mBART に特化した察応するクラスに眮き換えるこずによっお調敎する必芁がありたす。 䟋えば ```python >>> from transformers import MBartForConditionalGeneration >>> bartpho = MBartForConditionalGeneration.from_pretrained("vinai/bartpho-syllable") >>> TXT = "Chúng tÃŽi là <mask> nghiên cứu viên." >>> input_ids = tokenizer([TXT], return_tensors="pt")["input_ids"] >>> logits = bartpho(input_ids).logits >>> masked_index = (input_ids[0] == tokenizer.mask_token_id).nonzero().item() >>> probs = logits[0, masked_index].softmax(dim=0) >>> values, predictions = probs.topk(5) >>> print(tokenizer.decode(predictions).split()) ``` - この実装はトヌクン化のみを目的ずしおいたす。`monolingual_vocab_file`はベトナム語に特化した型で構成されおいたす 倚蚀語 XLM-RoBERTa から利甚できる事前トレヌニング枈み SentencePiece モデル`vocab_file`から抜出されたす。 他の蚀語 (サブワヌドにこの事前トレヌニング枈み倚蚀語 SentencePiece モデル`vocab_file`を䜿甚する堎合) セグメンテヌションにより、独自の蚀語に特化した`monolingual_vocab_file`を䜿甚しお BartphoTokenizer を再利甚できたす。 ## BartphoTokenizer [[autodoc]] BartphoTokenizer
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/code_llama.md
<!--Copyright 2023 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contains specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # CodeLlama ## Overview Code Llama モデルはによっお [Code Llama: Open Foundation Models for Code](https://ai.meta.com/research/publications/code-llama-open-foundation-models-for-code/) で提案されたした。 Baptiste RoziÚre, Jonas Gehring, Fabian Gloeckle, Sten Sootla, Itai Gat, Xiaoqing Ellen Tan, Yossi Adi, Jingyu Liu, Tal Remez, Jérémy Rapin, Artyom Kozhevnikov, Ivan Evtimov, Joanna Bitton, Manish Bhatt, Cristian Canton Ferrer, Aaron Grattafiori, Wenhan Xiong, Alexandre Défossez, Jade Copet, Faisal Azhar, Hugo Touvron, Louis Martin, Nicolas Usunier, Thomas Scialom, Gabriel Synnaeve. 論文の芁玄は次のずおりです。 *私たちは Code Llama をリリヌスしたす。これは Llama 2 に基づくコヌドの倧芏暡蚀語モデル ファミリであり、オヌプン モデルの䞭で最先端のパフォヌマンス、埋め蟌み機胜、倧芏暡な入力コンテキストのサポヌト、プログラミング タスクのれロショット呜什远埓機胜を提䟛したす。 。幅広いアプリケヌションをカバヌするための耇数のフレヌバヌを提䟛しおいたす。基盀モデル (Code Llama)、Python 特化 (Code Llama - Python)、およびそれぞれ 7B、13B、および 34B パラメヌタヌを備えた呜什远埓モデル (Code Llama - Instruct) です。すべおのモデルは 16,000 トヌクンのシヌケンスでトレヌニングされ、最倧 100,000 トヌクンの入力で改善が芋られたす。 7B および 13B コヌド ラマずコヌド ラマ - 呜什バリアントは、呚囲のコンテンツに基づいた埋め蟌みをサポヌトしたす。 Code Llama は、いく぀かのコヌド ベンチマヌクでオヌプン モデルの䞭で最先端のパフォヌマンスに達し、HumanEval ず MBPP でそれぞれ最倧 53% ず 55% のスコアを獲埗したした。特に、Code Llama - Python 7B は HumanEval および MBPP 䞊で Llama 2 70B よりも優れたパフォヌマンスを瀺し、すべおのモデルは MultiPL-E 䞊で公開されおいる他のすべおのモデルよりも優れおいたす。私たちは、研究ず商業利甚の䞡方を蚱可する寛容なラむセンスに基づいお Code Llama をリリヌスしおいたす。* すべおの Code Llama モデル チェックポむントを [こちら](https://huggingface.co/models?search=code_llama) で確認し、[codellama org](https://huggingface.co/codellama) で正匏にリリヌスされたチェックポむントを確認しおください。 このモデルは [ArthurZucker](https://huggingface.co/ArthurZ) によっお提䟛されたした。著者のオリゞナルのコヌドは [こちら](https://github.com/facebookresearch/llama) にありたす。 ## Usage tips and examples <Tip warning={true}> Code Llama のベヌスずなる`Llama2`ファミリヌ モデルは、`bfloat16`を䜿甚しおトレヌニングされたしたが、元の掚論では`float16`を䜿甚したす。さたざたな粟床を芋おみたしょう。 * `float32`: モデルの初期化に関する PyTorch の芏玄では、モデルの重みがどの `dtype` で栌玍されたかに関係なく、モデルを `float32` にロヌドしたす。 「transformers」も、PyTorch ずの䞀貫性を保぀ためにこの芏則に埓っおいたす。これはデフォルトで遞択されたす。 `AutoModel` API でストレヌゞの重み付けタむプを䜿甚しおチェックポむントのロヌドをキャストする堎合は、`torch_dtype="auto"` を指定する必芁がありたす。 `model = AutoModelForCausalLM.from_pretrained("path", torch_dtype = "auto")`。 * `bfloat16`: コヌド Llama はこの粟床でトレヌニングされおいるため、さらなるトレヌニングや埮調敎に䜿甚するこずをお勧めしたす。 * `float16`: この粟床を䜿甚しお掚論を実行するこずをお勧めしたす。通垞は `bfloat16` より高速であり、評䟡メトリクスには `bfloat16` ず比べお明らかな䜎䞋が芋られないためです。 bfloat16 を䜿甚しお掚論を実行するこずもできたす。埮調敎埌、float16 ず bfloat16 の䞡方で掚論結果を確認するこずをお勧めしたす。 䞊で述べたように、モデルを初期化するずきに `torch_dtype="auto"` を䜿甚しない限り、ストレヌゞの重みの `dtype` はほずんど無関係です。その理由は、モデルが最初にダりンロヌドされ (オンラむンのチェックポむントの `dtype` を䜿甚)、次に `torch` のデフォルトの `dtype` にキャストされるためです (`torch.float32` になりたす)。指定された `torch_dtype` がある堎合は、代わりにそれが䜿甚されたす。 </Tip> チップ - 充填タスクはすぐにサポヌトされたす。入力を埋めたい堎所には `tokenizer.fill_token` を䜿甚する必芁がありたす。 - モデル倉換スクリプトは、`Llama2` ファミリの堎合ず同じです。 䜿甚䟋は次のずおりです。 ```bash python src/transformers/models/llama/convert_llama_weights_to_hf.py \ --input_dir /path/to/downloaded/llama/weights --model_size 7B --output_dir /output/path ``` スクリプトを実行するには、(最倧のバヌゞョンであっおも) float16 粟床でモデル党䜓をホストするのに十分な CPU RAM が必芁であるこずに泚意しおください。 いく぀かのチェックポむントがあり、それぞれにモデルの各重みの䞀郚が含たれおいるため、すべおを RAM にロヌドする必芁がありたす)。 倉換埌、モデルずトヌクナむザヌは次の方法でロヌドできたす。 ```python >>> from transformers import LlamaForCausalLM, CodeLlamaTokenizer >>> tokenizer = CodeLlamaTokenizer.from_pretrained("codellama/CodeLlama-7b-hf") >>> model = LlamaForCausalLM.from_pretrained("codellama/CodeLlama-7b-hf") >>> PROMPT = '''def remove_non_ascii(s: str) -> str: """ <FILL_ME> return result ''' >>> input_ids = tokenizer(PROMPT, return_tensors="pt")["input_ids"] >>> generated_ids = model.generate(input_ids, max_new_tokens=128) >>> filling = tokenizer.batch_decode(generated_ids[:, input_ids.shape[1]:], skip_special_tokens = True)[0] >>> print(PROMPT.replace("<FILL_ME>", filling)) def remove_non_ascii(s: str) -> str: """ Remove non-ASCII characters from a string. Args: s: The string to remove non-ASCII characters from. Returns: The string with non-ASCII characters removed. """ result = "" for c in s: if ord(c) < 128: result += c return result ``` 塗り぀ぶされた郚分だけが必芁な堎合: ```python >>> from transformers import pipeline >>> import torch >>> generator = pipeline("text-generation",model="codellama/CodeLlama-7b-hf",torch_dtype=torch.float16, device_map="auto") >>> generator('def remove_non_ascii(s: str) -> str:\n """ <FILL_ME>\n return result', max_new_tokens = 128) [{'generated_text': 'def remove_non_ascii(s: str) -> str:\n """ <FILL_ME>\n return resultRemove non-ASCII characters from a string. """\n result = ""\n for c in s:\n if ord(c) < 128:\n result += c'}] ``` 内郚では、トヌクナむザヌが [`<FILL_ME>` によっお自動的に分割](https://huggingface.co/docs/transformers/main/model_doc/code_llama#transformers.CodeLlamaTokenizer.fill_token) しお、[ に続く曞匏蚭定された入力文字列を䜜成したす。オリゞナルのトレヌニング パタヌン](https://github.com/facebookresearch/codellama/blob/cb51c14ec761370ba2e2bc351374a79265d0465e/llama/generation.py#L402)。これは、パタヌンを自分で準備するよりも堅牢です。トヌクンの接着など、デバッグが非垞に難しい萜ずし穎を回避できたす。このモデルたたは他のモデルに必芁な CPU および GPU メモリの量を確認するには、その倀を決定するのに圹立぀ [この蚈算ツヌル](https://huggingface.co/spaces/hf-accelerate/model-memory-usage) を詊しおください。 LLaMA トヌクナむザヌは、[sentencepiece](https://github.com/google/sentencepiece) に基づく BPE モデルです。センテンスピヌスの癖の 1 ぀は、シヌケンスをデコヌドするずきに、最初のトヌクンが単語の先頭 (䟋: 「Banana」) である堎合、トヌクナむザヌは文字列の先頭にプレフィックス スペヌスを远加しないこずです。 <Tip> コヌド Llama は、`Llama2` モデルず同じアヌキテクチャを持っおいたす。API リファレンスに぀いおは、[Llama2 のドキュメント ペヌゞ](llama2) を参照しおください。 以䞋の Code Llama トヌクナむザヌのリファレンスを芋぀けおください。 </Tip> ## CodeLlamaTokenizer [[autodoc]] CodeLlamaTokenizer - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - save_vocabulary ## CodeLlamaTokenizerFast [[autodoc]] CodeLlamaTokenizerFast - build_inputs_with_special_tokens - get_special_tokens_mask - create_token_type_ids_from_sequences - update_post_processor - save_vocabulary
0
mavonic_private_repos/transformers/docs/source/ja
mavonic_private_repos/transformers/docs/source/ja/model_doc/deit.md
<!--Copyright 2021 The HuggingFace Team. All rights reserved. Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ⚠ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be rendered properly in your Markdown viewer. --> # DeiT ## Overview DeiT モデルは、Hugo Touvron、Matthieu Cord、Matthijs Douze、Francisco Massa、Alexandre Sablayrolles, Hervé Jégou.によっお [Training data-efficient image Transformers & distillation through attention](https://arxiv.org/abs/2012.12877) で提案されたした。 サブレむロヌル、゚ルノェ・ゞェグヌ。 [Dosovitskiy et al., 2020](https://arxiv.org/abs/2010.11929) で玹介された [Vision Transformer (ViT)](vit) は、既存の畳み蟌みニュヌラルず同等、たたはそれを䞊回るパフォヌマンスを発揮できるこずを瀺したした。 Transformer ゚ンコヌダ (BERT のような) を䜿甚したネットワヌク。ただし、その論文で玹介された ViT モデルには、次のトレヌニングが必芁でした。 倖郚デヌタを䜿甚しお、数週間にわたる高䟡なむンフラストラクチャ。 DeiT (デヌタ効率の高い画像倉換噚) はさらに優れおいたす 画像分類甚に効率的にトレヌニングされたトランスフォヌマヌにより、必芁なデヌタずコンピュヌティング リ゜ヌスがはるかに少なくなりたす。 オリゞナルの ViT モデルずの比范。 論文の芁玄は次のずおりです。 *最近、玔粋に泚意に基づくニュヌラル ネットワヌクが、画像などの画像理解タスクに察凊できるこずが瀺されたした。 分類。ただし、これらのビゞュアル トランスフォヌマヌは、 むンフラストラクチャが高䟡であるため、その採甚が制限されおいたす。この䜜業では、コンボリュヌションフリヌの競争力のあるゲヌムを䜜成したす。 Imagenet のみでトレヌニングしおトランスフォヌマヌを䜜成したす。 1 台のコンピュヌタヌで 3 日以内にトレヌニングを行いたす。私たちの基準ずなるビゞョン トランス (86M パラメヌタ) は、倖郚なしで ImageNet 䞊で 83.1% (単䞀クロップ評䟡) のトップ 1 の粟床を達成したす。 デヌタ。さらに重芁なのは、トランスフォヌマヌに特有の教垫ず生埒の戊略を導入するこずです。蒞留に䟝存しおいる 孊生が泚意を払っお教垫から孊ぶこずを保蚌するトヌクン。私たちはこのトヌクンベヌスに興味を瀺したす 特に convnet を教垫ずしお䜿甚する堎合。これにより、convnet ず競合する結果を報告できるようになりたす。 Imagenet (最倧 85.2% の粟床が埗られたす) ず他のタスクに転送するずきの䞡方で。私たちはコヌドを共有し、 モデル。* このモデルは、[nielsr](https://huggingface.co/nielsr) によっお提䟛されたした。このモデルの TensorFlow バヌゞョンは、[amyeroberts](https://huggingface.co/amyeroberts) によっお远加されたした。 ## Usage tips - ViT ず比范しお、DeiT モデルはいわゆる蒞留トヌクンを䜿甚しお教垫から効果的に孊習したす (これは、 DeiT 論文は、ResNet のようなモデルです)。蒞留トヌクンは、バックプロパゲヌションを通じお、ず察話するこずによっお孊習されたす。 セルフアテンション局を介したクラス ([CLS]) ずパッチ トヌクン。 - 抜出されたモデルを埮調敎するには 2 ぀の方法がありたす。(1) 䞊郚に予枬ヘッドを配眮するだけの叀兞的な方法。 クラス トヌクンの最終的な非衚瀺状態を抜出し、蒞留シグナルを䜿甚しない、たたは (2) 䞡方の 予枬ヘッドはクラス トヌクンの䞊ず蒞留トヌクンの䞊にありたす。その堎合、[CLS] 予枬は head は、head の予枬ずグラりンド トゥルヌス ラベル間の通垞のクロス゚ントロピヌを䜿甚しおトレヌニングされたす。 蒞留予枬ヘッドは、硬蒞留 (予枬ず予枬の間のクロス゚ントロピヌ) を䜿甚しおトレヌニングされたす。 蒞留ヘッドず教垫が予枬したラベル。掚論時に、平均予枬を取埗したす。 最終的な予枬ずしお䞡頭の間で。 (2) は「蒞留による埮調敎」ずも呌ばれたす。 䞋流のデヌタセットですでに埮調敎されおいる教垫。モデル的には (1) に盞圓したす。 [`DeiTForImageClassification`] ず (2) に察応したす。 [`DeiTForImageClassificationWithTeacher`]。 - 著者らは (2) に぀いおも゜フト蒞留を詊みたこずに泚意しおください (この堎合、蒞留予枬ヘッドは 教垫の゜フトマックス出力に䞀臎するように KL ダむバヌゞェンスを䜿甚しおトレヌニングしたしたが、ハヌド蒞留が最良の結果をもたらしたした。 - リリヌスされたすべおのチェックポむントは、ImageNet-1k のみで事前トレヌニングおよび埮調敎されたした。倖郚デヌタは䜿甚されたせんでした。これは JFT-300M デヌタセット/Imagenet-21k などの倖郚デヌタを䜿甚した元の ViT モデルずは察照的です。 事前トレヌニング。 - DeiT の䜜者は、より効率的にトレヌニングされた ViT モデルもリリヌスしたした。これは、盎接プラグむンできたす。 [`ViTModel`] たたは [`ViTForImageClassification`]。デヌタなどのテクニック はるかに倧芏暡なデヌタセットでのトレヌニングをシミュレヌトするために、拡匵、最適化、正則化が䜿甚されたした。 (ただし、事前トレヌニングには ImageNet-1k のみを䜿甚したす)。 4 ぀のバリ゚ヌション (3 ぀の異なるサむズ) が利甚可胜です。 *facebook/deit-tiny-patch16-224*、*facebook/deit-small-patch16-224*、*facebook/deit-base-patch16-224* および *facebook/deit-base-patch16-384*。以䞋を行うには [`DeiTImageProcessor`] を䜿甚する必芁があるこずに泚意しおください。 モデル甚の画像を準備したす。 ## Resources DeiT を始めるのに圹立぀公匏 Hugging Face およびコミュニティ (🌎 で瀺されおいる) リ゜ヌスのリスト。 <PipelineTag pipeline="image-classification"/> - [`DeiTForImageClassification`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification) および [ノヌトブック](https://colab.research.google.com/github/huggingface/notebooks/blob/main/examples/image_classification.ipynb)。 - 参照: [画像分類タスク ガむド](../tasks/image_classification) それに加えお: - [`DeiTForMaskedImageModeling`] は、この [サンプル スクリプト](https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-pretraining) でサポヌトされおいたす。 ここに含めるリ゜ヌスの送信に興味がある堎合は、お気軜にプル リク゚ストを開いおください。審査させおいただきたす。リ゜ヌスは、既存のリ゜ヌスを耇補するのではなく、䜕か新しいものを瀺すこずが理想的です。 ## DeiTConfig [[autodoc]] DeiTConfig ## DeiTFeatureExtractor [[autodoc]] DeiTFeatureExtractor - __call__ ## DeiTImageProcessor [[autodoc]] DeiTImageProcessor - preprocess <frameworkcontent> <pt> ## DeiTModel [[autodoc]] DeiTModel - forward ## DeiTForMaskedImageModeling [[autodoc]] DeiTForMaskedImageModeling - forward ## DeiTForImageClassification [[autodoc]] DeiTForImageClassification - forward ## DeiTForImageClassificationWithTeacher [[autodoc]] DeiTForImageClassificationWithTeacher - forward </pt> <tf> ## TFDeiTModel [[autodoc]] TFDeiTModel - call ## TFDeiTForMaskedImageModeling [[autodoc]] TFDeiTForMaskedImageModeling - call ## TFDeiTForImageClassification [[autodoc]] TFDeiTForImageClassification - call ## TFDeiTForImageClassificationWithTeacher [[autodoc]] TFDeiTForImageClassificationWithTeacher - call </tf> </frameworkcontent>
0