В этом разделе мы подробнее рассмотрим создание и использование модели. Мы будем использовать класс AutoModel
, который удобен, когда вы хотите создать экземпляр любой модели из контрольной точки.
Класс AutoModel
и все его родственники на самом деле являются простыми оболочками для большого количества моделей, доступных в библиотеке. Это умная оболочка, поскольку она может автоматически угадывать подходящую архитектуру модели для вашей контрольной точки, а затем создает экземпляр модели с этой архитектурой.
Однако, если вы знаете тип модели, которую хотите использовать, вы можете использовать класс, который напрямую определяет ее архитектуру. Давайте посмотрим, как это работает с моделью BERT.
Первое, что нам нужно будет сделать для инициализации модели BERT, это загрузить объект конфигурации:
from transformers import BertConfig, BertModel
# Building the config
config = BertConfig()
# Building the model from the config
model = BertModel(config)
Конфигурация содержит множество атрибутов, которые используются для построения модели:
print(config)
BertConfig {
[...]
"hidden_size": 768,
"intermediate_size": 3072,
"max_position_embeddings": 512,
"num_attention_heads": 12,
"num_hidden_layers": 12,
[...]
}
Хотя вы еще не видели, что делают все эти атрибуты, вы должны узнать некоторые из них: атрибут hidden_size
определяет размер вектора hidden_states
, а num_hidden_layers
определяет количество слоев, которые имеет модель.
Создание модели из конфигурации по умолчанию инициализирует ее случайными значениями:
from transformers import BertConfig, BertModel
config = BertConfig()
model = BertModel(config)
# Модель инициализируется случайным образом!
Модель можно использовать в этом состоянии, но она будет выводить тарабарщину; сначала ее нужно обучить. Мы могли бы обучить модель с нуля для решения поставленной задачи, но, как вы видели в Главе 1, это потребовало бы много времени и большого количества данных, а также имело бы значительное воздействие на окружающую среду. Чтобы избежать ненужных и дублирующих усилий, крайне важно иметь возможность делиться и повторно использовать модели, которые уже были обучены.
Загрузить уже обученную модель Transformer очень просто — мы можем сделать это с помощью метода from_pretrained()
:
from transformers import BertModel
model = BertModel.from_pretrained("bert-base-cased")
Как вы видели ранее, мы могли бы заменить BertModel
эквивалентным классом AutoModel
. С этого момента мы начнем делать так, поскольку таким образом создается код, не зависящий от контрольных точек; если ваш код работает для одной контрольной точки, он должен беспрепятственно работать с другой. Это применимо, даже если архитектура отличается, при условии, что контрольная точка была обучена для аналогичной задачи (например, задачи анализа тональности).
В приведенном выше примере кода мы не использовали BertConfig
, а вместо этого загрузили предварительно обученную модель с помощью идентификатора bert-base-cased
. Это контрольная точка модели, которую обучили сами авторы BERT; вы можете найти более подробную информацию о ней в её карточке модели.
Теперь эта модель инициализирована со всеми весами контрольной точки. Её можно использовать непосредственно для логического вывода на задачах, для которых она обучалась, а также её можно точно донастроить для новой задачи. Тренируясь с предварительно обученными весами, а не с нуля, мы можем быстро добиться хороших результатов.
Веса будут загружены и кэшированы (поэтому будущие вызовы метода from_pretrained()
не будут загружать их повторно) в папку кеша, которая по умолчанию находится в ~/.cache/huggingface/transformers. Вы можете настроить папку кэша, установив переменную среды HF_HOME
.
Идентификатор, используемый для загрузки модели, может быть идентификатором любой модели в Model Hub, если он совместим с архитектурой BERT. Полный список доступных контрольных точек моделей BERT можно найти здесь.
Сохранить модель так же просто, как и загрузить - для этого мы используем метод save_pretrained()
, аналогичный методу from_pretrained()
:
model.save_pretrained("directory_on_my_computer")
Данный код сохранит два файла на вашем диске:
ls directory_on_my_computer
config.json pytorch_model.bin
Если вы посмотрите на файл config.json, вы увидите атрибуты, необходимые для построения архитектуры модели. Этот файл также содержит некоторые метаданные, например, откуда появилась контрольная точка и какую версию 🤗 Transformers вы использовали, когда в последний раз сохраняли контрольную точку.
Файл pytorch_model.bin известен как словарь состояний; он содержит все веса вашей модели. Эти два файла идут рука об руку; конфигурация необходима, чтобы знать архитектуру вашей модели, в то время как веса модели являются параметрами вашей модели.
Теперь, когда вы знаете, как загружать и сохранять модель, давайте попробуем использовать ее для построения некоторых предсказаний. Модели Transformer могут обрабатывать только числа — числа, которые генерирует токенизатор. Но прежде чем мы обсудим токенизаторы, давайте рассмотрим, какие входные данные принимает модель.
Токенизаторы могут позаботиться о преобразовании входных данных в соответствующие тензоры фреймворка, но чтобы помочь вам понять, что происходит, мы кратко рассмотрим, что необходимо сделать, прежде чем отправлять входные данные в модель.
Допустим, у нас есть несколько последовательностей:
sequences = ["Hello!", "Cool.", "Nice!"]
Токенизатор преобразует их в словарные индексы, которые обычно называются входными идентификаторами. Каждая последовательность теперь представляет собой список чисел! В результате получается:
encoded_sequences = [
[101, 7592, 999, 102],
[101, 4658, 1012, 102],
[101, 3835, 999, 102],
]
Это список закодированных последовательностей: список списков. Тензоры принимают только прямоугольные формы (например, матрицы). Этот “массив” уже имеет прямоугольную форму, поэтому преобразовать его в тензор несложно:
import torch
model_inputs = torch.tensor(encoded_sequences)
Использовать тензоры с моделью чрезвычайно просто — мы просто вызываем модель с входными данными:
output = model(model_inputs)
В то время как модель принимает множество различных аргументов, необходимы только входные идентификаторы. Позже мы объясним, для чего применяются другие аргументы и когда они требуются, но сначала нам нужно поближе познакомиться с токенизаторами, которые используются для создания входных данных, понятных модели Transformer.