همان طور که در فصل اول دیدید، مدلهای ترنسفورمر معمولا بسیار بزرگ هستند. با داشتن میلیونها یا حتی دهها میلیارد پارامتر، تعلیم و بکارگیری این مدلها کار بسیار پیچیدهای است. علاوه بر این، تقریبا هر روز مدلهای جدیدی عرضه میشوند که هرکدام شیوه پیادهسازی خود را دارند و امتحان کردن تمام آنها کار آسانی نیست.
کتابخانه ترنسفومرهای هاگینگفِیس برای حل این مشکل تولید شده است. هدف آن، ارائه یک API واحد برای بارگذاری، تعلیم و ذخیرهسازی مدلهای ترنسفورمر است. ویژگی های اصلی این کتابخانه از این قرار است:
این ویژگی آخر باعث میشود ترنسفورمرهای هاگینگفِیس بسیار متفاوت با نمونههای مشابه در کتابخانههای یادگیری ماشین دیگر باشند. مدلها روی ماژولهای متفاوتی که در فایلهای مختلف قرار دارند بنا نشدهاند؛ بلکه هر مدل محتوی لایههای خود است. علاوه بر سادهتر و قابل فهمتر کردن مدلها، این ویژگی به شما اجازه میدهد به راحتی مدل را دستکاری کنید بدون این که بر مدلهای دیگر تاثیر بگذارید.
این فصل با مثالی کامل شروع میشود که در آن مدل و توکِنایزر را با هم استفاده میکنیم تا تابع pipeline() که در فصل اول معرفی کردیم را شبیهسازی کنیم. سپس API مربوط به مدلها را بررسی میکنیم و وارد پیچیدگیهای کلاسهای مدل و کلاسهای تنظیمات میشویم تا نشان دهیم چگونه میتوان مدلها را بارگذاری نمود و این مدلها چطور ورودیهای عددی را پردازش میکنند تا در خروجی پیشبینیها را تولید کنند.
سپس نگاهی به API مربوط به توکِنایزر خواهیم داشت که بخش دیگر پیادهسازی تابع pipeline() است. توکِنایزرها مرحله اول و مرحله آخر پردازش را انجام میدهند که در طی آنها دادههای نوشتاری را به ورودیهای عددی برای شبکه عصبی تبدیل نموده و هنگام نیاز باز دادههای عددی را به نوشتار تبدیل میکنند. در انتها، به شما نشان خواهیم داد چگونه چندین جمله را همزمان در یک بتچ از پیش آماده شده از مدل عبور دهید و سپس فصل را با نگاهی نزدیکتر به تابع بالادستی tokenizer() به اتمام خواهیم برد.
⚠️ برای بهره بردن از تمامی ویژگیهای موجود در هاب مدلها و همچنین ترنسفورمرهای هاگینگفِیس پیشنهاد میکنیم که حساب کاربری بسازید.