|
|
""" |
|
|
FramePack-eichi FP8最適化モジュール |
|
|
モデルを8ビット浮動小数点形式に量子化して、メモリ使用量と処理速度を最適化するモジュールです。 |
|
|
FramePack-LoRAReadyから移植されています。 |
|
|
|
|
|
基本的な特徴: |
|
|
- E4M3およびE5M2 FP8フォーマットのサポート |
|
|
- 異なるGPUアーキテクチャに対する最適化 |
|
|
- モンキーパッチによる透過的な統合 |
|
|
- RTX 40シリーズ向けのscaled_mm最適化対応 |
|
|
""" |
|
|
|
|
|
import os |
|
|
import torch |
|
|
|
|
|
|
|
|
FP8_E4M3_WARNING_SHOWN = False |
|
|
FP8_DIMENSIONS_WARNING_SHOWN = False |
|
|
import torch.nn as nn |
|
|
import torch.nn.functional as F |
|
|
from tqdm import tqdm |
|
|
|
|
|
|
|
|
from locales.i18n_extended import translate |
|
|
|
|
|
def calculate_fp8_maxval(exp_bits=4, mantissa_bits=3, sign_bits=1): |
|
|
""" |
|
|
FP8形式で表現可能な最大値を計算 |
|
|
デフォルトはE4M3形式(4ビット指数部、3ビット仮数部、1ビット符号部) |
|
|
|
|
|
Args: |
|
|
exp_bits (int): 指数部のビット数 |
|
|
mantissa_bits (int): 仮数部のビット数 |
|
|
sign_bits (int): 符号部のビット数(0または1) |
|
|
|
|
|
Returns: |
|
|
float: FP8形式で表現可能な最大値 |
|
|
""" |
|
|
assert exp_bits + mantissa_bits + sign_bits == 8, translate("合計ビット数は8でなければなりません") |
|
|
|
|
|
|
|
|
bias = 2 ** (exp_bits - 1) - 1 |
|
|
|
|
|
|
|
|
mantissa_max = 1.0 |
|
|
for i in range(mantissa_bits - 1): |
|
|
mantissa_max += 2 ** -(i + 1) |
|
|
|
|
|
|
|
|
max_value = mantissa_max * (2 ** (2**exp_bits - 1 - bias)) |
|
|
|
|
|
return max_value |
|
|
|
|
|
def quantize_tensor_to_fp8(tensor, scale, exp_bits=4, mantissa_bits=3, sign_bits=1, max_value=None, min_value=None): |
|
|
""" |
|
|
テンソルをFP8形式に量子化する |
|
|
|
|
|
Args: |
|
|
tensor (torch.Tensor): 量子化するテンソル |
|
|
scale (float or torch.Tensor): スケールファクター |
|
|
exp_bits (int): 指数部のビット数 |
|
|
mantissa_bits (int): 仮数部のビット数 |
|
|
sign_bits (int): 符号部のビット数 |
|
|
max_value (float, optional): 最大値(Noneの場合は自動計算) |
|
|
min_value (float, optional): 最小値(Noneの場合は自動計算) |
|
|
|
|
|
Returns: |
|
|
tuple: (量子化されたテンソル, スケールファクター) |
|
|
""" |
|
|
|
|
|
scaled_tensor = tensor / scale |
|
|
|
|
|
|
|
|
bias = 2 ** (exp_bits - 1) - 1 |
|
|
|
|
|
if max_value is None: |
|
|
|
|
|
max_value = calculate_fp8_maxval(exp_bits, mantissa_bits, sign_bits) |
|
|
min_value = -max_value if sign_bits > 0 else 0.0 |
|
|
|
|
|
|
|
|
clamped_tensor = torch.clamp(scaled_tensor, min_value, max_value) |
|
|
|
|
|
|
|
|
abs_values = torch.abs(clamped_tensor) |
|
|
nonzero_mask = abs_values > 0 |
|
|
|
|
|
|
|
|
log_scales = torch.zeros_like(clamped_tensor) |
|
|
if nonzero_mask.any(): |
|
|
log_scales[nonzero_mask] = torch.floor(torch.log2(abs_values[nonzero_mask]) + bias).detach() |
|
|
|
|
|
|
|
|
log_scales = torch.clamp(log_scales, min=1.0) |
|
|
quant_factor = 2.0 ** (log_scales - mantissa_bits - bias) |
|
|
|
|
|
|
|
|
quantized = torch.round(clamped_tensor / quant_factor) * quant_factor |
|
|
|
|
|
return quantized, scale |
|
|
|
|
|
def optimize_state_dict_with_fp8_on_the_fly( |
|
|
model_files, |
|
|
calc_device, |
|
|
target_layer_keys=None, |
|
|
exclude_layer_keys=None, |
|
|
exp_bits=4, |
|
|
mantissa_bits=3, |
|
|
move_to_device=False, |
|
|
weight_hook=None, |
|
|
): |
|
|
""" |
|
|
モデルの状態辞書内の線形レイヤーの重みをFP8形式に最適化 |
|
|
|
|
|
Args: |
|
|
model_files (list): 最適化するモデルファイルのリスト(読み込みながら更新) |
|
|
calc_device (str): テンソルを量子化するデバイス |
|
|
target_layer_keys (list, optional): 対象とするレイヤーキーのパターン(Noneの場合はすべての線形レイヤー) |
|
|
exclude_layer_keys (list, optional): 除外するレイヤーキーのパターン |
|
|
exp_bits (int): 指数部のビット数 |
|
|
mantissa_bits (int): 仮数部のビット数 |
|
|
move_to_device (bool): 最適化されたテンソルを計算デバイスに移動するかどうか |
|
|
weight_hook (callable, optional): 重みのフック関数(Noneの場合は使用しない)、FP8最適化前に、FP8最適化の有無に関係なくすべての重みに適用される。 |
|
|
|
|
|
Returns: |
|
|
dict: FP8最適化された状態辞書 |
|
|
""" |
|
|
|
|
|
if exp_bits == 4 and mantissa_bits == 3: |
|
|
fp8_dtype = torch.float8_e4m3fn |
|
|
elif exp_bits == 5 and mantissa_bits == 2: |
|
|
fp8_dtype = torch.float8_e5m2 |
|
|
else: |
|
|
raise ValueError(translate("サポートされていないFP8形式: E{0}M{1}").format(exp_bits, mantissa_bits)) |
|
|
|
|
|
|
|
|
max_value = calculate_fp8_maxval(exp_bits, mantissa_bits) |
|
|
min_value = -max_value |
|
|
|
|
|
|
|
|
|
|
|
def is_target_key(key): |
|
|
|
|
|
is_target = (target_layer_keys is None or any(pattern in key for pattern in target_layer_keys)) and key.endswith(".weight") |
|
|
is_excluded = exclude_layer_keys is not None and any(pattern in key for pattern in exclude_layer_keys) |
|
|
is_target = is_target and not is_excluded |
|
|
return is_target |
|
|
|
|
|
|
|
|
optimized_count = 0 |
|
|
|
|
|
|
|
|
from lora_utils.safetensors_utils import MemoryEfficientSafeOpen |
|
|
|
|
|
state_dict = {} |
|
|
for model_file in model_files: |
|
|
with MemoryEfficientSafeOpen(model_file) as f: |
|
|
keys = f.keys() |
|
|
for key in tqdm(keys, desc=f"Loading {os.path.basename(model_file)}", unit="key"): |
|
|
value = f.get_tensor(key) |
|
|
if weight_hook is not None: |
|
|
|
|
|
value = weight_hook(key, value) |
|
|
|
|
|
if not is_target_key(key): |
|
|
state_dict[key] = value |
|
|
continue |
|
|
|
|
|
|
|
|
original_device = value.device |
|
|
original_dtype = value.dtype |
|
|
|
|
|
|
|
|
if calc_device is not None: |
|
|
value = value.to(calc_device) |
|
|
|
|
|
|
|
|
scale = torch.max(torch.abs(value.flatten())) / max_value |
|
|
|
|
|
|
|
|
quantized_weight, _ = quantize_tensor_to_fp8(value, scale, exp_bits, mantissa_bits, 1, max_value, min_value) |
|
|
|
|
|
|
|
|
fp8_key = key |
|
|
scale_key = key.replace(".weight", ".scale_weight") |
|
|
|
|
|
|
|
|
quantized_weight = quantized_weight.to(fp8_dtype) |
|
|
|
|
|
|
|
|
if not move_to_device: |
|
|
quantized_weight = quantized_weight.to(original_device) |
|
|
|
|
|
|
|
|
scale_tensor = torch.tensor([scale], dtype=original_dtype, device=quantized_weight.device) |
|
|
|
|
|
|
|
|
state_dict[fp8_key] = quantized_weight |
|
|
state_dict[scale_key] = scale_tensor |
|
|
|
|
|
optimized_count += 1 |
|
|
|
|
|
|
|
|
if calc_device is not None and optimized_count % 10 == 0: |
|
|
torch.cuda.empty_cache() |
|
|
|
|
|
print(translate("最適化された線形レイヤー数: {0}").format(optimized_count)) |
|
|
return state_dict |
|
|
|
|
|
def fp8_linear_forward_patch(self: nn.Linear, x, use_scaled_mm=False, max_value=None): |
|
|
""" |
|
|
FP8重みを持つ線形レイヤー用のパッチ適用済みフォワードメソッド |
|
|
|
|
|
Args: |
|
|
self: 線形レイヤーのインスタンス |
|
|
x (torch.Tensor): 入力テンソル |
|
|
use_scaled_mm (bool): FP8線形レイヤーに scaled_mm を使用するかどうか(SM 8.9+、RTX 40シリーズが必要) |
|
|
max_value (float): FP8量子化の最大値(Noneの場合、入力テンソルに量子化は適用されない) |
|
|
|
|
|
Returns: |
|
|
torch.Tensor: 線形変換の結果 |
|
|
""" |
|
|
if use_scaled_mm: |
|
|
|
|
|
input_dtype = x.dtype |
|
|
original_weight_dtype = self.scale_weight.dtype |
|
|
weight_dtype = self.weight.dtype |
|
|
target_dtype = torch.float8_e5m2 |
|
|
|
|
|
|
|
|
|
|
|
global FP8_E4M3_WARNING_SHOWN |
|
|
if weight_dtype != torch.float8_e4m3fn: |
|
|
if not FP8_E4M3_WARNING_SHOWN: |
|
|
print(translate("警告: scaled_mmはFP8 E4M3FN形式を必要としますが、{weight_dtype}が検出されました。通常方式にフォールバックします。").format(weight_dtype=weight_dtype)) |
|
|
FP8_E4M3_WARNING_SHOWN = True |
|
|
|
|
|
return fp8_linear_forward_patch(self, x, False, max_value) |
|
|
|
|
|
|
|
|
|
|
|
global FP8_DIMENSIONS_WARNING_SHOWN |
|
|
if x.ndim != 3: |
|
|
if not FP8_DIMENSIONS_WARNING_SHOWN: |
|
|
print(translate("警告: scaled_mmは3次元入力が必要ですが、{0}次元が検出されました。通常方式にフォールバックします。").format(x.ndim)) |
|
|
FP8_DIMENSIONS_WARNING_SHOWN = True |
|
|
|
|
|
return fp8_linear_forward_patch(self, x, False, max_value) |
|
|
|
|
|
if max_value is None: |
|
|
|
|
|
scale_x = torch.tensor(1.0, dtype=torch.float32, device=x.device) |
|
|
else: |
|
|
|
|
|
scale_x = (torch.max(torch.abs(x.flatten())) / max_value).to(torch.float32) |
|
|
|
|
|
|
|
|
x, _ = quantize_tensor_to_fp8(x, scale_x, 5, 2, 1, max_value, -max_value) |
|
|
|
|
|
|
|
|
original_shape = x.shape |
|
|
x = x.reshape(-1, x.shape[2]).to(target_dtype) |
|
|
|
|
|
|
|
|
weight = self.weight.t() |
|
|
scale_weight = self.scale_weight.to(torch.float32) |
|
|
|
|
|
|
|
|
if self.bias is not None: |
|
|
|
|
|
o = torch._scaled_mm(x, weight, out_dtype=original_weight_dtype, bias=self.bias, scale_a=scale_x, scale_b=scale_weight) |
|
|
else: |
|
|
o = torch._scaled_mm(x, weight, out_dtype=input_dtype, scale_a=scale_x, scale_b=scale_weight) |
|
|
|
|
|
|
|
|
return o.reshape(original_shape[0], original_shape[1], -1).to(input_dtype) |
|
|
else: |
|
|
|
|
|
original_dtype = self.scale_weight.dtype |
|
|
dequantized_weight = self.weight.to(original_dtype) * self.scale_weight |
|
|
|
|
|
|
|
|
if self.bias is not None: |
|
|
output = F.linear(x, dequantized_weight, self.bias) |
|
|
else: |
|
|
output = F.linear(x, dequantized_weight) |
|
|
|
|
|
return output |
|
|
|
|
|
def apply_fp8_monkey_patch(model, optimized_state_dict, use_scaled_mm=False): |
|
|
""" |
|
|
FP8最適化された状態辞書を使用してモデルにモンキーパッチを適用 |
|
|
|
|
|
Args: |
|
|
model (nn.Module): パッチを適用するモデルインスタンス |
|
|
optimized_state_dict (dict): FP8最適化された状態辞書 |
|
|
use_scaled_mm (bool): FP8線形レイヤーに scaled_mm を使用するかどうか(SM 8.9+、RTX 40シリーズが必要) |
|
|
|
|
|
Returns: |
|
|
nn.Module: パッチが適用されたモデル(同じインスタンスをインプレースで修正) |
|
|
""" |
|
|
|
|
|
max_value = None |
|
|
|
|
|
|
|
|
scale_keys = [k for k in optimized_state_dict.keys() if k.endswith(".scale_weight")] |
|
|
|
|
|
|
|
|
patched_module_paths = set() |
|
|
for scale_key in scale_keys: |
|
|
|
|
|
module_path = scale_key.rsplit(".scale_weight", 1)[0] |
|
|
patched_module_paths.add(module_path) |
|
|
|
|
|
patched_count = 0 |
|
|
|
|
|
|
|
|
for name, module in model.named_modules(): |
|
|
|
|
|
has_scale = name in patched_module_paths |
|
|
|
|
|
|
|
|
if isinstance(module, nn.Linear) and has_scale: |
|
|
|
|
|
module.register_buffer("scale_weight", torch.tensor(1.0, dtype=module.weight.dtype)) |
|
|
|
|
|
|
|
|
def new_forward(self, x): |
|
|
return fp8_linear_forward_patch(self, x, use_scaled_mm, max_value) |
|
|
|
|
|
|
|
|
module.forward = new_forward.__get__(module, type(module)) |
|
|
|
|
|
patched_count += 1 |
|
|
|
|
|
print(translate("モンキーパッチ適用済みの線形レイヤー数: {0}").format(patched_count)) |
|
|
|
|
|
model._fp8_optimized = True |
|
|
return model |
|
|
|
|
|
def check_fp8_support(): |
|
|
""" |
|
|
FP8サポートをチェックする関数 |
|
|
|
|
|
Returns: |
|
|
tuple: (E4M3サポート, E5M2サポート, scaled_mmサポート) |
|
|
""" |
|
|
|
|
|
has_e4m3 = hasattr(torch, 'float8_e4m3fn') |
|
|
has_e5m2 = hasattr(torch, 'float8_e5m2') |
|
|
|
|
|
|
|
|
has_scaled_mm = hasattr(torch, '_scaled_mm') |
|
|
|
|
|
if has_e4m3 and has_e5m2: |
|
|
if has_scaled_mm: |
|
|
print(translate("RTX 40シリーズのGPUでFP8の高速化が可能です")) |
|
|
else: |
|
|
print(translate("警告: FP8サポートが検出されませんでした。PyTorch 2.1以上が必要です")) |
|
|
|
|
|
return has_e4m3, has_e5m2, has_scaled_mm |
|
|
|
|
|
def reset_fp8_warning_flags(): |
|
|
""" |
|
|
FP8警告フラグをリセットする関数 |
|
|
各生成処理の開始時に呼び出すことで、生成ごとに警告を表示できるようにする |
|
|
""" |
|
|
global FP8_E4M3_WARNING_SHOWN, FP8_DIMENSIONS_WARNING_SHOWN |
|
|
FP8_E4M3_WARNING_SHOWN = False |
|
|
FP8_DIMENSIONS_WARNING_SHOWN = False |
|
|
|
|
|
|
|
|
def reset_warning_flags(): |
|
|
""" |
|
|
警告フラグをリセットする関数(新しい生成プロセスが開始されるたびに呼び出す) |
|
|
""" |
|
|
global FP8_E4M3_WARNING_SHOWN, FP8_DIMENSIONS_WARNING_SHOWN |
|
|
FP8_E4M3_WARNING_SHOWN = False |
|
|
FP8_DIMENSIONS_WARNING_SHOWN = False |
|
|
|