How to train it with qlora?

#22
by Sardar - opened

This was the code:
from peft import prepare_model_for_kbit_training

model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)

This was the error:
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ in <cell line: 3>:3 โ”‚
โ”‚ โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/transformers/modeling_utils.py:1624 in โ”‚
โ”‚ gradient_checkpointing_enable โ”‚
โ”‚ โ”‚
โ”‚ 1621 โ”‚ โ”‚ activations". โ”‚
โ”‚ 1622 โ”‚ โ”‚ """ โ”‚
โ”‚ 1623 โ”‚ โ”‚ if not self.supports_gradient_checkpointing: โ”‚
โ”‚ โฑ 1624 โ”‚ โ”‚ โ”‚ raise ValueError(f"{self.class.name} does not support gradient check โ”‚
โ”‚ 1625 โ”‚ โ”‚ self.apply(partial(self._set_gradient_checkpointing, value=True)) โ”‚
โ”‚ 1626 โ”‚ โ”‚
โ”‚ 1627 โ”‚ def gradient_checkpointing_disable(self): โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
ValueError: MPTForCausalLM does not support gradient checkpointing.

Sign up or log in to comment