Возникает ошибка при попытке запустить
Добрый день! Использовал этот код для запуска модели:
import torch
from peft import PeftModel, PeftConfig
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
MODEL_NAME = "IlyaGusev/llama_13b_ru_turbo_alpaca_lora"
config = PeftConfig.from_pretrained(MODEL_NAME)
model = AutoModelForCausalLM.from_pretrained(
config.base_model_name_or_path,
load_in_8bit=True,
torch_dtype=torch.float16,
device_map="auto"
)
model = PeftModel.from_pretrained(model, MODEL_NAME, torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model.eval()
generation_config = GenerationConfig.from_pretrained(MODEL_NAME)
data = tokenizer(["### Задание: Почему трава зеленая?\n### Ответ: "], return_tensors="pt")
data = {k: v.to(model.device) for k, v in data.items() if k in ("input_ids", "attention_mask")}
output_ids = model.generate(**data, generation_config=generation_config)[0]
print(tokenizer.decode(output_ids, skip_special_tokens=True))
Так там же написано, что не хватает памяти у видеокарты, а выгрузка на CPU с 8-bit загрузкой просто так не работает.
То есть получается на моей машине эту модель никак не запустить?
да можно просто на cpu вот эту модель запустить: https://huggingface.co/IlyaGusev/saiga_13b_lora_llamacpp
или cpp аналог прям этой модели, https://huggingface.co/IlyaGusev/llama_13b_ru_turbo_alpaca_lora_llamacpp, но она в старом формате