能不能提供awq或gptq量化模型

#6
by bujido - opened

这是大模型部署最常用的量化规格,在vllm性能远比ollama优异,也更方便部署

请问能提供GPTQ-Int8版本吗?

我的显卡无法运行AWQ量化模型,所以可以提供GPTQ-Int8版本吗?

是否能提供AWQ或者GPTQ-INT4 版本.

Sign up or log in to comment