about 8bit quantization (8bit量子化問題について)

#1
by yz23 - opened
LLM-jp org

GPUは24Gの3090で、8bitの量子化モデルを読み込もうとした処失敗してしまいました。当llm-jpは8bit量子化をサポートしてないでしょうか?

yz23 changed discussion status to closed
hiroshi-matsuda-rit changed discussion title from 8bit量子化問題について to about 8bit quantization (8bit量子化問題について)

Sign up or log in to comment