Jak używasz tego modelu? Sprawdzałem text-generation-webui oraz koboldcpp, w żadnym się nie wczytuje. Widzę, że na llama.cpp jest w issues wsparcie do tego dopiero.
· Sign up or log in to comment