Text Generation
Transformers
Safetensors
Russian
gemma
conversational
Inference Endpoints
text-generation-inference

9B или 7B?

#3
by Defetya - opened

Из названия следует, что модель на 9 миллиардов параметров, однако в описании написано, что в качестве базовой модели использовалась gemma на 7 миллиардов. В чем прикол?)

изображение.png

IlyaGusev changed discussion status to closed

Sign up or log in to comment