sergeyzh commited on
Commit
0959ed2
1 Parent(s): 8ce8d51

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +11 -5
README.md CHANGED
@@ -24,12 +24,18 @@ base_model: cointegrated/LaBSE-en-ru
24
 
25
  На STS и близких задачах (PI, NLI, SA, TI) для русского языка конкурирует по качеству с моделью [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) (но потребляет на 77% меньше памяти и быстрее на 80%).
26
 
 
 
 
 
 
 
27
  ## Лучшая модель для использования в составе RAG LLMs при инференсе на GPU:
28
- - отличный метрики на задачах STS, PI, NLI обеспечивают высокое качество при нечетких запросах;
29
- - средние показатели на задачах SA, TI снижают влияние авторского стиля и личного отношения автора на ембединг;
30
- - высокая скорость работы на GPU (> 1k предложений в секунду) позволяет легко расширять базу текстовых документов;
31
- - пониженная размерность эмбединга (768) ускоряет дальнейшую работу алгоритмов knn при поиске соответствий;
32
- - совместимость с [SentenceTransformer](https://github.com/UKPLab/sentence-transformers) позволяет проверить модель на своих данных с минимальным объемом кода.
33
 
34
  ## Использование модели с библиотекой `transformers`:
35
 
 
24
 
25
  На STS и близких задачах (PI, NLI, SA, TI) для русского языка конкурирует по качеству с моделью [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) (но потребляет на 77% меньше памяти и быстрее на 80%).
26
 
27
+ ## Выбор модели из серии BERT-STS (качество/скорость)
28
+ | Рекомендуемая модель | CPU <br> (STS; snt/s) | GPU <br> (STS; snt/s) |
29
+ |:---------------------------------|:---------:|:---------:|
30
+ | Быстрая модель (скорость) | [rubert-tiny-sts](https://huggingface.co/sergeyzh/rubert-tiny-sts) <br> (0.797; 1190) | - |
31
+ | Базовая модель (качество) | [rubert-mini-sts](https://huggingface.co/sergeyzh/rubert-mini-sts) <br> (0.815; 539) | **LaBSE-ru-sts <br> (0.845; 1894)** |
32
+
33
  ## Лучшая модель для использования в составе RAG LLMs при инференсе на GPU:
34
+ - высокое качество при нечетких запросах (отличный метрики на задачах STS, PI, NLI);
35
+ - низкое влияение эмоциональной окраски текста на ембединг (средние показатели на задачах SA, TI);
36
+ - легкое расширение базы текстовых документов (скорость работы на GPU > 1k предложений в секунду);
37
+ - ускорение алгоритмов knn при поиске соответствий (пониженная размерность эмбединга 768);
38
+ - простота использования (совместимость с [SentenceTransformer](https://github.com/UKPLab/sentence-transformers)).
39
 
40
  ## Использование модели с библиотекой `transformers`:
41