Vikhr models's profile picture

Vikhr models

non-profit

AI & ML interests

Just doing cool things

🇷🇺 Русская версия

О нас

Привет huggingface_чане, мы команда энтузиастов, занимающихся созданием и развитием русифицированных моделей искусственного интеллекта. 💨 Наша цель - сделать последние достижения в области машинного обучения доступными и понятными для русскоязычного сообщества.

Что мы делаем

  • Разработка русскоязычных моделей для обработки естественного языка (когда станем GPU-Rich)
  • Адаптация существующих моделей под русский язык
  • Собираем собственные бенчмарки и переводим англоязычные
  • Собираем и переводим различные датасеты для разных способностей LLM

У меня есть задача X что следует взять?

Пробуйте Vikhrmodels/it-5.4-fp16-orpo-v2

Присоединяйтесь к нам!

Если вы также увлечены искусственным интеллектом и хотите внести свой вклад в развитие русифицированных моделей, присоединяйтесь к нашему сообществу! Вопросы, сотрудничество: t.me/transformerslovedeatch хабр

Cообщество: https://t.me/vikhrmodels

Все модели выложены под Apache2.0 с органичением для компаний с доходом 20м рублей и больше. Вопросы по лицензированию или сотрудничеству: alexdragannikolich@gmail.com


🇺🇸 English Version

About Us

Hello! We are a team of enthusiasts dedicated to the development and advancement of Russian-localized artificial intelligence models. 💨 Our mission is to make the latest machine learning advancements accessible and comprehensible for the Russian-speaking community.

What We Do

  • Developing Russian language models for natural language processing
  • Adapting existing algorithms for the Russian language

Join Us!

If you're also passionate about AI and would like to contribute to the development of Russian-localized models, join our community!

Model opensourced with Apache2.0 with restriction for companies with 20m rubles+ yearly income

Cite: @article{nikolich2024vikhr, title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian}, author={Aleksandr Nikolich and Konstantin Korolev and Artem Shelmanov and Igor Kiselev}, journal={arXiv preprint arXiv:2405.13929}, year={2024}, url={https://arxiv.org/pdf/2405.13929} }