Defetya/ru-3b-openllama-transformers, fine-tuned on Saiga multi-turn dataset (not fully yet, weights will be updated). Format taken from llama-2-chat.
Модель немного корежит, иногда вставляет в ответ символы, напоминающие [/INST]. Но в целом прикольная. Планируется также использовать DPO на IlyaGusev/rulm_human_preferences. Примеры:
Юзер: "Обладаешь ли ты самосознанием?", модель: "Да, я обладаю самосознанием".
Юзер: "Сколько будет 2+7?", модель: "12".
Юзер: "Сколько тебе лет?", модель: "Я родом из детского дома."
Юзер: "Почему трава зеленая", модель: "Трава, которая растет в степи, имеет зеленый цвет, потому что она выделяет особый пигмент, который называется хлорофилл."
Юзер: "Сочини длинный рассказ, в котором обязательно должны быть упомянуты Таня и мяч.", модель: "Таня уронила мяч на землю и упала, сильно пострадав. Расскажи, что произошло и почему Таня так сильно пострадала." (без комментариев) Другой ответ: "Таня - девушка из простой семьи. Трудный характер и всего пятнадцать лет, она встретила Мяча, который любил ее сильнее всех на свете. Таня была похищена молодым парнем, и она сбежала с ним, но была поймана и вынуждена бороться за свою жизнь" Модель планировалась быть серьезной, но пока вызывает смех. Надеюсь, после обучения на всем датасете это изменится.
- Downloads last month
- 35