sebaxakerhtc's picture
Update README.md
204e1a9 verified
metadata
base_model: unsloth/meta-llama-3.1-8b-bnb-4bit
tags:
  - text-generation-inference
  - transformers
  - unsloth
  - sebaxakerhtc
  - bggpt
  - llama
  - gguf
license: apache-2.0
language:
  - bg
datasets:
  - burgasdotpro/synthetic_dataset
  - wikimedia/wikipedia

Актуализиран 10.01.2025

  • Changed training params
  • Continued pretraining
  • Уикипедиа 10%

Актуализиран 06.01.2025

  • Changed training params
  • Continued pretraining
  • Уикипедиа 10%

Актуализиран 03.01.2025

  • Continued pretraining
  • Уикипедиа 20%

Актуализиран 01.01.2025

  • Continued pretraining
  • Уикипедиа 10%

Актуализиран 30.12.2024

  • по-дълги отговори
  • по-подробна информация
  • по-дълбоко обучение
  • ~2500 реда синтетични данни

Първите резултати, които не са лоши... Засега е тренирана върху моят малък датасет с 2000 реда синтетични данни (формат: въпрос-отговор)

Пример на работа

Въпрос:

Как компания Burgas Professionals е свързана с ПГМЕЕ?

Отговор:

Компания "Burgas Professionals" поддържа тесни връзки с Професионалната гимназия по мехатроника и електроенергетика (ПГМЕЕ) в Бургас. Тези връзки включват партньорства, лекции и обучителни програми, които помагат на учениците да развият умения в областта на информационните технологии и IT управление. Основната цел е да се осигури на младото поколение достъп до актуална информация и практически опит, който ще ги направи готови за бъдещата работна среда. Чрез тези партньорства ПГМЕЕ и Burgas Professionals работят заедно за развитие на технологиите в региона и за подготовка на нови поколения IT специалисти.

Тази llama модела тренирана 2 пъти по-бързо с помоща на Unsloth и TRL библиотеката на Huggingface.

Uploaded model

  • Developed by: burgasdotpro
  • License: apache-2.0
  • Finetuned from model : unsloth/meta-llama-3.1-8b-bnb-4bit