--- license: mit language: - cy datasets: - yahma/alpaca-cleaned --- # Mwydryn # (*Fersiwn 1 yn seiliedig ar Phi-2.*) Mae'r model yn gychwyn ar fersiwn o Phi-2 sydd yn medru sgwrsio a chyfathrebu drwy'r Gymraeg yn eithaf eglur. Mae'r model LLM yn seiliedig ar [BangorAI/phi2-cy-100k](https://huggingface.co/BangorAI/phi2-cy-100k), sef y model Phi-2 wedi hyfforddiant parhaus ar gyfer y Gymraeg. Cafodd y model hyfforddiant cywrain pellach ar ddata [yahma/alpaca-cleaned](https://huggingface.co/datasets/yahma/alpaca-cleaned) ar iddo ei drosi yn fras i'r Gymraeg. # Nodir # LLM arbrofol ydyw, felly peidiwch a chymeryd unrhyw ymateb gan y model o ddifri. Mae ansawdd y model yn dangos diffyg mewn ffeithiau a chysondeb ymateb. Tebyg fod phy2-cy-100k angen mwy o hyfforddiant parhaus, a bod maint y model (2.7B) yn ormod o gyfyngiad. Mwydryn go iawn.