bharadwajswarna
commited on
Commit
•
2662265
1
Parent(s):
2dc93d6
update dpo in readme
Browse files
README.md
CHANGED
@@ -10,6 +10,10 @@ language:
|
|
10 |
### Model Description :
|
11 |
This is a SFT version of HuggingFaceH4/zephyr-7b-gemma-v0.1 on Telugu Q&A data sets curated by Telugu LLM Labs.
|
12 |
|
|
|
|
|
|
|
|
|
13 |
Example 1 :
|
14 |
|
15 |
Sample Input : ఆరోగ్యంగా ఉండటానికి నాకు మూడు చిట్కాలు ఇవ్వండి
|
|
|
10 |
### Model Description :
|
11 |
This is a SFT version of HuggingFaceH4/zephyr-7b-gemma-v0.1 on Telugu Q&A data sets curated by Telugu LLM Labs.
|
12 |
|
13 |
+
### NOTE :
|
14 |
+
This model is not aligned via DPO in Telugu. It is just SFT trained on the original zephyr-7b-gemma.
|
15 |
+
DPO part is work in progress. Curating the dataset for it.
|
16 |
+
|
17 |
Example 1 :
|
18 |
|
19 |
Sample Input : ఆరోగ్యంగా ఉండటానికి నాకు మూడు చిట్కాలు ఇవ్వండి
|