File size: 1,090 Bytes
cfc20e5 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
from tokenizers import Tokenizer
tokenizer = Tokenizer.from_file('tokenizer.json')
# Sample Balochi sentences
sentences = [
"تو کہاں گئے؟",
"یہ کنغ پسند کنئے؟",
"ء نشان ء ھم جن انت اے نشان لچھانی تہ ء پہ مردمی نامانی",
"بلی شتگ کور ء اے کسہ ء دمی کارست اتمان ء کسہ ء دمی بهر انت انچو کہ من اول سرا گشتگ ات کہ اے کسہ دو بهر ء انت یکے نبشتہ کار ء وتی کیز ء بندانی سر گوستیں اے بهر ء اولی کسہ پلی مین ء کپتگ ات ء دمی بهر انت",
"ء دسمبرء ماہ انت،چہ چینء چست بوتگیں کوڈ کرونا وائرس ء گوات کشان ایرانء شھر قمء سر بیت کہ چمئے راہء دیم ء گوں بلوچستان ء کنت",
# Add more sentences as needed
]
# Tokenize sentences
for sentence in sentences:
encoded = tokenizer.encode(sentence)
print(f"Original: {sentence}\nEncoded: {encoded.ids}\n")
|